Nuova stagione di Emtropia Massima, prima puntata collettiva, presentiamo i 4 cicli di quest'anno, Emergenza Zero, Libera Scienza in Libero Stato, Antropologica, Estrattivismo dei dati.
La prima parte della trasmissione è dedicata al secondo tentativo di Microsoft di lanciare un sistema di ricerca all'interno di Windows basato su intelligenza artificiale. Se il primo tentativo era stato un disastro di sicurezza, cosa possiamo dire del secondo? Indubbiamente il nuovo design sembra più solido; ma come leggere complessivamente questo progetto di accumulazione di grossi dataset in locale e di spostamento del carico computazionale sull'hardware utente?
La seconda parte della trasmissione è invece legata ad NSO e alle cause che ha con Apple e Whatsapp (avete letto bene). Benché per entrambe le aziende è chiaro che si tratti di processi il cui fine ultimo è il miglioramento della propria reputazione, rileviamo come entrambi i processi siano molto appesantiti dall'ostruzionismo e dalla copertura di Israele.
Nella prima parte della puntata analizziamo gli aspetti tecnici dell'attacco terroristico israeliano che ha utilizzato i cercapersone (e non solo) come bombe diffuse nella società. Cosa sono i cercapersone, in quali casi sono usati, come è avvenuto l'attacco...
Nella seconda parte parliamo di industrie dei microprocessori. Ancora una volta si parla di una acquisizione tra Qualcomm e Intel. Non è detto che avvenga, ma sicuramente è tra le possibilità concrete, anche per reagire ad uno strapotere di Nvidia. Infatti Nvidia ha un ruolo di primo piano nell'industria delle GPU, industria di fondamentale importanza nello sviluppo della cosiddetta Intelligenza Artificiale. Le sue azioni sono salite di botto, cosa che ha portato alcuni giornali a titolare articoli che ci dicono che ora la Nvidia ha problemi di prepensionamento: i suoi dipendenti hanno ricevuto azioni, quindi ora sono ricchi, quindi non vogliono più lavorare. Una spiegazione non del tutto convincente, visto che le aziende, soprattutto nel settore tecnologiche, pagano in azioni (o simili prodotti) proprio per ancorare chi lavora all'azienda.
Nella puntata di oggi parliamo delle IA e del loro impatto ecologico molto alto. Per giustificarne l'impatto sociale, le aziende che su di esse puntano parlano di miglioramenti imminenti proprio grazie alla IA. Sarà vero?
Passiamo poi a vedere tre interessanti casi di rapporto tra il nuovo protezionismo da guerra fredda: USA vs TikTok; USA vs Kaspersky; UK vs Microsoft.
Concludiamo con aggiornamenti sul piracy shield e con il progetto Ghostbuster, con cui Facebook, appoggiandosi ad aziende provenienti dal settore tecnologico israeliano, spiava i suoi utenti al fine di fare spionaggio industriale contro Snapchat.
Puntata 26 di EM, ottava del ciclo Estrattivisimo dei dati, parliamo di Intelligenza Artificiale e scuola e poi di digitalizzazione della guerra e militarizzazione del digitale. Lo stato del Nevada, utilizza l’intelligenza artificiale per determinare i finanziamenti scolastici con conseguenze drammatiche per il sostegno agli studenti svantaggiati. Inoltre Il nuovo sistema di valutazione del rischio, sviluppato dall'azienda Infinite Campus, utilizza un algoritmo di machine learning per valutare la probabilità che uno studente si diplomi o meno, basandosi su una valutazione di 150 milioni di anni studente di dati sulle prestazioni accademiche, la frequenza, il comportamento, la demografia e le caratteristiche familiari degli studenti. Un'inchiesta giornalistica ha scoperto che il sistema si sbagliava sugli studenti di colore molto più che rispetto ai bianchi. Si ritiene inoltre che l’algoritmo Infinite Campus dia punteggi inferiori alle ragazze rispetto ai ragazzi con dati altrimenti comparabili.
Nella seconda parte parliamo di uso distruttivo dell’intelligenza artificiale nei teatri di guerra e del paradigmatico intreccio di finanziamenti militari e tecnologici in Israele. I sistemi concepiti per fini militari conservano l’impostazione, gli assunti normativi e la logica originari, anche quando vengono proposti in ambiti non militari a benefico dei profitti del grande capitale digitale e trasformano la totalità dei cittadini in persone oggetto di sorveglianza, estendendo all’ambito civile la logica militare dell’intelligence.
Inoltre, un recente rapporto di Greenpeace, ripreso ed integrato in una pubblicazione di Sbilanciamoci! con prefazione di Carlo Rovelli, evidenzia quanto sia problematico l’attuale aumento delle spese per le odierne dotazioni militari tecnologiche e digitali in Europa. Non soltanto in quanto, in termini di sicurezza, un’Europa più militarizzata difficilmente potrebbe risolvere gli attuali conflitti, ma anche perchè la moderna militarizzazione è un “cattivo affare” economico, il cui ritorno d'investimento a beneficio di stati e popoli è assai spesso una perdita e comunque sempre inferiore a quello che si avrebbe investendo in sanità, istruzione, ambiente.
[00:00-18:00] Intelligenza artificiale e finanziamenti all'istruzione: rischi registrati in esperienze USA
[22:50-30:29] La bella esperienza di una scuola italiana con Mastodon, social network federato ed open source alternativo alle offerte delle grandi piattaforme
[30:30-51:04] Digitalizzazione della guerra e militarizzazione del digitale: il virtuoso ciclo di generazione di valore per il grande capitale tecnologico moderno, da Silicon Valley a Ucraina/Gaza e ritorno
[54:18-69:03] Crescita di investimenti EU nel militare tecnologico/digitale: un "cattivo affare" economico per stati e popoli. Chi ce lo racconta dei candidati a Strasburgo per le imminenti elezioni?
Nella puntata di oggi guardiamo una notizia leggermente datata, ovvero l'inchiesta su Lavender, l'AI utilizzata da Israele per uccidere un numero incredibile di palestinesi. Da quella inchiesta, molti giornali hanno dedotto che Meta collaborerebbe in modo attivo a questo sistema, e dunque al genocidio in corso. È vero? Il materiale per i sospetti ci sono tutti, ma prove non ce ne sono ancora.
Del resto, è certo che Meta non solo collabori con il governo israeliano e con gruppi di destra israeliani, ma abbia anche già, con il suo "naturale" funzionamento, contribuito in modo attivo ad altri genocidi, tra cui quello in Myanmar.
Ci spostiamo in Polonia, dove delle inchieste fanno venire alla luce l'uso diffuso di Pegasus - malware di provenienza israeliana - da parte del governo Kaczyński.
Nei civilissimi USA, invece, si diffondono leggi per limitare l'uso dei bagni a quelli del sesso assegnato alla nascita; se ad un po' di transfobia ci aggiungiamo qualche "dimenticanza" tecnica, cosa esce fuori?
Il governo Russo si dà all'open source e sperimenta il fork di progetti di grande successo, ad esempio Wikipedia.
Per la serie "discorsi da Bar" facciamo gli auguri al BASIC, commentiamo l'aumento del biglietto del bus a Roma, e brindiamo all'avversa sorte dei nemici.
Iniziamo la puntata segnalando una interessante ricerca di Citizen Lab riguardo alle tastiere per l'inserimento del Cinese che utilizzano funzionalità "cloud": non solo questo tipo di applicazione ha una invasione della privacy intrinseca, ma difetti software facevano sì che i problemi di sicurezza fossero ancora peggiori di quanto si potesse pensare.
Ci spostiamo poi negli Stati Uniti, seguendo le vicende di TikTok (che non sta facendo molto per salvarsi dalle mire del Congresso) nonché Amazon e Google, che da una parte hanno gli occhi dell'antitrust puntati su di loro, dall'altra non pare proprio ci sia un forte interesse governativo ad ostacolarle. Nel frattempo, Amazon prende appunti di autodifesa digitale e utilizza sistemi per la cancellazione delle prove.
La carrellata di notiziole darà grande spazio alla cosiddetta intelligenza artificiale, in particolare approfondendo l'uso dell'intelligenza artificiale per "scoprire" nuovi materiali (o meglio, per brevettarli) e per dotare l'hardware di nuove funzionalità.
Non manchiamo di festeggiare il rilascio in software libero di una delle versioni più buggate di MS-DOS (la 4.0).
Puntata 24 di EM, settima del ciclo Estrattivismo dei dati, parliamo di ottimizzazione predittiva ed intelligenza artificiale con Daniela Tafani, ricercatrice di Filosofia politica presso l’Università di Pisa, membra della Società italiana per l’etica dell’intelligenza artificiale. Nella prima parte si definiscono i sistemi di ottimizzazione predittiva e si discute degli impatti sociali da questi determinati e dei rischi legati ad un utilizzo acritico e ad ampio spettro di statistica computazionale su larga scala (ad esempio nel campo delle repressione poliziesca). Nella seconda parte prendiamo in considerazione le proprietà politiche di questi sistemi. La terza parte prende in esame questioni giuridiche e normative e discute dei limiti di legislazioni recentemente introdotte (EU AI Act) per regolamentare i moderni sistemi predittivi