Ascolta lo streaming di Radio Onda Rossa !

Intelligenza Artificiale

Estrattivismo dei dati

Data di trasmissione

Puntata 30 di EM, ottava del ciclo Estrattivismo dei dati, parliamo ancora di Intelligenza Artificiale con Stefano Puglia. Potenza di calcolo e disponibilità di immense quantità di dati, questi i due elementi distintivi dei ricenti formidabili sviluppi della ricerca sui Large Language Model, entrambi saldamente nelle mani di pochissimi e potentissimi attori privati, i Big Tech d'oltre atlantico.

Estrattivismo dei dati

Data di trasmissione

Puntata 28 di EM, settima del ciclo Estrattivismo dei dati, presentiamo il libro di Celia Izoard "Cambiate lavoro, per favore - Lettere agli umani che robotizzano il mondo". Intervengono in trasmisione Luigi Lorato e Michela Rossi, che hanno curato la traduzione dal francese per Edizioni Malamente.

Estrattivismo dei dati

Data di trasmissione

Puntata 26 di EM, sesta del ciclo Estrattivismo dei dati, parliamo di Intelligenza Artificiale, ChatGPT, capitalismo della sorveglianza. Dopo i precedenti interventi sul tema di Daniela Tafani (puntata 14) e Giuseppe Attardi (puntata 22), oggi ascoltiamo il punto di vista di Antonio Casilli, sociologo, professore all’università Télécom Paris e ricercatore associato alla École des hautes études en sciences sociales. Autore del libro, "Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo?".

Per cosa si caratterizza oggi il capitalismo delle piattaforme? In che relazione sono tra loro lo sfruttamento dei lavoratori e degli utenti dei servizi? Come viene sfruttata dai Big Tech la deregolamentazione? Quali prospettive per un riconoscimento del lavoro di chi fa funzionare le macchine? Lo chiediamo in questa intervista ad Antonio Casilli.

Estrattivismo dei dati

Data di trasmissione

Puntata 22 di EM, quinta del ciclo Estrattivismo dei dati, parliamo di ChatGPT e di Large Language Model con il Prof. Giuseppe Attardi, ordinario del Dipartimento di Informatica dell'Università di Pisa. Come funzionano gli LLM, cosa è ChatGPT e perché è così popolare, come potrà cambiare il nostro modo di fruire dei contenuti sul web, le conseguenze sul mondo del lavoro e della scuola, come funziona il Deep learning e in particolare il Reinforced learning, su cosa ChatGPT mostra capacità notevoli e quali sono i suoi limiti, i rischi concreti, il problema dell'accentramento del potere in poche aziende, la necessità di un rinnovato protagonismo delle comunità per orientare lo sviluppo di queste tecnologie.

Estrattivismo dei dati

Data di trasmissione

Puntata 14 di EM, quarta del ciclo "Estrattivismo dei dati", parliamo di Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa. Nella prima parte, introduciamo il tema, le distorsioni con cui viene volutamente presentato, definiamo l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.

Nella seconda parte, parliamo di come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA e di come venga in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.

Nella terza parte, parliamo dei rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui,  perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.

Scienza Artificiale

Data di trasmissione
Durata 2h 2m 56s
Durata 1h 10m 19s
Durata 48m 22s

Nella puntata di oggi parliamo di scienza e intelligenza artificale. Infatti, Meta ha rilasciato da poco (e subito ritirato) Galactica, un'intelligenza artificiale che analizza e produce review scientifiche in maniera automatica. Parliamo quindi delle motivazioni dietro questo strumento, dei problemi che Meta ha creato, e dei problemi che invece sono strutturali e complessi da affrontare in ogni caso.

Andiamo poi avanti con le notiziole: dal "rinnovo" di Twitter, alle politiche antisindacali della Apple, al tracciamento contro la volontà degli utenti sempre da parte di Apple, ad alcune notizie sulla sorveglianza biometrica.

Non si parli di Intelligenza dell'IA

Data di trasmissione

Ultima puntata della stagione per le dita nella presa! (forse).

Iniziamo col parlare di intelligenza artificiale, partendo dalla notizia del licenziamento di Blake Lemoine, dipendente di Google che aveva dichiarato che un chatbot basato su IA poteva essere considerato senziente. Evidentemente, Google non apprezza affermazioni esagerate sulle IA che sviluppa e preferisce avere un profilo più basso. Come spiegare, altrimenti, la collaborazione tra Google e il governo israeliano in tema di sorveglianza basata su intelligenza artificiale?

Diamo anche alcune altre notizie - di serietà variabile - riguardanti gli sviluppi dell'intelligenza artificiale.

Parliamo anche di sorveglianza "stupida": niente IA, ma tanto cloud, dall'uso della domotica al prelevamento del DNA alla nascita, tutto fa brodo.

Concludiamo con le notiziole: ancora problemi per Google dal GDPR; i giudici americani fanno ricerche come gli studenti delle superiori (su wikipedia); il trenino "Termini-Centocelle", grazie ai lavori di ammodernamento, viaggerà su un futuristico binario unico per 1,5km; ma soprattutto, pare che stavolta il copyright per Topolino scada sul serio!

Facebook: Da censore ad editore il passo è breve

Data di trasmissione
 
Iniziamo con le notizie serie: una tazza speciale che analizza tutto sulla vostra cacca. Sembra una stupidaggine, ma non è affatto il primo sistema di monitoraggio della salute. Si tratta di sistemi piuttosto invasivi, la cui utilità è discutibile ma il marketing è forte.
 
Parliamo poi di WhatsApp. Un'inchiesta di ProPublica mostra che l'azienda era in grado di leggere almeno una parte dei messaggi che i suoi utenti scambiavano, cosa che era stata esplicitamente negata dai suoi vertici. Con la scusa del controllo degli abusi - finalizzata a bloccare utenti che hanno comportamenti giudicati inadeguati - non solo i moderatori possono leggere i messaggi che vengono segnalati e quelli ad essi collegati, ma la app stessa analizza i messaggi che gli utenti inviano alla ricerca di possibili violazioni, e si autodenuncia in tale caso.
 
Proseguiamo con Facebook - che invece si è sempre saputo che modera i contenuti - che secondo l'alta corte australiana è responsabile per i commenti calunniosi al suo interno, quando questi non si possono configurare come una conversazione con l'autore del post.
 
Notiziole:
  • le grandi aziende del cloud fanno un manifesto d'intenti che dovrebbe rassicurarci... nel difendere i loro interessi
  • la politica di non tenere log sui server - strumento semplice ed efficace per evitare delazioni inutili - è attaccata: alcuni produttori televisivi sostengono che questa non sia valida quando viene implementata con l'esplicito proposito di facilitare la pirateria.
  • viceversa scaricare musica e video da piattaforme video potrebbe essere legale secondo la legge francese; peccato che i dettagli siano un po' confusi.
  • la California emana una legge che per la prima volta cerca di mettere ordine nel mondo dei lavori gestiti da algoritmi, chiarendo che questi ultimi non possono non essere noti ai lavoratori o al governo; e che non devono adottare metriche che penalizzino l'esercizio dei normali diritti dei lavoratori (vedi notizia di apertura!)