Ascolta lo streaming di Radio Onda Rossa !

chatGPT

Estrattivismo dei dati

Data di trasmissione

Puntata 18 di EM, quinta del ciclo di Estrattivismo dei dati. Parliamo ancora di Intelligenza Artificiale e lavoro. Presentiamo il libro "Nell'occhio dell'algoritmo. Una storia sociale dell'intelligenza artificiale", di Matteo Pasquinelli, nel quale l'Intelligenza Artificiale viene descritta come un insieme di tecnologie che emergono dal tentativo di accaparrare l'intelligenza sociale insita nelle relazioni umane.

L’autore attribuisce all'IA una radice storica profondamente estrattivista e colonialista, collegando lo sviluppo delle attuali IA alle automatizzazioni del lavoro risalenti all'epoca industriale del diciannovesimo secolo. Lo fa raccontando i tentativi di Charles Babbage (1791 - 1871), considerato il padre dei computer moderni, di quantificare e automatizzare il lavoro cognitivo umano attraverso i suoi esperimenti. La macchina analitica di Babbage (in inglese analytical engine) è stato il primo prototipo di un computer interamente meccanico.

All’epoca di Babbage, l'automazione del lavoro cognitivo umano mirava a velocizzare e perfezionare i calcoli manuali essenziali per produrre le tavole logaritmiche, fondamentali nel calcolo delle rotte navali utilizzate dalle navi mercantili dell'impero britannico.

Charles Babbage, collaborando con Ada Lovelace (figlia di Lord Byron e prima programmatrice della storia), puntava a meccanizzare l'elaborazione dei dati utilizzando macchine calcolatrici azionate a vapore, con l'obiettivo iniziale di monitorare le prestazioni dei lavoratori per poi rimpiazzarli con macchine.

La macchina analitica e ChatGPT condividono lo stesso antenato concettuale e perseguono lo stesso scopo: automatizzare ciò che Marx nei Grundrisse denominava "General intellect", ovvero l'intelligenza collettiva, che in seguito ne "Il Capitale" avrebbe identificato come "lavoratore collettivo", una fusione di competenza tecnologica e intelligenza collettiva o sapere sociale generale, emergente dalle relazioni tra i lavoratori.

Estrattivismo dei dati

Data di trasmissione

Puntata 30 di EM, ottava del ciclo Estrattivismo dei dati, parliamo ancora di Intelligenza Artificiale con Stefano Puglia. Potenza di calcolo e disponibilità di immense quantità di dati, questi i due elementi distintivi dei ricenti formidabili sviluppi della ricerca sui Large Language Model, entrambi saldamente nelle mani di pochissimi e potentissimi attori privati, i Big Tech d'oltre atlantico.

Estrattivismo dei dati

Data di trasmissione

Puntata 26 di EM, sesta del ciclo Estrattivismo dei dati, parliamo di Intelligenza Artificiale, ChatGPT, capitalismo della sorveglianza. Dopo i precedenti interventi sul tema di Daniela Tafani (puntata 14) e Giuseppe Attardi (puntata 22), oggi ascoltiamo il punto di vista di Antonio Casilli, sociologo, professore all’università Télécom Paris e ricercatore associato alla École des hautes études en sciences sociales. Autore del libro, "Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo?".

Per cosa si caratterizza oggi il capitalismo delle piattaforme? In che relazione sono tra loro lo sfruttamento dei lavoratori e degli utenti dei servizi? Come viene sfruttata dai Big Tech la deregolamentazione? Quali prospettive per un riconoscimento del lavoro di chi fa funzionare le macchine? Lo chiediamo in questa intervista ad Antonio Casilli.

Estrattivismo dei dati

Data di trasmissione

Puntata 22 di EM, quinta del ciclo Estrattivismo dei dati, parliamo di ChatGPT e di Large Language Model con il Prof. Giuseppe Attardi, ordinario del Dipartimento di Informatica dell'Università di Pisa. Come funzionano gli LLM, cosa è ChatGPT e perché è così popolare, come potrà cambiare il nostro modo di fruire dei contenuti sul web, le conseguenze sul mondo del lavoro e della scuola, come funziona il Deep learning e in particolare il Reinforced learning, su cosa ChatGPT mostra capacità notevoli e quali sono i suoi limiti, i rischi concreti, il problema dell'accentramento del potere in poche aziende, la necessità di un rinnovato protagonismo delle comunità per orientare lo sviluppo di queste tecnologie.

Estrattivismo dei dati

Data di trasmissione

Puntata 14 di EM, quarta del ciclo "Estrattivismo dei dati", parliamo di Intelligenza Artificiale con Daniela Tafani, docente di filosofia politica presso il Dipartimento di Scienze Politiche dell'Università di Pisa. Nella prima parte, introduciamo il tema, le distorsioni con cui viene volutamente presentato, definiamo l'apprendimento automatico e gli ingredienti tecnologici fondamentali: dati, potenza di calcolo e algoritmi.

Nella seconda parte, parliamo di come vengano occultati i costi ambientali, estrattivistici ed energetici dei sistemi di IA e di come venga in realtà sfruttato massicciamente il lavoro umano, sottopagato e delocalizzato.

Nella terza parte, parliamo dei rischi delle decisioni automatizzate prese attraverso i sistemi di Intelligenza Artificiale, con la convinzione che siano capaci di prevedere il comportamento di singoli individui,  perché si parla di bolla giuridica e perché si propone l’illegalità di default dei sistemi di IA.