Estrattivismo dei dati
Puntata 18 di EM, quinta del ciclo di Estrattivismo dei dati. Parliamo ancora di Intelligenza Artificiale e lavoro. Presentiamo il libro "Nell'occhio dell'algoritmo. Una storia sociale dell'intelligenza artificiale", di Matteo Pasquinelli, nel quale l'Intelligenza Artificiale viene descritta come un insieme di tecnologie che emergono dal tentativo di accaparrare l'intelligenza sociale insita nelle relazioni umane.
L’autore attribuisce all'IA una radice storica profondamente estrattivista e colonialista, collegando lo sviluppo delle attuali IA alle automatizzazioni del lavoro risalenti all'epoca industriale del diciannovesimo secolo. Lo fa raccontando i tentativi di Charles Babbage (1791 - 1871), considerato il padre dei computer moderni, di quantificare e automatizzare il lavoro cognitivo umano attraverso i suoi esperimenti. La macchina analitica di Babbage (in inglese analytical engine) è stato il primo prototipo di un computer interamente meccanico.
All’epoca di Babbage, l'automazione del lavoro cognitivo umano mirava a velocizzare e perfezionare i calcoli manuali essenziali per produrre le tavole logaritmiche, fondamentali nel calcolo delle rotte navali utilizzate dalle navi mercantili dell'impero britannico.
Charles Babbage, collaborando con Ada Lovelace (figlia di Lord Byron e prima programmatrice della storia), puntava a meccanizzare l'elaborazione dei dati utilizzando macchine calcolatrici azionate a vapore, con l'obiettivo iniziale di monitorare le prestazioni dei lavoratori per poi rimpiazzarli con macchine.
La macchina analitica e ChatGPT condividono lo stesso antenato concettuale e perseguono lo stesso scopo: automatizzare ciò che Marx nei Grundrisse denominava "General intellect", ovvero l'intelligenza collettiva, che in seguito ne "Il Capitale" avrebbe identificato come "lavoratore collettivo", una fusione di competenza tecnologica e intelligenza collettiva o sapere sociale generale, emergente dalle relazioni tra i lavoratori.