Ascolta lo streaming di Radio Onda Rossa !

Estrattivismo dei dati

Data di trasmissione

Puntata 15 di EM, quarta del ciclo Estrattivismo dei dati, parliamo di Deepseek, modello di intelligenza artificiale generativa cinese. Ripercorriamo quello che si è detto dopo il suo dirompente ingresso recente nella competizione mondiale dei Large Language Model. Si tratta davvero di un'alternativa economicamente ed ambientalmente sostenibile, tanto da far sperare in un rallentamento del dispiego di potenza computazionale e degli investimenti folli nel campo? Quel che è certo è che si è dato avvio ad un dibattito a cui prendiamo parte con la puntata di oggi.

Attraverso ottimizzazioni ingegneristiche di rilievo rispetto alle controparti americane, i modelli DeepSeek forniscono indubbiamente un contributo rilevante al processo di ricerca scientifica nel settore in grande evoluzione. Inoltre essi sono stati rilasciati ben descritti e sotto licenze che consentono a chiunque di scaricarli ed utilizzarli liberamente, sia in modo diretto che attraverso personalizzazioni (es. "fine tuning", "retrieval-augmented generation"). Tuttavia, sebbene i parametri (o pesi) dei modelli siano pubblici, DeepSeek non ha reso disponibili il codice sorgente completo o i dati di addestramento originali. Questo approccio, noto come "open weight", offre una trasparenza maggiore rispetto ad altri modelli proprietari, ma non soddisfa la definizione di open source secondo l'Open Source Initiative (OSI).

In effetti, i cinesi di DeepSeek non hanno realmente cambiato la traiettoria tracciata dai grandi hyperscaler statunitensi, e dunque proseguono su un percorso che appare insostenibile sia per l'ambiente che per la società umana. L'attuale modello di sviluppo dell'intelligenza artificiale statistica si traduce sempre in una crescita esponenziale della domanda computazionale, con un impatto energetico massiccio sulla natura e un'aggressione continua alle esistenze degli individui per estrarre dati. Stiamo attualmente costruendo un futuro in cui potenza di calcolo e dati continuano a dover crescere in modo folle, ma a quale prezzo? Mentre risorse cospicue vengono drenate per addestrare modelli sempre più grandi alla ricerca della cosiddetta intelligenza artificiale generale (realtà o chimera?), il mondo affronta bisogni primari irrisolti. Stiamo davvero avanzando o ci stiamo solo avvitando in un delirio tecnologico senza visione?