di Giuliano Laccetti

Riassunto

Il saggio analizza l’impatto dell’intelligenza artificiale (IA) sul lavoro, sulla conoscenza scientifica e sui rapporti di potere, delineando una prospettiva politico-tecnologica fondata sulla democrazia digitale e sulla giustizia sociale. L’IA non è solo un’innovazione tecnica, ma un dispositivo che ridisegna le strutture produttive, la distribuzione della ricchezza e le forme di controllo. Intrecciando aspetti scientifici e tecnologici (machine learning, deep learning, High Performance Computing) con riflessioni filosofiche e sociologiche, il saggio sostiene la necessità di una politica progressista capace di orientare l’innovazione verso finalità pubbliche e umane. Al centro della proposta vi è una nuova idea di lavoro come bene comune cognitivo, che richiede infrastrutture pubbliche di calcolo, diritti di partecipazione algoritmica e redistribuzione delle rendite da automazione.

Parole chiave: intelligenza artificiale; lavoro; democrazia tecnologica; beni comuni digitali; giustizia sociale

Introduzione

L’intelligenza artificiale (IA) non è solo una frontiera tecnologica: è un fattore strutturale di trasformazione che ridefinisce capacità produttive, relazioni di potere, processi decisionali e i confini stessi della conoscenza scientifica. Ma soprattutto, è un fenomeno che sta cambiando il mondo del lavoro, la distribuzione della ricchezza e il modo in cui società e istituzioni si rapportano alla conoscenza.

Una politica di sinistra, democratica e progressista non può limitarsi a un atteggiamento difensivo o tecnofobico. Deve invece governare la transizione digitale, guidarla in nome dell’interesse collettivo, coniugando innovazione e giustizia sociale, scienza e diritti. Governare l’IA significa decidere a chi appartengono i frutti del progresso, chi ne controlla le infrastrutture e chi ne beneficia.

Questo saggio tecnico-politico connette gli aspetti scientifici (machine learning, deep learning), la necessità dell’High Performance Computing (HPC) per la ricerca di qualità, le implicazioni filosofiche e sociologiche dell’IA, e propone una visione politica fondata sulla democrazia tecnologica: la capacità collettiva di orientare l’innovazione verso finalità pubbliche e umane.

IA, machine learning, deep learning e ruolo dell’HPC

I sistemi di machine learning (ML) apprendono funzioni e rappresentazioni a partire da dati, mentre il deep learning (DL) utilizza reti neurali profonde per apprendere gerarchie di rappresentazioni attraverso ottimizzazioni su spazi parametrici enormi. Tecniche come la discesa del gradiente stocastico, la regolarizzazione e il transfer learning permettono performance elevate in riconoscimento di immagini, linguaggio naturale e predizioni complesse. Tuttavia, queste performance restano misure statistiche di accuratezza su dati osservati e non garantiscono spiegazioni causali né robustezza fuori distribuzione (Dipartimento per la trasformazione digitale, 2024; Floridi, 2014).

Qui entra in gioco l’HPC, infrastruttura critica in due sensi complementari. Da un lato, abilita la ricerca di frontiera: addestramento su larga scala, ottimizzazione di modelli e simulazioni ad alta precisione. Dall’altro, costituisce il fondamento della precisione numerica e della verificabilità scientifica, elementi indispensabili per la sicurezza industriale e ambientale.

L’allarme lanciato dalla comunità HPC, da figure come Jack Dongarra, è chiaro: sacrificare la precisione in nome dell’efficienza rischia di produrre errori sistematici che compromettono tanto la ricerca quanto la sicurezza delle infrastrutture (Dongarra, 2025; Laccetti, 2025).

Per applicazioni critiche — energia, sanità, trasporti, ambiente — è dunque necessario progettare pipeline ibride che integrino ML/DL con vincoli fisici e procedure di uncertaintyquantification su piattaforme HPC pubbliche, accompagnate da audit indipendenti, trasparenza dei modelli e tracciabilità delle decisioni algoritmiche. L’IA non può essere delegata alla logica del mercato o delle big tech: la sua affidabilità dipende da una infrastruttura scientifica pubblica e da una cultura della responsabilità.

Filosofia dell’IA: conoscenza, spiegabilità e responsabilità

L’IA solleva interrogativi epistemologici profondi. Una rete che produce risultati accurati ma non interpretabili mette in crisi il concetto stesso di conoscenza: la performance statistica non equivale a comprensione causale. Affidarsi a modelli opachi significa spostare il criterio di verità dall’argomentazione alla probabilità, e quindi dalla deliberazione pubblica all’automatismo tecnico.

Ciò implica un rischio politico: chi controlla gli algoritmi controlla la definizione del reale. L’idea di “spiegabilità” (explainability) non è solo un requisito tecnico ma un valore democratico. Senza trasparenza e diritto al riesame umano, l’automazione decisionale mina la responsabilità e la giustizia. La filosofia dell’IA è dunque anche una filosofia del potere: chi decide, con quali dati e secondo quali obiettivi?

Eticamente, la delega a sistemi ottimizzanti richiede di esplicitare i valori incorporati nelle funzioni obiettivo e di definire regole di imputabilità per danni e discriminazioni. Il diritto al riesame umano, la tutela dalla profilazione algoritmica e la non discriminazione devono essere principi costituzionali della società digitale (Floridi, 2014; Lucarelli, 2013).

Lavoro, disuguaglianze e potere dei dati

L’IA è un acceleratore di trasformazioni del lavoro. Non elimina semplicemente mansioni: trasforma intere catene del valore e ridefinisce chi detiene il controllo sui mezzi di produzione cognitiva.

Gli algoritmi, lungi dall’essere neutri, incorporano criteri di valutazione e selezione che si traducono in effetti materiali — esclusione dal credito, profilazione sanitaria iniqua, discriminazioni nell’accesso all’occupazione (Casilli, 2020).

Il rischio maggiore non è la disoccupazione di massa, ma la polarizzazione: lavori ad alta qualificazione e remunerazione da un lato, e mansioni precarie, frammentate e sottopagate dall’altro. La promessa di “liberare tempo” si rovescia in un aumento di controllo, sorveglianza e intensificazione del ritmo produttivo, con la dataficazione del lavoro umano.

Come osserva Sennett (1999), la “flessibilità” promossa dal nuovo capitalismo non è sinonimo di libertà, ma di instabilità: erode la continuità delle relazioni e trasforma l’adattabilità in sottomissione. L’IA rischia di consolidare questa logica, creando lavoratori sempre più esposti, isolati, incapaci di incidere collettivamente sulle decisioni che li riguardano.

Inoltre, il controllo concentrato di dati e potenza computazionale conferisce a pochi attori — le grandi piattaforme digitali e i fornitori di infrastrutture cloud — un potere strategico sulle direzioni della ricerca e sull’economia. Ne derivano nuovi squilibri geopolitici e forme di “colonialismo dei dati”, dove intere regioni dipendono da centri di calcolo e risorse cognitive esterne.

Contrastare questi processi significa democratizzare l’accesso ai dati e alla potenza computazionale, garantendo che i sistemi algoritmici siano soggetti a valutazioni di impatto socio-tecnologico e a procedure di revisione partecipata. Il diritto del lavoro deve estendersi alle piattaforme digitali, riconoscendo nuove forme di subordinazione e tutelando la continuità di reddito e di formazione (Casilli, 2020).

In questo scenario, la recente elezione di papa Leone XIV offre una metafora potente. Per la scelta del nome, Leone, il pensiero corre a Leone XIII, il papa del lavoro, autore della Rerum Novarum (1891), che per primo affrontò le ingiustizie del capitalismo industriale rivendicando la dignità del lavoro e il diritto all’organizzazione sindacale.

Così come la Rerum Novarum difese il lavoro contro l’alienazione industriale, oggi anche la Chiesa può difendere la creatività, la libertà e la dignità umana contro il rischio di quella che potremmo chiamare “deresponsabilizzazione algoritmica”. Un rischio sottile, ma reale: quello, cioè, di affidare alle macchine non solo compiti esecutivi, ma anche scelte morali, giudizi sociali, criteri di priorità, sottraendo all’essere umano il ruolo di soggetto pensante e responsabile. Potrebbe servire allora una “Rerum Novarumdigitalium” – perdonatel’arditezza del neologismo – che riaffermi che il lavoro non è soltanto un mezzo per guadagnarsi da vivere, ma una via per partecipare alla costruzione della società, per esprimere la propria creatività, per coltivare relazioni, per contribuire al bene comune. Una riflessione che sappia dire con forza che l’uomo non è sostituibile da un algoritmo, non perché è più efficiente, ma perché è insostituibile in quanto persona: unica, irripetibile, dotata di coscienza, di volontà, di etica.

Politica progressista per l’IA: lavoro e infrastrutture come beni comuni

Una politica progressista per l’IA deve costruire una narrazione pubblica che restituisca centralità al lavoro e alla dignità umana. L’innovazione non è neutra: distribuisce vantaggi, rischi e potere. Per questo, la sinistra deve proporre un progetto di redistribuzione cognitiva e produttiva, in cui il sapere e le infrastrutture diventino beni comuni (Lucarelli, 2013).

Investire in HPC non è un lusso tecnico: è preservare la capacità collettiva di fare scienza solida, di misurare le incertezze e di mantenere il controllo democratico sulle decisioni algoritmiche. Le risorse di calcolo e i dataset strategici devono essere accessibili a università, enti locali e PMI, evitando la concentrazione monopolistica.

Parallelamente, serve una politica industriale pro-lavoro che orienti l’innovazione verso l’“augmentation” delle capacità umane. Ciò significa formazione permanente finanziata pubblicamente, crediti formativi per lavoratori in transizione, un reddito di transizione che accompagni la riconversione professionale (Casilli, 2020) e incentivi per le imprese che condividono la produttività con i lavoratori.

La governance tecnologica deve essere partecipativa e territoriale: diritto al riesame umano, registri pubblici dei modelli nella PA, tavoli locali che coinvolgano sindacati, università, enti di ricerca e società civile. La partecipazione effettiva dei lavoratori nelle scelte sull’automazione — attraverso co-determinazione, contrattazione collettiva digitale e diritti di informazione algoritmica — è condizione per una transizione equa e sostenibile (Lucarelli, 2013; Sennett, 1999).

Infine, la dimensione etico-comunicativa è decisiva: la politica deve chiarire quali applicazioni saranno limitate o vietate — sorveglianza di massa, scoring sociale, armi autonome letali — e come le rendite da automazione saranno tassate per finanziare sanità, istruzione e welfare digitale.

Politiche operative e strumenti istituzionali

Per tradurre i principi in prassi occorrono: a) un programma nazionale IA–HPC pubblico, aperto alla ricerca indipendente; b) centri di audit numerico e sociale che verifichino approssimazioni e bias; c) obbligo di valutazione d’impatto occupazionale per le grandi adozioni di automazione; d) fondi per reddito di transizione e riqualificazione professionale; e) registri pubblici dei modelli utilizzati nella pubblica amministrazione; f) incentivi per imprese che adottino soluzioni di augmentation; g) una strategia internazionale per l’accesso equo a HPC e dataset climatici, sanitari e ambientali (Dipartimento per la trasformazione digitale, 2024; Dongarra, 2025).

Queste misure non sono tecnicismi autoreferenziali ma parti di un progetto politico collettivo: garantire che la rivoluzione algoritmica sia al servizio del lavoro, della scienza e della democrazia, non di pochi conglomerati privati.

Conclusione

L’IA è una straordinaria opportunità di progresso scientifico e sociale, ma solo se incastonata in una politica che riconosca il valore del lavoro come argine alla disuguaglianza e la precisione scientifica come bene comune.

La sinistra democratica e progressista deve combinare infrastrutture pubbliche, regole vincolanti, diritti dei lavoratori e processi partecipativi. Solo così la potenza computazionale e quella del lavoro potranno convivere in un modello di democrazia tecnologica, dove l’innovazione è al servizio della verità, della giustizia e della dignità delle persone.

Riferimenti bibliografici

Casilli, A. A. (2020). Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo?Milano: Feltrinelli.

Dipartimento per la trasformazione digitale. (2024). “Strategia italiana per l’intelligenza artificiale 2024–2026”.   https://www.agid.gov.it/sites/agid/files/2024-07/Strategia_italiana_per_l_Intelligenza_artificiale_2024-2026.pdf (consultato l’8/10/2025).

Dongarra, J. (2025, 14 maggio). “Challenges to high-performance computing threaten US innovation”. The Conversation.https://theconversation.com/challenges-to-high-performance-computing-threaten-us-innovation-255188(consultato l’8/10/2025).

Floridi, L. (2014). La quarta rivoluzione. Come l’infosfera sta trasformando il mondo. Milano: Il Mulino.

Laccetti, G. (2025). “Napoli nodo strategico del supercalcolo negli atenei italiani”, in La Repubblica – Napoli (21 maggio 2025). https://napoli.repubblica.it/commenti/2025/05/21/news/napoli_nodo_strategico_del_supercalcolo_negli_atenei_italiani-424537007/(consultato l’8/10/2025).

Lucarelli, A. (2013). La democrazia dei beni comuni. Roma-Bari: Laterza.

Sennett, R. (1999). L’uomo flessibile. Le conseguenze del nuovo capitalismo sulla vita personale. Milano: Feltrinelli.

Condividi: