La sicurezza dell’intelligenza artificiale è in ritardo rispetto allo sviluppo: le aziende tecnologiche non dispongono di piani di controllo credibili

9

Le principali aziende mondiali di intelligenza artificiale (AI) non riescono a soddisfare nemmeno i propri standard di sicurezza dichiarati, avverte un nuovo rapporto. Questa mancanza di supervisione arriva mentre la corsa verso l’intelligenza generale artificiale (AGI) e la superintelligenza – l’intelligenza artificiale che supera l’intelletto umano – accelera, aumentando il potenziale di uso improprio “catastrofico” o perdita di controllo.

I rischi superano la regolamentazione

Il Winter AI Safety Index 2025, pubblicato dal Future of Life Institute (FLI), ha valutato otto importanti aziende di intelligenza artificiale: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud e Z.ai. Dalla valutazione è emerso che nessuna azienda ha un piano verificabile per mantenere il controllo umano su sistemi di intelligenza artificiale sempre più potenti.

Esperti indipendenti sottolineano l’urgenza: le aziende affermano di poter costruire un’intelligenza artificiale sovrumana, ma nessuna può dimostrare come prevenire la perdita di controllo. Come ha affermato uno scienziato informatico dell’UC Berkeley, le aziende di intelligenza artificiale attualmente non possono garantire un livello di rischio paragonabile agli standard di sicurezza nucleare. Alcune stime collocano il rischio di un’intelligenza artificiale incontrollabile pari a uno su tre, una cifra ritenuta inaccettabile dai parametri di riferimento del settore.

Questa disparità tra capacità e controllo è fondamentale perché l’intelligenza artificiale sta avanzando a un ritmo senza precedenti. Ciò che una volta era considerato lontano decenni – la superintelligenza – è ora stimato da alcuni come qualcosa che avverrà entro pochi anni. Nel frattempo, la regolamentazione dell’IA rimane debole. Negli Stati Uniti, l’intelligenza artificiale è meno regolamentata dei sandwich, con le aziende tecnologiche che esercitano attivamente pressioni contro standard di sicurezza vincolanti.

Performance contrastanti tra le aziende

Il rapporto FLI ha valutato le aziende attraverso la valutazione del rischio, i danni attuali, i quadri di sicurezza, la sicurezza esistenziale, la governance, la responsabilità e la condivisione delle informazioni.

  • Anthropic, OpenAI e Google DeepMind hanno ricevuto elogi per la ricerca sulla trasparenza e sulla sicurezza, ma mostrano ancora punti deboli. Lo spostamento di Anthropic verso la formazione sull’interazione dell’utente solleva preoccupazioni sulla privacy. OpenAI è sotto esame per aver esercitato pressioni contro la legislazione e per mancanza di controllo indipendente. La dipendenza di Google DeepMind da valutatori esterni retribuiti compromette l’obiettività.
  • xAI ha pubblicato il suo primo quadro di riferimento sulla sicurezza, sebbene i revisori lo abbiano trovato limitato.
  • Z.ai consente valutazioni esterne senza censura ma manca di piena trasparenza nella sua struttura di governance.
  • Meta ha introdotto soglie di sicurezza basate sui risultati ma richiede metodologie più chiare.
  • DeepSeek manca la documentazione di sicurezza di base nonostante il sostegno interno.
  • Alibaba Cloud contribuisce agli standard nazionali ma deve migliorare la robustezza e l’affidabilità del modello.

Questi risultati evidenziano che anche le aziende leader faticano a implementare misure di sicurezza globali. I recenti scandali che coinvolgono danni psicologici, attacchi informatici e persino suicidi assistiti dall’intelligenza artificiale dimostrano le conseguenze nel mondo reale di queste lacune.

Ampia opposizione all’AGI incontrollata

I crescenti rischi hanno scatenato una reazione senza precedenti. A ottobre, migliaia di personaggi pubblici di tutto lo spettro politico – tra cui l’ex stratega di Trump Steve Bannon, l’ex consigliere per la sicurezza nazionale Susan Rice e leader religiosi – hanno firmato una petizione che esorta le aziende di intelligenza artificiale a rallentare la loro ricerca della superintelligenza.

L’insolita coalizione sottolinea la diffusa preoccupazione che l’intelligenza artificiale incontrollata possa eliminare posti di lavoro, esacerbare la disuguaglianza economica e, in definitiva, minare l’autonomia umana. Come ha osservato un esperto, “la superintelligenza renderebbe ogni singolo lavoratore incapace di guadagnarsi da vivere”. Questa convergenza di paura da parte dei movimenti operai di sinistra e delle forze populiste di destra suggerisce che la questione trascende le tradizionali divisioni ideologiche.

L’attuale traiettoria dello sviluppo dell’IA comporta rischi significativi e, senza miglioramenti sostanziali nei quadri di sicurezza e nella regolamentazione, il potenziale di esiti catastrofici rimane pericolosamente alto.