La legge sulla sicurezza dell’intelligenza artificiale si è indebolita dopo lo sforzo di lobbying tecnologico e universitario

15

Lo storico disegno di legge sulla sicurezza dell’intelligenza artificiale (AI) di New York, inizialmente inteso a ritenere le aziende tecnologiche responsabili dei rischi dell’IA su larga scala, è stato significativamente indebolito prima di essere convertito in legge dal governatore Kathy Hochul. Una coalizione di giganti della tecnologia e importanti istituzioni accademiche ha speso dai 17.000 ai 25.000 dollari in una campagna pubblicitaria contraria al disegno di legge, raggiungendo oltre due milioni di persone sulle piattaforme di Meta. La versione finale della legge, nota come RAISE Act, ora favorisce le aziende tecnologiche riducendo i requisiti di trasparenza e diminuendo le sanzioni per le violazioni della sicurezza.

La spinta per sminuire la legge

Il RAISE Act originariamente imponeva che gli sviluppatori di intelligenza artificiale, tra cui OpenAI, Anthropic, Meta e Google, dovessero presentare piani di sicurezza e segnalare incidenti gravi al procuratore generale. La bozza iniziale prevedeva criteri rigorosi per impedire il rilascio di modelli di intelligenza artificiale che potrebbero causare danni di massa, come quelli che consentono la creazione di armi di distruzione di massa. Tuttavia, queste clausole sono state rimosse nella versione finale firmata dal governatore Hochul.

L’AI Alliance, un gruppo composto da Meta, IBM, Intel, Oracle, Uber e oltre 150 università (tra cui New York University, Cornell, Dartmouth e Carnegie Mellon), ha guidato lo sforzo di indebolire la legislazione. L’alleanza ha sostenuto che il RAISE Act “soffocherebbe la crescita dell’occupazione” e ostacolerebbe l’innovazione nel settore tecnologico di New York.

Il ruolo delle università nell’opposizione

Molte delle università coinvolte nell’AI Alliance hanno partnership dirette o indirette con aziende di intelligenza artificiale. La Northeastern University, ad esempio, fornisce ai suoi studenti e docenti l’accesso al modello Claude AI di Anthropic. OpenAI ha finanziato iniziative alla New York University, mentre Dartmouth e Carnegie Mellon hanno collaborazioni attive con Anthropic. Nonostante questi legami, la maggior parte delle istituzioni non ha risposto alla domanda se fossero consapevoli del loro coinvolgimento nella campagna pubblicitaria contro la fattura.

Opposizione più ampia alla regolamentazione dell’IA

L’AI Alliance non è l’unica organizzazione che si oppone a normative più severe sull’IA. Anche Leading the Future, un super PAC pro-AI sostenuto da Perplexity AI, Andreessen Horowitz e dai dirigenti di OpenAI, ha speso soldi in annunci rivolti ai principali legislatori. L’alleanza si presenta come uno sforzo collaborativo incentrato su “sicurezza, etica e bene comune”, mentre in pratica esercita attivamente pressioni contro misure che aumenterebbero la responsabilità per lo sviluppo dell’intelligenza artificiale.

L’esito di questo sforzo di lobby evidenzia la crescente tensione tra l’innovazione dell’intelligenza artificiale e la sicurezza pubblica. L’indebolimento del RAISE Act dimostra come potenti aziende tecnologiche e istituzioni accademiche possano influenzare la politica per ridurre al minimo il controllo normativo. Ciò solleva interrogativi critici sul fatto che gli attuali meccanismi di supervisione siano sufficienti per affrontare i potenziali rischi del rapido progresso delle tecnologie di intelligenza artificiale.