Le projet de loi sur la sécurité de l’IA affaibli après un effort de lobbying technologique et universitaire

3

Le projet de loi historique de New York sur la sécurité de l’intelligence artificielle (IA), initialement destiné à tenir les entreprises technologiques responsables des risques liés à l’IA à grande échelle, a été considérablement affaibli avant d’être promulgué par la gouverneure Kathy Hochul. Une coalition de géants de la technologie et d’institutions universitaires de premier plan a dépensé entre 17 000 et 25 000 dollars pour une campagne publicitaire s’opposant au projet de loi, touchant plus de deux millions de personnes sur les plateformes de Meta. La version finale de la loi, connue sous le nom de RAISE Act, favorise désormais les entreprises technologiques en réduisant les exigences de transparence et en réduisant les sanctions en cas de violation de la sécurité.

La volonté de neutraliser le projet de loi

La loi RAISE exigeait à l’origine que les développeurs d’IA, notamment OpenAI, Anthropic, Meta et Google, soumettent des plans de sécurité et signalent les incidents majeurs au procureur général. Le projet initial comprenait des critères stricts pour empêcher la diffusion de modèles d’IA susceptibles de causer des dommages massifs, tels que ceux permettant la création d’armes de destruction massive. Cependant, ces clauses ont été supprimées dans la version finale signée par le gouverneur Hochul.

L’AI Alliance, un groupe composé de Meta, IBM, Intel, Oracle, Uber et de plus de 150 universités (dont NYU, Cornell, Dartmouth et Carnegie Mellon), a mené les efforts visant à affaiblir la législation. L’alliance a fait valoir que la loi RAISE « étoufferait la croissance de l’emploi » et entraverait l’innovation dans le secteur technologique de New York.

Le rôle des universités dans l’opposition

De nombreuses universités impliquées dans l’AI Alliance ont des partenariats directs ou indirects avec des entreprises d’IA. La Northeastern University, par exemple, offre à ses étudiants et à ses professeurs l’accès au modèle Claude AI d’Anthropic. OpenAI a financé des initiatives à NYU, tandis que Dartmouth et Carnegie Mellon entretiennent des collaborations actives avec Anthropic. Malgré ces liens, la plupart des institutions n’ont pas répondu lorsqu’on leur a demandé si elles étaient conscientes de leur implication dans la campagne anti-facture publicitaire.

Une opposition plus large à la réglementation de l’IA

L’AI Alliance n’est pas la seule organisation à s’opposer à une réglementation plus stricte en matière d’IA. Leading the Future, un super PAC pro-IA soutenu par Perplexity AI, Andreessen Horowitz et les dirigeants d’OpenAI, a également dépensé de l’argent en publicités ciblant les principaux législateurs. L’alliance se présente comme un effort de collaboration axé sur « la sécurité, l’éthique et le bien commun », alors qu’en pratique elle fait activement pression contre les mesures qui augmenteraient la responsabilité dans le développement de l’IA.

Le résultat de cet effort de lobbying met en évidence la tension croissante entre l’innovation en matière d’IA et la sécurité publique. L’affaiblissement de la loi RAISE démontre à quel point les entreprises technologiques et les établissements universitaires puissants peuvent influencer les politiques visant à minimiser la surveillance réglementaire. Cela soulève des questions cruciales quant à savoir si les mécanismes de surveillance actuels sont suffisants pour faire face aux risques potentiels liés à l’évolution rapide des technologies de l’IA.