AI-veiligheidswet verzwakt na lobbyactiviteiten op het gebied van technologie en universiteiten

8

De baanbrekende veiligheidswet op het gebied van kunstmatige intelligentie (AI) van New York, aanvankelijk bedoeld om technologiebedrijven verantwoordelijk te houden voor grootschalige AI-risico’s, werd aanzienlijk afgezwakt voordat deze door gouverneur Kathy Hochul in de wet werd ondertekend. Een coalitie van technologiegiganten en vooraanstaande academische instellingen heeft naar schatting 17.000 tot 25.000 dollar uitgegeven aan een reclamecampagne tegen het wetsvoorstel, waarmee ruim twee miljoen mensen op de platforms van Meta zijn bereikt. De definitieve versie van de wet, bekend als de RAISE Act, bevoordeelt nu technologiebedrijven door de transparantievereisten te verminderen en de straffen voor veiligheidsovertredingen te verlagen.

De druk om het wetsvoorstel te verwerpen

De RAISE Act verplichtte oorspronkelijk dat AI-ontwikkelaars – waaronder OpenAI, Anthropic, Meta en Google – veiligheidsplannen moesten indienen en grote incidenten moesten melden aan de procureur-generaal. Het oorspronkelijke ontwerp bevatte strikte criteria voor het voorkomen van de introductie van AI-modellen die massale schade zouden kunnen veroorzaken, zoals modellen die de creatie van massavernietigingswapens mogelijk maken. Deze clausules zijn echter verwijderd in de definitieve versie, ondertekend door gouverneur Hochul.

De AI Alliance, een groep bestaande uit Meta, IBM, Intel, Oracle, Uber en meer dan 150 universiteiten (waaronder NYU, Cornell, Dartmouth en Carnegie Mellon), leidde de poging om de wetgeving te verzwakken. De alliantie voerde aan dat de RAISE Act ‘de banengroei zou verstikken’ en de innovatie in de technologiesector van New York zou belemmeren.

De rol van universiteiten in de oppositie

Veel van de universiteiten die betrokken zijn bij de AI Alliance hebben directe of indirecte partnerschappen met AI-bedrijven. Northeastern University biedt haar studenten en docenten bijvoorbeeld toegang tot het Claude AI-model van Anthropic. OpenAI heeft initiatieven op NYU gefinancierd, terwijl Dartmouth en Carnegie Mellon actieve samenwerkingen hebben met Anthropic. Ondanks deze banden reageerden de meeste instellingen niet op de vraag of zij zich bewust waren van hun betrokkenheid bij de anti-wetsreclamecampagne.

Bredere oppositie tegen AI-regulering

De AI Alliance is niet de enige organisatie die zich verzet tegen strengere AI-regelgeving. Leading the Future, een pro-AI super PAC, ondersteund door Perplexity AI, Andreessen Horowitz en leidinggevenden van OpenAI, gaf ook geld uit aan advertenties die gericht waren op belangrijke wetgevers. De alliantie presenteert zichzelf als een gezamenlijke inspanning gericht op ‘veiligheid, ethiek en het grotere goed’, terwijl ze in de praktijk actief lobbyt tegen maatregelen die de verantwoordelijkheid voor de ontwikkeling van AI zouden vergroten.

De uitkomst van deze lobbyinspanningen benadrukt de groeiende spanning tussen AI-innovatie en openbare veiligheid. De verzwakte RAISE Act laat zien hoe krachtige technologiebedrijven en academische instellingen het beleid kunnen beïnvloeden om toezicht door de toezichthouders tot een minimum te beperken. Dit roept kritische vragen op over de vraag of de huidige toezichtsmechanismen voldoende zijn om de potentiële risico’s van snel voortschrijdende AI-technologieën aan te pakken.