AI-veiligheid blijft achter bij de ontwikkeling: technologiebedrijven hebben geen geloofwaardige controleplannen

10

Een nieuw rapport waarschuwt dat de grootste bedrijven ter wereld op het gebied van kunstmatige intelligentie (AI) er niet in slagen om zelfs maar aan hun eigen veiligheidsnormen te voldoen. This lack of oversight comes as the race toward artificial general intelligence (AGI) and superintelligence — AI exceeding human intellect — accelerates, raising the potential for “catastrophic” misuse or loss of control.

### Risico’s overtreffen de regelgeving

The 2025 Winter AI Safety Index, released by the Future of Life Institute (FLI), evaluated eight major AI firms: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud, and Z.ai. Uit de beoordeling bleek dat geen enkel bedrijf een verifieerbaar plan heeft om menselijke controle te behouden over steeds krachtigere AI-systemen.

Independent experts emphasize the urgency: companies claim they can build superhuman AI, yet none can demonstrate how to prevent loss of control. Zoals een computerwetenschapper van UC Berkeley het uitdrukte: AI-bedrijven kunnen momenteel geen risiconiveau garanderen dat vergelijkbaar is met de nucleaire veiligheidsnormen. Volgens sommige schattingen kan het risico van oncontroleerbare AI oplopen tot één op drie, een cijfer dat volgens industriebenchmarks onaanvaardbaar wordt geacht.

Deze ongelijkheid tussen mogelijkheden en controle is van cruciaal belang omdat AI zich in een ongekend tempo ontwikkelt. Wat ooit als tientallen jaren werd beschouwd – superintelligentie – wordt nu door sommigen geschat op binnen enkele jaren. Ondertussen blijft de AI-regulering zwak. In de VS is AI minder gereguleerd dan sandwiches, waarbij technologiebedrijven actief lobbyen tegen bindende veiligheidsnormen.

Gemengde prestaties onder bedrijven

The FLI report assessed companies across risk assessment, current harms, safety frameworks, existential safety, governance, accountability, and information sharing.

  • Anthropic, OpenAI en Google DeepMind werden geprezen voor hun transparantie- en veiligheidsonderzoek, maar vertonen nog steeds zwakke punten. De verschuiving van Anthropic naar training van gebruikersinteractie roept zorgen over de privacy op. OpenAI wordt onder de loep genomen vanwege het lobbyen tegen wetgeving en het ontbreken van onafhankelijk toezicht. De afhankelijkheid van Google DeepMind van betaalde externe beoordelaars brengt de objectiviteit in gevaar.
  • xAI publiceerde zijn eerste veiligheidsraamwerk, hoewel reviewers dit beperkt vonden.
  • Z.ai staat ongecensureerde externe evaluaties toe, maar ontbeert volledige transparantie in de bestuursstructuur.
  • Meta introduceerde op uitkomsten gebaseerde veiligheidsdrempels, maar vereist duidelijkere methodologieën.
  • DeepSeek mist basisveiligheidsdocumentatie, ondanks interne belangenbehartiging.
  • Alibaba Cloud draagt ​​bij aan nationale normen, maar moet de robuustheid en betrouwbaarheid van het model verbeteren.

Deze bevindingen benadrukken dat zelfs toonaangevende bedrijven moeite hebben om alomvattende veiligheidsmaatregelen te implementeren. Recente schandalen over psychologische schade, cyberaanvallen en zelfs door AI ondersteunde zelfmoorden tonen de reële gevolgen van deze hiaten aan.

Brede oppositie tegen ongecontroleerde AGI

De toenemende risico’s hebben tot ongekende terugslag geleid. In October, thousands of public figures across the political spectrum — including former Trump strategist Steve Bannon, ex-National Security Advisor Susan Rice, and religious leaders — signed a petition urging AI firms to slow down their pursuit of superintelligence.

The unusual coalition underscores the broad concern that uncontrolled AI could eliminate jobs, exacerbate economic inequality, and ultimately undermine human autonomy. Zoals een deskundige opmerkte: ‘Superintelligentie zou ervoor zorgen dat iedere arbeider niet in zijn levensonderhoud kan voorzien.’ This convergence of fear from left-wing labor movements and right-wing populist forces suggests that the issue transcends traditional ideological divides.

The current trajectory of AI development poses significant risks, and without substantial improvements in safety frameworks and regulation, the potential for catastrophic outcomes remains dangerously high.