Die weltweit führenden Unternehmen im Bereich der künstlichen Intelligenz (KI) erfüllen nicht einmal ihre eigenen erklärten Sicherheitsstandards, warnt ein neuer Bericht. Dieser Mangel an Kontrolle entsteht, wenn sich der Wettlauf um künstliche allgemeine Intelligenz (AGI) und Superintelligenz – KI, die den menschlichen Intellekt übertrifft – beschleunigt und das Potenzial für „katastrophalen“ Missbrauch oder Kontrollverlust erhöht.
Risiken übertreffen die Regulierung
Der vom Future of Life Institute (FLI) veröffentlichte Winter AI Safety Index 2025 bewertete acht große KI-Unternehmen: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud und Z.ai. Die Bewertung ergab, dass kein Unternehmen einen überprüfbaren Plan hat, die menschliche Kontrolle über immer leistungsfähigere KI-Systeme zu behalten.
Unabhängige Experten betonen die Dringlichkeit: Unternehmen behaupten, sie könnten übermenschliche KI bauen, doch keiner kann zeigen, wie sich ein Kontrollverlust verhindern lässt. Wie ein Informatiker an der UC Berkeley es ausdrückte, können KI-Firmen derzeit kein Risikoniveau garantieren, das mit nuklearen Sicherheitsstandards vergleichbar ist. Einige Schätzungen gehen davon aus, dass das Risiko einer unkontrollierbaren KI bei einem von drei liegt, eine Zahl, die von Branchenmaßstäben als inakzeptabel erachtet wird.
Dieses Missverhältnis zwischen Fähigkeit und Kontrolle ist von entscheidender Bedeutung, da die KI in einem beispiellosen Tempo voranschreitet. Was einst als Jahrzehnte entfernt galt – Superintelligenz – wird heute von manchen als in wenigen Jahren erwartet eingeschätzt. Unterdessen bleibt die KI-Regulierung schwach. In den USA ist KI weniger reguliert als Sandwiches, und Technologiefirmen setzen sich aktiv gegen verbindliche Sicherheitsstandards ein.
Gemischte Leistung bei den Unternehmen
Der FLI-Bericht bewertete Unternehmen in den Bereichen Risikobewertung, aktuelle Schäden, Sicherheitsrahmen, existenzielle Sicherheit, Governance, Rechenschaftspflicht und Informationsaustausch.
- Anthropic, OpenAI und Google DeepMind erhielten Lob für Transparenz und Sicherheitsforschung, weisen aber immer noch Schwächen auf. Die Verlagerung von Anthropic hin zu Schulungen zur Benutzerinteraktion wirft Bedenken hinsichtlich des Datenschutzes auf. OpenAI wird wegen Lobbyarbeit gegen die Gesetzgebung und mangelnder unabhängiger Aufsicht unter die Lupe genommen. Die Abhängigkeit von Google DeepMind von bezahlten externen Gutachtern beeinträchtigt die Objektivität.
- xAI veröffentlichte sein erstes Sicherheits-Framework, obwohl die Gutachter es als begrenzt empfanden.
- Z.ai erlaubt unzensierte externe Bewertungen, es mangelt jedoch an vollständiger Transparenz in seiner Governance-Struktur.
- Meta führte ergebnisbasierte Sicherheitsschwellenwerte ein, erfordert jedoch klarere Methoden.
- DeepSeek verfügt trotz interner Befürwortung nicht über eine grundlegende Sicherheitsdokumentation.
- Alibaba Cloud trägt zu nationalen Standards bei, muss jedoch die Robustheit und Vertrauenswürdigkeit des Modells verbessern.
Diese Ergebnisse verdeutlichen, dass selbst führende Unternehmen Schwierigkeiten haben, umfassende Sicherheitsmaßnahmen umzusetzen. Die jüngsten Skandale um psychische Schäden, Cyberangriffe und sogar KI-gestützte Selbstmorde zeigen die realen Konsequenzen dieser Lücken.
Breiter Widerstand gegen unkontrollierte AGI
Die wachsenden Risiken haben beispiellose Gegenreaktionen ausgelöst. Im Oktober unterzeichneten Tausende von Persönlichkeiten des öffentlichen Lebens aus dem gesamten politischen Spektrum – darunter der ehemalige Trump-Stratege Steve Bannon, die ehemalige nationale Sicherheitsberaterin Susan Rice und religiöse Führer – eine Petition, in der sie KI-Firmen dazu aufforderten, ihr Streben nach Superintelligenz einzuschränken.
Die ungewöhnliche Koalition unterstreicht die allgemeine Sorge, dass unkontrollierte KI Arbeitsplätze vernichten, die wirtschaftliche Ungleichheit verschärfen und letztendlich die menschliche Autonomie untergraben könnte. Ein Experte bemerkte: „Superintelligenz würde es jedem einzelnen Arbeiter unmöglich machen, seinen Lebensunterhalt zu bestreiten.“ Diese Konvergenz der Ängste linker Arbeiterbewegungen und rechtspopulistischer Kräfte legt nahe, dass das Thema über traditionelle ideologische Grenzen hinausgeht.
Der aktuelle Verlauf der KI-Entwicklung birgt erhebliche Risiken, und ohne wesentliche Verbesserungen der Sicherheitsrahmen und -vorschriften bleibt das Potenzial für katastrophale Folgen gefährlich hoch.































