Přední světové společnosti zabývající se umělou inteligencí (AI) nesplňují ani své vlastní stanovené bezpečnostní standardy, varuje nová zpráva. Nedostatek dohledu se zintenzivňuje s tím, jak se zrychluje závod směrem k umělé obecné inteligenci (AGI) a superinteligenci – AI, která překonává lidskou inteligenci –, což zvyšuje potenciál pro „katastrofické“ zneužití nebo ztrátu kontroly.
Rizika předčí regulaci
Index zabezpečení umělé inteligence v zimě 2025, který zveřejnil Future of Life Institute (FLI), zařadil osm hlavních společností zaměřených na umělou inteligenci: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud a Z.ai. Hodnocení zjistilo, že žádná společnost nemá ověřitelný plán, jak udržet lidskou kontrolu nad stále výkonnějšími systémy umělé inteligence.
Nezávislí odborníci zdůrazňují naléhavost situace: společnosti tvrdí, že dokážou vytvořit superinteligentní AI, ale žádná nedokáže předvést, jak zabránit ztrátě kontroly. Jak uvedl jeden počítačový vědec z Kalifornské univerzity v Berkeley, společnosti AI v současné době nemohou zaručit úroveň rizika srovnatelnou se standardy jaderné bezpečnosti. Některé odhady naznačují, že riziko nekontrolované umělé inteligence je až jedno ze tří, což je podle průmyslových standardů považováno za nepřijatelné.
Tento nesoulad mezi schopnostmi a ovládáním je kritický, protože AI se vyvíjí bezprecedentním tempem. To, co se kdysi považovalo za záležitost desetiletí – superinteligence – by tu podle některých odhadů mohlo být během několika let. Regulace AI mezitím zůstává slabá. V USA je umělá inteligence méně regulována než sendviče, přičemž technologické společnosti aktivně lobují proti povinným bezpečnostním standardům.
Různé výsledky mezi společnostmi
Zpráva FLI hodnotila společnosti podle následujících kritérií: hodnocení rizik, aktuální škody, bezpečnostní systémy, existenční bezpečnost, správa, odpovědnost a komunikace.
- Anthropic, OpenAI a Google DeepMind získaly uznání za transparentnost a bezpečnostní výzkum, ale stále mají nedostatky. Posun společnosti Antropic k učení založenému na uživatelích vyvolává obavy o soukromí. OpenAI bylo kritizováno za lobbování proti legislativě a nedostatek nezávislého dohledu. Závislost Google DeepMind na placených externích hodnotitelích vyvolává otázky o objektivitě.
- xAI zveřejnilo svůj první bezpečnostní systém, i když recenzenti zjistili, že je omezený.
- Z.ai umožňuje necenzurovaná externí hodnocení, ale nezajišťuje úplnou transparentnost struktury řízení.
- Meta zavedla prahové hodnoty bezpečnosti založené na výsledcích, ale vyžaduje jasnější metodiky.
- DeepSeek neposkytuje základní bezpečnostní dokumentaci, navzdory interní podpoře.
- Alibaba Cloud přispívá k národním standardům, ale musí zlepšit spolehlivost a spolehlivost svých modelů.
Tato zjištění ukazují, že i přední společnosti čelí problémům při zavádění komplexních bezpečnostních opatření. Nedávné skandály týkající se psychické újmy, kybernetických útoků a dokonce sebevraždy za pomoci umělé inteligence demonstrují skutečné důsledky těchto mezer.
Široká opozice vůči nekontrolované superinteligenci
Rostoucí rizika vyvolala bezprecedentní reakci. V říjnu tisíce veřejných osobností z celého politického spektra – včetně bývalého Trumpova stratéga Steva Bannona, bývalé poradkyně pro národní bezpečnost Susan Riceové a náboženských vůdců – podepsaly petici vyzývající společnosti AI, aby zpomalily své úsilí o dosažení superinteligence.
Neobvyklá aliance podtrhuje sdílené obavy, že nekontrolovaná umělá inteligence by mohla zničit pracovní místa, zhoršit ekonomickou nerovnost a nakonec podkopat lidskou autonomii. Jak poznamenal jeden odborník, „superinteligence znemožní každému dělníkovi vydělat si na živobytí“. Tato konvergence strachu na dělnické levici a populistické pravici naznačuje, že problém přesahuje tradiční ideologické rozdělení.
Současná trajektorie umělé inteligence představuje značná rizika a bez výrazného zlepšení bezpečnostních a regulačních rámců zůstává potenciál pro katastrofické následky nebezpečně vysoký.

































