Nowy raport ostrzega, że wiodące na świecie firmy zajmujące się sztuczną inteligencją (AI) nie spełniają nawet własnych ustalonych standardów bezpieczeństwa. Brak nadzoru nasila się w miarę przyspieszania wyścigu w kierunku sztucznej inteligencji ogólnej (AGI) i superinteligencji – sztucznej inteligencji, która przewyższa ludzką inteligencję – zwiększając ryzyko „katastrofalnych” nadużyć lub utraty kontroli.
Ryzyko przekracza regulacje
W zimowym indeksie AI Security Index 2025 opublikowanym przez Future of Life Institute (FLI) sklasyfikowano osiem głównych firm zajmujących się sztuczną inteligencją: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud i Z.ai. Ocena wykazała, że żadna firma nie ma weryfikowalnego planu utrzymania kontroli człowieka nad coraz potężniejszymi systemami sztucznej inteligencji.
Niezależni eksperci podkreślają pilność sytuacji: firmy twierdzą, że mogą stworzyć superinteligentną sztuczną inteligencję, ale żadna nie jest w stanie wykazać, jak zapobiec utracie kontroli. Jak ujął to jeden z informatyków z Uniwersytetu Kalifornijskiego w Berkeley, firmy zajmujące się sztuczną inteligencją nie są obecnie w stanie zagwarantować poziomu ryzyka porównywalnego ze standardami bezpieczeństwa jądrowego. Niektóre szacunki wskazują, że ryzyko niekontrolowanej sztucznej inteligencji wynosi aż jedno na trzy, co jest uważane za niedopuszczalne w świetle standardów branżowych.
Ta rozbieżność między możliwościami a kontrolą jest krytyczna, ponieważ sztuczna inteligencja ewoluuje w niespotykanym dotąd tempie. Według niektórych szacunków to, co kiedyś uważano za kwestię dziesięcioleci – superinteligencja – może pojawić się w ciągu zaledwie kilku lat. Tymczasem regulacje dotyczące sztucznej inteligencji pozostają słabe. W Stanach Zjednoczonych sztuczna inteligencja jest mniej regulowana niż kanapki, a firmy technologiczne aktywnie lobbują przeciwko obowiązkowym standardom bezpieczeństwa.
Zróżnicowane wyniki wśród firm
Raport FLI oceniał firmy według następujących kryteriów: ocena ryzyka, bieżące szkody, systemy bezpieczeństwa, bezpieczeństwo egzystencjalne, zarządzanie, odpowiedzialność i komunikacja.
- Anthropic, OpenAI i Google DeepMind zostały docenione za badania nad przejrzystością i bezpieczeństwem, ale nadal mają niedociągnięcia. Przejście firmy Anthropic na uczenie się oparte na użytkownikach budzi obawy dotyczące prywatności. OpenAI było krytykowane za lobbowanie przeciwko ustawodawstwu i brak niezależnego nadzoru. Zależność Google DeepMind od płatnych zewnętrznych oceniających rodzi pytania o obiektywizm.
- xAI opublikowało swój pierwszy system bezpieczeństwa, chociaż recenzenci uznali go za ograniczony.
- Z.ai umożliwia nieocenzurowane oceny zewnętrzne, ale nie zapewnia pełnej przejrzystości struktury zarządzania.
- Meta wprowadziła progi bezpieczeństwa oparte na wynikach, ale wymaga jaśniejszych metodologii.
- DeepSeek nie zapewnia podstawowej dokumentacji dotyczącej bezpieczeństwa, pomimo wewnętrznego wsparcia.
- Alibaba Cloud przyczynia się do standardów krajowych, ale musi poprawić niezawodność i niezawodność swoich modeli.
Ustalenia te pokazują, że nawet wiodące firmy stoją przed wyzwaniami związanymi z wdrażaniem kompleksowych środków bezpieczeństwa. Niedawne skandale obejmujące szkody psychiczne, cyberataki, a nawet samobójstwa wspomagane przez sztuczną inteligencję pokazują rzeczywiste konsekwencje tych luk.
Szeroki sprzeciw wobec niekontrolowanej superinteligencji
Rosnące ryzyko wywołało bezprecedensową reakcję. W październiku tysiące osób publicznych z całego spektrum politycznego – w tym były strateg Trumpa Steve Bannon, była doradczyni ds. bezpieczeństwa narodowego Susan Rice i przywódcy religijni – podpisały petycję wzywającą firmy zajmujące się sztuczną inteligencją do spowolnienia wysiłków na rzecz osiągnięcia superinteligencji.
Niezwykły sojusz podkreśla wspólne obawy, że niekontrolowana sztuczna inteligencja może zniszczyć miejsca pracy, pogłębić nierówności ekonomiczne i ostatecznie podważyć ludzką autonomię. Jak zauważył jeden z ekspertów, „superinteligencja uniemożliwi każdemu pracownikowi zarabianie na życie”. Ta zbieżność strachu lewicy robotniczej i prawicy populistycznej sugeruje, że problem wykracza poza tradycyjne podziały ideologiczne.
Obecny kierunek rozwoju sztucznej inteligencji wiąże się ze znacznym ryzykiem, a bez znaczącej poprawy ram bezpieczeństwa i przepisów ryzyko katastrofalnych konsekwencji pozostaje niebezpiecznie wysokie.






























