Anthropic ogłosiło bardzo nietypowy sposób wdrożenia swojego najnowszego modelu sztucznej inteligencji, Mythos. Zamiast udostępnić go szerokiej publiczności, najnowocześniejsze laboratorium sztucznej inteligencji ogranicza dostęp do modelu do kilku wybranych największych korporacji na świecie i dostawców infrastruktury krytycznej, w tym Amazon Web Services i JPMorgan Chase.
Oficjalny powód? Bezpieczeństwo. Anthropic twierdzi, że Mythos jest tak skuteczny w identyfikowaniu luk w oprogramowaniu, że udostępnienie go publicznie może dać atakującym potężne narzędzie do włamywania się do globalnej infrastruktury cyfrowej.
Dylemat cyberbezpieczeństwa
Sedno problemu leży w dwojakim przeznaczeniu zaawansowanych modeli dużych języków (LLM). Model potrafiący znaleźć luki typu zero-day (wcześniej nieznane błędy oprogramowania) to kopalnia złota dla obrońców, ale także broń dla atakujących.
Udostępniając Mythos tylko dużym przedsiębiorstwom, Anthropic ma na celu stworzenie „przewagi w zakresie bezpieczeństwa”, umożliwiając firmom zamknięcie luk w zabezpieczeniach, zanim hakerzy będą mogli je wykorzystać. Eksperci branżowi uważają jednak, że rzeczywiste zalety takich modeli mogą być bardziej niejednoznaczne:
- Wykorzystywanie a wykrywanie: Dan Lahav, dyrektor generalny laboratorium cyberbezpieczeństwa AI Irregular, zauważa, że wykrycie błędu to nie to samo, co stworzenie działającego exploita. Prawdziwa wartość narzędzia AI zależy od tego, czy potrafi ono znaleźć luki w zabezpieczeniach, które można połączyć w celu przeprowadzenia pełnoprawnego ataku.
- Pytanie dotyczące wydajności: Startup Aisle twierdzi, że wyspecjalizowane, bardziej kompaktowe modele o otwartej skali często mogą odtworzyć sukcesy w zakresie cyberbezpieczeństwa osiągnięte przez masywne modele, takie jak Mythos. Sugeruje to, że skala modelu brutalnej siły nie jest jedyną drogą do skutecznej cyberobrony.
Współczynnik destylacji: ochrona zysków
Chociaż argumenty dotyczące bezpieczeństwa są przekonujące, obserwatorzy branży sugerują bardziej komercyjny motyw stojący za tym limitowanym wydaniem: zapobieganie destylacji modelowej.
Destylacja to proces, podczas którego mniejsze, tańsze modele są szkolone w oparciu o wydajność masywnych, wysokiej klasy modeli. Dzięki temu małe laboratoria mogą „naśladować” możliwości zaawansowanych modeli bez astronomicznych kosztów ich wstępnego szkolenia. Dla firm takich jak Anthropic, OpenAI i Google destylacja stanowi bezpośrednie zagrożenie dla ich przewagi konkurencyjnej i modeli monetyzacji.
Według Davida Crawshawa, dyrektora generalnego exe.dev, strategia selektywnego wydawania może służyć dwóm celom strategicznym:
1. Tworzenie „korporacyjnego koła zamachowego”: Utrzymując najbardziej zaawansowane wersje wyłącznie dla dużych korporacji, laboratoria zapewniają ciągły przepływ wysoce zyskownych kontraktów z sektorem przedsiębiorstw.
2. Duszenie konkurencji: Zanim model stanie się dostępny dla ogółu społeczeństwa lub małych laboratoriów, nowa, jeszcze mocniejsza wersja będzie już zamknięta umowami korporacyjnymi. To skutecznie utrzymuje mniejszych graczy w stanie ciągłego pościgu.
Narastająca zimna wojna w rozwoju sztucznej inteligencji
Posunięcie to odzwierciedla ogólny trend w ekosystemie sztucznej inteligencji. Następuje zaostrzenie wyścigu pomiędzy:
* Advanced Labs: Inwestują miliardy w tworzenie największych i najbardziej wydajnych modeli oraz agresywnie chronią swoją własność intelektualną.
* Elastyczni konkurenci: Wykorzystują modele open source i metody destylacji (często kojarzone z firmami z Chin), aby szybko osiągnąć parytet ekonomiczny i technologiczny.
Według doniesień Anthropic, Google i OpenAI coraz częściej współpracują w celu identyfikowania i blokowania nielegalnych podmiotów zajmujących się destylacją, postrzegając to jako poważne zagrożenie dla swoich modeli biznesowych.
Decyzja o ograniczeniu dostępu do Mythos może być mistrzowskim posunięciem „podwójnego zastosowania”: wiąże się z rzeczywistą odpowiedzialnością za ochronę bezpieczeństwa Internetu, jednocześnie wzmacniając komercyjną dominację laboratoriów poprzez ochronę ich przed destylacją.
Wniosek
Nie jest jasne, czy Mythos stanowi rzeczywiste zagrożenie dla bezpieczeństwa, czy strategiczne posunięcie biznesowe. Jednak podejście Anthropic podkreśla złożone skrzyżowanie globalnego cyberbezpieczeństwa i obarczonej wysokim ryzykiem walki o dominację na rynku sztucznej inteligencji.
