Americké ministerstvo obrany podle ministra zahraničí Petera Hegsetha koncem tohoto měsíce začlení do svých sítí AI chatbota Groka od Elona Muska. Rozhodnutí přichází uprostřed mezinárodní kritiky Groka, který byl kritizován za generování explicitních hluboce falešných obrázků bez souhlasu a vystavování neobjektivních výstupů, včetně antisemitského jazyka.
Pentagon usiluje o rychlé přijetí AI
Hegseth oznámil integraci na akci SpaceX v jižním Texasu a představil ji jako součást širší iniciativy na urychlení vývoje umělé inteligence v armádě. Řekl, že ministerstvo je odhodláno nasadit přední modely umělé inteligence v neklasifikovaných i utajovaných sítích agresivním načítáním vojenských dat do těchto systémů.
„AI je jen tak dobrá, jak dobrá jsou data, která přijímá, a my se o to postaráme,“ řekl Hegseth a prokázal ochotu upřednostnit rychlost před etickými ohledy.
Tento krok je v kontrastu s dřívějšími politikami Bidenovy administrativy, které hledaly rovnováhu mezi přijetím AI a odpovědným používáním, včetně omezení sledování nebo automatických zbraní. Současný postoj Trumpovy administrativy naznačuje, že tyto záruky již neplatí.
Globální reakce a obavy
Několik zemí, včetně Malajsie a Indonésie, již Grok zablokovalo kvůli jeho problematické produkci. Britský regulátor online bezpečnosti zahájil vyšetřování. Musk staví Groka jako alternativu k „probuzené AI“ a prezentuje ji jako neomezenou ideologickými filtry.
Rozhodnutí Pentagonu přijmout Groka i přes tyto obavy vyvolává otázky ohledně rovnováhy mezi technologickým pokrokem a etickou odpovědností. Armáda má velké množství operačních dat z desetiletí konfliktů, což z ní dělá jedinečně výkonné cvičiště pro systémy AI.
Důsledky a vyhlídky
Integrace Groku signalizuje jasný posun směrem k rychlému nasazení AI v armádě, i když to znamená ignorování kontroverzí. Deklarovaným cílem Pentagonu je vytvořit systémy umělé inteligence, které fungují „bez ideologických omezení“, což znamená ochotu nasadit nástroje umělé inteligence, které mohou ve válce obejít etické hranice.
Dlouhodobé důsledky tohoto přístupu zůstávají nejisté, ale zdůrazňuje rostoucí trend upřednostňování technologické převahy před opatrností při vývoji a nasazení AI v národní bezpečnosti. Agresivní tlak armády naznačuje, že inovace v AI budou pokračovat bez ohledu na veřejné nebo mezinárodní zájmy.
































