Salvaguardia della sicurezza o controllo strategico? La logica nascosta dietro il rilascio dei miti di Anthropic

10

Anthropic ha annunciato un lancio altamente non convenzionale per il suo ultimo modello di intelligenza artificiale, Mythos. Invece di un ampio rilascio pubblico, il laboratorio di intelligenza artificiale di frontiera sta limitando l’accesso a un gruppo selezionato di grandi aziende e fornitori di infrastrutture critiche, tra cui Amazon Web Services e JPMorgan Chase.

Il motivo ufficiale? Sicurezza. Anthropic sostiene che Mythos è così abile nell’identificare gli exploit di sicurezza del software che un rilascio pubblico potrebbe fornire ai malintenzionati un potente strumento per compromettere l’infrastruttura digitale globale.

Il dilemma della sicurezza informatica

Il nocciolo della questione risiede nella natura a duplice uso dei Large Language Models (LLM) avanzati. Un modello in grado di individuare una vulnerabilità “zero-day” (un difetto software precedentemente sconosciuto) è una miniera d’oro per i difensori, ma un’arma per gli aggressori.

Fornendo Mythos solo a imprese di grandi dimensioni, Anthropic mira a creare un “vantaggio difensivo”, consentendo alle aziende di correggere le vulnerabilità prima che gli hacker possano sfruttarle. Tuttavia, gli esperti del settore suggeriscono che l’effettiva utilità di questi modelli potrebbe essere più sfumata:

  • Sfruttabilità vs. scoperta: Dan Lahav, CEO del laboratorio di sicurezza informatica Irregular, osserva che trovare un bug non è la stessa cosa che trovare un exploit funzionale. Il vero valore di uno strumento di intelligenza artificiale dipende dalla capacità di individuare vulnerabilità che possono essere concatenate insieme per creare un attacco significativo.
  • La questione dell’efficienza: La startup Aisle sostiene che modelli specializzati, più piccoli e open-weight possono spesso replicare i successi in termini di sicurezza informatica di modelli massicci come Mythos. Ciò suggerisce che la scala del modello di “forza bruta” potrebbe non essere l’unico percorso verso un’efficace difesa informatica.

Il fattore “distillazione”: proteggere i profitti

Sebbene l’argomentazione relativa alla sicurezza sia convincente, gli osservatori del settore suggeriscono un motivo più commerciale dietro il rilascio limitato: prevenire la distillazione del modello.

La distillazione è un processo in cui modelli più piccoli ed economici vengono addestrati utilizzando i risultati di modelli massicci e di fascia alta. Ciò consente ai laboratori più piccoli di “imitare” le capacità dei modelli di frontiera senza i costi astronomici della formazione originale. Per aziende come Anthropic, OpenAI e Google, la distillazione rappresenta una minaccia diretta al loro vantaggio competitivo e ai loro modelli di fatturato.

Secondo David Crawshaw, CEO di exe.dev, la strategia di rilascio selettivo può servire a due scopi strategici:
1. Creazione di un volano aziendale: Mantenendo le versioni più avanzate esclusive per le grandi aziende, i laboratori garantiscono un flusso continuo di contratti aziendali di alto valore.
2. Concorrenti affamati: nel momento in cui un modello viene rilasciato al grande pubblico o ai laboratori più piccoli, una versione più nuova e ancora più potente è già protetta da accordi aziendali, mantenendo di fatto gli attori più piccoli in un perpetuo stato di recupero.

Una crescente guerra fredda nello sviluppo dell’intelligenza artificiale

Questa mossa riflette una tendenza più ampia nell’ecosistema dell’intelligenza artificiale. Si sta intensificando la gara tra:
* Frontier Labs: investe miliardi per costruire i modelli più grandi e capaci e difende aggressivamente la loro proprietà intellettuale.
* Concorrenti agili: utilizzo di modelli open source e tecniche di distillazione, spesso collegati ad aziende cinesi, per raggiungere rapidamente la parità economica e tecnologica.

I rapporti indicano che Anthropic, Google e OpenAI stanno collaborando sempre più per identificare e bloccare le entità coinvolte nella distillazione non autorizzata, trattandola come una minaccia significativa per i loro modelli di business.

La decisione di isolare Mythos potrebbe essere un colpo da maestro nella strategia del “doppio scopo”: adempie alla reale responsabilità di proteggere la sicurezza di Internet rafforzando contemporaneamente il dominio commerciale dei laboratori contro la distillazione.

Conclusione
Resta da vedere se Mythos sia un vero rischio per la sicurezza o una mossa aziendale strategica. Tuttavia, il lancio di Anthropic evidenzia la complessa intersezione tra la sicurezza informatica globale e la battaglia ad alto rischio per la supremazia del mercato dell’IA.