JPMorgan Chase ha assistito ad una straordinaria adozione volontaria dei suoi strumenti interni di intelligenza artificiale, con oltre il 60% della sua forza lavoro che ora utilizza attivamente la piattaforma. Questo successo non è stato guidato da mandati ma piuttosto da una crescita organica alimentata dall’innovazione guidata dai dipendenti. La chiave? Dare priorità alla connettività senza soluzione di continuità ai sistemi aziendali esistenti invece di concentrarsi esclusivamente sui modelli di intelligenza artificiale stessi.
La crescita virale inaspettata
Appena due anni e mezzo dopo il lancio della suite LLM, JPMorgan si è ritrovata con 250.000 dipendenti che utilizzavano la piattaforma interna. Questa rapida adozione ha sorpreso anche la leadership dell’azienda, ma evidenzia una tendenza cruciale: quando gli strumenti di intelligenza artificiale forniscono un valore tangibile, i dipendenti li adotteranno volentieri. Il Chief Analytics Officer dell’azienda, Derek Waldron, ha osservato che i lavoratori non si limitavano a utilizzare l’intelligenza artificiale; stavano costruendo, personalizzando e condividendo attivamente i propri assistenti IA su misura per ruoli specifici.
Questo entusiasmo dal basso verso l’alto ha creato un “volano dell’innovazione” in cui i primi utilizzatori hanno dimostrato casi d’uso pratici, incoraggiando un’adozione più ampia. JPMorgan si rese conto che i modelli stessi alla fine sarebbero diventati una merce, quindi si concentrò sul rendere la connettività il vantaggio principale.
Connettività come strategia principale
La strategia di JPMorgan si distingue perché tratta l’intelligenza artificiale come un’infrastruttura centrale, non solo come una novità. L’azienda ha investito molto nella tecnologia RAG (retrieval-augmented generation), ora giunta alla quarta generazione, e nell’integrazione multimodale. La suite AI non è isolata; è profondamente integrato nei sistemi esistenti dell’azienda.
I dipendenti possono accedere e interagire direttamente con i dati provenienti da sistemi CRM, risorse umane, trading, finanza e rischio. L’azienda aggiunge continuamente nuove connessioni, rendendo gli strumenti di intelligenza artificiale una parte indispensabile dei flussi di lavoro quotidiani. Secondo Waldron, il vero valore risiede nell’accesso : senza connessioni significative a dati e strumenti critici, anche l’intelligenza artificiale avanzata rimane sottoutilizzata.
Il potere dei mattoncini riutilizzabili
JPMorgan sottolinea l’approccio “una piattaforma, molti posti di lavoro”. Riconoscendo che ogni ruolo è unico, l’azienda fornisce elementi costitutivi riutilizzabili (RAG, document intelligence, query di dati strutturati) che i dipendenti possono combinare per creare strumenti di intelligenza artificiale specifici per il ruolo. Questo sistema flessibile consente ai lavoratori di personalizzare l’intelligenza artificiale in base alle loro precise esigenze, anziché costringerli a soluzioni predefinite.
La progressione dell’azienda attraverso più generazioni di RAG, dalla ricerca vettoriale di base alle pipeline di conoscenze gerarchiche e multimodali, dimostra un impegno per il miglioramento continuo. Waldron suggerisce addirittura di fare una pausa prima di chiedere a un collega, valutando se un assistente AI può prima rispondere alla domanda.
In definitiva, il successo di JPMorgan evidenzia una lezione fondamentale: il vero potenziale dell’intelligenza artificiale non riguarda solo modelli potenti; si tratta di una connettività continua e onnipresente che sblocca valore nel mondo reale. Se l’intelligenza artificiale non riesce a connettersi ai sistemi in cui si svolge effettivamente il lavoro, rimane poco più di un giocattolo sofisticato e costoso.
































