Nvidia sta migliorando in modo aggressivo il suo attuale hardware AI, Blackwell, anche se si prepara per la prossima generazione, Vera Rubin. Anche se l’attesissima GPU Rubin non arriverà prima della fine del 2026, i sistemi Blackwell esistenti stanno registrando significativi aumenti delle prestazioni proprio ora attraverso le ottimizzazioni del software. Questa strategia consente alle imprese di massimizzare i propri investimenti nelle infrastrutture attuali preparandosi al tempo stesso per il futuro.
La rapida evoluzione di Blackwell
Nvidia non aspetta che il nuovo hardware offra valore. L’architettura Blackwell, rilasciata nel 2024, è già stata migliorata con ottimizzazioni sia per i carichi di lavoro di inferenza che di training. In soli tre mesi, Nvidia ha aumentato le prestazioni di inferenza di Blackwell fino a 2,8 volte senza richiedere alcun aggiornamento hardware. Ciò è ottenuto attraverso innovazioni nel motore di inferenza TensorRT-LLM, tra cui:
- Avvio dipendente dalla programmazione (PDL): Riduce le latenze di avvio del kernel per un throughput più rapido.
- Comunicazione tutti-a-tutti: Semplifica il trasferimento dei dati eliminando i buffer non necessari.
- Previsione multi-token (MTP): Genera più token per passaggio in avanti, migliorando l’efficienza.
- Formato NVFP4: un formato a virgola mobile a 4 bit che riduce la larghezza di banda della memoria senza sacrificare la precisione.
Queste ottimizzazioni si traducono in costi inferiori per milione di token e in un throughput più elevato per i fornitori di servizi cloud e le imprese.
Guadagni di allenamento con Blackwell
I miglioramenti di Blackwell non si limitano all’inferenza. Anche le prestazioni di allenamento hanno registrato un aumento di 1,4 volte in soli cinque mesi, grazie a ricette di allenamento ottimizzate che sfruttano la precisione NVFP4. Ciò dimostra l’impegno di Nvidia verso l’innovazione continua oltre le implementazioni hardware iniziali.
Vera Rubin: Il prossimo salto
Nonostante i guadagni di Blackwell, Nvidia sta già guardando avanti a Vera Rubin, il cui rilascio è previsto nella seconda metà del 2026. Secondo i test interni di Nvidia, Rubin promette miglioramenti rivoluzionari:
- Addestramento di modelli di grandi dimensioni in un quarto del numero di GPU.
- 10 volte throughput per watt più elevato per l’inferenza.
- Inferenza a un decimo del costo per token.
Questi parametri suggeriscono che Vera Rubin ridurrà drasticamente gli aspetti economici delle operazioni di intelligenza artificiale su larga scala, consentendo modelli più capaci ed efficienti.
Cosa significa per le imprese
Per le organizzazioni che oggi implementano infrastrutture AI, Blackwell rimane un buon investimento. Le implementazioni esistenti possono beneficiare immediatamente delle più recenti ottimizzazioni software, garantendo risparmi sui costi senza spese in conto capitale. Tuttavia, le imprese che pianificano la realizzazione di infrastrutture su larga scala dovrebbero includere Vera Rubin nelle loro tabelle di marcia.
Il punto chiave è che Nvidia offre un approccio graduale: massimizzare il valore delle attuali implementazioni Blackwell mentre ci si prepara per la prossima generazione. Questa non è una decisione o/o, ma piuttosto una strategia per rimanere competitivi nel panorama dell’intelligenza artificiale in rapida evoluzione.
Il modello di ottimizzazione continua di Nvidia garantisce che le aziende possano trarre il massimo valore dai loro investimenti attuali posizionandosi al tempo stesso per il futuro con l’imminente architettura Vera Rubin.

































