I nuovi chip Blackwell di Nvidia stanno cambiando la velocità con cui possono essere addestrati i sistemi di intelligenza artificiale.
Nell'ultima tornata di risultati di benchmarking pubblicati mercoledì da MLCommons, un gruppo no-profit che monitora e confronta le capacità dei chip di intelligenza artificiale , l'architettura Blackwell programmata da Nvidia ha stabilito nuovi record.
Testato con il modello open source Llama 3.1 405B di Meta, uno dei suoi modelli di intelligenza artificiale più grandi e complessi, l'addestramento è stato completato in soli 27 minuti utilizzando i chip Blackwell. Questo è stato possibile grazie a sole 2.496 GPU Blackwell, un ordine di grandezza inferiore a quanto sarebbe stato necessario con i precedenti chip Hopper di Nvidia.
Al contrario, i progetti precedenti utilizzavano un numero di GPU Hopper tre volte superiore per offrire prestazioni equivalenti. Con il chip Blackwell, la velocità era più che doppia, il che rappresentava un enorme passo avanti nell'efficienza della convergenza. Questo tipo di incremento delle prestazioni potrebbe tradursi in notevoli risparmi di tempo e costi per le organizzazioni che addestrano modelli con un numero di parametri infinito.
Si ritiene che questi risultati rappresentino i primi benchmark MLCommons per l'addestramento di modelli a queste scale estreme e forniscano una misurazione concreta di quanto bene i chip gestiscano i carichi di lavoro di intelligenza artificiale più impegnativi.
CoreWeave e Nvidia guidano una scalabilità AI più intelligente
I risultati non sono stati solo una vittoria per Nvidia, ma hanno anche messo in luce il lavoro di CoreWeave, un'azienda di infrastrutture cloud che ha collaborato ai test. In una conferenza stampa, Chetan Kapoor, Chief Product Officer di CoreWeave, ha sottolineato una direzione generale che sta diventando sempre più sensata nel settore: abbandonare i grandi blocchi omogenei di decine di migliaia di GPU.
Invece di costruire un singolo, massiccio e monolitico sistema di elaborazione dati, le aziende ora stanno prendendo in considerazione sottoinsiemi più piccoli e interconnessi, in grado di gestire l'addestramento di modelli su larga scala in modo più efficiente e con una migliore scalabilità.
Kapoor ha affermato che con una tecnica di questo tipo, gli sviluppatori possono continuare ad aumentare o ridurre il tempo necessario per addestrare modelli estremamente grandi con migliaia di miliardi di parametri.
Il passaggio a un'implementazione modulare dell'hardware è necessario anche perché le dimensioni e la complessità dei modelli di intelligenza artificiale sono in continua crescita.
Blackwell mette Nvidia al primo posto nell'addestramento dei modelli di intelligenza artificiale
Sebbene ultimamente l'attenzione si sia spostata sull'inferenza dell'intelligenza artificiale, in cui modelli come ChatGPT1 rispondono alle domande degli utenti in tempo reale, la formazione resta il cavallo di battaglia dello sviluppo dell'intelligenza artificiale .
La fase di addestramento conferisce a questi modelli la loro intelligenza, consentendo loro di comprendere il linguaggio, affrontare alcuni dei nostri problemi più complessi e persino produrre una prosa simile a quella umana. Il calcolo è estremamente impegnativo e richiede migliaia di chip ad alte prestazioni per funzionare per lunghi periodi, in genere giorni, se non settimane o mesi.
Tutto questo è cambiato con l'architettura Blackwell di Nvidia . Riducendo radicalmente i chip e i tempi necessari per addestrare modelli di intelligenza artificiale giganteschi, i chip Blackwell offrono a Nvidia un vantaggio in un mercato in cui velocità ed efficienza la fanno da padrone.
Modelli di training come Llama 3.1 405B di Meta, che presenta migliaia di miliardi di parametri, in passato dovevano essere eseguiti su enormi cluster di GPU e rappresentavano un processo costoso e ad alto consumo energetico.
Tali miglioramenti in termini di prestazioni rappresentano un notevole vantaggio in un momento in cui la domanda di modelli di intelligenza artificiale sempre più grandi e potenti è in forte crescita in molti settori, dalla sanità alla finanza, dall'istruzione ai veicoli autonomi.
Invia anche un messaggio chiaro ai rivali di Nvidia. Ora, aziende produttrici di chip come AMD e Intel, che stanno lavorando sui loro chip specifici per l'intelligenza artificiale, sono sottoposte a una pressione maggiore per mantenere un ritmo simile.
AMD si è sottoposta al test di benchmark MLCommons, ma non ha mostrato risultati per un modello delle dimensioni del Llamas 3.1 405B. Nvidia è stata l'unica a testare il benchmark nella fascia alta, dimostrando di avere un hardware superiore e disposto ad affrontare le sfide più impegnative.
Cryptopolitan Academy: in arrivo a breve – Un nuovo modo per guadagnare reddito passivo con la DeFi nel 2025. Scopri di più