Nvidia investe miliardi in modelli di intelligenza artificiale open source per competere oltre l’hardware

Nvidia, l'azienda i cui chip attualmente alimentano gran parte dell'infrastruttura mondiale di intelligenza artificiale, sta proseguendo nello sviluppo di software e modelli di intelligenza artificiale, dimostrando di voler essere molto più di un semplice produttore di hardware.

Una parte della trama è svelata dai numeri. Gli analisti prevedono che il fatturato annuo di Nvidia supererà i 358,7 miliardi di dollari nel 2026, dopo essere salito da 26,9 miliardi di dollari nel 2022 a 215,9 miliardi di dollari nel 2025.

Le azioni di ChatGPT sono aumentate di circa il 990% dall'avvio della società nel novembre 2022.

Nvidia ha annunciato l'intenzione di investire 26 miliardi di dollari nei prossimi cinque anni per supportare lo sviluppo di grandi modelli di intelligenza artificiale open source, come documentato nei documenti presentati alla Securities and Exchange Commission degli Stati Uniti.

L'attrattiva dell'azienda non è mai stata legata solo ai chip. La sua piattaforma software CUDA, che consente ai clienti di sfruttare al meglio le sue unità di elaborazione grafica, è stata fondamentale per la sua ascesa.

Justin Boitano, vicepresidente delle piattaforme aziendali di Nvidia, ha sottolineato che la maggior parte del personale è composta da ingegneri del software, un fatto che spesso viene trascurato.

Il nuovo modello di Nvidia sceglie una via di mezzo

Per ampliare ulteriormente il lato software, Nvidia ha recentemente rilasciato un nuovo modello di linguaggio di intelligenza artificiale open source chiamato Nemotron 3 Super . Il modello è progettato per sistemi di intelligenza artificiale di livello aziendale che coinvolgono più agenti di intelligenza artificiale che lavorano insieme.

Contiene 120 miliardi di parametri e utilizza un design denominato Mixture-of-Experts.

Una delle sue caratteristiche principali è una finestra di contesto che può contenere fino a un milione di token, il che significa che può elaborare un intero libro o migliaia di pagine di registri finanziari in un'unica esecuzione.

Con questo modello, Nvidia ha scelto quella che potremmo definire una via di mezzo.

A differenza di OpenAI, che mantiene i suoi modelli chiusi, o di Meta, che apre completamente i suoi modelli Llama, Nvidia renderà pubblici i parametri chiave del modello. Aziende e sviluppatori potranno scaricarli ed eseguirli gratuitamente, oppure modificarli in base alle proprie esigenze.

Se Nvidia riuscisse a mantenere la sua leadership nell'hardware e ad accaparrarsi il 10% del mercato dei modelli fondamentali, gli analisti finanziari affermano che questa mossa potrebbe generare un fatturato annuo aggiuntivo di 50 miliardi di dollari entro tre anni.

I partner sviluppano il lato hardware

Per quanto riguarda l'implementazione dell'hardware, Nvidia non realizza autonomamente i data center. Sono i partner, tra cui Dell, Hewlett Packard Enterprise e Foxconn, a occuparsene.

Arthur Lewis, responsabile delle infrastrutture presso Dell, ha affermato che la sua azienda ha aiutato un cliente a configurare 100.000 GPU in sole sei settimane.

Contemporaneamente, NTT DATA ha svelato un piano per implementare quelle che definisce "fabbriche di intelligenza artificiale basate su hardware Nvidia". Si tratta di configurazioni complete che integrano sistemi di governance, strumenti software, infrastrutture e dati.

Oltre all'hardware, il programma utilizza gli strumenti software NeMo e NIM di Nvidia.

Un ospedale per la ricerca sul cancro che utilizza le piattaforme Nvidia per la radiologia e la diagnostica, un fornitore di componenti per auto che sfrutta i servizi cloud basati su Nvidia per ridurre i tempi di configurazione della produzione da mesi a giorni e un produttore statunitense che sta attualmente testando linee di produzione di batterie utilizzando la simulazione accelerata da Nvidia sono solo alcuni esempi dei primi risultati ottenuti dai clienti.

Kari Briski, vicepresidente del software di intelligenza artificiale generativa aziendale di Nvidia, ha osservato che la creazione di questi modelli all'avanguardia esercita un'enorme pressione sui sistemi di archiviazione, networking ed elaborazione, e tale pressione contribuisce a definire la direzione dell'hardware futuro.

Il CEO Jensen Huang ha descritto l'intelligenza artificiale più come un'infrastruttura fondamentale che come una moda passeggera nel settore software.

"L'intelligenza artificiale è una delle forze più potenti che plasmano il mondo odierno", ha affermato Huang. "Non è un'app intelligente o un singolo modello; è un'infrastruttura essenziale, come l'elettricità e Internet".

Huang ha descritto lo stack dell'IA in cinque livelli : energia alla base, poi chip, poi infrastrutture fisiche come sistemi di raffreddamento e di terra, poi modelli di IA e infine applicazioni in cima, dove, a suo dire, viene creato un valore economico effettivo, attraverso cose come la scoperta di farmaci, robot industriali e veicoli a guida autonoma.

Stack di intelligenza artificiale a cinque livelli del CEO di NVIDIA, Jensen Huang | Fonte: Jensen Huang

Ha riconosciuto che la costruzione è ancora nelle fasi iniziali.

Finora sono state spese alcune centinaia di miliardi di dollari, ma Huang ha affermato che per ottenerne una cifra complessiva saranno necessarie migliaia di miliardi, definendola potenzialmente la più grande infrastruttura della storia dell'umanità.

Ha aggiunto che i modelli di intelligenza artificiale hanno recentemente superato un limite fondamentale, diventando sufficientemente affidabili da essere ampiamente utili, e che i modelli open source stanno contribuendo ad accelerarne l'adozione in tutti i settori.

Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto