Meta si sta impegnando sempre di più nei chip di intelligenza artificiale personalizzati, mentre la lotta per ridurre la dipendenza da Nvidia si fa più seria tra le grandi aziende tecnologiche.
L'azienda ha dichiarato di aver avviato il Meta Training and Inference Accelerator, o MTIA, nel 2023 e di star preparando quattro nuove generazioni di chip nei prossimi due anni.
Secondo Meta, questi chip sarebbero stati sviluppati per svolgere compiti di classificazione, raccomandazioni e GenAI nei prodotti Meta.
L'azienda ha inoltre affermato di non puntare su un solo fornitore o su un solo componente hardware. Meta prevede di continuare ad acquistare silicio da diversi attori del settore, mantenendo MTIA al centro del proprio piano infrastrutturale per l'intelligenza artificiale.
Secondo le parole dell'azienda, sta adottando un "approccio a portafoglio" man mano che i suoi carichi di lavoro di intelligenza artificiale crescono e cambiano. Ciò significa combinare chip esterni con chip interni, invece di affidare l'intero stack a un unico fornitore.
Meta lancia quattro generazioni di chip MTIA con tempi più rapidi
Meta ha affermato di utilizzare già centinaia di migliaia di chip MTIA per il lavoro di inferenza legato sia ai contenuti organici che agli annunci nelle sue app.
I chip sono progettati per le attività aziendali specifiche, non per un uso generico. Questo è importante perché Meta ha affermato che l'hardware fa parte di una soluzione full-stack personalizzata, che fornisce un sistema più ottimizzato per il lavoro che svolge quotidianamente.
L'azienda ha affermato che questa configurazione garantisce una migliore efficienza di elaborazione per i suoi specifici casi d'uso e riduce i costi rispetto ai chip per scopi più ampi.
La fase successiva prevede un'implementazione più ampia. Meta ha affermato di essere al lavoro su MTIA 300, 400, 450 e 500, ciascuna delle quali porterà miglioramenti in termini di capacità di calcolo, larghezza di banda di memoria ed efficienza. MTIA 300 è già in produzione e gestirà il ranking e l'addestramento delle raccomandazioni.
MTIA 400, 450 e 500 possono gestire tutti i carichi di lavoro, ma Meta ha affermato che tali chip saranno utilizzati principalmente per la produzione di inferenze GenAI nel breve termine e fino al 2027.
L'azienda ha inoltre affermato che il silicio è modulare, il che consente ai nuovi chip di integrarsi nell'infrastruttura rack esistente, riducendo così i tempi di attesa tra progettazione e implementazione.
Per quanto riguarda la velocità di rilascio, Meta ha affermato che l'industria solitamente lancia un nuovo chip AI ogni uno o due anni, ma ora ha la capacità di rilasciare i propri chip ogni sei mesi o meno, riutilizzando i design modulari.
Meta basa la sua strategia sui chip AI su inferenza e standard aperti
L'azienda ha affermato che la sua strategia MTIA si basa su tre parti: iterazione rapida, progettazione basata sull'inferenza e facile adozione tramite standard comuni.
Sul primo punto, Meta ha affermato che il ciclo di rilascio più breve aiuta ad adattarsi più rapidamente all'evoluzione delle tecniche di intelligenza artificiale, ad introdurre nuove tecnologie hardware e a ridurre i costi di sviluppo e distribuzione di nuove versioni di chip.
Sul secondo punto, Meta ha tracciato una linea di demarcazione tra il suo piano e il consueto modello di mercato. L'azienda ha affermato che la maggior parte dei chip più diffusi viene costruita prima per grandi progetti di pre-addestramento GenAI e poi utilizzata per altri scopi, spesso a un costo inferiore.
Meta ha affermato di fare il contrario. MTIA 450 e 500 vengono prima ottimizzati per l'inferenza GenAI, poi utilizzati per la classificazione, l'addestramento e l'inferenza delle raccomandazioni e, quando necessario, l'addestramento GenAI.
L'azienda ha inoltre affermato che MTIA è basato fin dall'inizio su strumenti e sistemi standard, tra cui PyTorch, vLLM, Triton e Open Compute Project. I suoi sistemi e rack sono inoltre progettati secondo gli standard OCP per l'utilizzo nei data center.
Meta ha aggiunto che nessun singolo chip può soddisfare tutte le esigenze, motivo per cui prevede di implementare chip diversi per carichi di lavoro diversi, spingendo al contempo verso quella che ha definito "superintelligenza personale per tutti".
Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca .