Cerebras Systems inizierà a proporre le proprie azioni agli investitori lunedì, con l'intenzione di venderle a un prezzo compreso tra 115 e 125 dollari ciascuna, secondo quanto riferito a Reuters da una fonte a conoscenza dei piani.
Il produttore di chip per l'intelligenza artificiale sta tentando di quotarsi in borsa per la seconda volta. Il primo tentativo, avvenuto nell'ottobre dello scorso anno, si era concluso con un nulla di fatto.
Cerebras ha riportato risultati finanziari migliori per l'anno conclusosi il 31 dicembre. L'azienda ha registrato un fatturato di 510 milioni di dollari, in aumento rispetto ai 290,3 milioni di dollari dell'anno precedente. Ha inoltre realizzato un utile di 1,38 dollari per azione, rispetto alla perdita di 9,90 dollari per azione dell'anno precedente.
Morgan Stanley, Citigroup, Barclays e UBS si stanno occupando della vendita delle azioni.
Il settore sta cambiando
La strategia di Cerebras non è casuale. Il settore dell'IA sta passando dallo sviluppo di nuovi modelli di IA alla loro esecuzione in applicazioni reali. Questo cambiamento rappresenta un'occasione d'oro per le piccole aziende che competono con il monopolio di Nvidia (NASDAQ: NVDA). Come riportato da Cryptopolitan, persino OpenAI non è convinta dell'hardware di inferenza di Nvidia.
Questo perché l'esecuzione di modelli di intelligenza artificiale, nota come inferenza, richiede capacità diverse rispetto al loro addestramento. Ciò crea opportunità per i produttori di chip specializzati di ritagliarsi uno spazio nel mercato. L'elaborazione di grandi quantità di informazioni richiede un diverso equilibrio tra potenza di calcolo, memoria e velocità di trasferimento dati rispetto all'esecuzione di un chatbot basato sull'IA o di un assistente di programmazione.
Questa varietà di requisiti ha reso il mercato dell'inferenza più diversificato. Alcune attività funzionano meglio con i tradizionali chip grafici, mentre altre richiedono apparecchiature più avanzate.
L'acquisizione di Groq da parte di Nvidia lo scorso dicembre per 20 miliardi di dollari dimostra come si stia evolvendo la situazione. Groq produceva chip dotati di memoria SRAM ad alta velocità, in grado di elaborare le risposte dell'intelligenza artificiale più rapidamente rispetto ai chip grafici standard. Tuttavia, l'azienda ha faticato a scalare la produzione perché i suoi chip avevano una potenza di calcolo limitata ed erano basati su tecnologie obsolete.
Nvidia ha risolto questo problema suddividendo il lavoro. Utilizza i suoi chip grafici standard per la parte di calcolo più complessa della generazione delle risposte basate sull'IA, chiamata prefill, mentre si avvale dei chip Groq per la fase di decodifica più veloce, che richiede meno potenza di calcolo ma necessita di un accesso rapido ai dati.
Altre grandi aziende stanno facendo qualcosa di simile. Amazon Web Services ha annunciato il proprio sistema a componenti separati poco dopo un'importante conferenza tecnologica. Questo sistema combina i suoi chip Trainium personalizzati per le operazioni di precaricamento con i chip di dimensioni wafer di Cerebras per le operazioni di decodifica.
Anche Intel si è unita all'iniziativa, rivelando l'intenzione di abbinare chip grafici a processori di un'altra startup chiamata SambaNova. I chip grafici si occuperanno del precaricamento, mentre i chip di SambaNova gestiranno la decodifica.
La maggior parte delle aziende produttrici di chip più piccole ha ottenuto successo con le attività di decodifica. La memoria SRAM non può contenere molte informazioni, ma è estremamente veloce. Con un numero sufficiente di chip, o con un chip molto grande come quello prodotto da Cerebras , questi sistemi eccellono nelle attività di decodifica. Ma le aziende non si fermano qui.
Le nuove tecnologie mettono in discussione l'approccio split-chip
Lumai, un'altra startup, ha annunciato questa settimana di aver realizzato un chip che utilizza la luce anziché l'elettricità per le operazioni matematiche alla base dell'intelligenza artificiale. Questo approccio consuma molta meno energia rispetto ai chip tradizionali.
L'azienda prevede che i suoi prossimi sistemi Iris Tetra saranno in grado di offrire prestazioni di intelligenza artificiale pari a exaOPS consumando solo 10 kilowatt di potenza entro il 2029.
I chip combinano componenti ottici ed elettrici, ma la luce gestisce la maggior parte del lavoro durante l'inferenza. Lumai prevede di utilizzare questi chip inizialmente come sostituti autonomi dei chip grafici nelle elaborazioni batch. In seguito, l'azienda intende utilizzarli anche per le operazioni di pre-caricamento.
Non tutti ritengono che suddividere il lavoro tra chip diversi sia una scelta sensata. Tenstorrent ha lanciato questa settimana i suoi sistemi Galaxy Blackhole e l'amministratore delegato Jim Keller ha criticato questo approccio.
"Ogni azienda del settore si sta alleando per costruire l'acceleratore, l'acceleratore, l'acceleratore. Le CPU eseguono il codice. Le GPU accelerano le CPU. Le TPU accelerano le GPU. Le LPU accelerano le TPU. E così via. Questo porta a soluzioni complesse che difficilmente saranno compatibili con i cambiamenti nei modelli e negli utilizzi dell'IA. Noi di Tenstorrent abbiamo pensato che qualcosa di più generale e semplice avrebbe funzionato", ha affermato Keller.
Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter .