OpenAI e Anthropic si contendono i finanziamenti di private equity mentre i costi dell’IA aumentano.

OpenAI sta cercando di superare Anthropic con gli investitori di private equity, avendo introdotto, secondo quanto riportato, un nuovo rendimento minimo garantito del 17,5% e l'accesso anticipato ai suoi modelli più recenti.

Questa proposta è rivolta ad aziende come TPG e Advent, ma in realtà si tratta di una lotta per la distribuzione.

Vedete, il mondo funziona così: queste società di private equity possiedono grandi gruppi di aziende private consolidate, quindi questo offre a OpenAI un modo più rapido per lanciare strumenti, consolidare l'utilizzo e generare entrate più stabili prima di una possibile quotazione in borsa già quest'anno, anche se, a essere sinceri, Anthropic sta vincendo a mani basse.

OpenAI intensifica la sua azione contro le società di private equity, mentre la battaglia per i clienti aziendali si fa sempre più costosa.

La struttura della joint venture contribuisce anche a coprire gli ingenti costi iniziali necessari per implementare l'intelligenza artificiale nelle grandi aziende. Questo lavoro richiede solitamente che gli ingegneri personalizzino i modelli per ogni cliente, e ciò comporta un rapido esborso di denaro.

Sia OpenAI che Anthropic sono ora in competizione per siglare queste partnership con fondi di private equity, e questo tipo di competizione è ancora piuttosto nuova nel campo dell'intelligenza artificiale.

Nel frattempo, intervenendo all'inizio di questo mese al BlackRock US Infrastructure Summit di Washington, Sam Altman, CEO di OpenAI, ha affermato: "Qualsiasi cosa di queste dimensioni comporta la probabilità che si verifichino troppi problemi".

Ha fatto riferimento a un evento meteorologico estremo che ha colpito un data center ad Abilene, in Texas, causando un temporaneo blocco delle attività, dato che quel campus è il sito principale del progetto Stargate da 500 miliardi di dollari che coinvolge OpenAI, Oracle e SoftBank.

Il mese scorso, OpenAI ha raggiunto una valutazione di 730 miliardi di dollari in un round di finanziamento da record, subito dopo aver rinunciato ad alcuni ingenti piani di spesa, accantonato ambizioni più grandi e accettato che potrebbe essere più conveniente acquistare enormi quantità di capacità cloud piuttosto che tentare di costruire autonomamente enormi data center.

Sam Altman sta ridimensionando i suoi progetti di implementazione su larga scala, poiché la carenza di risorse di calcolo continua a mettere sotto pressione OpenAI.

Questo cambiamento non rende la competizione più facile. OpenAI deve comunque tenere il passo con Anthropic, Google e altre aziende che sviluppano modelli, app e funzionalità.

Il problema è che l'addestramento e l'esecuzione di modelli di intelligenza artificiale richiedono enormi quantità di chip, potenza di elaborazione, memoria ed energia. Sam e altri dirigenti affermano da anni che la potenza di calcolo rappresenta uno dei maggiori colli di bottiglia dell'azienda.

Nonostante ciò, OpenAI ha continuato a raccogliere somme di denaro sbalorditive, tra cui 110 miliardi di dollari all'inizio di quest'anno, di cui 50 miliardi provenienti da Amazon.

A novembre, Sam ha scritto su X che OpenAI e altre aziende "devono limitare il numero di funzionalità e modelli dei nostri prodotti e non offrirli perché ci troviamo di fronte a una grave limitazione della potenza di calcolo".

Prima di allora, gran parte della storia relativa a OpenAI riguardava l'aggressività con cui Sam stava cercando di assicurarsi capacità.

L'azienda ha siglato una serie di accordi infrastrutturali multimiliardari con Nvidia, Advanced Micro Devices e Broadcom. Nello stesso post di novembre, Sam aveva affermato che OpenAI stava valutando impegni per circa 1.400 miliardi di dollari nei successivi otto anni.

Come fa un'azienda con un fatturato annuo di 13,1 miliardi di dollari (che, tra l'altro, non è ancora stato realizzato) ad assumersi impegni di tale portata? L'ultimo round di finanziamento ha portato all'aggiunta di ulteriori accordi di capacità produttiva.

Nell'ambito del pacchetto di finanziamenti da 110 miliardi di dollari annunciato il mese scorso, OpenAI ha accettato di utilizzare circa 2 gigawatt di capacità di Trainium tramite Amazon Web Services. Trainium è il chip AI personalizzato di AWS e Amazon ha lanciato Trainium3 a dicembre.

Anche Nvidia ha partecipato al round di finanziamento con un investimento di 30 miliardi di dollari. OpenAI ha dichiarato di aver ampliato la propria collaborazione con Nvidia e di aver concordato l'utilizzo di 3 gigawatt di capacità di inferenza dedicata e 2 gigawatt di capacità di addestramento sui futuri sistemi Vera Rubin di Nvidia.

Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto