Il costo dell’addestramento dei modelli di intelligenza artificiale (AI) è alle stelle, con proiezioni che suggeriscono un aumento significativo nei prossimi anni. Dario Amodei, CEO della startup AI Anthropic, ha evidenziato queste spese in aumento durante una recente puntata del podcast “In Good Company”.
Gli attuali modelli di intelligenza artificiale avanzata, come ChatGPT-4, richiedono circa 100 milioni di dollari per la formazione. Ma secondo Amodei nei prossimi tre anni questa cifra potrebbe salire tra i 10 e i 100 miliardi di dollari.
Lo sviluppo dell’intelligenza artificiale generale fa aumentare i costi
Il forte aumento è dovuto al passaggio dall’intelligenza artificiale generativa, come ChatGPT, all’intelligenza generale artificiale (AGI). Il progresso verso l’AGI mira a sviluppare sistemi in grado di comprendere, acquisire e utilizzare la conoscenza in modo simile alla mente umana.
"Penso che se arriviamo a 10 o 100 miliardi di dollari, e penso che ciò accadrà nel 2025, 2026, forse 2027… allora penso che ci siano buone probabilità che per allora saremo in grado di ottenere modelli migliori di la maggior parte degli esseri umani nella maggior parte delle cose.
Amodei
Secondo Tom's Hardware, al momento il quadro esistente per questi progressi è enorme. Ad esempio, per addestrare ChatGPT, erano necessarie oltre 30.000 GPU e ogni chip AI Nvidia B200 costa tra $ 30.000 e $ 40.000. Questo investimento hardware è uno degli elementi che potrebbero causare l'aumento delle spese.
Le risorse computazionali fanno lievitare i costi di formazione dell’IA
Esistono diversi motivi per cui il costo della formazione per l’IA è in aumento. Il motivo principale è che la quantità di risorse computazionali necessarie è immensa. Con il progresso dei modelli di deep learning, sono necessarie GPU potenti e altro hardware appositamente progettato. Nel 2023 sono state spedite ai data center oltre 3,8 milioni di GPU, il che dimostra la portata dell’infrastruttura richiesta.
Leggi anche: L’intelligenza artificiale influenzerà un’ampia gamma di servizi pubblici
Un altro fattore importante è il consumo energetico. Il consumo energetico di tutte le GPU vendute lo scorso anno sarebbe sufficiente ad alimentare 1,3 milioni di case. Questo elevato consumo di energia non solo comporta spese elevate per l’azienda, ma solleva anche problemi sugli effetti sull’ambiente e sulla conservazione. Secondo un recente rapporto di Google, le emissioni dell’azienda sono aumentate di quasi il 50% in quattro anni, principalmente a causa dell’energia necessaria per l’apprendimento dell’intelligenza artificiale.
I giganti della tecnologia investono molto nelle infrastrutture di intelligenza artificiale
Inoltre, le principali aziende tecnologiche stanno investendo molti soldi nel progresso dell’intelligenza artificiale. Ad esempio, Elon Musk vuole acquistare 300.000 chip IA all'avanguardia di Nvidia. Allo stesso modo, si dice che Microsoft e OpenAI stiano lavorando su un data center da 100 miliardi di dollari per il progresso dell’intelligenza artificiale.
Leggi anche: Wimbledon utilizza l'intelligenza artificiale per combattere gli abusi online
Nonostante l’aumento dei costi si tenta di ottimizzare i costi della formazione basata sull’intelligenza artificiale. DeepMind di Google ha recentemente presentato una tecnica chiamata Joint Esempio Selection (JEST) che pretende di ridurre il numero di iterazioni di un fattore 13 e le risorse computazionali necessarie di un fattore 10. Ciò aiuta a ridurre le risorse da utilizzare e il tempo essere preso.
Tuttavia, anche con questi progressi, la direzione generale è verso costi più elevati dovuti al progresso dell’AGI. Dall’intelligenza artificiale generativa all’AGI, i modelli sono tenuti a interpretare grandi set di dati, imparare da essi, anticipare situazioni diverse e risolvere problemi che richiedono pensiero critico.
Reporting criptopolitico di Brenda Kanana