L’intelligenza artificiale è diventata parte integrante della vita moderna, alimentando varie applicazioni, incluso chatgpt che assiste in attività che vanno dal recupero di informazioni alla generazione di contenuti creativi. Sebbene i vantaggi dell’intelligenza artificiale siano evidenti, la ricerca emergente evidenzia una preoccupazione meno discussa: i sostanziali costi ambientali associati a modelli linguistici di grandi dimensioni come ChatGPT e Bing Copilot.
Consumo energetico della formazione del modello linguistico
Modelli linguistici di grandi dimensioni come ChatGPT e Bing Copilot richiedono ampia potenza di calcolo ed elettricità durante i processi di formazione. Secondo uno studio condotto da ricercatori dell’Università di Washington, l’addestramento di un unico grande modello linguistico come ChatGPT-3 può consumare fino a 10 gigawattora (GWh) di energia. Per metterlo in prospettiva, è più o meno equivalente al consumo annuo di elettricità di oltre 1.000 famiglie statunitensi. Inoltre, l’impronta di carbonio della formazione ChatGPT-3 può variare da 55 a 284 tonnellate di CO2, a seconda della fonte di energia elettrica.
Esecuzione di modelli linguistici e loro impatto ambientale
Sebbene il consumo di energia per l’esecuzione di modelli linguistici come Bing Copilot o ChatGPT sia inferiore a quello del loro addestramento, contribuisce comunque alle preoccupazioni ambientali. Il consumo energetico effettivo dipende da fattori quali le dimensioni del modello, il numero di token elaborati e l'efficienza dell'hardware e del software. Le stime suggeriscono che una singola query ChatGPT-4 consuma tra 0,001 e 0,01 kWh, che è significativamente superiore all'energia consumata da una tipica query di ricerca di Google (0,0003 kWh).
Gli impatti ambientali derivanti dall’utilizzo dei sistemi di intelligenza artificiale, inclusi ChatGPT e Bing Copilot, non sono trascurabili. Con la crescita della domanda di servizi di intelligenza artificiale, cresce anche la necessità che i data center ospitino i server e le apparecchiature che supportano questi sistemi. I data center sono noti per il loro consumo energetico, che include sia il funzionamento dell'hardware che la gestione dell'alimentazione e del raffreddamento. A livello globale, i data center rappresentano circa l’1-1,5% del consumo di elettricità e lo 0,3% delle emissioni di CO2. Inoltre, queste strutture utilizzano notevoli quantità di acqua sia per il raffreddamento che per la produzione di elettricità.
Un rapporto di Livemint rivela che il solo ChatGPT-3 consuma circa 800.000 litri di acqua all'ora. Ciò equivale al fabbisogno idrico giornaliero di 40.000 persone. Queste cifre sottolineano il notevole impatto ambientale dei sistemi di intelligenza artificiale.
Riduzione del consumo energetico e dell’impatto ambientale
Migliorare l'efficienza dell'hardware e del software: migliorare la progettazione e l'efficienza dell'hardware e del software può ridurre il consumo energetico. Tecniche come il raffreddamento a immersione liquida possono aiutare a ridurre il calore dell'hardware e a ridurre al minimo le emissioni di carbonio e il consumo di acqua nei data center.
Transizione verso le energie rinnovabili: il passaggio a fonti di energia rinnovabile come quella eolica, solare e idroelettrica può alimentare i data center in modo più sostenibile. I paesi con abbondanti risorse naturali, come la Norvegia e l’Islanda, hanno già adottato questo approccio per ridurre la propria impronta di carbonio.
Uso responsabile dell’intelligenza artificiale: limitare l’uso dei modelli di intelligenza artificiale ad applicazioni significative ed essenziali evitando scopi banali o dannosi può contribuire al risparmio energetico e alla responsabilità sociale. Concentrarsi sulla creazione di contenuti educativi o artistici, anziché sulla generazione di notizie false o spam, può avere un impatto sociale positivo.
Il futuro del consumo energetico nell’intelligenza artificiale
Il futuro del consumo energetico nell’intelligenza artificiale appare promettente, con i progressi tecnologici che portano a modelli di intelligenza artificiale e data center più efficienti dal punto di vista energetico. Si prevede inoltre un aumento dell’adozione di fonti energetiche rinnovabili. Tuttavia, poiché l’intelligenza artificiale diventa sempre più onnipresente, è essenziale continuare a porre l’accento sulla riduzione del consumo energetico e sulla promozione di pratiche sostenibili.
Nonostante la crescente preoccupazione per l’impatto ambientale dell’intelligenza artificiale, ottenere dati accurati rimane una sfida significativa. Le ricerche esistenti e gli studi emergenti si basano su set di dati e proiezioni stimati, poiché gli sviluppatori non hanno rivelato pubblicamente l’intera portata degli input energetici, delle emissioni di carbonio e dell’impronta idrica dell’IA.
Uno studio di Li et al. nel 2023 ha evidenziato che la domanda globale di IA potrebbe potenzialmente portare al prelievo di 4,2-6,6 miliardi di metri cubi di acqua nel 2027, superando il prelievo totale annuo di acqua di metà del Regno Unito. Ciò sottolinea l’urgente necessità di una maggiore trasparenza nella valutazione dell’impatto ambientale dell’IA.
Richiesta di maggiore responsabilità e trasparenza
Per affrontare queste preoccupazioni in modo efficace, esiste una crescente necessità di maggiore trasparenza per quanto riguarda le emissioni sia operative che di sviluppo derivanti dai processi di intelligenza artificiale. Gli sviluppatori dovrebbero divulgare i dati relativi all’efficienza idrica e fornire confronti tra diversi input energetici. Tale trasparenza consentirà decisioni e valutazioni informate degli impatti ambientali di modelli linguistici come ChatGPT e Bing Copilot.