C’è un lato oscuro dell’intelligenza artificiale di cui si parla spesso ma di cui si tiene meno conto, e che non è altro che il suo costo climatico.
Nonostante tutto l’entusiasmo e il potenziale dell’intelligenza artificiale, richiede enormi quantità di energia per addestrare i modelli di intelligenza artificiale e, anche quando la usi per scrivere testo o creare immagini, richiede comunque energia sufficiente per funzionare. Questi processi comportano il rilascio di notevoli quantità di carbonio, a seconda di dove si trova il data center e dove opera il modello di intelligenza artificiale.

I modelli più grandi necessitano di più energia
Gli esperti affermano che man mano che la tecnologia matura e si sviluppa, le emissioni di carbonio non potranno che peggiorare col tempo, poiché le aziende stanno cercando di costruire modelli ancora più grandi perché la tecnologia ha una natura scalabile e le sue prestazioni aumentano con le dimensioni, il che a sua volta è vantaggioso per le imprese ma costoso per l’ambiente.
Alex de Vires afferma che i modelli più grandi comportano anche un maggiore fabbisogno energetico, il che non fa bene all'ambiente. È il fondatore di Digiconomist e l'area di ricerca della sua azienda studia le conseguenze ambientali delle nuove tecnologie.
L’addestramento di modelli di intelligenza artificiale su larga scala, come quelli che funzionano nel back-end di ChatGPT, consuma molta energia, come hanno stimato i ricercatori nel corso degli anni. David Petterson, professore di informatica alla UC Berkeley e autore principale del documento di ricerca pubblicato nel 2021, ha scritto che il modello AI GPT-3, che è stato perfezionato da OpenAI per essere utilizzato come ChatGPT, apparentemente richiedeva 1287 megawatt di energia elettrica per la formazione. Questa quantità di energia è sufficiente ad alimentare 123 case americane di medie dimensioni per un anno intero.
Anche se qui stiamo parlando del modello di intelligenza artificiale più famoso al mondo, che potrebbe essere il più grande dell'epoca, in seguito sono stati sviluppati anche molti altri modelli che consumano enormi quantità di energia.
Secondo Sacha Luccioni, responsabile AI e clima di Hugging Face, il modello Gopher, un progetto di Google DeepMind annunciato nel 2021, necessitava di circa 1066 megawattora, come ha menzionato in un altro documento di ricerca pubblicato nel 2022.
Il modello di attuale generazione ha un costo climatico ancora maggiore
Ma questi sono entrambi una sorta di generazione precedente di modelli di intelligenza artificiale e sono considerevolmente piccoli rispetto agli standard odierni. Il successore del GPT-3, GPT-4, è considerato 10 volte più grande e per addestrarlo ha richiesto un'energia compresa tra 51 e 62 gigawatt, che, secondo il ricercatore Kasper Groes Albin Ludvigsen, è più del fabbisogno collettivo di 4600 case americane.

Allo stesso modo, Google ora ha un modello molto più grande di Gopher, che si chiama Gemini, e nonostante Google non abbia rivelato quanta energia richiede, il calcolo è semplice: più grande costruisci, più energia richiede .
Queste stime riguardavano solo le fasi di sviluppo e formazione. C’è un altro punto importante, poiché questi modelli sono realizzati per essere utilizzati in operazioni del mondo reale che richiedono loro di produrre output in base alla loro formazione, e produrre tale output in risposta alle richieste degli utenti richiede anche energia.
Secondo gli esperti, la risposta di ChatGPT a 1000 domande richiede un consumo di 47 watt, che equivale ad alimentare cinque normali lampadine a LED per un'ora. Ora pensa a come tutto questo possa sommarsi rapidamente, poiché stiamo parlando solo di risposte basate su testo.
Gli esperti sostengono che gli sviluppatori di intelligenza artificiale possono ridurre la propria impronta di carbonio utilizzando data center che funzionano con energia pulita, poiché le emissioni di carbonio dell’intelligenza artificiale variano ampiamente a seconda di dove viene archiviata e opera.
Secondo Bloomberg, la domanda di elettricità è già aumentata negli ultimi tempi e la domanda aggiuntiva da parte di questi data center in espansione sta superando anche l’impiego di fonti di energia rinnovabile. Pertanto, le unità di fornitura in tutto il mondo stanno anche ritardando la chiusura delle centrali elettriche a carbone e gas naturale, il che si aggiunge anche all’impronta di carbonio dell’intelligenza artificiale.
La storia originale può essere vista qui .