Un recente briefing esecutivo di GlobalData ha fatto luce sulle preoccupazioni cruciali relative alla regolamentazione e alle implicazioni ambientali dell’intelligenza artificiale (AI). Il rapporto sottolinea gli impatti rivoluzionari dell’intelligenza artificiale in diversi settori, prevedendo un sostanziale tasso di crescita del settore del 35% tra il 2022 e il 2030, culminando potenzialmente in una sconcertante valutazione di 909 miliardi di dollari entro la fine del periodo di previsione. Tuttavia, in mezzo a una crescita esponenziale, si profilano interrogativi sulla fattibilità di stabilire uno standard globale per la regolamentazione dell’IA e sull’intricata relazione tra AI e sostenibilità ambientale.
Il rapporto evidenzia notevoli passi avanti nella regolamentazione dell’IA, citando in particolare l’imminente legge sull’intelligenza artificiale dell’UE, la cui entrata in vigore è prevista per la fine del 2023 o 2024. Destinata a garantire la natura non discriminatoria ed ecocompatibile dei modelli di intelligenza artificiale, la legge sottolinea la sicurezza, la trasparenza, e tracciabilità. Inoltre, il governo del Regno Unito è pronto a ospitare l’AI Safety Summit a novembre, volto a facilitare le discussioni sulla valutazione del rischio e sulle strategie di mitigazione, con l’ambizione di promuovere la cooperazione internazionale nella regolamentazione dell’IA.
Il direttore della ricerca tematica di GlobalData, Josep Bori, ha espresso preoccupazione riguardo al potenziale del Regno Unito di guidare il movimento globale per la sicurezza dell'intelligenza artificiale, dato l'attuale clima geopolitico post-Brexit. Bori ha sottolineato la necessità che le grandi organizzazioni internazionali e gli organismi di regolamentazione svolgano un ruolo centrale nella definizione degli standard globali, mettendo in guardia contro le potenziali limitazioni poste dalle iniziative dei singoli paesi.
La regolamentazione dell’intelligenza artificiale nel contesto dei progressi tecnologici
Valutando il panorama in evoluzione della regolamentazione dell’IA, Bori ha evidenziato i rapidi progressi nell’intelligenza artificiale generativa, prevedendo una situazione fluida nella sfera normativa per il prossimo futuro. Anticipando la potenziale divergenza tra le giurisdizioni e i frequenti cambiamenti normativi, Bori ha sottolineato l’ambiguità che circonda l’eventuale convergenza o divergenza del quadro normativo globale.
Benjamin Chin, analista associato in Thematic Intelligence presso GlobalData, ha aggiunto una nota di realismo, affermando che mentre i governi potrebbero emanare normative per elevare gli standard tecnici ed etici, le differenze intrinseche negli approcci nazionali, insieme all'influenza delle principali aziende tecnologiche, potrebbero impedire il raggiungimento di una visione unificata per la regolamentazione dell’IA.
La relazione sfaccettata tra intelligenza artificiale e ambiente rimane un punto focale nel briefing esecutivo di GlobalData. Riconoscendo il potenziale della tecnologia di danneggiare e apportare benefici all'ambiente, il rapporto evidenzia il sostanziale consumo di energia associato all'addestramento dell'intelligenza artificiale su modelli linguistici di grandi dimensioni (LLM). In particolare, sebbene questo consumo di energia sollevi preoccupazioni sulla sostenibilità, l’intelligenza artificiale può anche contribuire positivamente monitorando il consumo di energia rinnovabile nelle reti intelligenti e applicazioni simili.
Complessità etiche degli LLM e perpetuazione dei pregiudizi sociali
Bori ha sottolineato la crescente importanza delle considerazioni ambientali nel contesto dei LLM, anticipando uno spostamento verso la priorità dei LLM a bassa impronta di carbonio sulla scia della crescente enfasi sul rispetto dei quadri ambientali, sociali e di governance.
Chin ha evidenziato una preoccupazione specifica emersa dalla sesta edizione dell’AI Index Report 2023 pubblicata dall’Università di Stanford, citando le emissioni equivalenti di anidride carbonica prodotte da GPT-3 nel 2022.
Per contestualizzare, ha fatto un confronto, osservando che l’impronta di carbonio del GPT-3 è circa la metà di quella del volo di andata e ritorno di un singolo passeggero da Londra a New York.
Sottolineando le complessità etiche legate ai LLM , Chin ha sottolineato il potenziale di questi modelli di perpetuare i pregiudizi sociali esistenti, derivanti principalmente dall’assimilazione di grandi volumi di dati.
L’analisi completa di GlobalData sottolinea la necessità fondamentale di quadri normativi ponderati e completi per guidare lo sviluppo e l’implementazione dell’intelligenza artificiale, tenendo conto delle considerazioni etiche e degli impatti ambientali per garantire un panorama tecnologico sostenibile ed equo. Mentre il settore continua ad evolversi, la comunità globale deve impegnarsi per sforzi collaborativi e strategie coese per sfruttare tutto il potenziale dell’intelligenza artificiale, mitigando al tempo stesso i rischi associati.