Il Parlamento europeo approva una legge fondamentale sull’intelligenza artificiale

L’Unione Europea ha compiuto un passo significativo verso la regolamentazione del campo in rapida evoluzione dell’intelligenza artificiale (AI) dando l’approvazione definitiva all’Artificial Intelligence Act, una legislazione innovativa che mira a stabilire un quadro completo per lo sviluppo e l’uso dei sistemi di IA all’interno del mondo. Blocco di 27 nazioni.

La legge sull’intelligenza artificiale, in lavorazione da cinque anni, è stata approvata a stragrande maggioranza dai membri del Parlamento europeo, segnando un momento cruciale nella ricerca per garantire che la tecnologia dell’intelligenza artificiale sia sviluppata e utilizzata in modo responsabile e incentrato sull’uomo.

Un segnale globale

Si prevede che l’Artificial Intelligence Act fungerà da segnale globale per altri governi alle prese con la sfida di regolamentare la tecnologia dell’intelligenza artificiale. Dragos Tudorache, un deputato rumeno che è stato co-leader dei negoziati del Parlamento sul progetto di legge, ha sottolineato l’importanza della legislazione, affermando: “La legge sull’intelligenza artificiale ha spinto il futuro dell’intelligenza artificiale in una direzione incentrata sull’uomo, in una direzione dove gli esseri umani hanno il controllo della tecnologia e dove essa – la tecnologia – ci aiuta a sfruttare le nuove scoperte, la crescita economica, il progresso sociale e a sbloccare il potenziale umano”.

Approccio basato sul rischio

L’AI Act adotta un approccio basato sul rischio per regolamentare i sistemi di IA, con un livello di controllo che aumenta proporzionalmente ai potenziali rischi posti dalla tecnologia. I sistemi a basso rischio, come i sistemi di raccomandazione dei contenuti o i filtri antispam, dovranno affrontare regole più leggere, che richiedono principalmente trasparenza sull’uso dell’intelligenza artificiale.

D’altro canto, le applicazioni ad alto rischio dell’IA, compresi i dispositivi medici e i sistemi di infrastrutture critiche, dovranno affrontare requisiti più severi, come l’uso di dati di alta qualità e la fornitura di informazioni chiare agli utenti.

Alcuni usi dell’intelligenza artificiale ritenuti rappresentare un rischio inaccettabile sono completamente vietati dalla nuova legislazione. Questi includono sistemi di punteggio sociale che governano il comportamento umano, alcuni tipi di polizia predittiva e sistemi di riconoscimento delle emozioni nelle scuole e nei luoghi di lavoro. Inoltre, la legge vieta alle forze dell’ordine di utilizzare sistemi di “identificazione biometrica” remoti basati sull’intelligenza artificiale negli spazi pubblici, tranne nei casi di crimini gravi come rapimenti o terrorismo.

Il regolamento affronta anche la sorprendente crescita di modelli di IA generici, come ChatGPT di OpenAI, introducendo disposizioni per la loro supervisione. Agli sviluppatori di questi modelli sarà richiesto di fornire riepiloghi dettagliati dei dati utilizzati per la formazione, seguire la legge sul copyright dell’UE ed etichettare i deepfake generati dall’intelligenza artificiale come manipolati artificialmente.

Affrontare i rischi sistemici

Riconoscendo il potenziale per i potenti modelli di intelligenza artificiale di porre “rischi sistemici”, l’AI Act impone un ulteriore controllo sui sistemi più grandi e avanzati, tra cui GPT4 di OpenAI e Gemini di Google. Le aziende che forniscono questi sistemi dovranno valutare e mitigare i rischi, segnalare incidenti gravi, implementare misure di sicurezza informatica e divulgare i dati sul consumo energetico.

Le preoccupazioni dell’UE derivano dalla possibilità che questi potenti sistemi di intelligenza artificiale causino gravi incidenti, vengano utilizzati in modo improprio per attacchi informatici o diffondano pregiudizi dannosi in numerose applicazioni, colpendo un gran numero di persone.

Se da un lato l’AI Act mira a stabilire un quadro per lo sviluppo responsabile dell’IA, dall’altro cerca anche di promuovere l’innovazione all’interno dell’UE. Le grandi aziende tecnologiche hanno generalmente sostenuto la necessità di una regolamentazione, esercitando allo stesso tempo pressioni per garantire che le regole funzionino a loro favore.

Il CEO di OpenAI, Sam Altman, inizialmente ha suscitato scalpore suggerendo che la società potrebbe ritirarsi dall'Europa se non dovesse rispettare l'AI Act, ma in seguito ha fatto marcia indietro, affermando che non c'erano piani per andarsene.

Mentre il mondo è alle prese con il rapido progresso della tecnologia dell’intelligenza artificiale, la legge sull’intelligenza artificiale dell’Unione europea rappresenta uno sforzo pionieristico per trovare un equilibrio tra la promozione dell’innovazione e l’affrontare i potenziali rischi e le sfide poste da questa tecnologia trasformativa.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto