L’Unione Europea ( UE ) è stata recentemente testimone di un controverso dibattito tra i suoi stati membri, la Commissione Europea e il Parlamento Europeo in merito alla storica legge sull’intelligenza artificiale (AI). Questa legislazione fondamentale, che mira a regolamentare la diffusione delle tecnologie di intelligenza artificiale all’interno dell’UE, ha suscitato sia elogi che critiche.
Mher Hakobyan, consulente per l’advocacy sull’intelligenza artificiale, ha espresso disappunto per quella che percepisce come un’occasione mancata per salvaguardare i diritti umani e la privacy.
Uno dei punti centrali di contesa all’interno della legge sull’AI è la regolamentazione della tecnologia di riconoscimento facciale. I sostenitori di una rigorosa regolamentazione dell’IA avevano inizialmente chiesto un divieto incondizionato del riconoscimento facciale dal vivo. Tuttavia, la versione finale della legislazione non soddisfa questa richiesta, consentendo un uso limitato della tecnologia di riconoscimento facciale con determinate garanzie.
Mher Hakobyan sostiene che questo compromesso rappresenta una significativa delusione, poiché sostiene che nessuna salvaguardia può prevenire efficacemente le potenziali violazioni dei diritti umani associate alla tecnologia di riconoscimento facciale. Afferma che la mancata imposizione di un divieto totale sulla tecnologia di riconoscimento facciale rappresenta un’occasione mancata per proteggere i diritti umani, lo spazio civico e lo stato di diritto nell’UE, che a suo avviso sono già tutti minacciati.
Esportazione di tecnologie IA dannose
Un altro aspetto controverso dell’AI Act è la regolamentazione delle esportazioni di tecnologia AI. Alcuni critici sostengono che la legislazione non è sufficientemente ampia nel prevenire l’esportazione di tecnologie di intelligenza artificiale che potrebbero essere utilizzate per scopi dannosi, come il punteggio sociale. L’AI Act consente alle aziende europee di esportare tecnologie di intelligenza artificiale che potrebbero essere ritenute illegali all’interno dell’UE, creando quello che Hakobyan considera un pericoloso doppio standard.
Hakobyan suggerisce che è preoccupante consentire alle aziende europee di trarre profitto da tecnologie riconosciute come inammissibilmente dannose per i diritti umani nei loro Stati d’origine. Ritiene che si sarebbero dovute adottare misure più forti per garantire che le tecnologie di intelligenza artificiale sviluppate all’interno dell’UE non vengano utilizzate per violare i diritti umani in altre parti del mondo.
Nonostante il carattere controverso del dibattito, è stato raggiunto un accordo politico provvisorio ad alto livello sulla legge sull’AI. Tuttavia, prima che possa diventare legge, sono previste intense riunioni tecniche per finalizzare il testo della legislazione.
Amnesty International chiede tutele più forti
Amnesty International, insieme a una coalizione di organizzazioni della società civile guidata dalla Rete europea per i diritti digitali (EDRi), sostiene una solida regolamentazione dell’IA nell’UE che dia priorità e protegga i diritti umani. La loro richiesta di un divieto totale dell’uso, dello sviluppo, della produzione, della vendita e dell’esportazione della tecnologia di riconoscimento facciale a fini di identificazione è stata un punto focale dei loro sforzi di difesa.
Il risultato dell’AI Act riflette le sfide legate alla ricerca di un equilibrio tra la promozione dell’innovazione e la protezione dei diritti fondamentali nel campo in rapida evoluzione dell’intelligenza artificiale. La decisione di consentire un uso limitato della tecnologia di riconoscimento facciale nell’ambito di misure di salvaguardia riconosce i potenziali benefici dell’intelligenza artificiale tentando al contempo di mitigarne i rischi. Tuttavia, critici come Mher Hakobyan sostengono che queste garanzie sono insufficienti e che un divieto assoluto di alcune applicazioni di intelligenza artificiale è necessario per prevenire violazioni dei diritti umani.
Il dibattito sull’AI Act evidenzia anche le complessità della regolamentazione delle tecnologie AI su scala globale. Mentre l’UE sta adottando misure per regolamentare l’IA all’interno dei suoi confini, l’esportazione delle tecnologie AI rimane una questione controversa. Trovare un equilibrio tra il sostegno all’innovazione europea e la prevenzione dell’uso improprio degli strumenti di intelligenza artificiale all’estero è una sfida con cui i politici continuano a confrontarsi.