La legge europea sull’intelligenza artificiale suscita preoccupazioni sui diritti dei migranti e dei richiedenti asilo

I politici europei hanno recentemente raggiunto un accordo provvisorio sull’attesissimo AI Act, un regolamento destinato a disciplinare l’uso dell’intelligenza artificiale in tutta l’Unione europea. Sebbene questo sviluppo segni un significativo passo avanti nella regolamentazione dell’IA, stanno emergendo preoccupazioni su potenziali scappatoie che potrebbero lasciare migranti e richiedenti asilo senza un’adeguata protezione dai sistemi biometrici dell’IA.

Agenzia per i migranti a rischio: intervengono i critici

Un articolo di ricerca pubblicato alla vigilia dell'approvazione dell'AI Act ha sollevato un campanello d'allarme, evidenziando come le pratiche obbligatorie di raccolta dei dati biometrici all'interno dell'UE possano minare l'azione dei migranti residenti nell'Eurozona. I critici sostengono che la legge, così com’è, potrebbe non riuscire a portare cambiamenti significativi per questo gruppo vulnerabile.

L'organizzazione per i diritti Algorithm Watch ha rilasciato una dichiarazione, sottolineando che la legge contiene eccezioni per i sistemi ad alto rischio, in particolare quelli utilizzati nella sicurezza nazionale, nelle forze dell'ordine e nella migrazione. Queste eccezioni consentono potenzialmente alle autorità di eludere le disposizioni fondamentali della legge. Tra i sistemi che destano preoccupazione ci sono il riconoscimento facciale in tempo reale utilizzato negli spazi pubblici per identificare i sospettati di reato e la tecnologia impiegata per valutare le emozioni dei richiedenti asilo.

Il livello di protezione che questi sistemi offriranno rimane incerto fino alla pubblicazione del testo finale dell’AI Act, aumentando l’ansia dei difensori dei diritti.

Migranti esclusi dalle tutele fondamentali

I gruppi di pressione hanno da tempo espresso le loro preoccupazioni circa l’esclusione dei migranti dalle tutele previste dalla legge sull’AI. L'esclusione da parte del Consiglio Europeo delle aree di controllo delle frontiere dalla definizione di “spazi accessibili al pubblico” è un punto particolarmente controverso. Questa esclusione apre la porta all’uso della sorveglianza biometrica remota in queste aree, sollevando ulteriormente interrogativi sui diritti e sulla privacy dei migranti.

In un rapporto pubblicato a settembre, il Border Violence Monitoring Network (BVMN), una coalizione impegnata nella promozione dei diritti dei migranti e dei richiedenti asilo, avverte che la crescente convergenza tra migrazione biometrica e database criminali potrebbe contribuire alla criminalizzazione dei migranti. BVMN critica inoltre la mancanza di tutele sostanziali e l’attenzione limitata ai diritti delle persone in movimento all’interno della legge sull’AI.

Responsabilità dell’outsourcing: una nuova preoccupazione

I paesi europei sembrano aver trovato una strada alternativa per gestire i dati biometrici dei migranti e i sistemi di intelligenza artificiale che si basano su di essi: l’outsourcing. Secondo BVNM, l’UE potrebbe compromettere i diritti dei richiedenti asilo trasferendo la responsabilità della gestione delle richieste a paesi terzi, in particolare quelli situati lungo la rotta migratoria dei Balcani occidentali, un importante percorso verso l’Europa.

I paesi balcanici hanno istituito il proprio sistema “Balkandac”, ispirato al database delle impronte digitali dell'UE, Eurodac, utilizzato per identificare i richiedenti asilo e gli attraversatori irregolari di frontiera. La cooperazione tra i paesi della regione, compresi i paesi non membri dell’UE come Serbia, Bosnia ed Erzegovina, insieme agli stati membri dell’UE e alle agenzie come Frontex, ha dato impulso allo sviluppo di questi sistemi di dati. I finanziamenti provenienti dagli strumenti di assistenza preadesione dell’UE e dagli accordi bilaterali con i paesi dell’UE hanno ulteriormente sostenuto queste iniziative nei Balcani occidentali.

Nonostante questi sviluppi, le preoccupazioni abbondano. Si ritiene che i sistemi di dati biometrici nei Balcani occidentali contribuiscano a una maggiore cartolarizzazione nella gestione dei flussi migratori verso l’UE. Oltre a rendere potenzialmente confusi i confini tra immigrazione e diritto penale, i sistemi Balkandac mancano di garanzie antidiscriminazione e potrebbero eludere i principi fondamentali della protezione dei dati.

È necessario un atto di bilanciamento

Mentre l’UE avanza verso la ratifica della legge sull’intelligenza artificiale, le preoccupazioni relative al suo impatto su migranti e richiedenti asilo rimangono importanti. I critici sostengono che senza tutele rigorose e una chiara attenzione ai diritti di queste popolazioni vulnerabili, la legge potrebbe inavvertitamente perpetuare la discriminazione e la sorveglianza.

Trovare un equilibrio tra la necessità di una regolamentazione efficace dell’IA per proteggere i diritti individuali, in particolare nel contesto della migrazione e dell’asilo, è un compito complesso. Quando verrà svelato il testo finale della legge sull’intelligenza artificiale, resta da vedere se i politici europei riusciranno ad affrontare queste preoccupazioni e a trovare il delicato equilibrio tra progresso tecnologico e diritti umani. Il tempo stringe e il mondo osserva da vicino.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto