Il presidente cinese Xi Jinping e il presidente americano Joe Biden hanno convenuto, in una storica conferenza tenutasi il mese scorso a San Francisco, che è fondamentale “affrontare il rischio dei sistemi avanzati di intelligenza artificiale e aumentare la sicurezza dell’intelligenza artificiale”. Sebbene le due superpotenze si siano impegnate a cooperare per controllare l’uso dell’intelligenza artificiale da parte dei militari, la mancanza di dettagli e i loro continui disaccordi rendono improbabile che ciò accada.
Navigare nelle turbolenze geopolitiche – La sfida di regolamentare l’intelligenza artificiale militare
Mentre la corsa per la supremazia dell’IA nelle applicazioni militari si intensifica tra Cina e Stati Uniti, emergono preoccupazioni sulla loro capacità di andare oltre le rivalità geopolitiche e gestire efficacemente i rischi associati ai sistemi avanzati di IA. Sottolineando la necessità di regolamentare l’uso militare dell’intelligenza artificiale, i leader di entrambe le nazioni non sono riusciti a fornire dettagli concreti durante il loro recente vertice, lasciando la comunità internazionale a dubitare della portata del loro impegno.
La collaborazione del 2019 tra Cina, Stati Uniti e altre 96 nazioni sulle linee guida per i sistemi d’arma letali autonomi (LAWS) potenziati con l’intelligenza artificiale evidenzia un riconoscimento condiviso della necessità di mantenere la responsabilità umana nel loro utilizzo. Tuttavia, la natura non vincolante di queste linee guida e la mancanza di una definizione comune delle LEGGI presentano ostacoli significativi. Il dottor Guangyu Qiao-Franco, assistente professore specializzato in politica e intelligenza artificiale, esprime scetticismo sulla capacità di Stati Uniti e Cina di trascendere gli accordi esistenti e collaborare in modo efficace. I motivi alla base della limitazione dello sviluppo tecnologico e della crescente indipendenza tecnologica continuano a mettere a dura prova le relazioni tra le due nazioni.
Le molteplici applicazioni dell’intelligenza artificiale nelle operazioni militari sollevano preoccupazioni sulla minimizzazione dell’impatto sui civili. Neil Davison, consulente scientifico e politico senior presso il Comitato internazionale della Croce Rossa, sottolinea la necessità che le normative si concentrino su specifiche applicazioni dell’IA piuttosto che su principi generali. Il riconoscimento delle immagini per l’identificazione degli obiettivi, l’analisi dei dati per il processo decisionale sul campo di battaglia e il potenziale di attacchi informatici guidati dall’intelligenza artificiale pongono sfide che richiedono quadri normativi su misura.
Vulnerabilità reciproca – Un potenziale catalizzatore per la cooperazione
La mancanza di una definizione chiara di sistemi d’arma autonomi letali complica gli sforzi per regolamentarli o vietarli attraverso trattati internazionali. Emergono divisioni tra le nazioni sviluppate e quelle in via di sviluppo, con gli stati più ricchi che sostengono restrizioni strettamente definite per consentire armi precise e stabili guidate dall’intelligenza artificiale. La posizione unica della Cina, che sottolinea il suo ruolo di voce del Sud del mondo, rappresenta una sfida, poiché allo stesso tempo investe sostanzialmente nella ricerca sull’intelligenza artificiale e presenta una definizione ristretta di LEGGI.
La reciproca vulnerabilità derivante dall’impiego di sistemi di intelligenza artificiale militare può fungere da catalizzatore per la Cina e gli Stati Uniti per stabilire normative vincolanti. Gli incontri backchannel tra le due nazioni, comprese le discussioni tra il Centro per la sicurezza e la strategia internazionale dell’Università di Tsinghua e la Brookings Institution con sede a Washington, indicano la volontà di impegnarsi in dialoghi sull’intelligenza artificiale. La dottoressa Lora Saalman, ricercatrice senior presso lo Stockholm International Peace Research Institute, suggerisce che una dichiarazione congiunta USA-Cina sull’importanza del controllo umano nel processo decisionale sul nucleare potrebbe essere un valido punto di partenza.
Scenario futuro della gestione dei rischi globali dell’IA nelle attività militari
Mentre Cina e Stati Uniti affrontano le complessità dei rischi legati all’IA , la domanda rimane: queste potenze globali riusciranno a superare le loro differenze geopolitiche e stabilire un insieme comune di norme vincolanti per l’applicazione militare dell’IA? Le sfide legate alla definizione dei termini, le prospettive divergenti sulle LEGGI e il rapido ritmo del progresso tecnologico dell’intelligenza artificiale creano barriere formidabili. Tuttavia, con la vulnerabilità reciproca sotto i riflettori, c’è un barlume di speranza che possano emergere sforzi di collaborazione, potenzialmente plasmando il futuro dell’uso responsabile dell’IA in ambito militare. Riusciranno queste nazioni a trovare un terreno comune e ad aprire la strada alla creazione di normative efficaci, oppure le tensioni geopolitiche continueranno a impedire il progresso in questo ambito critico?