Il capo delle Nazioni Unite avverte che l’intelligenza artificiale potrebbe aumentare la probabilità di guerre nucleari

La rapida espansione della tecnologia dell’intelligenza artificiale sta rendendo più probabile la minaccia di una guerra nucleare totale, ha avvertito il segretario generale delle Nazioni Unite, António Guterres. In un video registrato, Guterres ha affermato che l’umanità è seduta “sul filo del rasoio” mentre le nazioni corrono per costruire le armi più potenti, mettendo in pericolo vite umane.

Leggi anche: I dipendenti affermano che OpenAI e Google DeepMind nascondono i rischi dell'IA

Il video messaggio di avvertimento del capo delle Nazioni Unite avrebbe dovuto essere riprodotto alla conferenza annuale della US Arms Control Association (ACA) a Washington il 7 giugno, riferisce il Guardian. Guterres ha chiesto agli Stati dotati di armi nucleari di “riprendere il dialogo e di concordare che nessuno sarà il primo a lanciarne uno”.

Guterres vuole che l’intelligenza artificiale sia lontana dalle armi nucleari

Secondo il segretario generale, i sistemi costruiti per prevenire “l’uso, i test e la proliferazione delle armi nucleari” si sono indeboliti dalla fine della guerra fredda, più di 30 anni fa.

Si teme che, mentre nazioni come gli Stati Uniti e la Russia intensificano le azioni di deterrenza reciproca, potrebbero ricorrere all’intelligenza artificiale per facilitare le procedure di lancio nucleare. Secondo quanto riferito, entrambi i paesi hanno i loro missili balistici intercontinentali in massima allerta, il che significa che sono pronti a lanciare con un preavviso di pochi minuti.

Nel suo discorso video all'ACA, Guterres ha detto :

“L'umanità è sul filo del rasoio; il rischio che venga utilizzata un’arma nucleare ha raggiunto livelli mai visti dai tempi della guerra fredda. Gli Stati sono impegnati in una corsa agli armamenti qualitativa. Tecnologie come l’intelligenza artificiale stanno moltiplicando il pericolo”.

Guterres ha aggiunto che “tutti i paesi devono concordare sul fatto che qualsiasi decisione sull’uso del nucleare viene presa dagli esseri umani, non da macchine o algoritmi”.

Nel 2022, Stati Uniti, Regno Unito e Francia hanno rilasciato una dichiarazione congiunta in cui esprimono il loro impegno a garantire che gli esseri umani mantengano il controllo durante i lanci nucleari. Secondo i media del settore, Russia e Cina non hanno ancora assunto un impegno simile. La Federation of American Scientists stima che il numero di armi nucleari sia sceso da 70.300 nel 1986 a 12.100 quest’anno.

Gli scienziati lanciano l’allarme sull’IA

L'avvertimento di Guterres non è nuovo. Molti scienziati in passato hanno messo in guardia sui pericoli dell’intelligenza artificiale. Un rapporto del 2018 della Rand Corporation afferma che lo sviluppo dell’intelligenza artificiale aumenta il rischio di una guerra nucleare. Il rapporto afferma che l’integrazione dell’intelligenza artificiale, dell’apprendimento automatico e dell’analisi dei big data migliorerà la capacità dei militari di individuare, tracciare, prendere di mira e distruggere le forze deterrenti nucleari di un rivale.

Leggi anche: La potente intelligenza artificiale minaccia l’umanità: perché gli esperti insistono su una moratoria globale

Anche altri sono entrati nel dibattito. Per Bilawal Sidhu, ex responsabile dei prodotti Google, il dibattito sull’intelligenza artificiale può essere trattato come quello nucleare oppure può essere lasciato aperto. Ha sostenuto che un’intelligenza artificiale open source consentirebbe ai buoni attori di sorvegliare quelli cattivi, riducendo al minimo i rischi.

In una precedente intervista con Newsweek, l’ex segretario di Stato americano Henry Kissinger ha affermato che l’intelligenza artificiale è “altrettanto consequenziale” ma “meno prevedibile” delle armi nucleari. Kissinger ritiene che i rischi dell’intelligenza artificiale possano essere gestiti attraverso la cooperazione e la regolamentazione internazionale.


Reportage criptopolita di Jeffery Gogo

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto