È in gioco la sicurezza nazionale – L’AI Institute del Regno Unito sollecita cautela nell’implementazione di tecnologie di intelligenza artificiale generativa

Con una mossa, l'Alan Turing Institute, il principale istituto nazionale per l'intelligenza artificiale del Regno Unito, ha pubblicato un rapporto completo che esorta il governo a stabilire "linee rosse" per l'implementazione dell'intelligenza artificiale generativa, soprattutto in contesti in cui la tecnologia potrebbe intraprendere azioni irreversibili senza controllo umano diretto. Il rapporto, pubblicato venerdì sera tardi, sottolinea le preoccupazioni dell’istituto sull’inaffidabilità e sulla natura soggetta a errori degli attuali strumenti di intelligenza artificiale generativa, in particolare in scenari ad alto rischio all’interno della sicurezza nazionale.

Inaffidabilità dell’intelligenza artificiale generativa e rischi per la sicurezza nazionale

Il rapporto dell’Alan Turing Institute evidenzia le attuali carenze degli strumenti di intelligenza artificiale generativa, sottolineandone l’inaffidabilità e la propensione agli errori, soprattutto in contesti critici per la sicurezza nazionale. Ciò evidenzia la necessità di un cambiamento fondamentale nella mentalità per tenere conto dei modi involontari o incidentali in cui l’intelligenza artificiale generativa pone rischi per la sicurezza nazionale. Il rapporto suggerisce che l’eccessivo affidamento degli utenti ai risultati generati dall’intelligenza artificiale potrebbe portare a una riluttanza a contestare informazioni potenzialmente errate.

Il rapporto individua specificamente gli agenti autonomi come una delle principali applicazioni dell’intelligenza artificiale generativa che richiede una stretta supervisione in un contesto di sicurezza nazionale. Pur riconoscendo il potenziale della tecnologia per accelerare l’analisi della sicurezza nazionale, avverte che gli agenti autonomi non hanno un ragionamento a livello umano e non possono replicare la comprensione innata del rischio cruciale per evitare il fallimento.

Le mitigazioni proposte includono la registrazione di azioni e decisioni prese da agenti autonomi, l’aggiunta di avvisi a ogni fase dell’output dell’intelligenza artificiale generativa e la documentazione degli scenari peggiori.

Raccomandazioni del governo e restrizioni stringenti

L’Alan Turing Institute raccomanda restrizioni rigorose in aree in cui è richiesta la “fiducia perfetta”, come il comando e controllo nucleare e potenzialmente in aree meno esistenziali come la polizia e la giustizia penale. Il rapporto suggerisce di implementare freni di sicurezza per i sistemi di intelligenza artificiale che controllano le infrastrutture critiche, simili ai sistemi di frenatura in altre tecnologie. Tuttavia, sottolinea l’importanza di considerare limiti e rischi, soprattutto per gli alti funzionari che potrebbero non condividere la cautela del personale operativo.

Il rapporto segnala inoltre l’ uso dannoso dell’IA generativa come un problema di sicurezza, sottolineando che la tecnologia aumenta i rischi sociali esistenti come disinformazione, frode e materiale pedopornografico. I cattivi attori, non vincolati dai requisiti di accuratezza e trasparenza, rappresentano una minaccia. Il rapporto raccomanda il sostegno del governo per le funzionalità di watermarking resistenti alle manomissioni, richiedendo impegni da parte dei produttori di GPU come NVIDIA e il coordinamento del governo internazionale. Le sfide all’implementazione sono riconosciute come formidabili.

L'urgente appello per "Red Lines For Generative AI" da parte dell'Alan Turing Institute, il rapporto esplora la delicata intersezione tra innovazione tecnologica e sicurezza nazionale. L’enfasi dell’istituto su un cambiamento di paradigma riconosce l’inaffidabilità degli attuali strumenti di intelligenza artificiale generativa, in particolare in scenari ad alto rischio, e sottolinea la necessità di restrizioni e misure di sicurezza rigorose.

Mentre il governo del Regno Unito è alle prese con la regolamentazione dell’intelligenza artificiale, le raccomandazioni fungono da tabella di marcia, sollecitando un approccio proattivo per mitigare i rischi associati agli agenti autonomi e all’uso dannoso. La domanda rimane: come possono i quadri normativi adattarsi per bilanciare innovazione e sicurezza, garantendo l’evoluzione responsabile dell’intelligenza artificiale generativa nel nostro complesso panorama socio-tecnico? La sfida sta nel tradurre queste raccomandazioni in politiche efficaci che tutelino contro potenziali minacce promuovendo al contempo il continuo progresso tecnologico.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto