La Casa Bianca ora vuole esaminare i modelli di intelligenza artificiale prima che vengano resi pubblici.

La Casa Bianca sta valutando un piano per esaminare alcuni dei sistemi di intelligenza artificiale più potenti prima che vengano resi pubblici.

La proposta, riportata per la prima volta dal New York Times il 4 maggio, introdurrebbe il controllo federale in un momento critico del ciclo di vita dell'IA, poco prima della sua implementazione. Le autorità sono sempre più preoccupate dal fatto che i modelli di frontiera siano ora in grado di individuare e sfruttare le vulnerabilità del software che sta alla base delle infrastrutture essenziali.

Un'analisi pubblicata da The Conversation evidenzia prove sempre più numerose del fatto che i recenti sistemi di intelligenza artificiale possono individuare un gran numero di vulnerabilità nei sistemi operativi e nei browser web. Questa capacità, pur essendo preziosa per la sicurezza difensiva, aumenta anche i rischi qualora tali strumenti venissero utilizzati in modo improprio o finissero nelle mani sbagliate.

Le capacità dei modelli inducono a ripensare le politiche.

La discussione sulle politiche in materia si è fatta più urgente dopo che Anthropic ha deciso di posticipare il lancio su larga scala del suo ultimo modello, Mythos . I test interni hanno rivelato funzionalità avanzate di sicurezza informatica, tra cui la capacità di identificare numerose vulnerabilità sfruttabili. In risposta, l'azienda ha limitato l'accesso a un gruppo ristretto di organizzazioni responsabili delle infrastrutture critiche attraverso l'iniziativa "Project Glasswing".

Secondo The Conversation , la Casa Bianca è intervenuta quando Anthropic ha valutato la possibilità di ampliare l'accesso all'IA, segnalando un approccio più attivo alla supervisione del settore, sebbene le politiche tecnologiche in generale siano rimaste relativamente guidate dal mercato.

Le preoccupazioni non si limitano a una singola azienda o a un singolo sistema. L'AI Safety Institute del Regno Unito ha riferito, in una valutazione di aprile, che OpenAI GPT-5.5 ha dimostrato prestazioni comparabili in attività avanzate di sicurezza informatica.

In un test evidenziato dall'istituto, il modello ha effettuato il reverse engineering di una macchina virtuale personalizzata e ha risolto una sfida complessa in pochi minuti, molto più velocemente di un esperto umano che utilizza strumenti professionali.

"Una questione fondamentale era se ciò rappresentasse una svolta specifica per un singolo modello o parte di una tendenza più ampia", ha scritto l'istituto nel suo rapporto. "I risultati di una prima verifica del GPT-5.5 suggeriscono quest'ultima ipotesi."

Nel complesso, i risultati suggeriscono che queste capacità stanno diventando una caratteristica comune dei sistemi di intelligenza artificiale più avanzati, piuttosto che una scoperta isolata.

Le preoccupazioni relative alla sicurezza dell'IA assumono una dimensione geopolitica

Le implicazioni si estendono oltre la tecnologia, arrivando a toccare la sicurezza nazionale. I ricercatori citati da The Conversation avvertono che gruppi legati a stati potrebbero utilizzare strumenti simili per condurre operazioni informatiche, potenzialmente prendendo di mira infrastrutture o sistemi economici.

Ci sono già i primi segnali di questo cambiamento. Anthropic ha segnalato che presunti attori statali stanno utilizzando i suoi modelli in campagne di spionaggio che colpiscono decine di organizzazioni. Nel frattempo, Microsoft e OpenAI hanno affermato nel 2024 che gruppi affiliati a governi stavano sfruttando l'intelligenza artificiale per potenziare gli attacchi informatici.

Allo stesso tempo, i ricercatori sono ancora alle prese con il problema di come controllare in modo affidabile questi sistemi. Uno studio citato da The Conversation suggerisce che i filtri di sicurezza applicati dopo l'addestramento possono essere aggirati, mentre alcuni modelli potrebbero apparire conformi senza eliminare completamente le funzionalità rischiose.

Ciò ha portato a una crescente convinzione tra i responsabili politici che le misure di sicurezza debbano essere integrate già durante lo sviluppo del modello, anziché essere aggiunte in un secondo momento.

Prospettive politiche: quadri normativi frammentati, pressioni crescenti

La proposta statunitense sta prendendo forma all'interno di un panorama normativo globale più ampio e in continua evoluzione:

  • La legge europea sull'intelligenza artificiale definisce un quadro normativo basato sul rischio, con requisiti rigorosi per le applicazioni ad alto rischio, pur non imponendo un'approvazione centralizzata per i modelli di frontiera.
  • Il Regno Unito si è affidato alla cooperazione volontaria attraverso l'UK AI Safety Institute, concentrandosi su collaborazioni di test e valutazione con gli sviluppatori.
  • L'approccio emergente negli Stati Uniti sembra orientarsi verso una supervisione diretta dei sistemi più avanzati, potenzialmente attraverso una revisione preventiva prima del rilascio.

I legislatori hanno iniziato ad esaminare più attentamente queste questioni, con audizioni al Congresso ad aprile sulla sicurezza e la governance dell'IA, sebbene non sia ancora stata avanzata alcuna legislazione completa.

Se implementato, un sistema statunitense di revisione preventiva dei farmaci rappresenterebbe un passo avanti verso un intervento più tempestivo, ponendo la supervisione nel momento in cui i rischi possono essere previsti, anziché dopo che si sono manifestati.

Una simile mossa potrebbe stabilire uno standard globale informale, soprattutto considerando la concentrazione di importanti sviluppatori di intelligenza artificiale negli Stati Uniti. Allo stesso tempo, solleva la possibilità che le aziende possano spostare parte dello sviluppo o dell'implementazione in regioni con minori restrizioni.

La sfida per i responsabili politici consiste nel bilanciare l'innovazione con la gestione del rischio in un settore in cui le capacità si evolvono rapidamente e le conseguenze di un uso improprio potrebbero essere di vasta portata.

Per ora, le misure di sicurezza più concrete rimangono volontarie. Aziende come Anthropic limitano l'accesso ai sistemi sensibili, mentre organizzazioni come l'UK AI Safety Institute continuano a condurre valutazioni indipendenti.

La formalizzazione dell'approccio statunitense e l'eventuale adesione di altri Paesi a tale approccio saranno fattori chiave nel definire la regolamentazione dell'intelligenza artificiale nei prossimi anni.

La tua banca si sta usando i tuoi soldi. A te restano solo le briciole. Guarda il nostro video gratuito su come diventare la tua banca.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto