Il presidente della Fed Bowman segnala i crescenti rischi dell’intelligenza artificiale per le banche e chiede una supervisione coordinata.

Michelle Bowman, vicepresidente della Federal Reserve per la vigilanza, ha esortato le autorità di regolamentazione a collaborare più strettamente, dato che gli strumenti di intelligenza artificiale si stanno rapidamente diffondendo nel sistema bancario, avvertendo che la stessa tecnologia che aiuta le aziende a difendersi potrebbe anche essere usata contro di loro.

Intervenendo a una tavola rotonda del Financial Stability Oversight Council sulla sicurezza informatica e l'intelligenza artificiale, Bowman ha affermato che le autorità di regolamentazione stanno ancora cercando di capire "come supervisionare al meglio" queste tecnologie in rapida evoluzione, man mano che le banche iniziano a integrarle nelle loro operazioni principali.
Un esempio che ha citato è Mythos, un sistema avanzato sviluppato da Anthropic in grado di scansionare i software alla ricerca di vulnerabilità.

Mythos di Anthropic … mostra la natura dinamica di questa tecnologia e la rapidità con cui le sue capacità possono svilupparsi.”

La preoccupazione, ha indicato Bowman, è semplice ma seria: gli strumenti che aiutano le banche a individuare le vulnerabilità nei loro sistemi potrebbero essere altrettanto facilmente utilizzati dagli aggressori per sfruttarle.

Metodi più sicuri per le banche di adottare l'intelligenza artificiale

Dietro le quinte, gli organi di regolamentazione si stanno ora confrontando con una questione pratica: se le norme esistenti siano sufficienti.

Per anni, le banche hanno operato secondo modelli di rischio progettati per tenere sotto controllo i sistemi quantitativi. Ma l'intelligenza artificiale, soprattutto i modelli generativi più recenti, non si comporta sempre in modo prevedibile. Ciò rende più difficile testare, monitorare e spiegare i risultati, tutte attività che le autorità di regolamentazione si aspettano in genere.

Secondo Bowman, i funzionari della Federal Reserve, dell'Office of the Comptroller of the Currency e della Federal Deposit Insurance Corporation stanno ora collaborando alla stesura di linee guida volte a delineare modalità più sicure per l'adozione dell'intelligenza artificiale da parte delle banche.

L'approccio, almeno per ora, propende per la supervisione piuttosto che per una rigida regolamentazione, offrendo alle banche flessibilità, ma lasciando anche una certa incertezza su dove verranno tracciati i confini definitivi.

Gli investitori in criptovalute vedono effetti a catena

Le implicazioni dell'intelligenza artificiale non si limitano al settore bancario. Anche gli investitori in asset digitali stanno seguendo l'evoluzione con attenzione, soprattutto alla luce dei flussi di denaro che si spostano tra i diversi settori.

La macro stratega Lyn Alden ha avvertito che l'entusiasmo per i titoli azionari legati all'intelligenza artificiale potrebbe alla fine raggiungere un limite massimo:

"Potrebbe darsi che i titoli azionari del settore dell'IA raggiungano il loro picco, diventino talmente enormi da non poter realisticamente salire ulteriormente."

Se ciò accadesse, suggerisce, i capitali potrebbero spostarsi altrove, potenzialmente verso asset come Bitcoin.

Nel frattempo, l'investitore Raoul Pal ha evidenziato un tema più ampio che guida sia l'intelligenza artificiale che le criptovalute:

"Entrambi i fenomeni sono dovuti a effetti di rete."

Questa dinamica, in cui il valore cresce con l'espansione dell'adozione, è uno dei motivi per cui entrambi i settori hanno attratto un intenso interesse da parte degli investitori.

Gli Stati Uniti adottano un approccio normativo più permissivo.

Rispetto all'Europa, le autorità di regolamentazione statunitensi adottano ancora un approccio relativamente flessibile.

La legge europea sull'intelligenza artificiale (EU AI Act) stabilisce requisiti rigorosi per i sistemi di intelligenza artificiale ad alto rischio, compresi quelli utilizzati nel settore finanziario. Gli Stati Uniti, al contrario, si stanno muovendo con maggiore cautela, basandosi su principi generali piuttosto che su norme dettagliate, almeno per ora.

Tale divario potrebbe avere un impatto significativo sulle banche globali che operano in diverse giurisdizioni, dove le aspettative in materia di conformità potrebbero iniziare a divergere.

Tensioni all'interno di Washington

A complicare ulteriormente la situazione si aggiunge una crescente divisione politica all'interno del governo statunitense riguardo alla stessa Anthropic.

Secondo Reuters, il Dipartimento della Difesa statunitense ha etichettato l'azienda come un rischio per la catena di approvvigionamento dopo che questa si è rifiutata di allentare le misure di sicurezza sull'utilizzo della sua intelligenza artificiale.

Allo stesso tempo, la Casa Bianca sta esplorando modi per mantenere aperto l'accesso all'IA più avanzata, consentendo potenzialmente alle agenzie di aggirare tale restrizione. Questa divergenza evidenzia una tensione più ampia: come conciliare le preoccupazioni per la sicurezza nazionale con la necessità di rimanere competitivi nel campo dell'IA.

Alti funzionari, tra cui il Segretario del Tesoro Scott Bessent e il Presidente della Federal Reserve Jerome Powell, hanno già incontrato le principali banche per discutere dei rischi: un segnale che la questione viene presa sul serio ai massimi livelli.

Cronologia: come si è sviluppata la vicenda

  • Inizio 2026 — Anthropic sviluppa sistemi di intelligenza artificiale avanzati, tra cui Mythos.
  • Aprile 2026 — Il Pentagono classifica Anthropic come azienda a rischio per la catena di approvvigionamento.
  • Fine aprile 2026 — La Casa Bianca elabora delle linee guida che potrebbero aggirare la designazione
  • Aprile 2026 — Il Tesoro e la Federal Reserve incontrano le banche per valutare i rischi legati all'intelligenza artificiale.
  • 1° maggio 2026 — Bowman chiede una supervisione coordinata

La chiave sta nel coordinamento, non nella frammentazione.

Per le banche, la sfida immediata è di natura pratica: come utilizzare gli strumenti di intelligenza artificiale senza esporsi a nuovi tipi di rischio.

Per gli organi di regolamentazione, la sfida è più ampia: costruire un quadro normativo che tenga il passo con una tecnologia che si evolve più rapidamente delle regole concepite per disciplinarla.

Il messaggio di Bowman era chiaro: il coordinamento, non la frammentazione, sarà fondamentale man mano che l'intelligenza artificiale si integrerà più profondamente nel sistema finanziario.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto