La Securities and Exchange Commission (SEC) degli Stati Uniti ha intensificato la sua attenzione sull’utilizzo dell’intelligenza artificiale (AI) nel settore finanziario. In risposta ai significativi progressi tecnologici, la SEC ha avviato esami approfonditi mirati ai modelli di intelligenza artificiale dei consulenti per gli investimenti e ha confermato le indagini in corso relative all’intelligenza artificiale all’interno della sua Divisione di applicazione delle norme.
Sotto la guida del presidente della SEC Gensler, sono state sollevate preoccupazioni riguardo ai potenziali rischi che l’intelligenza artificiale comporta per i singoli investitori e per il sistema finanziario più ampio. Il presidente Gensler sottolinea l’imprevedibilità delle decisioni e dei risultati dei modelli di intelligenza artificiale, citando le sfide nel determinare se questi modelli danno priorità agli interessi delle aziende rispetto a quelli dei clienti. Mette inoltre in guardia dai rischi sistemici derivanti da una potenziale concentrazione di partecipanti al mercato che fanno affidamento su alcuni modelli fondamentali di intelligenza artificiale, portando a un processo decisionale omogeneo e a una maggiore concentrazione del rischio.
Regole proposte che affrontano le preoccupazioni relative all’IA
Per mitigare questi rischi, la SEC ha proposto regole complete che regolano l’uso dell’analisi predittiva dei dati (PDA), che comprende le tecnologie di intelligenza artificiale. Queste regole mirano a prevenire conflitti di interessi e a migliorare la trasparenza nell’utilizzo dell’intelligenza artificiale da parte degli intermediari e dei consulenti per gli investimenti. Le disposizioni principali includono la valutazione dei conflitti di interessi dei sistemi di intelligenza artificiale, l’adozione di politiche e procedure scritte per la conformità e rigorosi requisiti di tenuta dei registri.
Le parti interessate del settore hanno sollevato preoccupazioni circa le implicazioni pratiche delle norme proposte. Alcuni sostengono che le norme attualmente formulate potrebbero interrompere le operazioni commerciali, portando potenzialmente al consolidamento del settore e ponendo gli investitori statunitensi in una posizione di svantaggio competitivo a livello globale.
L'approccio su più fronti della SEC
La SEC ha avviato misure proattive per affrontare i rischi legati all’intelligenza artificiale in tandem con il processo normativo. L'indagine relativa all'intelligenza artificiale della Division of Examination cerca approfondimenti dettagliati sull'utilizzo dell'intelligenza artificiale da parte delle aziende, comprese descrizioni dei modelli, fonti di dati e rapporti sugli incidenti. Allo stesso tempo, la Division of Enforcement sta indagando attivamente sui casi di “lavaggio dell’intelligenza artificiale” in cui le aziende fanno affermazioni fuorvianti sull’implementazione dell’intelligenza artificiale simili al greenwashing in contesti ambientali.
Sfruttare il quadro normativo esistente
La SEC sta sfruttando le disposizioni normative esistenti per affrontare i rischi dell’IA senza regole definitive sull’IA. Le attuali normative sull’insider trading, i doveri fiduciari e i requisiti di divulgazione offrono un quadro per la valutazione degli input, degli output e delle misure di conformità dell’IA. Le aziende sono esortate a valutare in modo proattivo i rischi legati all’IA e a garantire il rispetto delle normative esistenti in attesa dell’adozione di norme specifiche sull’IA.
Enfasi sulla divulgazione e sulla conformità
Gli avvertimenti del presidente Gensler contro le divulgazioni inesatte evidenziano l'attenzione della SEC sulla trasparenza nell'utilizzo dell'intelligenza artificiale. Le aziende sono esortate a fornire informazioni accurate e aggiornate sullo sviluppo e l’implementazione dell’IA, riconoscendo il potenziale di evoluzione dei modelli di intelligenza artificiale. I programmi di conformità dovrebbero essere adattati per affrontare i rischi normativi specifici dell’intelligenza artificiale, riflettendo il controllo della SEC sulla preparazione delle aziende ad affrontare le sfide legate all’intelligenza artificiale.
Implicazioni sulla sicurezza informatica
In un contesto di crescente preoccupazione per le minacce alla sicurezza informatica, le regole della SEC impongono la protezione delle informazioni dei clienti e la vigilanza contro potenziali violazioni. Le aziende che utilizzano l’intelligenza artificiale devono garantire solide misure di sicurezza informatica per salvaguardare i dati sensibili e rilevare efficacemente le minacce informatiche. Le vulnerabilità nell’architettura di rete potrebbero esporre le aziende al controllo normativo e compromettere la riservatezza dei clienti.
La posizione proattiva della SEC sull'intelligenza artificiale riflette l'impegno dell'autorità di regolamentazione nell'affrontare i rischi emergenti nel settore finanziario. Mentre le regole proposte mirano a migliorare la responsabilità e la trasparenza nell’utilizzo dell’intelligenza artificiale, le parti interessate del settore devono orientarsi verso contesti normativi in evoluzione e rafforzare le misure di conformità per mitigare efficacemente i potenziali rischi. Sfruttando i quadri normativi esistenti e adottando solide pratiche di sicurezza informatica, le aziende possono affrontare le complessità dell’implementazione dell’intelligenza artificiale salvaguardando al contempo gli interessi degli investitori e mantenendo la conformità normativa.