I legislatori del Regno Unito vogliono che le autorità di regolamentazione finanziaria eseguano stress test sull’intelligenza artificiale per individuare tempestivamente i rischi.

Un gruppo interpartitico di legislatori britannici sta facendo pressione sulle autorità di regolamentazione affinché adottino stress test incentrati sull'intelligenza artificiale per il settore finanziario, avvertendo che il crescente utilizzo dell'intelligenza artificiale potrebbe esporre consumatori e mercati a gravi perturbazioni se non gestito.

In un rapporto pubblicato martedì, il Treasury Select Committee ha criticato la Financial Conduct Authority (FCA) e la Banca d'Inghilterra per quella che i parlamentari hanno descritto come una cauta posizione di "attesa e osservazione" in materia di regolamentazione dell'intelligenza artificiale, nonostante la sua diffusa adozione nella City di Londra.

I funzionari hanno affermato che la rapida evoluzione della tecnologia richiede risposte più rapide da parte degli organi di controllo, come l'introduzione di stress test. Poiché le società finanziarie si affidano sempre più all'intelligenza artificiale, i ritardi potrebbero compromettere la stabilità. Quando le macchine gestiscono transazioni, approvazioni di prestiti o previsioni di rischio, i difetti possono diffondersi su più piattaforme senza preavviso. Se diversi sistemi si scontrano, potrebbero scoppiare turbolenze prima che qualcuno reagisca.

I legislatori affermano che l'intelligenza artificiale potrebbe sconvolgere i mercati finanziari.

Stanno emergendo segnali di allarme in merito alle lacune nella supervisione, mentre l'intelligenza artificiale si diffonde rapidamente nel settore finanziario britannico. Alcuni funzionari suggeriscono che non si presti sufficiente attenzione a ciò che potrebbe accadere se i sistemi crescessero troppo in anticipo rispetto alla supervisione. La Commissione parlamentare per il Tesoro segnala ritardi da parte della Banca d'Inghilterra, della Financial Conduct Authority e del Tesoro nella gestione del rischio. Il ritmo imposto dalle aziende private che utilizzano strumenti avanzati supera gli attuali sforzi normativi.

Aspettare troppo a lungo potrebbe significare che si verifichino problemi prima che qualcuno possa intervenire. Il comitato sottolinea che i funzionari si stanno trattenendo, sperando che non sorgano problemi. Quando i sistemi falliscono, potrebbe non esserci quasi più spazio per risolvere le cose abbastanza rapidamente. Invece di intervenire in un secondo momento, è più sensato osservare come agisce l'intelligenza artificiale nei momenti difficili. I funzionari ritengono che la preparazione sia meglio dell'agire quando tutto sta già andando a rotoli.

Le aziende del settore finanziario del Regno Unito si affidano sempre più all'intelligenza artificiale ogni giorno, spesso senza testare il funzionamento dei sistemi sotto pressione. Oltre il 75% degli istituti finanziari britannici utilizza l'intelligenza artificiale in tutte le funzioni centrali, quindi la sua influenza sulle scelte economiche è, se non altro, invisibile. Le decisioni sugli investimenti vengono prese utilizzando la logica delle macchine piuttosto che l'istinto umano. L'automazione guida le approvazioni, mentre gli algoritmi valutano l'idoneità al prestito senza la revisione tradizionale. Le richieste di risarcimento nel settore assicurativo non si basano sulle valutazioni degli impiegati, ma su valutazioni codificate.

Anche la burocrazia di base viene gestita digitalmente anziché manualmente. La velocità definisce questi processi; tuttavia, la rapidità aumenta l'esposizione quando emergono difetti. Un singolo passo falso può avere un impatto notevole, perché le connessioni tra le organizzazioni sono strette.

Jonathan Hall, membro esterno del Comitato di Politica Finanziaria della Banca d'Inghilterra, ha dichiarato ai legislatori che stress test personalizzati per l'intelligenza artificiale potrebbero aiutare gli organismi di vigilanza a individuare tempestivamente i rischi emergenti. Gli scenari di stress che simulano gravi perturbazioni del mercato, ha spiegato, potrebbero evidenziare le vulnerabilità dei framework di intelligenza artificiale prima che si verifichino impatti più ampi sulla resilienza sistemica.

I parlamentari esortano le autorità di regolamentazione a testare i rischi dell'intelligenza artificiale e a stabilire regole chiare

L'insistenza dei parlamentari su misure più decise per impedire che l'intelligenza artificiale mini silenziosamente la stabilità economica, a partire dalle valutazioni di stress, sembra logica per gli organi di vigilanza. Le autorità di vigilanza finanziaria si trovano ad affrontare crescenti pressioni da parte dei legislatori affinché adottino valutazioni personalizzate incentrate sull'intelligenza artificiale, simili a quelle utilizzate per le banche durante le crisi.

Sotto pressione, gli strumenti automatizzati possono comportarsi in modo imprevedibile; gli organi di controllo hanno bisogno di prove, non di supposizioni. Solo attraverso tali sperimentazioni le autorità possono comprendere esattamente in che modo gli algoritmi potrebbero innescare disordini o amplificare le turbolenze in caso di cambiamenti nei mercati.

Gli stress test potrebbero simulare ciò che accade se l'intelligenza artificiale sconvolge inaspettatamente i mercati. Quando gli algoritmi si comportano in modo anomalo o smettono di funzionare, gli organismi di controllo possono osservare le reazioni delle banche sotto pressione.

Prepararsi in anticipo rivela vulnerabilità, non solo nelle piattaforme di trading, ma anche nelle valutazioni del rischio e nelle misure di sicurezza all'interno delle istituzioni. Risolvere i problemi prima sembra più saggio che reagire dopo che il caos si è diffuso rapidamente attraverso i canali finanziari. Identificare i problemi in anticipo consentirà sia ai supervisori che alle aziende di correggere la rotta finché c'è ancora tempo.

Oltre agli stress test, i parlamentari sottolineano la necessità di linee guida chiare che disciplinino l'uso sistematico dell'intelligenza artificiale all'interno degli istituti finanziari. La Financial Conduct Authority è invitata a stabilire limiti chiari per le applicazioni etiche dell'intelligenza artificiale in contesti reali.

Le linee guida devono chiarire come si applicano le attuali tutele dei consumatori quando le decisioni vengono prese da sistemi automatizzati anziché da esseri umani, prevenendo lacune nella responsabilità in caso di guasti. L'assegnazione delle responsabilità dovrebbe essere esplicita in caso di funzionamento errato dell'IA, rendendo impossibile per le aziende attribuire la colpa alle macchine.

Se qualcosa dovesse andare storto con una sola piattaforma tecnologica principale, molte banche potrebbero trovarsi a dover fronteggiare un'altra crisi. Poche aziende hanno ora la responsabilità di mantenere operativi i sistemi bancari in tutto il Paese.

Quando servizi ospitati da nomi come Amazon Web Services o Google Cloud incontrano problemi, gli effetti a catena si fanno sentire rapidamente. I legislatori sottolineano quanto la situazione diventi fragile quando così tanti si affidano a così pochi. Più aumenta la dipendenza, più duramente colpisce tutti se un problema tecnico si verifica.

Richiedi il tuo posto gratuito in una community esclusiva di trading di criptovalute , limitata a 1.000 membri.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto