Gli agenti di intelligenza artificiale sono bloccati in modalità pilota perché le banche non si fidano ancora di loro.

L'intelligenza artificiale agentica sta attirando l'attenzione nel settore finanziario, ma l'ostacolo maggiore per il settore non è più la potenza dei modelli. Il problema più complesso è se banche, gestori patrimoniali e uffici di tesoreria dispongano dell'infrastruttura necessaria per delegare compiti finanziari a sistemi autonomi senza perdere il controllo del denaro, la responsabilità o la conformità normativa.

Un sondaggio di Deloitte condotto su oltre 3.300 professionisti della finanza e della contabilità ha evidenziato chiaramente il divario: l'80,5% ha affermato che gli strumenti basati sull'intelligenza artificiale, come agenti e chatbot GenAI, potrebbero diventare standard entro cinque anni, ma solo il 13,5% ha dichiarato che le proprie organizzazioni utilizzano già l'IA agentica.

Citi Sky ha dimostrato perché il dibattito sulle infrastrutture è importante.

Il 22 aprile Citi ha lanciato Citi Sky, un assistente patrimoniale basato sull'intelligenza artificiale e realizzato con le tecnologie Google Cloud e Google DeepMind. Lo strumento è stato sviluppato utilizzando la piattaforma Gemini Enterprise Agent di Google e il suo lancio graduale per i clienti Citigold negli Stati Uniti è previsto per quest'estate.

Il lancio ha fornito un esempio concreto nel settore bancario al dibattito sull'IA agentiva. Dipendra Malhotra, responsabile della tecnologia per la gestione patrimoniale di Citi , ha indicato la memoria come un vincolo fondamentale per l'IA applicata alla consulenza ad alto rischio, chiedendosi per quanto tempo un cliente possa sostenere una conversazione prima che il sistema inizi a delirare.

La maggior parte degli agenti si affida alla generazione aumentata tramite recupero per estendere la memoria attraverso database esterni. Le finestre di contesto limitano comunque la quantità di informazioni che un agente può contenere contemporaneamente.

Nella consulenza finanziaria, nella gestione della tesoreria o nell'esecuzione del portafoglio, quel limite di memoria diventa più di una semplice questione tecnica. Diventa un rischio operativo.

MihnChi Park, co-fondatore di CoinFello, ha affermato che le condizioni per una delega affidabile sono semplici: l'agente può agire solo secondo le istruzioni dell'utente, l'utente può interromperlo e gli asset sottostanti non vengono mai trasferiti a terzi.

Ethereum definisce primitive on-chain per l'identità degli agenti

La proposta ERC-8004 di Ethereum introduce sistemi per l'identità, la reputazione e la validazione degli agenti. La bozza dello standard definisce tre registri: un Registro delle Identità, un Registro della Reputazione e un Registro di Validazione.

Insieme, questi strumenti sono pensati per aiutare gli agenti autonomi a dimostrare la propria identità, a costruire una cronologia dei comportamenti e a supportare la verifica da parte di altri partecipanti al mercato.

L'ERC-8183 adotta un approccio più circoscritto. Propone uno standard di deposito fiduciario per i lavori con attestazione da parte di un valutatore, in cui un cliente finanzia un lavoro, un fornitore consegna il lavoro e un valutatore ne verifica o ne rifiuta l'esito.

La proposta non prevede l'arbitrato o una risoluzione formale delle controversie, ma fornisce ai mercati basati su agenti un quadro di riferimento per le attività in deposito fiduciario e il completamento verificabile.

L'articolo su arXiv " The Agent Economy: A Blockchain-Based Foundation for Autonomous AI Agents " delinea un'architettura a cinque livelli per questa transizione, che comprende infrastruttura fisica, identità on-chain, strumenti cognitivi, regolamento economico e governance collettiva.

Il livello di reputazione presenta ancora una vulnerabilità strutturale. Gli agenti possono generare attività a una velocità e su una scala ineguagliabili dagli esseri umani, rendendo possibile l'amplificazione dei segnali di fiducia in brevi periodi.

Ciò pone agli istituti finanziari un interrogativo difficile: quando un agente ha un buon curriculum, questo curriculum è prova di affidabilità o semplicemente la prova di attività automatizzate ripetute?

McKinsey include nel suo ambito di analisi il 50-60% delle operazioni bancarie.

Secondo le stime di McKinsey, dal 50% al 60% degli impiegati a tempo pieno nelle banche è impiegato nelle attività operative. Gli esperti mettono in guardia contro il cosiddetto "purgatorio dei progetti pilota", in cui gli istituti conducono limitate prove di concetto senza riorganizzare il modello operativo.

Come riportato da Cryptopolitan in occasione del Web3 Festival di Hong Kong, McKinsey ha previsto che il mercato dell'intelligenza artificiale agentiva crescerà da 5,25 miliardi di dollari nel 2024 a circa 200 miliardi di dollari entro il 2034.

Porter Stowell, CEO di W3.io, ha dichiarato: "Le aziende non hanno modo di vedere, controllare o verificare come i sistemi autonomi utilizzano il loro denaro. La supervisione umana non scompare. Si sposta semplicemente a livelli superiori della gerarchia."

Rimangono irrisolte quattro questioni: chi è responsabile quando un agente di intelligenza artificiale causa una perdita finanziaria, se ci si può fidare della sua reputazione, chi ha il controllo una volta che questi sistemi vengono implementati su larga scala e quale quadro normativo si applica quando un agente agisce al di fuori del suo ambito di competenza.

Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto