Un toolkit software, il Veritas Toolkit, è stato aggiornato per assistere gli istituti finanziari nella valutazione dell'uso responsabile dell'intelligenza artificiale (AI). Sviluppato da un consorzio guidato dalla Monetary Authority of Singapore (MAS), il toolkit mira a guidare le organizzazioni nel settore finanziario fornendo metodologie di valutazione per la responsabilità e la trasparenza, oltre alla sua attuale attenzione all'equità e all'etica. Il consorzio Veritas comprende 31 attori del settore, tra cui importanti organizzazioni come Bank of China, Google Cloud, Microsoft, Goldman Sachs, Visa e IBM.
Espansione dei componenti di valutazione
La seconda iterazione del Veritas Toolkit si basa sul suo rilascio iniziale nel febbraio dell'anno precedente. La versione aggiornata comprende ora metodologie di valutazione per l'equità, l'etica, la responsabilità e la trasparenza, denominate collettivamente FEAT. Sfruttando il toolkit, le istituzioni finanziarie possono definire gli obiettivi delle loro implementazioni di AI e analisi dei dati, identificare potenziali pregiudizi e garantire la conformità a questi principi essenziali.
MAS evidenzia che la seconda versione del Veritas Toolkit introduce una metodologia di valutazione migliorata per la componente di equità di FEAT e include metodologie di revisione per i restanti tre principi. Questo aggiornamento completo affronta le diverse sfaccettature dell'adozione responsabile dell'IA, promuovendo un ecosistema che valorizza l'equità, l'etica, la responsabilità e la trasparenza. Diverse banche all'interno del consorzio hanno già testato il toolkit, affermandone la praticità e l'efficacia.
Veritas Toolkit 2.0 Funzionalità open source e di integrazione
Veritas Toolkit è una soluzione open source disponibile su GitHub, che offre agli istituti finanziari la flessibilità di personalizzarla e integrarla nei propri sistemi IT esistenti. Il toolkit può essere migliorato con plug-in, facilitando l'integrazione senza soluzione di continuità e consentendo alle organizzazioni di adattare i processi di valutazione ai loro requisiti specifici.
Il consorzio ha sviluppato nuovi casi d'uso per mostrare l'applicazione pratica del Veritas Toolkit. Uno di questi esempi ha coinvolto Swiss Reinsurance, che ha condotto una valutazione della trasparenza della sua funzione di sottoscrizione predittiva basata sull'intelligenza artificiale. Google ha anche condiviso la sua esperienza nell'implementazione delle metodologie FEAT nei sistemi di pagamento per il rilevamento delle frodi in India e nella mappatura dei suoi principi e processi di intelligenza artificiale. Questi casi d'uso forniscono preziose informazioni e lezioni di implementazione per altri istituti finanziari che desiderano adottare pratiche di IA responsabili.
Approfondimenti sul white paper
Oltre al toolkit, Veritas ha pubblicato un white paper che delinea le esperienze e le lezioni condivise da sette istituti finanziari, tra cui Standard Chartered Bank e HSBC. Il documento fa luce sull'integrazione della metodologia di valutazione dell'IA con i loro quadri di governance interna. Sottolinea l'importanza di un quadro di IA responsabile che copra diverse aree geografiche ed evidenzia la necessità di un modello basato sul rischio per determinare misure di governance appropriate per vari casi d'uso dell'IA. Il white paper copre anche le pratiche responsabili dell'IA e l'importanza della formazione di una nuova generazione di professionisti dell'IA nel settore finanziario.
Sopnendu Mohanty, Chief Fintech Officer presso MAS, sottolinea la necessità per le istituzioni finanziarie di stabilire solidi quadri per l'uso responsabile dell'IA a causa del rapido ritmo dei progressi dell'IA. Secondo Mohanty, il Veritas Toolkit versione 2.0 consente alle organizzazioni di valutare i propri casi d'uso dell'IA in modo efficace per equità, etica, responsabilità e trasparenza.
Affrontare i rischi e la prospettiva di OpenAI
Il governo di Singapore ha identificato sei rischi chiave associati all'IA generativa e ha proposto un quadro per mitigare questi problemi. Il CEO di OpenAI Sam Altman, durante la sua recente visita a Singapore, ha sottolineato l'importanza di sviluppare l'IA generativa con la consultazione pubblica, garantendo il controllo umano per mitigare i potenziali rischi e danni associati all'adozione dell'IA. Altman ha anche evidenziato le sfide relative al pregiudizio e alla localizzazione dei dati, sostenendo la formazione di piattaforme di intelligenza artificiale su diversi set di dati che comprendono varie culture, lingue e valori.
Il Veritas Toolkit 2.0 rappresenta un significativo passo avanti nell'uso responsabile dell'IA per gli istituti finanziari. Con le sue metodologie di valutazione complete che coprono l'equità, l'etica, la responsabilità e la trasparenza, il toolkit consente alle organizzazioni di valutare le loro implementazioni di intelligenza artificiale e garantire il rispetto dei principi vitali. Sfruttando questa soluzione open source e le intuizioni condivise nel white paper di accompagnamento, le istituzioni finanziarie possono navigare nel panorama in evoluzione della tecnologia IA, promuovendo pratiche IA responsabili e contribuendo allo sviluppo di un ecosistema IA etico e trasparente.