I ricercatori del MIT annunciano un archivio dei rischi dell’IA

I ricercatori del MIT e altre organizzazioni hanno prodotto l’AI Risk Repository, un ampio database di rischi documentati aggravati dai sistemi di intelligenza artificiale. Ciò avviene in un momento in cui la tecnologia si sta evolvendo a un ritmo rapido, che è anche il caso associato al rischio associato all’utilizzo dei sistemi di intelligenza artificiale.

L’archivio mira ad assistere i decisori di varie istituzioni come governo, ricerca, imprese e industria nel valutare i rischi emergenti associati all’intelligenza artificiale, sebbene abbia capacità di trasformazione.

Il repository fornisce una documentazione ordinata dei rischi dell’IA

Poiché diverse organizzazioni e ricercatori hanno riconosciuto l’importanza di risolvere i rischi dell’intelligenza artificiale, gli sforzi per documentare e classificare tali rischi sono stati, in misura maggiore, goffi, risultando in un panorama frammentato di sistemi di classificazione contrastanti.

"Volevamo una panoramica completa dei rischi dell'intelligenza artificiale da utilizzare come lista di controllo", ha detto a VentureBeat Peter Slattery, postdoc e capo del progetto del MIT FutureTech.

“Ma quando abbiamo esaminato la letteratura, abbiamo scoperto che le classificazioni dei rischi esistenti erano come pezzi di un puzzle: individualmente interessanti e utili, ma incompleti”.

Slettery.

L’ AI Risk Repository affronta la sfida di cui sopra fondendo informazioni provenienti da 43 tassonomie esistenti, inclusi articoli sottoposti a revisione paritaria, prestamp, documenti di conferenze e rapporti.

Questo scrupoloso processo di curation ha visto la creazione di un database con oltre 700 rischi esclusivi. Il repository utilizza un sistema di classificazione dimensionale su due fronti.

In primo luogo, i rischi vengono classificati in base alle loro cause, prendendo in considerazione l'entità responsabile (umana o IA), l'intento (non intenzionale o internazionale) e i tempi (post-sviluppo o pre-implementazione).

Secondo il MIT, questa categorizzazione di base aiuta a comprendere le situazioni e i meccanismi attraverso i quali possono emergere i rischi dell’IA.

I ricercatori del MIT hanno classificato i rischi dell’IA in sette

D’altro canto, i rischi sono classificati in sette diversi ambiti, tra cui disinformazione e attori malintenzionati, uso improprio, discriminazione e tossicità, privacy e sicurezza.

L’AI Risk Repository è concepito per essere un database vivente ed è disponibile al pubblico e le istituzioni possono scaricarlo per il proprio consumo.

I team di ricerca possono pianificare di aggiornare frequentemente il database con nuovi rischi, scoperte più recenti e tendenze in evoluzione.

L’AI Risk Repository vuole essere anche una risorsa pratica per le imprese di vari settori. Per le istituzioni che sviluppano sistemi di intelligenza artificiale, il repository funge da preziosa lista di controllo per valutare i rischi e mitigarli.

“Le organizzazioni che utilizzano l’intelligenza artificiale possono trarre vantaggio dall’utilizzo del database dei rischi dell’intelligenza artificiale e delle tassonomie come base utile per valutare in modo completo la propria esposizione e gestione del rischio”.

ricercatori del MIT.

“Le tassonomie potrebbero rivelarsi utili anche per identificare comportamenti specifici che devono essere eseguiti per mitigare rischi specifici”, hanno aggiunto i ricercatori.

Un’organizzazione che sta istituendo un sistema di assunzione basato sull’intelligenza artificiale, ad esempio, può utilizzare l’archivio per annotare i potenziali rischi associati a discriminazioni e pregiudizi.

Pertanto, un’azienda che utilizza l’intelligenza artificiale per la moderazione dei contenuti può sfruttare il dominio della “disinformazione” per comprendere i potenziali rischi legati ai contenuti generati dall’intelligenza artificiale e stabilire le reti di sicurezza necessarie.

I ricercatori del MIT hanno collaborato con colleghi dell’Università del Queensland, del Future of Life Institute, KU Leuven e della startup di intelligenza artificiale Harmony Intelligence per setacciare database accademici e recuperare documenti relativi ai rischi dell’intelligenza artificiale.

I ricercatori hanno anche rivelato che l’AI Risk Repository informerà altre ricerche man mano che identificheranno ulteriori lacune che necessitano di attenzione.

"Utilizzeremo questo archivio per identificare potenziali lacune o squilibri nel modo in cui i rischi vengono affrontati dalle organizzazioni", ha affermato Neil Thompson, capo del MIT FutureTech Lab.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto