Il gruppo del MIT pubblica i libri bianchi sulla governance dell’intelligenza artificiale: un quadro per la governance dell’intelligenza artificiale negli Stati Uniti

Nel tentativo di fornire risorse preziose ai politici statunitensi, un comitato di leader e studiosi del MIT ha pubblicato una serie di documenti politici che delineano un quadro completo per la governance dell’intelligenza artificiale (AI). L’obiettivo generale di questi documenti è rafforzare la leadership degli Stati Uniti nel campo in rapida evoluzione dell’intelligenza artificiale, mitigando allo stesso tempo i potenziali danni che potrebbero derivare da questa tecnologia. Questo sforzo è guidato dal desiderio di incoraggiare l’impiego responsabile dell’intelligenza artificiale a beneficio della società.

Un approccio pratico alla supervisione dell’IA

Il principale documento politico, intitolato propone un approccio alla regolamentazione dell’IA che fa leva sugli enti governativi statunitensi esistenti responsabili della supervisione dei settori rilevanti. Questo approccio riconosce che molte applicazioni dell’intelligenza artificiale possono essere regolate dalle stesse agenzie che attualmente governano attività umane simili. L’enfasi principale è sull’allineamento delle normative con lo scopo e la funzione previsti degli strumenti di intelligenza artificiale.

Dan Huttenlocher, preside del MIT Schwarzman College of Computing, ha sottolineato l'importanza di basarsi sulle basi normative esistenti: "Come paese, stiamo già regolamentando molte cose relativamente ad alto rischio e fornendo governance lì… Non stiamo dicendo questo è sufficiente, ma cominciamo con le cose in cui l'attività umana è già regolamentata e che la società, nel tempo, ha ritenuto ad alto rischio. Guardare l’intelligenza artificiale in questo modo è l’approccio pratico”.

Definizione di scopo e intento

Un aspetto essenziale di questo quadro è la necessità che i fornitori di intelligenza artificiale definiscano chiaramente in anticipo lo scopo e l’intento delle loro applicazioni di intelligenza artificiale. Questo passaggio faciliterebbe l’identificazione di normative e regolatori adeguati per ciascuno strumento di intelligenza artificiale. Sia che l’IA venga utilizzata nel settore sanitario o in altri settori, dovrebbe essere ritenuta responsabile secondo gli stessi standard legali delle sue controparti umane.

Inoltre, il quadro riconosce che i sistemi di intelligenza artificiale spesso esistono in “stack” multistrato che lavorano insieme per fornire servizi specifici. Sebbene la responsabilità primaria per le questioni relative a un servizio specifico ricada sul fornitore di tale servizio, è riconosciuto che i costruttori di strumenti di IA generici dovrebbero condividere la responsabilità se le loro tecnologie contribuiscono a problemi specifici.

Auditing e autoregolamentazione

Per migliorare il controllo e la responsabilità, il quadro politico suggerisce di promuovere l’audit dei nuovi strumenti di intelligenza artificiale. Ciò potrebbe comportare vari approcci, tra cui audit avviati dal governo, audit guidati dagli utenti o audit risultanti da procedimenti legali in materia di responsabilità. A questo riguardo sarebbero cruciali gli standard pubblici per la revisione contabile, siano essi stabiliti da un ente no-profit o da un’organizzazione federale.

Inoltre, il quadro esplora la possibilità di creare una nuova “organizzazione di autoregolamentazione” (SRO) approvata dal governo simile all’Autorità di regolamentazione del settore finanziario (FINRA). Un’agenzia di questo tipo focalizzata sull’intelligenza artificiale potrebbe accumulare conoscenze specifiche del settore e adattarsi al panorama dell’intelligenza artificiale in rapida evoluzione, pur mantenendo la supervisione del governo.

Affrontare questioni legali complesse

Al di là di questi principi generali, il quadro riconosce diverse sfide legali specifiche nel campo dell’IA. Le questioni relative al diritto d’autore e alla proprietà intellettuale legate all’intelligenza artificiale sono già oggetto di contenzioso e richiedono un’attenta considerazione. Inoltre, il quadro riconosce l’esistenza di questioni legali “human plus”, in cui le capacità dell’intelligenza artificiale superano quelle degli esseri umani. Queste questioni comprendono argomenti come gli strumenti di sorveglianza di massa e possono richiedere considerazioni legali speciali.

Oltre agli aspetti normativi, i documenti politici sottolineano l’importanza di promuovere la ricerca per sfruttare il potenziale dell’intelligenza artificiale a beneficio della società. Ad esempio, un articolo esplora l’idea che l’intelligenza artificiale potrebbe aumentare e aiutare i lavoratori anziché sostituirli, portando a una crescita economica a lungo termine condivisa in tutta la società.

Questa vasta gamma di analisi riflette l’impegno del comitato nell’affrontare la regolamentazione dell’IA da un’ampia prospettiva interdisciplinare. Sottolinea l’importanza che i politici considerino sia gli aspetti tecnici dell’intelligenza artificiale che le sue implicazioni sociali.

Il ruolo del MIT nel plasmare la governance dell’IA

Il MIT, in qualità di leader nella ricerca sull’intelligenza artificiale, ritiene di avere un ruolo cruciale da svolgere nel plasmare la governance dell’intelligenza artificiale. David Goldston, direttore dell’ufficio del MIT a Washington, osserva: “Poiché siamo tra coloro che creano tecnologia che sta sollevando questi importanti problemi, sentiamo l’obbligo di contribuire ad affrontarli”. L'obiettivo del comitato non è ostacolare l'intelligenza artificiale, ma sostenerne lo sviluppo e la governance responsabili.

Nelle parole di Dan Huttenlocher, “Lavorare al servizio della nazione e del mondo è qualcosa che il MIT prende sul serio da molti, molti decenni. Questo è un momento molto importante per questo”.

Uno sforzo congiunto per il futuro della governance dell’IA

La pubblicazione di questi documenti politici da parte del comitato segna un passo significativo nel colmare il divario tra gli entusiasti dell’IA e coloro che sono preoccupati per le sue conseguenze. Pur riconoscendo l’immenso potenziale dell’intelligenza artificiale, il comitato sottolinea anche la necessità di governance e supervisione. Questi esperti nel settore stanno inviando un messaggio chiaro: l’intelligenza artificiale può e deve essere sfruttata per il miglioramento della società, ma deve essere fatta in modo responsabile e con solidi quadri normativi in ​​atto.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto