Toju Duke, in precedenza responsabile del programma per l’intelligenza artificiale responsabile (AI) di Google, ha espresso preoccupazione per il ritardo nell’implementazione di pratiche etiche di intelligenza artificiale all’interno delle aziende. Nonostante i rapidi progressi nella tecnologia dell’intelligenza artificiale, Duke sostiene che molte aziende restano indietro rispetto alla comunità di ricerca quando si tratta di comprendere e applicare pratiche di intelligenza artificiale responsabili.
Nel suo ruolo in Google, Duke era responsabile della supervisione dello sviluppo responsabile dell'intelligenza artificiale nei team di prodotto e di ricerca dell'azienda. L’emergere della tecnologia dell’intelligenza artificiale ha suscitato allarme tra gli esperti che mettono in guardia dal suo potenziale di causare danni o addirittura rappresentare rischi esistenziali per l’umanità.
Richiede una regolamentazione etica dell’IA
Duke fa parte di un gruppo di esperti nel campo dell’intelligenza artificiale etica che da anni sostiene normative più severe. Nel 2023, sia gli Stati Uniti che l’Unione Europea hanno adottato misure per stabilire una governance più forte riguardo al trattamento della tecnologia IA. L’UE, in particolare, ha approvato un progetto di legge noto come Legge sull’AI nel giugno 2023, con l’obiettivo di controllare l’uso di strumenti di intelligenza artificiale potenzialmente dannosi, compreso il software di riconoscimento facciale.
Importanti giganti della tecnologia, tra cui Amazon, Google, Meta (ex Facebook) e Microsoft, hanno accettato un accordo non vincolante presentato dalla Casa Bianca, che delinea i principi per lo sviluppo e il rilascio di sistemi di intelligenza artificiale.
La necessità di velocità nell’affrontare l’IA etica
Pur riconoscendo questi sviluppi normativi, Duke sostiene che le aziende impegnate nello sviluppo dell’intelligenza artificiale devono accelerare i propri sforzi per allinearsi a pratiche di intelligenza artificiale responsabili. Sottolinea l’urgenza di capire come sviluppare un’intelligenza artificiale “responsabile” in linea con la comunità di ricerca.
Nel suo libro "Building Responsible AI Algorithms: A Framework for Transparency, Fairness, Safety, Privacy, and Robustness", Duke identifica un problema critico nell'uso di dati open source per addestrare modelli di intelligenza artificiale. Questi dati spesso contengono messaggi dannosi, che portano a pregiudizi che permeano le applicazioni di intelligenza artificiale.
Duke sottolinea in particolare le sfide poste dai modelli linguistici di grandi dimensioni (LLM), che spesso mostrano pregiudizi, incidendo su varie applicazioni di intelligenza artificiale.
Conseguenze nel mondo reale dei bias dell’intelligenza artificiale
Duke sottolinea le conseguenze nel mondo reale dei bias dell’intelligenza artificiale, citando casi in cui ha alterato il modo in cui i sistemi di visione artificiale interpretavano le immagini. In particolare, sia Google che Microsoft hanno dovuto ritirare il loro software AI di riconoscimento facciale a causa dell’errata identificazione di individui con tonalità della pelle più scure.
Per risolvere questo problema legato ai pregiudizi, Google ha introdotto una scala di tonalità della pelle come strumento open source per riconoscere un’ampia gamma di colori della pelle. Google ha smesso di vendere il suo software di riconoscimento facciale tramite la sua API cloud ma continua a utilizzarlo in prodotti come Google Pixel, Nest e foto.
Allo stesso modo, nel 2022, Microsoft ha rimosso una funzionalità software cloud basata sull’intelligenza artificiale progettata per interpretare caratteristiche come umore, sesso ed età dal suo servizio AI API Azure Face a causa di imprecisioni e pregiudizi razziali. Tuttavia, questo strumento di intelligenza artificiale è rimasto disponibile per l’app “Seeing AI”, che assiste i clienti ipovedenti.
Navigare nella crescente influenza dell’intelligenza artificiale
Duke afferma che l’intelligenza artificiale sta diventando sempre più popolare nonostante i suoi risultati errati e dannosi in varie modalità, tra cui l’elaborazione del linguaggio, delle immagini e del parlato. Sostiene che la questione centrale non risiede nell’intelligenza artificiale in sé, ma nel modo in cui viene gestita e implementata.
Nel suo libro, la Duke chiarisce che l’intelligenza artificiale non è intrinsecamente malevola e sottolinea che offre numerosi vantaggi, diventando progressivamente parte integrante delle tecnologie esistenti. Sottolinea l’importanza di adattarsi, comprendere e garantire la distribuzione, l’uso e l’adozione sicuri dell’intelligenza artificiale.
Fare “piccoli passi” verso un’intelligenza artificiale etica
Duke suggerisce che le aziende dovrebbero adottare misure graduali per sviluppare una versione più etica dell’intelligenza artificiale accessibile al pubblico. Sostiene l'integrazione dei valori richiesti dalle normative nello sviluppo dell'intelligenza artificiale.
Uno di questi valori è l’equità, che secondo Duke può essere integrata nei modelli e nelle applicazioni di intelligenza artificiale sfruttando i dati sintetici per la formazione. Raccomanda inoltre pratiche trasparenti, come il caricamento pubblico di set di dati, per rispettare le leggi normative.
Inoltre, Duke consiglia alle aziende di stabilire parametri di riferimento allineati ai potenziali usi della loro tecnologia, consentendo ai modelli e alle applicazioni di intelligenza artificiale di essere sottoposti a test sistematici di bias.
Le intuizioni di Toju Duke fanno luce sulla necessità di una transizione più rapida verso pratiche di intelligenza artificiale etiche all'interno del settore. Il suo appello alle imprese affinché si allineino agli standard e ai valori normativi della comunità di ricerca evidenzia le sfide attuali nell’affrontare i pregiudizi legati all’intelligenza artificiale e nel garantire uno sviluppo e un’implementazione responsabili dell’intelligenza artificiale.