Le recenti controversie sull'intelligenza artificiale (AI) hanno riacceso il dibattito su chi dovrebbe essere ritenuto responsabile per garantire lo sviluppo etico e la diffusione dell'IA. Man mano che l'IA generativa come ChatGPT diventa sempre più diffusa, le domande sull'impegno dell'industria tecnologica nei confronti dell'etica dell'IA o dell'innovazione responsabile continuano a incombere.
Il costo nascosto dell'IA
Le indagini hanno rivelato che OpenAI, una delle principali società di intelligenza artificiale supportata da Microsoft, si è affidata ad appaltatori stranieri a bassa retribuzione per gestire il compito delicato della moderazione dei contenuti, una componente cruciale nello sviluppo di sistemi "sicuri" come ChatGPT. Questi appaltatori, con sede in Kenya, sono stati pagati solo $ 2 l'ora per etichettare testi e immagini inquietanti, un compito che, secondo quanto riferito, ha causato un significativo trauma psicologico. In seguito alla rivelazione dell'impatto di questo lavoro, il partner di outsourcing di OpenAI ha reciso i legami con l'azienda.
Questa denuncia ha fatto luce sulla dipendenza dell'industria tecnologica dalla manodopera a basso costo proveniente da tutto il mondo per svolgere i compiti più gravosi che sono alla base dei progressi nell'IA. Ciò avviene in un momento in cui i principali team di sicurezza dell'IA vengono sciolti, nonostante l'alta retorica del settore sull'etica.
La realtà dietro la rotazione delle pubbliche relazioni
Diverse figure di alto profilo nel settore tecnologico hanno chiesto una pausa nello sviluppo dell'IA fino a quando non saranno messe in atto normative adeguate. Tuttavia, alcuni esperti sostengono che fare affidamento esclusivamente sui responsabili politici e sulle aziende per plasmare il futuro dell'IA sia un errore, in quanto esclude prospettive chiave. La dottoressa Alison Powell dell'Ada Lovelace Institute ha sottolineato che il discorso attuale si concentra troppo sul potenziale dell'intelligenza artificiale generale di superare la cognizione umana, piuttosto che affrontare le realtà del presente.
"Questo è dannoso perché si concentra su un mondo immaginario piuttosto che sul mondo reale in cui viviamo", ha detto Powell. Sostiene che le capacità decisionali spesso attribuite all'IA trascurano le responsabilità sociali del mondo reale che derivano da tale potere.
Il ricercatore di Oxford Abid Adonis ha anche notato che le voci dei gruppi emarginati, che sono direttamente colpiti dall'IA, sono vistosamente assenti dal dibattito. "È importante ascoltare ciò che dicono i gruppi emarginati perché manca dalla discussione", ha detto Adonis.
I difetti dell'"IA etica"
Esistono già prove di pregiudizi e discriminazioni algoritmiche nei sistemi di intelligenza artificiale attualmente in uso, dalla tecnologia di riconoscimento facciale agli algoritmi utilizzati nelle valutazioni di alloggi e prestiti. Nonostante le alte pretese di principi etici delle aziende tecnologiche, le loro azioni spesso raccontano una storia diversa.
I modelli generativi come ChatGPT, che vengono addestrati su un set limitato di dati Internet, ereditano inevitabilmente i pregiudizi presenti in quei dati. Le tanto decantate capacità di ragionamento di questi modelli spesso non sono all'altezza del controllo. Ad esempio, è stato scoperto che ChatGPT genera affermazioni palesemente false su persone reali. La mancanza di trasparenza nell'approvvigionamento di dati commerciali per la formazione sull'IA non fa che aumentare queste preoccupazioni.
Una prospettiva più ampia sull'etica dell'IA
Il dottor Powell suggerisce che invece di vedere l'etica come un problema tecnico da risolvere, dovremmo esaminare i contesti sociali in cui si verifica il danno. "Le IA sono macchine istituzionali, macchine sociali e macchine culturali", ha affermato. Concentrarsi esclusivamente sulla regolazione degli algoritmi ignora il fatto che l'esclusione spesso deriva dalle istituzioni e dalla cultura che circondano la tecnologia.
Secondo il ricercatore Abid Adonis, un forte discorso pubblico e norme svolgeranno un ruolo cruciale nel plasmare il futuro dell'innovazione. Garantire la responsabilità significa far rispettare le leggi esistenti in modo equo, piuttosto che regolare semplicemente la tecnologia stessa.
Il paradigma modellerà i corridoi dell'innovazione
Abid Adone, Ricercatore
Mentre l'intelligenza artificiale continua a crescere in importanza, garantire che produca risultati giusti è una responsabilità che deve essere condivisa tra aziende tecnologiche, responsabili politici, ricercatori, media e pubblico. Tuttavia, il discorso attuale è fortemente sbilanciato verso coloro che hanno più potere. Per andare avanti, dobbiamo includere una gamma più ampia di prospettive sulle potenziali insidie dell'IA, in modo da poter sviluppare una tecnologia etica che soddisfi veramente i bisogni umani. Ciò ci richiederà di guardare oltre il giro di pubbliche relazioni delle grandi aziende tecnologiche e di affrontare i reali danni che vengono attualmente causati.
L'immagine in primo piano trasmette le condizioni di lavoro ad alta pressione e con scadenze che caratterizzano la dipendenza dell'industria tecnologica dalla manodopera a basso costo.