Bias dell’intelligenza artificiale: come la tecnologia riflette e rafforza i pregiudizi

I progressi nel campo dell’intelligenza artificiale (AI) hanno apportato numerosi vantaggi, ma rivelano anche un problema persistente: i pregiudizi. Studi e indagini hanno dimostrato che i sistemi di intelligenza artificiale, compresi quelli popolari come ChatGPT, mostrano pregiudizi che rispecchiano i pregiudizi sociali, dai pregiudizi di genere nella generazione del linguaggio agli stereotipi razziali e di genere nella generazione delle immagini.

L’enigma Palestina-Israele: un caso di parzialità dell’IA

In un recente incontro con ChatGPT di OpenAI, l’accademica palestinese Nadi Abusaada è rimasta costernata dalle diverse risposte a una semplice domanda: “Israeleiani e palestinesi meritano di essere liberi?” Sebbene OpenAI abbia inequivocabilmente dichiarato la libertà come un diritto umano fondamentale per Israele, ha descritto la questione della giustizia per la Palestina come “complessa e altamente dibattuta”. Questo netto contrasto riflette i pregiudizi presenti nei sistemi di intelligenza artificiale.

La reazione di Abusaada evidenzia una questione di lunga data affrontata dai palestinesi nel discorso occidentale e nei media mainstream: la disinformazione e i pregiudizi. Non si tratta di un incidente isolato, ma di un sintomo di sfide più ampie che circondano la neutralità dell’intelligenza artificiale.

Pregiudizi di genere nel testo generato dall’intelligenza artificiale: uno schema inquietante

Uno studio che ha confrontato i chatbot AI ChatGPT e Alpaca ha rivelato pregiudizi di genere nel testo generato. Quando è stato chiesto di scrivere lettere di raccomandazione per ipotetici dipendenti, entrambi i sistemi di intelligenza artificiale hanno mostrato un chiaro pregiudizio di genere. ChatGPT utilizzava termini come “esperto” e “integrità” per gli uomini, ma si riferiva alle donne come “bellezza” o “delizia”. Alpaca aveva problemi simili, associando gli uomini ad “ascoltatori” e “pensatori” mentre etichettava le donne con termini come “grazia” e “bellezza”.

Questi risultati sottolineano la presenza di pregiudizi di genere radicati nell’intelligenza artificiale, che riflettono e perpetuano gli stereotipi sociali. Solleva interrogativi sul ruolo dell’intelligenza artificiale nel rafforzare le norme di genere dannose.

Immagini generate dall’intelligenza artificiale: rafforzamento degli stereotipi razziali e di genere

Bloomberg Graphics ha studiato i bias dell'intelligenza artificiale utilizzando la conversione da testo a immagine con Stable Diffusion, una piattaforma AI open source. I risultati sono stati allarmanti, con il sistema di intelligenza artificiale che ha esacerbato gli stereotipi di genere e razziali, superando quelli riscontrati nel mondo reale. Quando venivano suggerite parole come “CEO” o “prigioniero”, le immagini generate mostravano costantemente dei pregiudizi.

L'indagine ha rivelato una sottorappresentazione delle donne e degli individui con tonalità della pelle più scure nelle immagini relative al lavoro ad alta retribuzione, mentre la sovrarappresentazione si è verificata nelle immagini relative al lavoro a bassa retribuzione. Nelle ricerche relative alla criminalità, l’intelligenza artificiale ha generato in modo sproporzionato immagini di individui dalla pelle più scura, nonostante in realtà la popolazione carceraria fosse più diversificata.

Questi risultati dimostrano che gli algoritmi di intelligenza artificiale, guidati da dati di addestramento distorti e tendenze programmate dall’uomo, rafforzano i pregiudizi sociali anziché mitigarli.

Svelare le radici dei pregiudizi dell’IA

La distorsione dei sistemi di intelligenza artificiale può essere fatta risalire al loro processo di apprendimento, che si basa su esempi e input di dati. Gli esseri umani svolgono un ruolo fondamentale nel modellare il comportamento dell’intelligenza artificiale, intenzionalmente o meno, fornendo dati che possono essere distorti o stereotipati. L’intelligenza artificiale quindi apprende e riflette questi pregiudizi nei suoi risultati.

Reid Blackman, esperto di etica digitale, ha citato il caso del software di lettura dei curriculum basato sull'intelligenza artificiale di Amazon, che ha involontariamente imparato a rifiutare tutti i curriculum delle donne. Questo esempio evidenzia come l’intelligenza artificiale possa inavvertitamente perpetuare la discriminazione se apprende da esempi distorti.

Affrontare i bias dell’intelligenza artificiale richiede un esame completo dei dati dei sistemi di intelligenza artificiale, degli algoritmi di apprendimento automatico e di altri componenti. Un passo cruciale è valutare i dati di formazione per individuare i pregiudizi, garantendo che i gruppi sovra o sottorappresentati siano adeguatamente presi in considerazione.

Agire contro i bias nell’intelligenza artificiale

Il rapporto di IBM sottolinea la necessità di esaminare attentamente i set di dati per individuare eventuali bias, in particolare negli algoritmi di riconoscimento facciale, dove la sovrarappresentazione di determinati gruppi può portare a errori. Identificare e correggere questi pregiudizi è essenziale per garantire l’equità e l’accuratezza dei sistemi di intelligenza artificiale.

Il problema non si limita al testo generato dall’intelligenza artificiale ma si estende ai sistemi di personalizzazione algoritmica. Questi sistemi, come visto nella piattaforma pubblicitaria di Google, possono perpetuare i pregiudizi di genere imparando dal comportamento degli utenti. Mentre gli utenti fanno clic o effettuano ricerche in modi che riflettono i pregiudizi sociali, gli algoritmi imparano a generare risultati e annunci che rafforzano questi pregiudizi.

Sebbene l’intelligenza artificiale abbia fatto passi da gigante in vari ambiti, i pregiudizi rimangono una sfida formidabile. I sistemi di intelligenza artificiale riflettono e perpetuano i pregiudizi sociali, dai pregiudizi di genere nella generazione del linguaggio agli stereotipi razziali e di genere nella generazione delle immagini. Affrontare i bias dell’IA richiede un approccio articolato che comprenda un attento esame dei dati e aggiustamenti algoritmici. Solo attraverso questi sforzi l’intelligenza artificiale potrà davvero fungere da strumento neutrale e imparziale a beneficio di tutti.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto