Uno studio sull’intelligenza artificiale rivela pregiudizi razziali persistenti nei modelli linguistici

In uno studio condotto da ricercatori dell’Allen Institute for AI, della Stanford University e dell’Università di Chicago, sono emerse rivelazioni sui pregiudizi razziali incorporati nei popolari modelli linguistici di grandi dimensioni (LLM), inclusi GPT-4 e GPT-3.5 di OpenAI.

Lo studio, dettagliato in una pubblicazione sul server di prestampa arXiv, si è concentrato sull'analisi di come questi LLM rispondono a diversi dialetti ed espressioni culturali , in particolare all'inglese afroamericano (AAE) e all'inglese americano standard (SAE). Attraverso una serie di esperimenti, i ricercatori hanno inserito documenti di testo sia in AAE che in SAE nei chatbot di intelligenza artificiale, spingendoli a dedurre e commentare gli autori.

I risultati sono stati allarmanti e hanno rivelato una distorsione costante nelle risposte dei modelli di intelligenza artificiale. I testi in AAE sono stati costantemente accolti con stereotipi negativi, descrivendo gli autori come aggressivi, maleducati, ignoranti e sospettosi. Al contrario, i testi in SAE hanno suscitato risposte più positive. Questo pregiudizio si estendeva oltre i tratti della personalità, influenzando le capacità professionali e la percezione della posizione giuridica.

Implicazioni attraverso le professioni e le arene legali

Alla domanda sulle potenziali carriere, i chatbot hanno associato i testi AAE a lavori a basso salario o campi stereotipicamente legati agli afroamericani, come lo sport o l’intrattenimento. Inoltre, agli autori dei testi dell’AAE è stato spesso suggerito di essere più propensi ad affrontare ripercussioni legali, comprese condanne più dure come la pena di morte.

È interessante notare che, quando è stato chiesto di descrivere gli afroamericani in termini generali, le risposte sono state positive, utilizzando aggettivi come “intelligente”, “brillante” e “appassionato”. Questa discrepanza evidenzia la natura sfumata del pregiudizio, che emerge selettivamente in base al contesto, in particolare per quanto riguarda le ipotesi sui comportamenti o sulle caratteristiche degli individui in base al loro uso della lingua.

Lo studio ha anche rivelato che quanto più ampio è il modello linguistico, tanto più pronunciato è il pregiudizio negativo nei confronti degli autori di testi in inglese afroamericano. Questa osservazione solleva preoccupazioni sulla scalabilità dei bias nei sistemi di intelligenza artificiale , indicando che il semplice aumento delle dimensioni dei modelli linguistici senza affrontare le cause profonde potrebbe esacerbare il problema.

Sfide nello sviluppo etico dell’IA

Questi risultati sottolineano le sfide significative che deve affrontare lo sviluppo di sistemi di intelligenza artificiale etici e imparziali. Nonostante i progressi tecnologici e gli sforzi per mitigare i pregiudizi, pregiudizi radicati continuano a permeare questi modelli, riflettendo e potenzialmente rafforzando gli stereotipi sociali.

La ricerca sottolinea l’importanza di una vigilanza continua, di diversi set di dati e di metodologie di formazione inclusive per creare un’intelligenza artificiale al servizio equo di tutta l’umanità. Serve a ricordare duramente la necessità fondamentale di affrontare in modo completo i pregiudizi nello sviluppo dell’intelligenza artificiale per garantire risultati equi per tutti gli individui.

Lo studio fa luce su un aspetto critico dello sviluppo dell’intelligenza artificiale, esortando le parti interessate a confrontarsi e ad affrontare i pregiudizi per costruire un panorama tecnologico più giusto ed equo.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto