ChatGPT rivela pregiudizi geografici nelle informazioni sulla giustizia ambientale

I ricercatori della Virginia Tech hanno recentemente condotto uno studio che rivela potenziali limiti nella capacità di ChatGPT, un importante modello di intelligenza artificiale generativa sviluppato da OpenAI, di fornire informazioni specifiche per luogo su questioni di giustizia ambientale. Pubblicati sulla rivista Telematics and Informatics, i risultati suggeriscono l’esistenza di distorsioni geografiche negli attuali modelli di intelligenza artificiale, sollevando interrogativi sull’efficacia della tecnologia nel fornire conoscenze contestualmente fondate.

Testare le risposte di giustizia ambientale per contea

Il gruppo di ricerca, guidato dal professore associato Junghwan Kim del College of Natural Resources and Environment, ha utilizzato un approccio globale per valutare le prestazioni di ChatGPT. Utilizzando un elenco di 3.108 contee negli Stati Uniti contigui, i ricercatori hanno spinto il modello di intelligenza artificiale a fornire informazioni sulle questioni di giustizia ambientale in ciascuna contea. Questa selezione mirava a diversificare le domande tipicamente utilizzate per valutare gli strumenti di intelligenza artificiale generativa, consentendo un esame sfumato.

Svelate le disparità geografiche

I risultati hanno indicato che ChatGPT ha dimostrato la capacità di identificare le sfide di giustizia ambientale specifiche del luogo in aree ampie e ad alta densità di popolazione. Tuttavia, lo strumento di intelligenza artificiale ha mostrato limiti nel fornire informazioni contestualizzate su questioni di giustizia ambientale locale. Delle 3.018 contee esaminate, ChatGPT ha potuto fornire informazioni specifiche sulla posizione solo per il 17% (515 contee).

Negli stati con popolazioni urbane più numerose, come il Delaware o la California, meno dell’1% della popolazione viveva in contee che non potevano ricevere informazioni specifiche. Al contrario, negli stati rurali come l’Idaho e il New Hampshire, oltre il 90% della popolazione risiedeva in contee in cui lo strumento di intelligenza artificiale non era in grado di fornire informazioni specifiche a livello locale.

Implicazioni per sviluppatori e utenti di intelligenza artificiale

L’emergere dell’intelligenza artificiale generativa come strumento primario per la raccolta di informazioni sottolinea l’importanza di testare i bias nella modellazione dei risultati. I risultati dello studio, secondo Kim, segnano un punto di partenza per indagare e affrontare i pregiudizi geografici in ChatGPT. Le implicazioni si estendono al modo in cui programmatori e sviluppatori di intelligenza artificiale possono anticipare e mitigare le disparità di informazioni tra città grandi e piccole e ambienti urbani e rurali.

Migliorare le capacità future: un appello per ulteriori ricerche

Il professore assistente Ismini Lourentzou del College of Engineering, coautore dell'articolo, ha delineato tre aree cruciali per ulteriori ricerche per migliorare le capacità di modelli di linguaggi di grandi dimensioni come ChatGPT:

  1. Affinare la conoscenza localizzata e contestualmente fondata: per ridurre i pregiudizi geografici, è essenziale affinare la capacità del modello di intelligenza artificiale di fornire informazioni contestualizzate su misura per posizioni specifiche.
  2. Salvaguardia da scenari impegnativi : i modelli in linguaggio ampio dovrebbero essere attrezzati per gestire scenari impegnativi, come istruzioni o feedback ambigui per l'utente, per garantire affidabilità e resilienza.
  3. Migliorare la consapevolezza e le politiche degli utenti: è fondamentale migliorare la consapevolezza degli utenti sui punti di forza e di debolezza del modello di intelligenza artificiale, in particolare per quanto riguarda argomenti delicati come la giustizia ambientale. Politiche chiare possono guidare gli utenti attraverso le limitazioni e i potenziali pregiudizi associati ai contenuti generati dall’intelligenza artificiale.

Guidare lo sviluppo futuro dell’IA

Mentre la ricerca presso Virginia Tech fa luce sui pregiudizi geografici esistenti in ChatGPT, diventa evidente la richiesta di ulteriori esplorazioni su queste limitazioni. Lo studio sottolinea la necessità di sforzi continui per perfezionare i modelli di intelligenza artificiale, garantendo che forniscano informazioni accurate e contestualmente rilevanti in diversi contesti geografici. Affrontando queste sfide, gli sviluppatori possono aprire la strada ad applicazioni di intelligenza artificiale più affidabili, imparziali e informate, contribuendo al progresso responsabile della tecnologia dell’intelligenza artificiale.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto