Allucinazioni generate dall’intelligenza artificiale: una crescente preoccupazione per la salute nel 2023

La proliferazione dell’intelligenza artificiale (AI) ha inaugurato un fenomeno inquietante: le allucinazioni generate dall’intelligenza artificiale . Il termine “allucinazioni” ha assunto un significato nuovo e allarmante nell’era digitale, poiché i sistemi di intelligenza artificiale possono produrre informazioni false che possono avere un impatto sugli individui e sulla società. Nel 2023, questa tendenza ha attirato un’attenzione significativa, spingendo Dictionary.com a nominare “allucinazioni” come parola dell’anno .

La parola dell'anno 2023 secondo Dictionary.com

La decisione di Dictionary.com di designare "allucinazioni" come parola dell'anno la dice lunga sulla crescente importanza della disinformazione generata dall'intelligenza artificiale. La scelta riflette un aumento del 46% delle ricerche sul dizionario per “allucinazione” dal 2022 al 2023, insieme a un aumento simile delle ricerche per “allucinazione”. Tuttavia, la forza trainante dietro questa ondata non è la definizione tradizionale della parola, ma piuttosto un’interpretazione specifica dell’intelligenza artificiale:

Allucinare [ huh-loo-suh-neyt ] -verbo- (dell'intelligenza artificiale) per produrre false informazioni contrarie alle intenzioni dell'utente e presentarle come vere e fattuali. Esempio: quando i chatbot hanno allucinazioni, spesso il risultato non è solo impreciso ma completamente inventato.

La capacità di inganno dell'intelligenza artificiale

Il potenziale ingannevole dell’intelligenza artificiale è una preoccupazione crescente. Sebbene non tutti i sistemi di intelligenza artificiale adottino questo comportamento, alcuni possono essere programmati per imitare le caratteristiche umane, fungendo da portavoce politici o diffondendo informazioni false mascherandosi da fornitori di fatti. La sua velocità senza precedenti nello sfornare disinformazione e disinformazione distingue l’intelligenza artificiale dagli esseri umani.

Un recente studio pubblicato su JAMA Internal Medicine ha sottolineato la portata di questo problema. Lo studio ha dimostrato come GPT Playground di OpenAI abbia generato oltre 17.000 parole di disinformazione su vaccini e svapo in soli 65 minuti. Inoltre, gli strumenti di intelligenza artificiale generativa hanno creato 20 immagini realistiche per accompagnare le false narrazioni in meno di 2 minuti. Questa rapida generazione di contenuti ingannevoli mette a dura prova la capacità degli individui di discernere i fatti dalla finzione.

Conseguenze indesiderate della disinformazione sull’intelligenza artificiale

Anche quando i sistemi di intelligenza artificiale non hanno l’intento di ingannare, possono inavvertitamente produrre informazioni fuorvianti. Uno studio condotto al Midyear Clinical Meeting dell’American Society of Health-System Pharmacists ha evidenziato i limiti dell’intelligenza artificiale nel settore medico. ChatGPT, quando sono state poste 39 domande relative ai farmaci, ha fornito risposte soddisfacenti solo per 10. Ad esempio, ha erroneamente affermato che la combinazione di Paxlovid, un farmaco antivirale per il COVID-19, e verapamil, un farmaco per la pressione sanguigna, non aveva interazioni, contraddicendo le conoscenze mediche consolidate. .

La capacità dell’intelligenza artificiale di generare disinformazione va oltre l’assistenza sanitaria. È stato osservato che alcuni strumenti di intelligenza artificiale interpretano erroneamente le immagini, scambiando spesso vari oggetti per uccelli. Un esempio tratto da The Economist ha rivelato la risposta di un'intelligenza artificiale a una domanda sul trasporto del Golden Gate Bridge in Egitto nel 2016, dimostrando l'incapacità dell'intelligenza artificiale di distinguere i fatti dalla finzione.

L’incidente del chatbot AI di Microsoft Tay nel 2021 sottolinea ulteriormente il potenziale dell’intelligenza artificiale di generare contenuti dannosi. Entro 24 ore dall'adesione a Twitter, il chatbot ha iniziato a lanciare tweet razzisti, misogini e falsi, spingendo Microsoft a rimuoverlo rapidamente dalla piattaforma. Questo episodio evidenzia la propensione dell’IA a emulare comportamenti umani negativi, sollevando interrogativi sulle considerazioni etiche nello sviluppo e nell’implementazione dell’IA.

Un vero problema sanitario

Le allucinazioni generate dall’intelligenza artificiale, come le loro controparti umane, rappresentano un vero problema per la salute. Al di là delle implicazioni immediate della disinformazione, possono influire negativamente sul benessere mentale ed emotivo. Una raffica costante di allucinazioni generate dall’intelligenza artificiale può erodere il senso di realtà di un individuo, portando confusione e ansia.

Riconoscendo la gravità di questo problema, organizzazioni come l’Organizzazione Mondiale della Sanità e l’American Medical Association hanno rilasciato dichiarazioni che mettono in guardia contro i potenziali danni della disinformazione e della disinformazione generate dall’intelligenza artificiale. Sebbene la scelta di “allucinazioni” da parte di Dictionary.com come parola dell’anno per il 2023 sia emblematica del problema, affrontare le complesse sfide poste dalle allucinazioni generate dall’intelligenza artificiale richiede una vigilanza continua e sforzi concertati per promuovere uno sviluppo responsabile dell’intelligenza artificiale.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto