I chatbot di intelligenza artificiale (AI), alimentati da modelli di intelligenza artificiale generativa, sono stati inavvertitamente fuorviati da un post sul blog di ricerca. L’incidente evidenzia la necessità di maggiori garanzie man mano che i motori di ricerca potenziati dall’intelligenza artificiale diventano sempre più diffusi.
Allucinazioni nei chatbot IA
Il ricercatore di scienze dell’informazione Daniel S. Griffin ha inavvertitamente innescato un enigma unico nel regno dei chatbot basati sull’intelligenza artificiale quando ha pubblicato esempi di informazioni false sul suo blog. Il suo scopo era quello di illustrare esempi di chatbot basati sull’intelligenza artificiale che diffondono disinformazione. Griffin ha mostrato due esempi relativi all'influente scienziato informatico Claude E. Shannon, con un chiaro disclaimer che indicava che le informazioni dei chatbot non erano vere.
Tuttavia, questa dichiarazione di non responsabilità si è rivelata insufficiente a impedire ai raschiatori della macchina di indicizzare le informazioni false. Griffin è rimasto sorpreso nello scoprire che diversi chatbot, tra cui Bing di Microsoft e Bard di Google, avevano fatto riferimento ai dati allucinati come se fossero reali, classificandoli in cima ai risultati di ricerca. Quando gli utenti hanno interrogato i chatbot su dettagli specifici riguardanti Shannon, i robot hanno fatto affidamento sulla dichiarazione di non responsabilità di Griffin per costruire una narrazione coerente ma errata. Ciò ha portato ad attribuire a Shannon un articolo di cui non aveva mai scritto.
Inoltre, l'aspetto preoccupante di questa situazione era l'assenza di qualsiasi indicazione nei risultati di ricerca di Bing e Bard che le loro fonti derivassero dal Language Model AI (LLM). Questo fenomeno rispecchia da vicino i casi in cui gli individui parafrasano o citano fonti fuori contesto, portando a ricerche imperfette. Tuttavia, l’incidente di Griffin ha dimostrato che i modelli di intelligenza artificiale generativa potrebbero potenzialmente automatizzare questo errore su scala molto più ampia.
Le conseguenze della disinformazione dell’IA
Le conseguenze di questo incidente vanno oltre le semplici inesattezze della ricerca. Da allora Microsoft ha corretto l'errore in Bing e ha suggerito che è più probabile che il problema si verifichi in soggetti con contenuti online limitati scritti da persone. Questa vulnerabilità apre le porte a una possibilità inquietante: un progetto teorico che consenta ad attori malintenzionati di utilizzare intenzionalmente gli LLM come armi per diffondere disinformazione manipolando i risultati dei motori di ricerca. Questa tattica ricorda casi passati in cui gli hacker hanno utilizzato siti Web fraudolenti per distribuire malware assicurandosi le prime posizioni nei risultati di ricerca.
Questo incidente fa eco a un precedente avvertimento di giugno, in cui si ipotizzava che, man mano che Internet diventa sempre più saturo di contenuti generati da LLM, verrà utilizzato per formare futuri LLM. Questo ciclo di feedback potrebbe portare a un significativo deterioramento della qualità e dell’affidabilità dei modelli di intelligenza artificiale , un fenomeno denominato “Collapse del modello”. La necessità di vigilanza nello sviluppo e nell’utilizzo dei modelli di intelligenza artificiale non è mai stata così evidente.
L’incidente che ha coinvolto Daniel S. Griffin sottolinea l’imperativo per le aziende che lavorano con l’intelligenza artificiale di dare priorità alla formazione continua di modelli con contenuti creati dall’uomo. La conservazione di informazioni e materiali meno noti creati da gruppi minoritari può svolgere un ruolo fondamentale nel mitigare la proliferazione della disinformazione perpetuata dai sistemi di intelligenza artificiale.