L’analista di Google Gary Illyes ha avvertito che i modelli linguistici di grandi dimensioni – la tecnologia alla base dei chatbot con intelligenza artificiale generativa come ChatGPT – presentano ancora lacune in termini di accuratezza e necessitano di un occhio umano per verificare il contenuto che producono. I commenti arrivano pochi giorni dopo che OpenAI ha lanciato SearchGPT , un nuovo motore di ricerca basato sull'intelligenza artificiale che competerà direttamente con Google.
Illyes ha condiviso i commenti su LinkedIn in risposta a una domanda che ha ricevuto nella sua casella di posta, ma non ha detto quale fosse la domanda. Ha detto che le persone non dovrebbero fidarsi delle risposte dell’intelligenza artificiale senza controllare altre fonti autorevoli. OpenAI punta al suo strumento di ricerca per ribaltare il dominio di Google nel mercato dei motori di ricerca.
Le risposte dell'IA non sono "necessariamente corrette dal punto di vista fattuale"
Illyes, che lavora con Google da oltre un decennio, ha affermato che, sebbene le risposte dell’intelligenza artificiale possano essere vicine alla realtà, non sono “necessariamente corrette dal punto di vista fattuale”. Questo perché i modelli linguistici di grandi dimensioni (LLM) non sono immuni dal nutrirsi di informazioni errate che circolano su Internet, ha spiegato.
"Sulla base dei dati di formazione, gli LLM trovano le parole, le frasi e le frasi più adatte che si allineano al contesto e al significato di un prompt", ha scritto Illyes. “Ciò consente loro di generare risposte pertinenti e coerenti. Ma non necessariamente corretti dal punto di vista fattuale.
L'analista di Google ha affermato che gli utenti dovranno comunque convalidare le risposte dell'intelligenza artificiale in base a ciò che "sapete sull'argomento che avete chiesto al LLM o su ulteriori letture su risorse autorevoli per la vostra query".
Un modo in cui gli sviluppatori hanno cercato di garantire l’affidabilità dei contenuti generati dall’intelligenza artificiale è attraverso una pratica chiamata “grounding”. Il processo prevede l’integrazione di informazioni create dalla macchina con elementi umani per proteggersi dagli errori. Secondo Illyes la messa a terra potrebbe non essere ancora sufficiente.
“Il radicamento può aiutare a creare risposte più corrette dal punto di vista fattuale, ma non è perfetto; non sostituisce il cervello", ha detto. "Internet è pieno di disinformazione intenzionale e non intenzionale e non crederesti a tutto ciò che leggi online, quindi perché dovresti rispondere a LLM?"
Elon Musk accusa Google di custodire informazioni pubbliche
Tradizionalmente, la fiducia è sempre stata un problema con i motori di ricerca come Google e altre piattaforme di intelligenza artificiale e con il modo in cui esercitano un certo controllo sulle informazioni che trasmettono agli utenti.
Uno di questi incidenti riguarda il recente tentativo di omicidio dell’ex presidente degli Stati Uniti Donald Trump. Elon Musk ha suggerito che Google abbia vietato la comparsa dell'incidente della sparatoria nei suoi risultati di ricerca, innescando un importante dibattito sui social media sulla portata delle Big Tech.
Wow, Google ha vietato la ricerca del presidente Donald Trump!
Interferenza elettorale? pic.twitter.com/dJzgVAAFZA
– Elon Musk (@elonmusk) 29 luglio 2024
Nella raffica di risposte, un account spoof che pretende di appartenere alla vicepresidente di Google Ana Mostarac si è aggiunto al dibattito, condividendo false scuse da parte della società per aver presumibilmente bloccato i contenuti su Trump.
“…Le esigenze di informazione delle persone continuano a crescere, quindi continueremo ad evolvere e a migliorare la Ricerca. Tuttavia, sembra che dobbiamo ricalibrare ciò che intendiamo per accurato. Ciò che è accurato è soggettivo e la ricerca della precisione può ostacolare il completamento delle cose", ha pubblicato l'account falso su X.
"Potete essere certi che il nostro team sta lavorando duramente per garantire che non permettiamo che il nostro rispetto per l'accuratezza sia una distrazione che ostacoli la nostra visione per il futuro", ha aggiunto.
Le note della community su X hanno immediatamente contrassegnato il tweet, dicendo che la persona si stava spacciando per il vicepresidente di Google. Questo è un esempio di come le informazioni possano essere facilmente distorte e i modelli di intelligenza artificiale potrebbero non essere in grado di discernere ciò che è accurato o meno senza la revisione umana.