Lo studio rivela le lotte di ChatGPT con la matematica di base

Nel mondo della tecnologia in rapida evoluzione, i chatbot di Intelligenza Artificiale (AI) sono emersi come una svolta significativa. Tra questi, ChatGPT di OpenAI è stato un pubblico straordinario e accattivante sin dalla sua introduzione al pubblico lo scorso anno. La sua capacità di impegnarsi in conversazioni fluide le è valsa riconoscimenti e ha innescato una feroce corsa globale per sviluppare modelli di intelligenza artificiale ancora più avanzati. Tuttavia, tra gli applausi e le preoccupazioni per il potenziale predominio dell'IA, scoperte recenti hanno svelato uno sviluppo inaspettato: la minore competenza di ChatGPT nella matematica di base.

Comprensione del fenomeno "Drift" dell'IA

Il termine "deriva" nell'IA non è solo una parola d'ordine. È un fenomeno reale e osservato che ha attirato l'attenzione della comunità accademica. Uno sforzo di ricerca collaborativo tra la Stanford University e l'Università della California, Berkeley, ha fatto luce su questo intrigante aspetto del comportamento dell'IA.

L'essenza della "deriva" risiede nelle conseguenze indesiderate dell'ottimizzazione del modello. Mentre i ricercatori e gli sviluppatori si sforzano di migliorare alcune funzionalità di questi intricati modelli di intelligenza artificiale, altre aree potrebbero inavvertitamente risentirne. Questo è esattamente ciò che sta accadendo con ChatGPT.

James Zou, rinomato professore a Stanford e contributore fondamentale alla ricerca, ha chiarito: "Quando modifichi il modello per migliorarlo in una direzione specifica, c'è un rischio tangibile che regredisca in altre aree". Questa sfida intrinseca sottolinea la complessità del raggiungimento di progressi coerenti nei modelli di intelligenza artificiale.

Scavando nel declino

La ricerca non è stata una rapida occhiata alle capacità di ChatGPT. È stata un'analisi meticolosa guidata da Lingjiao Chen, un diligente dottorato di ricerca in informatica. studente di Stanford, e Matei Zaharia, figura di spicco di Berkeley. Il loro obiettivo era chiaro: valutare come due versioni distinte di ChatGPT si sono comportate in un periodo.

Le loro scoperte sono state sorprendenti. Si potrebbe presumere che identificare i numeri primi, un compito relativamente semplice per i computer, sarebbe un gioco da ragazzi per un'intelligenza artificiale così avanzata. Tuttavia, i risultati hanno raccontato una storia diversa.

In un test condotto a marzo, GPT-4, la versione premium di ChatGPT, è stata presentata con 1.000 numeri diversi. È riuscito ad accertare correttamente la primalità dell'84% di loro. Avanti veloce a giugno e la sua precisione è crollata a un mero 51%. Questo non è stato un incidente isolato. Su otto diverse attività, le prestazioni di GPT-4 sono peggiorate in sei. Sebbene GPT-3.5 sia migliorato in sei aree, è rimasto prevalentemente indietro rispetto al suo successore.

Le implicazioni della deriva rapida

Sebbene la "deriva" sia un concetto riconosciuto tra gli appassionati di intelligenza artificiale, la velocità con cui si è manifestata in ChatGPT è stata inaspettata. Le osservazioni del gruppo di ricerca si sono estese oltre i compiti matematici. Hanno notato un netto calo della reattività di GPT-4 alle domande incentrate sull'opinione pubblica. Da un encomiabile tasso di risposta del 98% a marzo, è sceso al 23% entro giugno.

Questa regressione potrebbe essere intrecciata con la fiorente tendenza della "pronta progettazione". Ciò comporta che gli utenti creino prompt specifici per estrarre risposte AI particolari e talvolta controverse. Il degrado dell'abilità matematica di ChatGPT potrebbe essere una ricaduta involontaria delle misure adottate per contrastare tali suggerimenti manipolativi.

Navigare nel futuro dell'IA

Nonostante gli ostacoli, il consenso, soprattutto tra la comunità di ricerca, è di non scartare la tecnologia. Invece, l'enfasi è sulla vigilanza. Zou sostiene con passione un approccio di monitoraggio più rigoroso. Facendo eco ai suoi sentimenti, il team congiunto di Stanford e Berkeley si sta preparando a sottoporre i modelli di intelligenza artificiale, incluso ChatGPT, a una serie di test. Il loro scopo? Misurare empiricamente la loro evoluzione nel tempo.

Il percorso della progressione dell'IA non è lineare. È un viaggio dinamico segnato da passi in avanti, inciampi occasionali e deviazioni inaspettate. Mentre la comunità globale continua a navigare nell'intricato labirinto dell'IA, una cosa è evidente: il viaggio per comprendere e perfezionare questi sistemi è tutt'altro che finito.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto