In un recente sviluppo che ha suscitato scalpore nella comunità scientifica, i ricercatori hanno identificato casi di utilizzo disonesto di ChatGPT, un popolare chatbot di intelligenza artificiale, in articoli scientifici. Queste rivelazioni evidenziano una crescente preoccupazione circa la trasparenza e l’integrità delle pubblicazioni scientifiche.
La scoperta
Il 9 agosto, la rivista *Physica Scripta* ha pubblicato un articolo che mirava a svelare complesse equazioni matematiche. Tuttavia, l'informatico Guillaume Cabanac ha notato una frase strana sulla terza pagina del manoscritto: "Rigenerare la risposta". Questa frase si è rivelata essere un'etichetta di ChatGPT, un chatbot AI utilizzato per generare testo in risposta alle richieste dell'utente. Cabanac ha prontamente condiviso le sue scoperte su PubPeer, una piattaforma in cui gli scienziati discutono delle ricerche pubblicate.
Successive indagini hanno rivelato che gli autori dell'articolo avevano effettivamente utilizzato ChatGPT per assistere nella stesura del loro manoscritto. Sorprendentemente, questa anomalia è passata inosservata durante i due mesi del processo di peer review e durante la fase di impaginazione. Di conseguenza, l'editore, IOP Publishing, ha deciso di ritirare l'articolo a causa della mancata dichiarazione da parte degli autori dell'utilizzo dello strumento durante l'invio.
La questione più ampia
Questo caso non è un incidente isolato. Da aprile, Guillaume Cabanac ha identificato più di una dozzina di articoli di giornale contenenti le frasi rivelatrici di ChatGPT "Rigenera risposta" o "Come modello linguistico AI, io…", tutti pubblicati su PubPeer. Molti editori, tra cui Elsevier e Springer Nature, consentono l'uso di ChatGPT e modelli linguistici simili purché gli autori lo dichiarino.
Tuttavia, questi casi di rilevamento rappresentano solo la punta dell’iceberg. I ricercatori sospettano che numerosi documenti sottoposti a revisione paritaria non divulgati abbiano utilizzato ChatGPT senza un'adeguata dichiarazione. Le frasi stesse si sono evolute, con ChatGPT che ha cambiato il pulsante "Rigenera risposta" in "Rigenera" in un aggiornamento.
Utilizzo non divulgato tra riviste
Guillaume Cabanac ha scoperto frasi tipiche di ChatGPT in articoli pubblicati sulle riviste Elsevier. In un caso, un articolo pubblicato su *Resources Policy* il 3 agosto ha esplorato l’impatto del commercio elettronico sull’efficienza dei combustibili fossili nei paesi in via di sviluppo. Cabanac ha notato delle incoerenze nelle equazioni, ma l'omaggio era una dichiarazione sopra una tabella: "Si prega di notare che come modello linguistico di intelligenza artificiale, non sono in grado di generare tabelle specifiche o condurre test…"
Elsevier ha riconosciuto il problema e lo sta attualmente indagando. Gli autori dello studio, affiliati all’Università Liaoning di Shenyang, in Cina, e all’Accademia cinese per il commercio internazionale e la cooperazione economica di Pechino, non hanno risposto alle richieste di commento.
La sfida di individuare l’inganno
I documenti scritti parzialmente o interamente da software senza divulgazione non sono nuovi, ma in genere presentano tracce distinguibili come modelli linguistici o frasi tradotte erroneamente. L'eliminazione delle frasi ChatGPT standard, tuttavia, rende quasi impossibile individuare il testo generato dall'intelligenza artificiale. Ciò crea una sfida continua per la comunità scientifica, spesso descritta come una “corsa agli armamenti” tra i truffatori e coloro che cercano di mantenere l’integrità della ricerca.
Impatto sulla peer review
L'uso non divulgato di ChatGPT è emerso anche in documenti e prestamp di conferenze sottoposti a revisione paritaria. Gli autori, confrontati su PubPeer, a volte hanno ammesso di utilizzare ChatGPT senza dichiarazione. Questa rivelazione evidenzia un problema significativo: i peer reviewer, oberati di lavoro, potrebbero non avere tempo sufficiente per esaminare attentamente i manoscritti alla ricerca di segnali di allarme.
L'ascesa dei manoscritti falsi
La proliferazione di strumenti di intelligenza artificiale generativa come ChatGPT solleva preoccupazioni sulla potenziale crescita delle cartiere, aziende che producono e vendono manoscritti falsi a ricercatori che cercano di rafforzare la loro produzione editoriale. Questo fenomeno minaccia di esacerbare un problema già impegnativo nell’editoria accademica.
Individuazione dell'inganno
È noto che modelli linguistici come ChatGPT generano falsi riferimenti, un potenziale segnale per i revisori paritari che tentano di rilevarne l'uso nei manoscritti. In alcuni casi sono stati identificati riferimenti fittizi che fungono da segnali di allarme per avvisare i revisori. La vigilanza nella verifica delle referenze sta diventando sempre più importante.
La scoperta dell'utilizzo non divulgato di ChatGPT nelle pubblicazioni scientifiche sottolinea l'importanza della trasparenza e dell'integrità nella ricerca. Mentre la comunità scientifica è alle prese con le sfide poste dall’evoluzione degli strumenti di intelligenza artificiale, è evidente che linee guida più rigorose e una maggiore vigilanza nella revisione tra pari sono essenziali per mantenere la credibilità della pubblicazione accademica. Affrontare questi problemi è fondamentale per garantire che la ricerca della conoscenza rimanga fondata su principi etici e pratiche di ricerca rigorose.