L’intelligenza artificiale (AI) ha preso il sopravvento sulla vita moderna, in particolare nella generazione di contenuti scritti. Sebbene sia tutto divertimento e giochi, l’imprecisione nel rilevamento dei contenuti dell’intelligenza artificiale è allarmante. Quel che è peggio sono i rilevatori di intelligenza artificiale che contrassegnano i contenuti scritti da persone come generati da GPT; Caso di studio la Costituzione degli Stati Uniti.
La Costituzione degli Stati Uniti è stata scritta nel 1787, ratificata nel 1788 ed è in vigore dal 1789. È la carta di governo scritta più longeva al mondo. La Costituzione risale a circa un secolo prima che fosse inventata la prima automobile. Tuttavia, un rilevatore di intelligenza artificiale lo ha contrassegnato al 97,97% come generato dall’intelligenza artificiale.
I rilevatori di intelligenza artificiale contrassegnano la Costituzione degli Stati Uniti come disumana
Il 2023 ha visto un aumento dei contenuti scritti sull’intelligenza artificiale. Subito dopo, gli sviluppatori del mercato hanno colto l’occasione per creare rilevatori che informano le percentuali di contenuto dell’IA. Avrebbe dovuto essere un buon progresso, ma non è così.
Un rilevatore di intelligenza artificiale ha contrassegnato la Costituzione degli Stati Uniti come contenuto di intelligenza artificiale. La percentuale? Una chiusura del 97,97%. Il termine “intelligenza artificiale” è stato coniato ed è diventato popolare con la nascita dell’intelligenza artificiale tra il 1950 e il 1956. Allora, come è possibile che l’intelligenza artificiale abbia scritto un documento più vecchio di 163 anni rispetto alla sua invenzione?
Nel 1950, Alan Turing pubblicò un articolo di giornale intitolato “Computer Machinery and Intelligence”, proponendo un test di intelligenza artificiale chiamato The Imitation Game. Questo articolo ha segnato l’inizio del mondo in cui viviamo oggi.
Nel 1952, uno scienziato informatico di nome Arthur Samuel sviluppò un programma per giocare a dama, il primo ad imparare il gioco in modo indipendente. Poco dopo, nel 1955, John McCarthy tenne un seminario a Dartmouth sull'“intelligenza artificiale”, che fu il primo utilizzo della parola.
I rilevatori AI hanno dei limiti
I rilevatori di intelligenza artificiale presentano limitazioni perché il testo generato dall’intelligenza artificiale imita la scrittura umana. Questi rilevatori sono stati addestrati dagli stessi umani che hanno insegnato alle macchine a scrivere. Quindi, come funzionerebbero i loro rilevatori di intelligenza artificiale e quanto sono accurati? Un altro rilevatore di intelligenza artificiale ha ottenuto un contenuto di intelligenza artificiale dell’1% sulla Costituzione degli Stati Uniti. Da dove viene l’1%?
Bene, ecco la disparità: alcuni rilevatori di intelligenza artificiale cercano determinate parole come "esplorare, arazzo, utilizzare, numerosi, ecc." che vengono solitamente utilizzati dall’intelligenza artificiale ma sono rari per gli americani.
Tuttavia, per alcune persone provenienti da paesi con una storia coloniale britannica, queste parole sono comunemente usate sia nella lingua parlata che in quella scritta.
Il mese scorso, il co-fondatore di Y Combinator Paul Graham è stato criticato a seguito di una teoria sull'attribuzione del testo ChatGPT formulata su X (ex Twitter). Graham ha pubblicato una fredda proposta via e-mail che ha ricevuto da qualcuno per un progetto che, secondo lui, era scrittura AI perché conteneva la parola "delve.
Un utente X ha detto: "Le persone che hanno imparato l'inglese nei paesi che hanno un passato coloniale britannico – questo è esattamente il modo in cui abbiamo imparato l'inglese […] 'Delve' è una parola normale che parliamo." Un altro ha detto che è un problema americano.
Alcuni paesi e persone usano ancora quello che definirei “inglese letterario”.
La cosa sfortunata è che il vocabolario americano si basa principalmente su colloquialismi (quello che voi chiamate slang) e idiomi americani contemporanei, al punto che l'uso sofisticato di…
– Africa Research Desk (@MightiJamie) , 10 aprile 2024
Ciò solleva la domanda: i rilevatori di intelligenza artificiale e i generatori di contenuti dovrebbero essere specifici per l’inglese regionale? Oppure dovremmo farla finita con tutti questi strumenti di scrittura e rilevatori?
I rilevatori di intelligenza artificiale sono imprecisi
I rilevatori di intelligenza artificiale si basano su caratteristiche linguistiche incoerenti. Il linguaggio umano è intrinsecamente variabile, con un’ampia gamma di stili, dialetti e idiomi. Il testo generato dall’intelligenza artificiale può rientrare in queste variazioni, rendendo difficile la precisione dei rilevatori.
Circa il 20% dei testi generati dall’intelligenza artificiale passano attraverso questi sistemi di rilevamento senza essere rilevati, minando l’affidabilità dei rilevatori di intelligenza artificiale. Allo stesso modo, circa il 25% del testo scritto da esseri umani viene erroneamente contrassegnato come AI.
Un utente su Quora ha scritto: “Il rilevatore AI sta rilevando il mio lavoro come generato al 100% dall'intelligenza artificiale. Perché l'ho usato per ignoranza come strumento di editing e grammatica su richiesta di un consulente accademico. Le parole, il concetto e l'esperienza di vita nel pezzo già pubblicato sono miei. Cosa devo fare?"
Molti hanno espresso frustrazione per questo problema. Recentemente, in un articolo pubblicato da Cryptopolitan, un generatore di intelligenza artificiale ha segnalato le parole pronunciate da Donald Trump. Ha detto: "Sono molto positivo e di mentalità aperta nei confronti delle società di criptovaluta e di tutto ciò che riguarda questo nuovo e fiorente settore". Come viene aggiunta l'intelligenza artificiale alle parole pronunciate? È nella mente di una persona? Nei pensieri espressi?
Altro contenuto è stato di David Bailey: “Ci mobiliteremo per difenderci. Non votiamo per Trump di per sé, votiamo contro Biden. L'unica persona da incolpare per questo è Biden. “
Leggi anche: La campagna crittografica di Trump: tutto ciò che devi sapere
Nel 2023, OpenAI ha pubblicato suggerimenti per gli educatori in un post promozionale sul blog che mostra come alcuni insegnanti utilizzano ChatGPT come supporto educativo.
In una sezione delle domande frequenti intitolata "I rilevatori di intelligenza artificiale funzionano?" OpenAI ha scritto : “In breve, no. Sebbene alcuni (incluso OpenAI) abbiano rilasciato strumenti che pretendono di rilevare contenuti generati dall’intelligenza artificiale, nessuno di questi ha dimostrato di distinguere in modo affidabile tra contenuti generati dall’intelligenza artificiale e contenuti generati dall’uomo”. Rimane il problema di distinguere i contenuti umani da quelli dell’intelligenza artificiale. La domanda è: cosa si dovrebbe fare per andare avanti?
Reporting criptopolitico di Florence Muchai