OpenAI ha rinviato il rilascio del suo tanto atteso strumento progettato per rilevare il testo generato dal suo modello ChatGPT. Secondo quanto riportato, il lancio è stato ritardato a causa di possibili problemi che potrebbero influire sull'esperienza dell'utente e sull'ecosistema.
Il Wall Street Journal ha affermato che OpenAI si è preparata a rilasciare lo strumento nell'ultimo anno, ma non lo ha fatto, principalmente a causa di rischi e problemi vari. Anche la scelta di posticipare il lancio dello strumento sembra essere legata all'input dell'utente. In un sondaggio condotto da OpenAI, è stato scoperto che quasi un terzo dei suoi utenti fedeli di ChatGPT potrebbe essere scoraggiato dall’introduzione della tecnologia anti-cheat.
Come funziona lo strumento anti-cheat
Secondo il Center for Democracy and Technology, il 59% degli insegnanti delle scuole medie e superiori ritiene che gli studenti abbiano utilizzato l’intelligenza artificiale nei loro compiti, in aumento rispetto all’anno precedente.
Lo strumento anti-cheat funziona incorporando una filigrana nel testo scritto da un'intelligenza artificiale. Anche se questa filigrana è invisibile a occhio nudo, la tecnologia di rilevamento di OpenAI è in grado di rilevarla. Lo strumento fornisce un punteggio che rappresenta la probabilità che un dato testo sia stato scritto da ChatGPT. Si dice che questa tecnica di watermarking sia quasi perfetta, poiché i documenti interni rivelano che ha un'efficacia del 99,9% quando ChatGPT produce molti contenuti.
Tuttavia, sono state sollevate alcune questioni relative allo strumento. Una delle principali preoccupazioni è che potrebbe essere svantaggioso per coloro che non sono di madrelingua inglese. Alcune persone temono che la filigrana potrebbe non essere efficiente come dovrebbe essere o potrebbe contrassegnare come plagiate altre opere di autori con scarsa conoscenza della lingua inglese. Inoltre, i critici hanno espresso preoccupazione per il fatto che la filigrana possa essere cancellata o manipolata traducendola o inserendo ed eliminando emoji.
Un altro problema è chi dovrebbe essere autorizzato a utilizzare lo strumento di rilevamento. Limitare l'accesso può ridurre l'applicabilità del metodo di watermarking; tuttavia, consentire l'accesso gratuito potrebbe rendere il metodo inefficace.
Altri giganti della tecnologia sviluppano soluzioni simili
Sebbene OpenAI non abbia ancora implementato lo strumento anti-cheat per il testo, l'azienda ha già iniziato ad applicare la filigrana per gli output audio e video. Questi formati multimediali sono stati considerati prioritari dall’azienda perché i deepfake generati dall’intelligenza artificiale comportano rischi maggiori rispetto ai contenuti basati su testo.
Anche altre aziende tecnologiche stanno sviluppando soluzioni simili. Ad esempio, Google sta sviluppando anche una propria soluzione di watermarking nota come SynthID, che è ancora in fase beta. Tuttavia, OpenAI ha dato priorità alla filigrana audio e visiva rispetto al testo poiché gli impatti del primo sono più gravi e possono verificarsi durante intervalli critici come gli anni elettorali.
Questa notizia arriva mentre Elon Musk è tornato in tribunale per citare in giudizio OpenAI, accusando la società e i suoi fondatori, Sam Altman e Greg Brockman, di allontanarsi dall'obiettivo originale di creare un'intelligenza artificiale per il miglioramento dell'umanità.