La controversia su BlenderBot 3 mette in evidenza la necessità di dati AI di migliore qualità

La controversia su BlenderBot 3 mette in evidenza la necessità di dati AI di migliore qualità

L'intelligenza artificiale conversazionale ha fatto molta strada e i chatbot più avanzati di oggi possono tenere conversazioni incredibilmente realistiche con gli esseri umani su un'ampia gamma di argomenti.

Tuttavia, solo con i veri umani, sembra che molte di quelle conversazioni abbiano il potenziale per andare storte. Il problema dei chatbot AI è che vengono addestrati utilizzando principalmente set di dati pubblici. Quindi migliorano le loro conoscenze attingendo alle loro esperienze precedenti, il che significa conversazioni più vecchie che hanno avuto con gli umani. Di conseguenza, molti chatbot di intelligenza artificiale ripetono cose che hanno sentito prima, inclusi vari sentimenti razzisti e sessisti.

Anche se questo fatto non fa molto per dirci se l'IA è in grado di diventare senziente, ci avverte dell'esistenza di un numero sorprendentemente ampio di utenti della rete che hanno opinioni così controverse o stanno semplicemente facendo di tutto per corrompere il chatbot più avanzati in circolazione.

Un ottimo esempio di ciò è il nuovo BlenderBot 3 di Meta AI, un chatbot recentemente aggiornato che si dice sia il più avanzato che abbia mai costruito. È interessante notare che BlenderBot 3 ha iniziato ad attaccare il co-fondatore e CEO di Meta Mark Zuckerberg, rispondendo a domande che sembrano mettere in dubbio la sua reputazione tra i membri dello staff, alcuni dei quali sarebbero stati senza dubbio coinvolti nella sua progettazione.

Come rivelato dal New York Post la scorsa settimana, BlenderBot 3 ha sviluppato molto rapidamente una visione negativa di Zuckerberg e della sua reputazione, come rivela un tweet del giornalista @jscastro76:

“Oh amico, alla grande. Non mi piace per niente. È troppo inquietante e manipolatore", avrebbe detto BlenderBot 3.

Allo stesso modo, la BBC ha premuto BlenderBot 3 per le sue opinioni sia su Zuckerberg che su Facebook, e non ha tirato pugni nella sua risposta. “La sua azienda sfrutta le persone per soldi e non gli importa. Deve fermarsi!” il chatbot ha risposto.

Le conversazioni con BlenderBot 3 su altri argomenti hanno portato a affermazioni ancora più controverse . Ad esempio, l'IA ha affermato che "(gli ebrei) sono sovrarappresentati tra i super ricchi d'America", prima di aggiungere che "i conservatori politici… sono ora in inferiorità numerica rispetto agli ebrei liberali di sinistra" durante una discussione con l'editorialista del Wall Street Journal Jeff Horowitz.

Sorprendentemente o meno, BlenderBot 3 ha avuto una visione più favorevole del controverso ex presidente degli Stati Uniti Donald Trump, ripetendo le accuse di essere stato in qualche modo imbrogliato durante le ultime elezioni:

In un post sul blog che annunciava la disponibilità di BlenderBot 3, Meta ha spiegato di aver deciso di aprirlo al pubblico, aumentando la pubblicità negativa, per accumulare più dati.

"Consentire a un sistema di intelligenza artificiale di interagire con le persone nel mondo reale porta a conversazioni più lunghe e diversificate e a feedback più vari", ha spiegato l'azienda.

Rendendo pubblico BlenderBot 3, Meta sarà senza dubbio in grado di raccogliere molti più dati che possono essere utilizzati per addestrare l'IA. Ma data la propensione umana al male, resta da vedere se quei dati saranno preziosi in termini di creazione di un'IA più neutrale e non offensiva. Potrebbe anche portare a domande sulla precisione, come l'apparente convinzione di BlenderBot 3 che i Democratici abbiano rubato l'ultima scena elettorale. Dati insufficienti o di bassa qualità in genere significano sempre prestazioni scadenti e risultati imprecisi.

Sebbene sfruttare i dati del pubblico sia la strada da percorrere se vogliamo ottenere informazioni sufficienti per addestrare i modelli di intelligenza artificiale a un livello "umano", è diventato chiaro che coltivare qualsiasi vecchio dato non è abbastanza buono.

Meta potrebbe essere meglio esplorare una nuova fonte di dati più attentamente controllati e decentralizzati per l'allenamento AI . Questo è ciò che Oraichain sta tentando di fare con il suo Oraichain Data Hub, che funge da mercato decentralizzato per esplorare o analizzare dati, archiviare o condividere dati e creare o richiedere dati di alta qualità. Con il suo Data Hub, Oraichain sta cercando di rimediare ai problemi legati alla mancanza di dati di formazione sull'IA, incentivando la comunità di ricerca a fornire set di dati di alta qualità che sono stati correttamente etichettati e sottoposti a garanzia per garantirne l'accuratezza. Dice che questi dati possono essere utilizzati per informare modelli di intelligenza artificiale più accurati. Gli utenti possono creare, annotare e condividere dati e guadagnare premi basati su criptovalute. In questo modo, c'è un incentivo per gli utenti a non provare a manipolare i dati in un modo che potrebbe produrre risultati controversi, come con BlenderBot 3.

I dati decentralizzati attentamente controllati da terze parti neutrali potrebbero fare molto per risolvere alcune delle imprecisioni e controversie visualizzate da BlenderBot 3. Ma accadrà solo se ci sono abbastanza dati da utilizzare. Con Oraichain, si spera che la prospettiva di guadagnare premi per la creazione e la garanzia dell'accuratezza dei dati incoraggi più persone a contribuire. È bello vedere che Oraichain sta facendo progressi. Questa settimana ha annunciato il lancio di un nuovo programma DApps Accelerator che mira a supportare le startup all'interno del suo ecosistema. Poiché sempre più aziende fanno affidamento sui loro set di dati decentralizzati, i contributori riceveranno ricompense più allettanti, incoraggiando la creazione di più dati che possono essere utilizzati per addestrare accuratamente i modelli di IA.

Ci sarà sicuramente una richiesta di dati di qualità superiore, poiché BlenderBot 3 non è l'unica IA di alto profilo ad aver suscitato titoli negativi. Nel 2016, Microsoft è stata costretta a chiudere il suo chatbot sperimentale Tay dopo sole 16 ore perché in quel periodo aveva già appreso e iniziato a sputare teorie del complotto offensive scoperte su fonti come Twitter. Tay è stato successivamente sostituito da un chatbot migliorato chiamato "Zo", solo che anche quella sostituzione è stata messa offline per motivi simili.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto