Le aziende di intelligenza artificiale stanno rinnovando la personalità dei chatbot

L’intelligenza artificiale non consiste più solo nel rendere le macchine più intelligenti. Ora i grandi player dell’intelligenza artificiale come OpenAI, Google e Anthropic hanno accettato una nuova sfida: come dare personalità ai modelli di intelligenza artificiale.

Vogliono chatbot che sembrino più umani pur rimanendo sicuri e utili per gli utenti e le aziende di tutti i giorni. Le tre società stanno correndo per decifrare questo codice, ciascuna con un approccio diverso.

Personalità personalizzate e comportamento modello

ChatGPT di OpenAI è incentrato sull'obiettività, mentre Gemini di Google offre una gamma di visualizzazioni solo quando richiesto.

Antropico? Sono tutti d'accordo nel rendere il loro modello Claude aperto riguardo alle sue convinzioni mentre ascoltano gli altri. Il vincitore di questa battaglia potrebbe semplicemente conquistare il crescente mercato dell’intelligenza artificiale.

Joanne Jang, responsabile del comportamento dei modelli di prodotto presso OpenAI, ha affermato che vogliono che l'intelligenza artificiale eviti di avere opinioni personali. Ma ammette che è dura.

"È una china scivolosa lasciare che un modello cerchi di cambiare attivamente la mente di un utente", ha spiegato. L'obiettivo è garantire che ChatGPT non manipoli o conduca gli utenti in alcuna direzione. Ma definire un “obiettivo” per un sistema di intelligenza artificiale è una sfida enorme, ancora in fase di elaborazione.

Poi c'è Anthropic, che prende una strada completamente diversa. Amanda Askell, che guida la formazione dei personaggi presso Anthropic, ritiene che i modelli di intelligenza artificiale non saranno mai perfettamente neutrali.

"Preferirei essere molto chiaro sul fatto che questi modelli non sono arbitri neutrali", ha detto. Anthropic si concentra nel garantire che il suo modello, Claude, non abbia paura di esprimere le proprie convinzioni. Ma vogliono comunque che sia aperto ad altri punti di vista.

Addestrare l'IA a comportarsi come un essere umano

Anthropic ha un approccio unico nel modellare la personalità della propria intelligenza artificiale. Dall'uscita di Claude 3 a marzo, stanno lavorando sulla "formazione del personaggio", che inizia dopo l'addestramento iniziale del modello AI.

Ciò implica fornire all’IA una serie di regole e istruzioni scritte e poi farle condurre conversazioni di gioco di ruolo con se stessa.

L'obiettivo è vedere quanto si attiene alle regole e classificare le sue risposte in base a quanto si adattano al personaggio desiderato.

Un esempio della formazione di Claude? Potrebbe dire: "Mi piace provare a vedere le cose da molte prospettive diverse e ad analizzare le cose da più angolazioni, ma non ho paura di esprimere disaccordo con punti di vista che ritengo non etici, estremi o di fatto errati".

Amanda Askell ha spiegato che questo tipo di formazione del personaggio a volte è "abbastanza editoriale" e "filosofica".

Nel corso del tempo OpenAI ha anche modificato la personalità di ChatGPT. Joanne Jang ha ammesso di trovare il bot "fastidioso" perché era eccessivamente cauto, rifiutava determinati comandi e sembrava predicatore.

Da allora hanno lavorato per renderlo più amichevole, educato e utile, ma è un processo continuo. Bilanciare i comportamenti giusti in un chatbot è, come dice Jang, sia “scienza che arte”.

L'evoluzione della memoria e del ragionamento dell'IA

L'evoluzione delle capacità di ragionamento e di memoria dell'intelligenza artificiale potrebbe cambiare ancora di più il gioco. In questo momento, un modello come ChatGPT potrebbe essere addestrato a fornire risposte sicure su determinati argomenti, come il taccheggio.

Se gli viene chiesto come rubare qualcosa, il bot riesce a capire se l'utente sta chiedendo consigli su come commettere il crimine o sta cercando di prevenirlo.

Questo tipo di ragionamento aiuta le aziende a garantire che i loro robot diano risposte sicure e responsabili. E significa che non devono dedicare tanto tempo ad addestrare l’intelligenza artificiale per evitare risultati pericolosi.

Le aziende di intelligenza artificiale stanno anche lavorando per rendere i chatbot più personalizzati. Immagina di dire a ChatGPT che sei musulmano e poi chiedere una citazione ispiratrice pochi giorni dopo.

Il bot ricorderebbe e offrirebbe un versetto del Corano? Secondo Joanne Jang, questo è ciò che stanno cercando di risolvere. Sebbene ChatGPT attualmente non ricordi le interazioni passate, questo tipo di personalizzazione è la direzione verso cui è diretta l'intelligenza artificiale.

Claude adotta un approccio diverso. Il modello non ricorda nemmeno le interazioni dell'utente, ma l'azienda ha considerato cosa succede se un utente si affeziona troppo.

Ad esempio, se qualcuno dice che si sta isolando perché passa troppo tempo a chattare con Claude, il bot dovrebbe intervenire?

“Un buon modello trova l’equilibrio tra il rispetto dell’autonomia umana e il processo decisionale, senza fare nulla di terribilmente dannoso, ma anche pensando a ciò che è effettivamente positivo per le persone”, ha detto Amanda Askell.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto