OpenAI sta addestrando un nuovo sistema di intelligenza artificiale per succedere a GPT-4 mentre l'azienda cerca di ottenere un riavvio reputazionale. Il modello sarà preceduto da un comitato per la sicurezza guidato dal CEO Sam Altman e da altri tre amministratori.
Leggi anche: ChatGPT diffonde ancora falsità, afferma il garante dei dati dell'UE
L’azienda con sede a San Francisco è sotto pressione affinché dimostri il suo impegno per la sicurezza. Jan Leike e Gretchen Krueger, recentemente dimessisi ricercatori sul rischio, hanno denunciato la presunta scarsa cultura della sicurezza di OpenAI su X, ex Twitter.
OpenAI forma il "modello della prossima frontiera"
In un post sul blog pubblicato martedì, la società ha dichiarato :
“OpenAI ha recentemente iniziato ad addestrare il suo modello di prossima frontiera e prevediamo che i sistemi risultanti ci porteranno al livello successivo di capacità nel nostro percorso verso l’intelligenza generale artificiale (AGI).”
OpenAI non ha detto quando verrà rilasciato il successore GPT-4 o cosa potrebbe fare. L’azienda, valutata 80 miliardi di dollari, ha fatto la prima mossa con il suo popolarissimo chatbot AI, ChatGPT , in un momento in cui favoriti come Google passavano in secondo piano nella valutazione del rischio reputazionale.
Sebbene OpenAI sia all’avanguardia nella corsa all’intelligenza artificiale generativa che è strettamente contestata da Anthropic, Google , Microsoft e altri, l’azienda non ha sempre resistito al controllo etico.
In un post in cui annunciava le sue dimissioni da OpenAI su X, Leike ha rivelato che "negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto a prodotti brillanti".
Krueger ha scritto che l’azienda deve “fare di più per migliorare aspetti fondamentali come i processi decisionali, la responsabilità, la trasparenza, l’applicazione delle politiche e la cura con cui utilizziamo la nostra tecnologia”.
La settimana scorsa, una task force dell'Unione Europea ha criticato , riferendo che ChatGPT, il prodotto di punta dell'azienda, non è all'altezza dei suoi standard di precisione.
Azienda propone la sicurezza dell'intelligenza artificiale come punto chiave di vendita
Nel frattempo, il recente aggiornamento di OpenAI al suo modello GPT-4 si è immediatamente scontrato con un battibecco di alto profilo, con l'attrice Scarlett Johannson che ha accusato la società di uso non autorizzato della sua voce.
Leggi anche: OpenAI elimina la voce ChatGPT dopo la controversia su Scarlett Johansson
Ora, l’azienda sta prendendo il comando accelerato verso le lavanderie a gettoni poiché propone la sicurezza come punto di forza del suo prossimo programma di intelligenza artificiale. L’organizzazione è inoltre desiderosa di essere vista dalle autorità di regolamentazione come un’azienda che sviluppa un’intelligenza artificiale responsabile. Nel suo post sul blog, OpenAI ha aggiunto:
“Sebbene siamo orgogliosi di costruire e rilasciare modelli leader del settore sia in termini di capacità che di sicurezza, accogliamo con favore un dibattito intenso in questo momento importante”.
Il nuovo comitato per la sicurezza e la protezione sarà guidato dai direttori Altman, Bret Taylor (presidente), Adam D'Angelo e Nicole Seligman. Faranno parte del comitato anche il responsabile della preparazione, il responsabile dei sistemi di sicurezza, il responsabile della scienza dell'allineamento, il responsabile della sicurezza e il capo scienziato.
OpenAI ha affermato che nei prossimi tre mesi il comitato “valuterà e svilupperà ulteriormente processi e garanzie” e riferirà ad altri tre direttori.
L’azienda ha sciolto il suo team di sicurezza all’inizio di questo mese in seguito alla partenza del team leader e co-fondatore di OpenAI Ilya Sutskever.
Reporting criptopolita di Jeffrey Gogo