Un altro dirigente di OpenAI, Jan Leike, lascia

Due importanti dirigenti di OpenAI si sono dimessi dall'azienda pochi giorni dopo la presentazione di GPT-4o , l'ultima ammiraglia dell'azienda e il modello più “emotivo”.

Il co-responsabile del team Superalignment di OpenAI se ne va

Jan Leike, che co-dirige il team Superalignment di OpenAI, ha pubblicato mercoledì X : "Mi sono dimesso".

Leike deve ancora fornire ulteriori dettagli sulla sua decisione. Tuttavia, il suo incarico è arrivato poche ore dopo che Ilya Sutskever, co-fondatore di OpenAI, aveva annunciato che avrebbe lasciato l’azienda e avrebbe perseguito un “progetto che è molto significativo per me a livello personale”.

Prima di lasciare OpenAI, Sutskever era rimasto in silenzio dal dicembre 2023. Poiché il suo primo incarico dopo la pausa era un avviso di dimissioni, alcune persone sembravano preoccupate, data la posizione di Sutskever nell'azienda.

Sia Leike che Sutskever hanno co-guidato il team Superalignment di OpenAI. L'unità è stata creata per impedire che i modelli di intelligenza artificiale superintelligenti diventino disonesti.

Leggi anche: OpenAI lancia il team "Superalignment".

All'inizio di questo mese, Sam Altman, co-fondatore e CEO di OpenAI, ha confermato che la società aveva in programma di realizzare uno di questi top model, popolarmente denominato intelligenza generale artificiale (AGI). Un AGI può svolgere compiti come esseri umani e possibilmente oltre.

"Se bruciamo 500 milioni di dollari all'anno o 5 miliardi di dollari – o 50 miliardi di dollari all'anno – non mi interessa, sinceramente non mi interessa", ha detto Altman agli studenti della Stanford University. “Finché riusciamo a trovare un modo per pagare le bollette, faremo l'AGI. Sarà costoso.”

Sutskever afferma di essere fiducioso che OpenAI costruirà AGI sicure

Ci sono state opinioni diverse sull'esito dell'AGI. OpenAI ha affermato che può “elevare l’umanità”. Tuttavia, molti sostengono che i progressi sostanziali nell’AGI potrebbero portare all’estinzione umana.

Di conseguenza, molte persone sono preoccupate di come aziende come OpenAI stanno costruendo l’AGI. Sutskever, tuttavia, ha affermato che OpenAI costruirà AGI sicure.

"Sono fiducioso che OpenAI creerà un'AGI sicura e vantaggiosa sotto la guida di" Sam Altman, Greg Brockman, Mira Murati e Jakub Pachocki.

Jakub Pachocki sostituirà Sutskever come nuovo capo scienziato di OpenAI. Pachocki ha precedentemente lavorato come direttore della ricerca.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto