Sam Altman, CEO di OpenAI, ha ammesso che la sua azienda ha un problema. In un AMA su Reddit venerdì, Sam ha affermato che OpenAI potrebbe aver sbagliato a tenere segreta la sua tecnologia di intelligenza artificiale, una strategia che ora li perseguita mentre la cinese DeepSeek avanza con modelli di intelligenza artificiale open source.
Le parole esatte di Sam sono state: "Personalmente penso che siamo stati dalla parte sbagliata della storia". Per un uomo che raramente (beh, mai davvero) ammette gli errori, questo era grande.
La settimana scorsa, DeepSeek ha appena lanciato un modello open source economico, potente e spaventosamente vicino a ciò che OpenAI può fare. Gli sviluppatori lo adorano. Nessun portiere. Nessuna commissione. OpenAI è l'opposto, gli utenti sono costretti a pagare fino a $ 200 al mese per ChatGPT Pro.
L'AMA di Reddit ha anche rivelato che il team di Sam sta ora discutendo su come adattarsi prima di perdere il controllo della narrazione. "Stiamo studiando una diversa strategia open source", ha detto Sam, ma ha aggiunto che non era ancora la loro massima priorità, perché a quanto pare non tutti in azienda vogliono la stessa cosa.
Kevin Weil, chief product officer di OpenAI, ha fornito ulteriori dettagli. Ha detto che OpenAI potrebbe rendere open source i suoi modelli più vecchi, quelli che non sono più all'avanguardia. "Penseremo sicuramente a fare di più in questo senso", ha detto, anche se non ha specificato quali modelli o quando il cambiamento potrebbe avvenire, quindi c'è molto scetticismo nell'aria in questo momento.
DeepSeek costringe OpenAI a riconsiderare la trasparenza
Sam ha riconosciuto un altro problema evidente: i modelli di OpenAI nascondono i loro processi mentali. In questo momento, se un utente pone una domanda a ChatGPT, genera una risposta senza mostrare come è arrivata lì. OpenAI ha già affermato di nasconderlo per impedire ai concorrenti di decodificare i suoi sistemi.
Ma i modelli di DeepSeek fanno il contrario. Il loro ultimo modello di ragionamento, R1, mostra all'utente l'intera catena di pensiero, passo dopo passo. Sviluppatori e ricercatori se ne stanno approfittando perché possono vedere esattamente come funziona l'intelligenza artificiale e modificarla se necessario. Dai un'occhiata al test di Cryptopolitan di seguito:
Sam ha ammesso che questa differenza sta danneggiando OpenAI. "Stiamo lavorando per mostrare molto di più di quanto facciamo oggi", ha detto, aggiungendo che l'azienda sta cercando modi per bilanciare la trasparenza senza dare un passaggio facile ai concorrenti.
Weil ha fatto eco a questo, dicendo: “Gli utenti esperti vogliono vedere il ragionamento, e noi lo capiamo. Troveremo il modo giusto per farlo”. Ma ha chiarito che non renderanno tutto open source, in particolare i modelli all'avanguardia, e ha ammesso che il team è sotto pressione da parte degli utenti affinché rivelino di più.
Durante l'AMA sono state poste anche voci su un possibile aumento dei prezzi per ChatGPT. Sam li ha chiusi rapidamente, dicendo che vuole rendere ChatGPT più economico, non più costoso. Ma c'è un piccolo problema con questo.
Secondo Sam, l'azienda sta già perdendo soldi. Il piano Pro da $ 200 al mese non è redditizio e OpenAI apparentemente ha bisogno di una soluzione.
La corsa agli armamenti basata sull’intelligenza artificiale alimenta enormi data center, accordi nel settore della difesa e grandi rischi
Durante la sessione AMA, Sam ha ammesso che la fame di OpenAI di maggiore potenza di calcolo è infinita. Ha spiegato che man mano che i modelli diventano più grandi e sofisticati, i data center di grandi dimensioni diventano particolarmente critici. Sam ha aggiunto che questo è il motivo per cui OpenAI ha lanciato con entusiasmo il suo progetto Stargate con il presidente Trump prima del suo insediamento il 16 gennaio.
Qualcuno ha chiesto del ruolo dell'intelligenza artificiale nello sviluppo delle armi, con la conversazione che ha preso una piega più oscura, ma Weil ha risposto che si fidava degli scienziati che lavoravano al progetto, aggiungendo che OpenAI capisce che non c'è spazio per sperimentazioni sconsiderate.
Sam è stato anche insistito sul concetto di auto-miglioramento ricorsivo, in cui l’intelligenza artificiale migliora se stessa senza l’intervento umano. Ha ammesso di aver cambiato posizione, affermando che uno scenario di “decollo veloce” è ora più plausibile.
Alcuni vedono questo come la porta verso l’intelligenza generale artificiale (AGI), mentre altri temono che possa trasformarsi in qualcosa di incontrollabile. L'AMA, però, non è stato tutto il giorno del giudizio. Sam ha fornito aggiornamenti sulle prossime tecnologie, incluso il prossimo modello di ragionamento, o3, previsto nei prossimi mesi.
Ha anche anticipato GPT-5, anche se non si è impegnato a fissare una data di rilascio. È emerso anche il modello di generazione di immagini di OpenAI, DALL-E 3. Rilasciato due anni fa, DALL-E 3 non è più competitivo. Weil ha confermato che stanno lavorando su un successore e ha promesso: "Valerà la pena aspettare".
Cryptopolitan Academy: come scrivere un curriculum Web3 che ottenga interviste – Cheat Sheet GRATUITO