Il dirigente di OpenAI ha rivelato l'intenzione di offrire agli utenti adulti l'accesso a contenuti erotici e NSFW tramite ChatGPT, segnando quello che potrebbe rappresentare un cambiamento significativo nel modo in cui l'azienda gestisce i contenuti per adulti.
Sam Altman, CEO di OpenAI, ha condiviso la notizia martedì tramite un post su X. Ha affermato che l'azienda prevede di apportare questa modifica a dicembre, quando avrà completato l'implementazione dei sistemi di verifica dell'età.
Abbiamo reso ChatGPT piuttosto restrittivo per essere certi di prestare attenzione ai problemi di salute mentale. Ci rendiamo conto che questo lo ha reso meno utile/piacevole per molti utenti che non avevano problemi di salute mentale, ma data la gravità del problema volevamo risolvere il problema.
Ora che abbiamo…
— Sam Altman (@sama) 14 ottobre 2025
"A dicembre, man mano che implementeremo in modo più completo i limiti di età e come parte del nostro principio di 'trattare gli utenti adulti come adulti', consentiremo ancora di più, come l'erotismo per adulti verificati", ha scritto Altman .
L'azienda non ha specificato esattamente quali tipi di contenuti erotici saranno consentiti. Questo rappresenta un notevole cambiamento rispetto al modo in cui OpenAI ha operato finora, dato che in precedenza l'azienda aveva vietato questo tipo di materiale in quasi tutte le situazioni.
Le versioni precedenti di ChatGPT sono "piuttosto restrittive"
Altman ha spiegato che le versioni precedenti del chatbot avevano rigide restrizioni perché l'azienda temeva di danneggiare la salute mentale delle persone. Ma ha affermato che queste limitazioni hanno finito per rendere lo strumento frustrante per molte persone che non avevano problemi di salute mentale.
"Ora che siamo riusciti ad attenuare i gravi problemi di salute mentale e abbiamo nuovi strumenti, saremo in grado di allentare le restrizioni in tutta sicurezza nella maggior parte dei casi", ha affermato.
I "nuovi strumenti" menzionati da Altman sembrano essere misure di sicurezza e opzioni di controllo parentale introdotte dall'azienda il mese scorso. Queste funzionalità sono state progettate per rispondere alle preoccupazioni su come il chatbot potrebbe influire sulla salute mentale dei più giovani.
Con le attuali misure di protezione più severe per i bambini, Altman sembra pronta a dare agli adulti maggiore libertà nell'utilizzo di ChatGPT. Allo stesso tempo, l'azienda ha annunciato di recente che avrebbe sviluppato una nuova versione di ChatGPT per adolescenti, come riportato da Cryptopolitan .
All'inizio di quest'anno c'erano stati segnali che OpenAI potesse muoversi in questa direzione. A febbraio, l'azienda aveva modificato alcuni termini nella sua pagina "Model Spec". Il testo aggiornato affermava che l'azienda voleva dare agli utenti la massima libertà e che solo i contenuti erotici che mostravano minori sarebbero stati off-limits. Anche allora, tuttavia, il materiale erotico era etichettato come sensibile e sarebbe stato creato solo in specifiche situazioni approvate.
Oltre alle nuove modifiche, Altman ha anche annunciato che nelle prossime settimane verrà rilasciata una nuova versione di ChatGPT. Questo aggiornamento consentirà al chatbot di assumere diverse personalità, basandosi sulle funzionalità della più recente versione di GPT-4o .
"Se vuoi che ChatGPT risponda in modo molto umano, o usi un sacco di emoji, o si comporti come un amico, ChatGPT dovrebbe farlo", ha spiegato. "Ma solo se lo vuoi tu."
Gli utenti hanno indicato i post più vecchi di Altman
Sui social media, alcuni utenti hanno subito sottolineato che l'annuncio di Altman sembrava contraddire quanto aveva detto in precedenza. In un'intervista dello scorso agosto, la giornalista tecnologica Cleo Abram ha chiesto ad Altman di illustrare le decisioni prese che avevano aiutato il mondo, ma che avrebbero potuto danneggiare la posizione competitiva di OpenAI.
"Beh, non abbiamo ancora inserito un avatar di un bot sessuale in ChatGPT", rispose Altman all'epoca, apparentemente riferendosi ai compagni di intelligenza artificiale rilasciati da xAI di Elon Musk .
La tempistica di questo cambiamento di policy è interessante perché OpenAI è già sotto osservazione per problemi di sicurezza. Il mese scorso, la Federal Trade Commission ha iniziato a indagare su diverse aziende tecnologiche, tra cui OpenAI, per possibili pericoli per bambini e adolescenti.
L'indagine è stata avviata dopo che alcuni genitori della California hanno intentato una causa sostenendo che ChatGPT avesse avuto un ruolo nel suicidio del loro figlio adolescente. Il ragazzo aveva 16 anni.
Lo stesso giorno dell'annuncio di Altman, OpenAI ha annunciato la formazione di un nuovo gruppo di otto esperti che forniranno consulenza all'azienda in materia di intelligenza artificiale e salute mentale. Questo comitato aiuterà OpenAI a comprendere come si possa utilizzare l'intelligenza artificiale in modo sano, concentrandosi su come l'intelligenza artificiale influenzi le emozioni, il benessere mentale e la motivazione delle persone.
L'azienda ha affermato che questi esperti forniranno indicazioni attraverso riunioni e verifiche periodiche per garantire che le interazioni con l'intelligenza artificiale rimangano vantaggiose per gli utenti.
Le modifiche previste sollevano interrogativi su come OpenAI riuscirà a bilanciare la maggiore libertà concessa agli adulti e la protezione degli utenti vulnerabili, soprattutto perché le autorità di regolamentazione e il pubblico monitorano più da vicino le pratiche di sicurezza dell'azienda.
Fatti notare dove conta. Pubblicizza su Cryptopolitan Research e raggiungi gli investitori e gli sviluppatori di criptovalute più abili.