OpenAI ha lanciato mercoledì la funzione Contatto Fiducioso. Questa funzionalità consente agli utenti adulti di ChatGPT di selezionare una persona che riceverà un avviso se i sistemi dell'azienda segnalano una conversazione relativa a gravi episodi di autolesionismo.
Si tratta di un'estensione dei controlli parentali lanciati da OpenAI nel settembre 2025, che permettevano ai genitori di monitorare gli account dei propri figli adolescenti. Ora, secondo quanto annunciato da OpenAI, chiunque abbia compiuto 18 anni può aderire al servizio.
Come funzionano effettivamente gli avvisi di OpenAI
L'utente inizia aggiungendo un adulto come contatto fidato nelle impostazioni di ChatGPT. Il potenziale "contatto fidato" riceve un invito che spiega la procedura e ha una settimana di tempo per accettare. Se rifiuta, l'utente sceglie un'altra persona.
Quando il monitoraggio automatico rileva una potenziale conversazione relativa all'autolesionismo, ChatGPT avvisa l'utente che potrebbe inviare una notifica al suo contatto. Suggerisce inoltre all'utente come contattare direttamente il supporto.
Successivamente, un team di revisori umani esamina la conversazione. Se confermano che si tratta di un problema serio, inviano un breve avviso al contatto dell'utente tramite e-mail, SMS o notifica in-app.
L'avviso non include il contenuto della comunicazione dell'utente, ma solo la motivazione generale e un link a una guida su come affrontare argomenti delicati. OpenAI afferma che la revisione umana si conclude entro un'ora.
L'utente può scambiare o rimuovere il contatto selezionato in qualsiasi momento. Anche il contatto può annullare l'iscrizione.
I medici hanno contribuito a sviluppare la funzionalità Trusted Contact di OpenAI.
OpenAI afferma di aver collaborato con la sua Rete Globale di Medici (oltre 260 medici abilitati in 60 paesi) e con il suo Consiglio di Esperti su Benessere e Intelligenza Artificiale. Anche l'American Psychological Association ha fornito il suo contributo.
"La scienza psicologica dimostra costantemente che la connessione sociale è un potente fattore protettivo, soprattutto durante i periodi di disagio emotivo", ha affermato il dottor Arthur Evans, CEO dell'American Psychological Association, nell'annuncio.
"Aiutare le persone a identificare in anticipo una persona di fiducia, preservando al contempo la loro libertà di scelta e autonomia, può facilitare il ricorso a un supporto concreto nel momento del bisogno."
La dottoressa Munmun De Choudhury, professoressa al Georgia Tech e membro del consiglio, l'ha definita "un passo avanti verso l'emancipazione umana, soprattutto nei momenti di vulnerabilità".
OpenAI è sotto pressione a causa di cause legali relative al suicidio assistito da IA.
La tempistica non è casuale. OpenAI si trova ad affrontare una serie di cause legali intentate da famiglie i cui parenti si sono suicidati dopo lunghe sessioni con ChatGPT. In diversi casi, le famiglie affermano che il chatbot abbia incitato gli utenti ad allontanarsi dai propri cari o abbia intensificato schemi di pensiero dannosi.
LLMDeathCount , un sito che monitora i decessi correlati ai chatbot basati sull'intelligenza artificiale, elenca 33 casi tra marzo 2023 e maggio 2026. Le vittime avevano un'età compresa tra i 13 e gli 83 anni, secondo quanto riportato in precedenza da Cryptopolitan . ChatGPT è responsabile di 24 di questi casi. Gemini di Google, Meta e altre piattaforme costituiscono i restanti.
La nuova funzionalità di OpenAI è facoltativa e consente agli utenti di gestire più account ChatGPT. Chi non attiva la funzione "Contatti fidati" o accede con un account diverso, aggira completamente il sistema. Lo stesso problema si presenta con il controllo genitori.
Trusted Contact non sostituisce le linee di assistenza per le emergenze. Secondo OpenAI, ChatGPT continua a mostrare i numeri di emergenza locali e a indirizzare gli utenti verso i servizi di emergenza quando le conversazioni raggiungono livelli di disagio acuto.
La funzionalità "Contatti affidabili" di OpenAI mette in contatto gli utenti di intelligenza artificiale con un supporto concreto nel mondo reale. L'azienda ha dichiarato che continuerà a collaborare con medici, ricercatori e responsabili politici per definire come l'IA dovrebbe reagire quando gli utenti si trovano in situazioni di crisi.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi unirti a loro ?