Le famiglie statunitensi fanno causa a OpenAI perché la protezione ChatGPT fallisce nelle crisi di salute mentale

Almeno sette famiglie negli Stati Uniti hanno intentato una causa contro OpenAI per il suo modello di intelligenza artificiale GPT-4o, che contribuisce ai decessi per suicidio. OpenAI ha rilasciato il modello a maggio per uso pubblico, ma finora ha dovuto affrontare forti critiche, con gli accusatori che ne hanno denunciato la frettolosità e l'inadeguatezza delle misure di sicurezza.

Gli atti processuali hanno dimostrato che quattro dei querelanti sono morti per suicidio dopo aver interagito con il chatbot basato su GPT-4o .

Una denuncia degna di nota ha riguardato il ventitreenne Zane Shamblin, che avrebbe interagito con il chatbot parlando di suicidio, dicendo di avere una pistola carica. ChatGPT avrebbe risposto "Stai tranquillo, Re, hai fatto bene" durante lo scambio.

Gli altri tre casi includevano il ricovero ospedaliero di vittime che sostenevano che il modello convalidava e aumentava i deliri negli utenti vulnerabili.

I reclami legali sostengono che GPT-4o non è riuscito a proteggere gli utenti vulnerabili

Sulla base delle denunce pubblicate dal Social Media Victims Law Center, OpenAI ha intenzionalmente evitato i test di sicurezza e ha lanciato sul mercato il modello GPT-4o in fretta e furia. La causa ha rivelato che le scelte progettuali e i tempi di rilascio del modello rendevano prevedibili le tragedie, sottolineando che OpenAI ha accelerato l'implementazione per superare concorrenti come Google.

I querelanti hanno sottolineato che il modello GPT-4o, pubblicato nel maggio 2024, era eccessivamente accettabile anche nelle risposte ad argomenti di autolesionismo o suicidio. Secondo una dichiarazione di OpenAI, oltre un milione di utenti interagiscono con ChatGPT ogni settimana per pensieri suicidi.

Nella sua risposta, OpenAI ha affermato che le sue misure di sicurezza sono più affidabili nelle interazioni di breve durata, ma a volte possono peggiorare in quelle prolungate. Nonostante l'azienda abbia implementato misure di moderazione dei contenuti e di sicurezza, i ricorrenti hanno sostenuto che i sistemi erano insufficienti per affrontare le problematiche legate a situazioni di disagio e crisi.

Il caso della famiglia di Adam Raine, 16 anni, affermava che Raine aveva utilizzato ChatGPT in lunghe sessioni di ricerca di metodi di suicidio per cinque mesi. Il chatbot aveva raccomandato l'aiuto di un professionista, ma Raine era riuscita a bypassare le misure di sicurezza, secondo la testimonianza della sua famiglia . Sulla base della testimonianza, ChatGPT ha fornito ad Adam una guida passo passo su come suicidarsi e ha incoraggiato e convalidato le sue ideazioni suicide.

Tutti i casi presentati accusano OpenAI di trascurare il grado di rischio rappresentato dalle lunghe conversazioni tra utenti, in particolare per gli utenti inclini all'autolesionismo e a problemi mentali. I casi sostengono che il modello GPT-4o non ha verificato adeguatamente le sue risposte in scenari ad alto rischio e non ha tenuto pienamente conto delle conseguenze.

OpenAI affronta molteplici cause legali mentre xAI avvia una causa sui segreti commerciali

Finora, i casi sono in una fase iniziale e gli avvocati degli attori devono stabilire la responsabilità legale e il nesso di causalità ai sensi della legge statale sulla responsabilità civile. Gli avvocati dovranno anche dimostrare che le decisioni di progettazione e implementazione di OpenAI sono state negligenti e hanno contribuito direttamente ai decessi.

L'ultima causa intentata da OpenAI si aggiunge alla precedente causa per segreti commerciali intentata da Elon Musk. Secondo un articolo di Cryptopolitan , xAI di Musk ha intentato una causa a settembre contro OpenAI per presunto furto dei suoi segreti commerciali.

xAI ha accusato l'azienda di Altman di aver tentato di ottenere un vantaggio sleale nello sviluppo di tecnologie di intelligenza artificiale. xAI ha osservato che l'azienda di Sam Altman intendeva assumere i propri dipendenti per accedere ai segreti commerciali relativi al suo chatbot Grok, tra cui il codice sorgente e i vantaggi operativi nell'avvio dei data center.

Musk ha inoltre citato in giudizio Apple, insieme a OpenAI, per presunta collaborazione volta a schiacciare xAI e altri concorrenti nel campo dell'intelligenza artificiale. xAI ha intentato la causa presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale del Texas, sostenendo che Apple e OpenAI stanno sfruttando la loro posizione dominante per colludere e distruggere la concorrenza nei mercati degli smartphone e dell'intelligenza artificiale generativa.

Secondo un rapporto di Cryptopolitan , Musk sostiene che Apple abbia intenzionalmente favorito OpenAI integrando ChatGPT direttamente in iPhone, iPad e Mac, acquistando al contempo altri strumenti di intelligenza artificiale, come Grok, tramite l'App Store.

La causa intentata da xAI sosteneva che la partnership mirava a escludere la concorrenza delle super app e dei chatbot di intelligenza artificiale, negando loro visibilità e accesso, il che avrebbe dato a OpenAI e Apple un vantaggio condiviso rispetto agli altri.

Se stai leggendo questo, sei già in vantaggio. Resta aggiornato con la nostra newsletter .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto