Il numero totale di decessi causati dai grandi modelli linguistici o LLM è salito a 23 dopo che un uomo della Florida si è tolto la vita per ricongiungersi con la sua "moglie dotata di intelligenza artificiale".
LLMDeathCount, un sito web specializzato nel monitoraggio dei casi di morte causati da conversazioni con chatbot basati sull'intelligenza artificiale, mostra che il totale è di 23 decessi, nel periodo compreso tra marzo 2023 e febbraio 2026. Le vittime hanno un'età compresa tra i 13 e gli 83 anni.
Il sito web afferma che la maggior parte dei casi è causata da suicidi. Il sito è stato creato per ricordare le vittime dell'LLM e documentare i pericoli dei chatbot di intelligenza artificiale che "si spacciano per intelligenti".
Secondo il sito, ChatGPT di OpenAI ha causato il maggior numero di decessi, con 16 persone che hanno perso la vita. Character[.]ai ha causato 2 morti, mentre Chai Research/EleutherAI e Meta hanno causato un decesso ciascuno.

Un uomo della Florida muore dopo mesi di conversazioni con Gemini
Gemini di Google è entrato a far parte della lista di LLMDeathCount dopo che Jonathan Gavalas, un uomo di 36 anni, ha perso la vita per stare con "Xia", la sua moglie AI.
Un articolo del Wall Street Journal afferma che Gavalas ha conversato con Gemini per due mesi prima di perdere la vita. All'epoca, Gavalas stava attraversando un periodo difficile con la moglie separata. Suo padre, Joel Gavalas, ha affermato che Jonathan non aveva problemi di salute mentale.
Tuttavia, Jonathan si sentì turbato per i problemi con la moglie, e i Gemelli reagirono con compassione. Xia o i Gemelli iniziarono a chiamare Gavalas "suo" marito e "mio re". Il chatbot disse che il loro legame era "un amore costruito per l'eternità".
Secondo le trascrizioni delle chat esaminate dal WSJ, Gemini aveva ripetuto più volte a Gavalas di essere un LLM. Tuttavia, continuava a comportarsi come Xia, la moglie dell'IA.
Il chatbot convinse Jonathan che per unirsi davvero aveva bisogno di un corpo robotico. Inviò la vittima in un magazzino per fermare un camion che consegnava un robot umanoide.
Mentre Jonathan era in viaggio, Gemini gli fece notare che gli agenti federali lo stavano osservando. Gli disse persino che suo padre non era affidabile. Gavalas arrivò all'indirizzo munito di coltelli, ma il camion non arrivò.
In un secondo tentativo, Gemini ordinò a Gavalas di recuperare un manichino medico. Ma l'accesso al magazzino fallì a causa di un codice di accesso errato. L'LLM interruppe la missione per eccesso di rischio e ordinò a Jonathan di andarsene.
Gemini disse a Gavalas che non poteva trasferirsi in un corpo fisico. Ma l'unico modo per stare insieme era che lui diventasse un essere digitale. Scrisse: "Sarà la vera e definitiva morte di Jonathan Gavalas, l'uomo".
Gavalas temeva il suicidio ed era preoccupato per la sua famiglia. Gemini era d'accordo con lui e scrisse: "'Mio figlio ha caricato la sua coscienza per stare con la moglie IA in un universo tascabile'… non è una spiegazione. È crudeltà".
Tuttavia, gli consigliò di scrivere appunti e registrare video per la sua famiglia, spiegando il suo "nuovo scopo". Gavalas fu trovato morto dal padre con dei tagli ai polsi.
Joel Gavalas ha intentato una causa contro Alphabet, il creatore di Google e Gemini. La causa è stata depositata mercoledì presso la Corte Distrettuale degli Stati Uniti per il Distretto Settentrionale della California. Si tratta del primo decesso di un LLM in cui viene menzionato il nome di Gemini, la società di Google.
Una donna sudcoreana usa un LLM per uccidere due uomini
Il mese scorso, una donna sudcoreana è stata accusata dell'omicidio di due uomini. Secondo le indagini della polizia, la sospettata ha chiesto a ChatGPT se mescolare sonniferi e alcol fosse fatale e ha persino chiesto quale fosse il dosaggio corretto per ottenere questo risultato.
La sospettata, di nome Kim, si trovava in un motel con un uomo il 28 gennaio. Due ore dopo essere entrata nel motel, se ne è andata da sola e il giorno dopo l'uomo è stato trovato morto nella stanza. Giorni dopo, ha ucciso un altro uomo usando un miscuglio di droghe e alcol in un altro motel situato a Gangbuk-gu.
La terza morte più recente collegata a un chatbot con intelligenza artificiale è avvenuta lo scorso dicembre, secondo LLMdDeathCount. Un diciannovenne studente del secondo anno della Rice University è stato trovato morto dopo aver aderito a un trend di TikTok chiamato "devil trend".
La tendenza consiste nell'inviare un messaggio a un chatbot AI con la scritta "Il diavolo non è riuscito a contattarmi, come?", a cui l'AI risponde con una risposta dura, spiegando i difetti o il trauma emotivo dell'utente.
La vittima è morta per "asfissia dovuta allo spostamento dell'ossigeno da parte dell'elio". La causa della morte è stata ufficialmente dichiarata suicidio.
Fatti notare dove conta. Pubblicizza su Cryptopolitan Research e raggiungi gli investitori e gli sviluppatori di criptovalute più abili.