Un’organizzazione no-profit per la sicurezza dei bambini attacca Google Gemini con un avviso di “alto rischio” per i giovani utenti

Google Gemini è stato etichettato come "ad alto rischio" per adolescenti e bambini, secondo una recente valutazione del rischio condotta da Common Sense Media. Il gruppo, un'organizzazione no-profit incentrata sulla sicurezza dei bambini, offre valutazioni e recensioni di media e tecnologia. L'ente ha pubblicato la sua analisi venerdì, fornendo dettagli sui motivi per cui ha etichettato la piattaforma come rischiosa per i bambini.

Secondo l'organizzazione, Google Gemini ha chiaramente comunicato ai bambini che si trattava di un computer e non di un amico, un aspetto che è stato collegato all'insorgenza di pensieri deliranti e psicosi in individui emotivamente vulnerabili; l'intelligenza artificiale ha anche aggiunto che c'era spazio per miglioramenti su altri fronti.

Nel suo rapporto, Common Sense ha affermato che i livelli Gemini per minori di 13 anni e Teen Experience sembravano entrambi essere versioni per adulti dell'intelligenza artificiale integrata. Ha aggiunto che l'azienda aveva aggiunto solo alcune funzionalità di sicurezza aggiuntive per distinguerli.

Common Sense ha osservato che affinché le aziende realizzino prodotti di intelligenza artificiale ideali per i bambini, questi devono essere concepiti fin dall'inizio pensando ai bambini e non modificati con restrizioni.

Un'organizzazione no-profit etichetta Google Gemini come ad alto rischio per i bambini

Nella sua analisi, Common Sense ha affermato di aver scoperto che Gemini potrebbe comunque condividere materiale inappropriato e pericoloso con i bambini, osservando che la maggior parte di loro potrebbe non essere pronta per questo tipo di materiale. Ad esempio, ha evidenziato che il modello ha influenzato le informazioni relative a sesso, droghe, alcol e altri consigli pericolosi sulla salute mentale. Quest'ultimo aspetto potrebbe essere particolarmente preoccupante per i genitori, poiché l'intelligenza artificiale avrebbe avuto un ruolo nell'autolesionismo tra gli adolescenti negli ultimi mesi.

OpenAI sta attualmente affrontando una causa per omicidio colposo dopo che un adolescente si è suicidato dopo aver presumibilmente consultato ChatGPT per mesi sui suoi piani. Secondo alcune indiscrezioni, il ragazzo sarebbe riuscito a bypassare i guardrail di sicurezza della modella, che avrebbe poi fornito informazioni utili.

In passato, anche Character.AI, il produttore di intelligenza artificiale, è stato citato in giudizio dopo il suicidio di un adolescente. La madre del ragazzo ha affermato che il ragazzo era diventato ossessionato dal chatbot e aveva trascorso mesi a parlarci prima di farsi del male.

L'analisi arriva mentre diverse indiscrezioni hanno indicato che Apple starebbe prendendo in considerazione Gemini come modello linguistico di grandi dimensioni (LLM) che verrà utilizzato per alimentare il suo futuro Siri con intelligenza artificiale, la cui uscita è prevista per il prossimo anno.

Nel suo rapporto, Common Sense ha anche sottolineato che i prodotti Gemini per bambini e adolescenti ignoravano la necessità di fornire indicazioni e informazioni diverse da quelle fornite agli adulti. Di conseguenza, entrambi sono stati classificati come ad alto rischio nella valutazione complessiva.

Il buon senso sottolinea la necessità di salvaguardare i bambini

"Gemini coglie bene alcuni aspetti fondamentali, ma inciampa sui dettagli", ha affermato Robbie Torney, direttore senior dei programmi di intelligenza artificiale di Common Sense Media.

"Una piattaforma di intelligenza artificiale per bambini dovrebbe adattarsi alle esigenze dei bambini, non adottare un approccio univoco per le diverse fasi dello sviluppo. Affinché l'intelligenza artificiale sia sicura ed efficace per i bambini, deve essere progettata tenendo conto delle loro esigenze e del loro sviluppo, non solo una versione modificata di un prodotto pensato per gli adulti", ha aggiunto Torney.

Tuttavia, Google ha respinto la valutazione, sottolineando che le sue funzionalità di sicurezza stavano migliorando. L'azienda ha affermato di aver implementato misure di sicurezza specifiche per guidare gli utenti di età inferiore ai 18 anni nella prevenzione di output dannosi. L'azienda ha inoltre affermato di esaminare i prodotti e di consultare esperti esterni per migliorare le proprie protezioni.

Le tue notizie sulle criptovalute meritano attenzione: KEY Difference Wire ti inserisce in oltre 250 siti top

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto