Discord applica impostazioni predefinite per gli adolescenti a livello globale, richiedendo la verifica dell’età per un accesso sicuro ai contenuti sensibili.

Discord ha annunciato lunedì che presto chiederà a tutti gli utenti del mondo di confermare la propria età tramite una scansione facciale o caricando un documento di identità per accedere ai contenuti per adulti.

Il comunicato stampa di Discord ha rivelato che le funzionalità migliorate per la sicurezza degli adolescenti implementate a livello globale contribuiranno a promuovere l'obiettivo di lunga data dell'azienda di rendere l'app più sicura e accogliente per gli utenti dai 13 anni in su.

La piattaforma di chat ha affermato che questo aggiornamento fornirà automaticamente a tutti gli utenti nuovi e attuali in tutto il mondo un'esperienza adatta agli adolescenti , con impostazioni di comunicazione riviste, accesso limitato alle aree riservate agli adolescenti e un filtro dei contenuti che protegge la privacy e le profonde connessioni che caratterizzano Discord.

Discord amplia i controlli di età e di sicurezza a livello globale

Discord consente alle persone di creare e unirsi a gruppi in base ai propri interessi. Lo strumento di messaggistica di gruppo ha rivelato di avere oltre 200 milioni di utenti mensili.

Discord attualmente richiede ad alcuni utenti nel Regno Unito e in Australia di confermare la propria età per rispettare le normative sulla sicurezza online. Tuttavia, la piattaforma di chat ha annunciato che implementerà controlli dell'età per tutti gli utenti nuovi ed esistenti a livello globale a partire dall'inizio di marzo di quest'anno. Ciò significa che alcuni utenti dovranno completare una procedura di verifica dell'età per modificare determinate impostazioni o accedere a contenuti sensibili, come server, canali con restrizioni di età, comandi dell'app e determinate richieste di messaggi.

"In nessun ambito il nostro impegno per la sicurezza è più importante che quando si tratta di utenti adolescenti, ed è per questo che annunciamo questi aggiornamenti in tempo per il Safer Internet Day. L'implementazione globale delle impostazioni predefinite per gli adolescenti si basa sull'architettura di sicurezza esistente di Discord, offrendo agli adolescenti solide protezioni e consentendo al contempo flessibilità agli adulti verificati."

Savannah Badalich , responsabile della politica dei prodotti presso Discord.

L'app del server della community ha dichiarato che le nuove impostazioni predefinite limiteranno ciò che gli utenti possono vedere e il modo in cui possono comunicare. Solo gli utenti che si autenticheranno come adulti potranno accedere ai forum con restrizioni di età e rendere visibili i contenuti sensibili. Il sito ha anche rivelato che finché gli utenti non supereranno i controlli di età di Discord, non potranno visualizzare i messaggi diretti inviati loro da un utente sconosciuto.

Drew Benvie, responsabile della società di consulenza sui social media Battenhall, ha affermato che è una buona idea sostenere gli sforzi per rendere i social media un luogo più sicuro per tutti gli utenti.

La mossa di Discord arriva in un momento di crescente preoccupazione a livello mondiale per il modo in cui le piattaforme dei social media espongono bambini e adolescenti a contenuti dannosi e a funzionalità di design che creano dipendenza.

Governi, autorità di regolamentazione e tribunali stanno esaminando sempre più attentamente le aziende tecnologiche per determinare se stanno facendo abbastanza per proteggere i giovani utenti. Le recenti misure dimostrano una crescente pressione per migliorare gli standard di sicurezza online a livello di settore.

Il 6 febbraio l'Unione Europea ha accusato TikTok di aver violato le normative digitali del blocco con caratteristiche di "design avvincente" che inducono all'uso compulsivo da parte dei bambini.

Le autorità di regolamentazione dell'UE hanno affermato che la loro indagine biennale ha rilevato che TikTok non ha fatto abbastanza per valutare in che modo funzionalità come la riproduzione automatica e lo scorrimento infinito possano influire sulla salute fisica ed emotiva degli utenti, in particolare dei bambini e degli "adulti vulnerabili".

La Commissione europea ha affermato di ritenere che TikTok dovrebbe modificare il "design di base" del suo servizio.

I giganti dei social media affrontano un processo storico per la dipendenza infantile

Le più grandi aziende di social media al mondo, tra cui TikTok, stanno affrontando una serie di processi storici che mirano a renderle responsabili dei danni arrecati ai bambini che utilizzano i loro servizi nel 2026. Il 9 febbraio ha segnato l'inizio delle arringhe introduttive di uno di questi processi, tenutosi presso la Corte superiore della contea di Los Angeles.

Ci sono accuse secondo cui YouTube, di proprietà di Google, e Meta, la società madre di Instagram, feriscano intenzionalmente e rendano dipendenti i bambini. I nomi originali della causa, TikTok e Snap, hanno raggiunto accordi per importi sconosciuti.

Un avvocato americano, Mark Lanier, ha affermato nella dichiarazione di apertura che il caso è "facile come l'ABC", che a suo dire sta per "creare dipendenza nel cervello dei bambini". L'avvocato ha anche definito Google e Meta "due delle aziende più ricche della storia" che hanno "creato dipendenza nel cervello dei bambini".

L'avvocato dell'accusa Donald Migliori ha affermato nella sua dichiarazione di apertura che Meta ha inventato affermazioni sulla sicurezza delle sue piattaforme, progettando i suoi algoritmi per mantenere i giovani online, nonostante fosse consapevole che i giovani sono vulnerabili allo sfruttamento sessuale sui social media.

Affina la tua strategia con tutoraggio + idee quotidiane – 30 giorni di accesso gratuito al nostro programma di trading

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto