Google, OpenAI, Roblox e Discord si stanno unendo per fare del bene collettivo alla società poiché hanno recentemente formato una nuova organizzazione no-profit volta a migliorare la sicurezza dei bambini online.
L’iniziativa è nota come Robust Open Online Safety Tools (ROOST) e lavorerà per garantire che le principali tecnologie di sicurezza siano più accessibili per le aziende, fornendo allo stesso tempo strumenti di intelligenza artificiale gratuiti e open source per identificare, rivedere e segnalare materiale pedopornografico.
Le molestie sessuali sui minori sono un’epidemia mondiale che continua a prosperare negli spazi online nonostante gli sforzi per arginarla. Negli ultimi tempi, molti utenti di app e persino legislatori hanno suggerito che i creatori di app come Mark Zuckerberg di Meta si assumano la responsabilità della quantità di danni arrecati dai loro prodotti, soprattutto quando sono coinvolti pornografia infantile e abusi sessuali.
L’iniziativa risponde a un’esigenza critica
L’iniziativa congiunta nasce in parte in risposta ai cambiamenti che i progressi dell’intelligenza artificiale generativa hanno apportato agli ambienti online. Eric Schmidt, socio fondatore di ROOST ed ex CEO di Google, afferma che l'iniziativa vuole rispondere a "un'esigenza fondamentale di accelerare l'innovazione nella sicurezza dei bambini online".
Per ora, i dettagli sugli strumenti di rilevamento di materiale pedopornografico non sono ancora del tutto disponibili . Tuttavia, sappiamo che utilizzeranno modelli di intelligenza artificiale linguistica di grandi dimensioni e “unificheranno” le opzioni esistenti per gestire i contenuti.
"Partendo da una piattaforma incentrata sulla protezione dei bambini, l'approccio collaborativo e open source di ROOST favorirà l'innovazione e renderà le infrastrutture essenziali più trasparenti, accessibili e inclusive, con l'obiettivo di creare un Internet più sicuro per tutti", ha affermato Schmidt.
Come affermato in precedenza, l’annuncio di ROOST coincide con una spinta normativa in corso in materia di sicurezza dei bambini sui social media e sulle piattaforme online. Le aziende stanno ora cercando di placare i legislatori sul sentiero di guerra con la proposta di autoregolamentazione.
ROOST collaborerà con i principali sviluppatori di modelli di base IA per raggiungere il suo obiettivo
Secondo il Centro nazionale per i bambini scomparsi e sfruttati (NCMEC), il sospetto di sfruttamento minorile è aumentato del 12% tra il 2022 e il 2023. Nel 2020, oltre la metà dei bambini statunitensi utilizzavano Roblox e la società ha ricevuto pesanti critiche ripetutamente per non aver affrontato lo sfruttamento sessuale dei minori e l’esposizione a contenuti inappropriati sulla sua piattaforma.
I membri fondatori di ROOST, con tutte le loro risorse, forniranno in vario modo finanziamenti e offriranno i loro strumenti o competenze al progetto man mano che prende forma. L’iniziativa ha anche affermato che collaborerà con i principali sviluppatori di modelli di base per l’intelligenza artificiale per costruire una “comunità di pratica” per la salvaguardia dei contenuti. Ciò includerà la fornitura di set di dati di addestramento sull’intelligenza artificiale controllati e l’identificazione delle lacune nella sicurezza.
L’iniziativa renderà inoltre più accessibili gli “strumenti già esistenti”, combinando efficacemente varie tecnologie di rilevamento e reporting delle organizzazioni membri in una soluzione unificata che altre aziende potranno implementare più facilmente.
Roblox e Discord lavorano per rinnovare la loro reputazione
Insieme a Roblox, Discord è stato anche preso di mira in una causa sui social media intentata nel 2022 secondo cui le piattaforme non avevano fatto nulla per impedire agli adulti di inviare messaggi ai bambini senza supervisione.
Naren Koneru, vicepresidente di ingegneria, fiducia e sicurezza di Roblox, ha affermato che ROOST potrebbe ospitare sistemi di moderazione AI che le aziende possono integrare tramite chiamate API. Tuttavia, c'è una certa vaghezza su cosa copriranno gli strumenti di moderazione AI di ROOST.
Ad esempio, Discord afferma che i suoi contributi si baseranno sul progetto di condivisione delle informazioni multipiattaforma Lantern a cui ha aderito nel 2023 insieme a Meta e Google. Ma potrebbe anche includere una versione aggiornata del modello AI di Roblox per rilevare volgarità, razzismo, bullismo, sexting e altri contenuti inappropriati nei clip audio, che la società prevede di rilasciare come open source quest'anno.
Resta da vedere come gli strumenti si intersecheranno con i sistemi di rilevamento CSAM di prima linea già esistenti come lo strumento di analisi delle immagini PhotoDNA di Microsoft.
Oltre a far parte di ROOST, Discord ha anche rilasciato una nuova funzionalità "Ignora" che consente agli utenti di nascondere i messaggi e le notifiche che ricevono senza avvisare le persone che hanno disattivato.
"Noi di Discord crediamo che la sicurezza sia un bene comune", ha condiviso il responsabile legale di Discord Clint Smith nell'annuncio di ROOST. "Ci impegniamo a rendere l'intera Internet, non solo Discord, un posto migliore e più sicuro, soprattutto per i giovani."
In questo momento, l’iniziativa ha raccolto più di 27 milioni di dollari che rappresenteranno i suoi primi quattro anni di attività, con il sostegno di organizzazioni filantropiche come la McGovern Foundation, Future of Online Trust and Safety Fund, Knight Foundation e AI Collaborative.
L’organizzazione ROOST avrà anche il supporto di esperti in sicurezza infantile, intelligenza artificiale, tecnologia open source e “lotta all’estremismo violento”. È essenzialmente il culmine delle grandi menti della tecnologia che lavorano insieme per frenare gli abusi sessuali sui minori e il modo in cui i loro contenuti si diffondono in tutto il mondo. E poiché è open source, è possibile apportare aggiornamenti e miglioramenti continui da parte della comunità globale di sviluppatori, il che significa che la bestia che ROOST sta per creare continuerà ad evolversi col passare del tempo.
Cryptopolitan Academy: stai commettendo questi errori nel curriculum Web3? – Scoprilo qui