L’Internet Watch Foundation (IWF) teme che la prevalenza di materiale pedopornografico generato dall’intelligenza artificiale (CSAM) su Internet possa continuare ad aumentare, stimolata dai progressi negli strumenti di intelligenza artificiale.
L’organismo di vigilanza sulla sicurezza ha indicato che man mano che gli strumenti di intelligenza artificiale generativa diventano sofisticati, è diventato anche difficile distinguere tra immagini o video reali e contenuti falsi generati dall’intelligenza artificiale. Secondo l’organizzazione, le immagini generate dall’intelligenza artificiale nel 2024 sono diventate più “realistiche” di quelle viste per la prima volta nel 2023.
Internet Watch Foundation rileva un aumento dei materiali pedopornografici
L’IWF teme che più materiale pedopornografico generato dall’intelligenza artificiale possa diffondersi su Internet poiché i pervertiti approfittano dei progressi nella tecnologia dell’intelligenza artificiale, che rende gli strumenti più facili da usare e più diffusi. L’autorità di vigilanza sulla sicurezza ha già notato un aumento dei CSAM generati dall’intelligenza artificiale su Internet.
L'organizzazione ha già notato casi di manipolazione di materiale pedopornografico, mentre altri casi riguardavano pornografia per adulti ma nel filmato veniva utilizzato il volto di un bambino. Secondo l'IWF, alcuni dei contenuti riguardavano video della durata di circa 20 secondi.
Dan Sexton, Chief Technology Officer dell'IWF, ha rivelato che ci sono possibilità che emergano più CSAM basati sull'intelligenza artificiale se gli strumenti video basati sull'intelligenza artificiale seguiranno la stessa tendenza degli strumenti di generazione di immagini basati sull'intelligenza artificiale, poiché la tecnologia sta crescendo a un ritmo rapido.
"Direi provvisoriamente che se seguirà le stesse tendenze, allora vedremo più video", ha detto.
Sexton ha aggiunto che è anche molto probabile che i futuri video basati sull’intelligenza artificiale saranno di “qualità e realismo superiori”.
Secondo gli analisti dell'IWF, la maggior parte dei video esaminati dall'organizzazione su un forum oscuro da pedofili erano dei deepfake parziali. In questo caso, sono stati utilizzati modelli di intelligenza artificiale disponibili gratuitamente online per manipolare le immagini, comprese quelle di vittime note di materiale pedopornografico, su video pedopornografici esistenti e pornografia per adulti.
L’organizzazione ha trovato nove video di questo tipo, mentre un piccolo numero di video realizzati interamente con l’intelligenza artificiale erano di qualità elementare.
(1/4) Panorama materiale sugli abusi sessuali su minori #AI – L'anno scorso siamo stati tra i primi a lanciare l'allarme sulla proliferazione di immagini realistiche di abusi sessuali su minori generate dall '#AI … pic.twitter.com/s4igkjHH78
– Internet Watch Foundation (IWF) (@IWFhotline) , 22 luglio 2024
L'autorità di vigilanza vuole criminalizzare la produzione di materiale pedopornografico
L’IWF sta ora spingendo per leggi che criminalizzino la produzione di tale materiale, inclusa la creazione di guide per realizzare tale contenuto. Dovrebbe inoltre criminalizzare lo sviluppo di strumenti e piattaforme che consentono la creazione di materiale pedopornografico.
Ciò avviene perché uno studio condotto quest’anno su un singolo forum del dark web ha rivelato 12.000 nuove immagini generate dall’intelligenza artificiale e pubblicate in un periodo di un mese.
Secondo l’IWF, nove immagini su 10 erano realistiche e avrebbero potuto essere perseguite ai sensi delle stesse leggi del Regno Unito che disciplinano i veri materiale pedopornografico.
Leggi anche: Uomo del Texas condannato per aver acquistato materiale pedopornografico con criptovaluta
L’anno scorso, il Centro nazionale per i bambini scomparsi e sfruttati (NCMEC) ha affermato di aver ricevuto numerose segnalazioni di pervertiti che utilizzano l’intelligenza artificiale in vari modi, ad esempio inserendo messaggi di testo per creare immagini di abusi sui minori. In alcuni casi, i predatori hanno alterato le immagini caricate in precedenza per renderle sessualmente esplicite e offensive.
Susie Hargreaves, CEO dell’IWF, ha sottolineato la necessità di governare gli strumenti di intelligenza artificiale generativa per limitare la proliferazione di materiale pedopornografico.
“Senza controlli adeguati, gli strumenti di intelligenza artificiale generativa forniscono ai predatori online un terreno di gioco per realizzare le loro fantasie più perverse e disgustose”, ha affermato Hargreaves.
Hargreaves ha aggiunto che l'IWF stava cominciando a vedere sempre più materiale pedopornografico condiviso e venduto su siti commerciali di abusi sessuali su minori.
Secondo The Guardian, un’altra organizzazione che gestisce una hotline per la segnalazione di abusi ha rivelato di aver trovato materiale pedopornografico prodotto dall’intelligenza artificiale in vendita su piattaforme online da parte di trasgressori.