Danni di genere nell’intelligenza artificiale: protezione dalle alterazioni dell’immagine non consensuali

Il membro del parlamento australiano Georgie Purcell ha recentemente espresso preoccupazione per un'immagine alterata digitalmente che ha distorto il suo corpo e rimosso parti dei suoi vestiti senza il suo consenso. Questo incidente fa luce sulle potenziali conseguenze sessiste e discriminatorie delle tecnologie di intelligenza artificiale incontrollate.

Sebbene spesso considerati semplici nell’uso quotidiano, gli strumenti assistiti dall’intelligenza artificiale possono inavvertitamente perpetuare pregiudizi sociali. Quando viene richiesto di modificare le fotografie, questi strumenti possono migliorare alcuni attributi approvati dalla società, come la giovinezza e la sessualizzazione, particolarmente diffusi nelle immagini delle donne.

Una preoccupazione significativa nasce dalla proliferazione di contenuti deepfake a sfondo sessuale, rivolti prevalentemente alle donne. I rapporti indicano che uno sbalorditivo 90-95% dei video deepfake sono pornografia non consensuale, con circa il 90% che presenta donne come vittime. Istanze di creazione e condivisione non consensuale di immagini deepfake sessualizzate sono emerse a livello globale, colpendo individui di vari gruppi demografici, comprese giovani donne e celebrità come Taylor Swift.

La necessità di un’azione globale

Sebbene in alcune regioni esistano misure legislative per affrontare la condivisione non consensuale di deepfake a sfondo sessuale, le leggi relative alla loro creazione rimangono incoerenti, in particolare negli Stati Uniti. La mancanza di normative internazionali coese sottolinea la necessità di un’azione globale collettiva per combattere efficacemente questo problema.

Gli sforzi per individuare i contenuti generati dall’intelligenza artificiale sono messi a dura prova dalle tecnologie avanzate e dalla crescente disponibilità di app che facilitano la creazione di contenuti sessualmente espliciti. Tuttavia, attribuire la sola colpa alla tecnologia trascura la responsabilità degli sviluppatori tecnologici e delle piattaforme digitali di dare priorità alla sicurezza e ai diritti degli utenti.

L’Australia ha adottato misure per assumere un ruolo guida in questo senso, con iniziative come l’Ufficio del Commissario per la sicurezza elettronica e leggi nazionali che ritengono le piattaforme digitali responsabili della prevenzione e della rimozione dei contenuti non consensuali. Tuttavia, una più ampia collaborazione globale e misure proattive sono essenziali per mitigare in modo efficace i danni dei deepfake sessualizzati non consensuali.

L’uso incontrollato dell’intelligenza artificiale nell’editing delle immagini e la proliferazione di contenuti deepfake a sfondo sessuale pongono sfide significative, che necessitano di quadri normativi completi e di un’azione globale collettiva. Dando priorità alla sicurezza degli utenti e ai diritti nello sviluppo e nell’applicazione della tecnologia, le società possono lavorare per mitigare i danni di genere associati agli abusi legati all’intelligenza artificiale.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto