Mentre gli Stati Uniti si preparano alle prossime elezioni, crescono le preoccupazioni per la proliferazione della disinformazione sulle piattaforme dei social media. Queste preoccupazioni sono alimentate dal fatto che le principali piattaforme, tra cui Twitter diventato X di Elon Musk, Meta Platforms Inc. (ex Facebook) e YouTube di Google, stanno diventando sempre più riluttanti a combattere i contenuti falsi. Questo cambiamento di approccio coincide con l’aumento degli strumenti di intelligenza artificiale che facilitano la diffusione della disinformazione, ponendo una sfida significativa all’integrità elettorale.
Trasformazione dei social media e spostamento del monitoraggio dei contenuti
Una delle trasformazioni più notevoli nel panorama dei social media è il rebranding di Twitter da parte di Elon Musk come "X", un passaggio verso una piattaforma più senza restrizioni. Tuttavia, X non è il solo a modificare il proprio approccio al monitoraggio dei contenuti. Meta Platforms Inc., proprietaria di Facebook,
Instagram e Threads hanno minimizzato le notizie e i contenuti politici sulle loro piattaforme. Allo stesso modo, YouTube di Google ha deciso di evitare di eliminare le falsità relative alle elezioni del 2020, citando preoccupazioni sulla limitazione del discorso politico.
Questo cambiamento arriva in un momento critico in cui gli strumenti di intelligenza artificiale consentono la rapida diffusione di informazioni false e le divisioni sociali stanno erodendo la fiducia. Il World Economic Forum ha identificato la disinformazione come la minaccia più significativa a breve termine nel suo Global Risks Report.
Una minaccia per la democrazia americana
Mark Jablonowski, Chief Technology Officer della società democratica di tecnologia pubblicitaria DSPolitical, avverte che mentre le piattaforme chiedono maggiore trasparenza per gli annunci pubblicitari, la diffusione incontrollata della disinformazione organica rappresenta una minaccia fondamentale per la democrazia americana.
Mentre le aziende rivalutano le loro pratiche di moderazione, Jablonowski esprime preoccupazione per il fatto che i falsi contenuti virali non indirizzati potrebbero influenzare la percezione degli elettori e influenzare i risultati elettorali nel 2024.
Rischi oltre gli Stati Uniti
Le implicazioni di questi cambiamenti alla piattaforma si estendono oltre gli Stati Uniti. Nel 2024 si terranno le elezioni in circa altri 60 paesi, rendendolo un anno rischioso per sperimentare nuove dinamiche di moderazione dei contenuti.
La campagna elettorale statunitense è già in corso, con l’ex presidente Donald Trump che sta facendo passi da gigante nel caucus dell’Iowa, ponendo potenzialmente le basi per una rivincita con il presidente Joe Biden. Data la natura polarizzante di entrambi i candidati, esiste un rischio maggiore di violenza nel mondo reale, come dimostrato dall’attacco del 6 gennaio al Campidoglio nel 2021.
Nonostante le linee guida politiche contro i contenuti che incitano alla violenza o fuorviano gli elettori, piattaforme come X, Meta e YouTube devono affrontare la sfida di mantenere l’integrità elettorale evitando la censura.
Pressioni finanziarie e politiche
Diversi fattori contribuiscono al cambiamento dell'atteggiamento delle piattaforme nei confronti della moderazione dei contenuti. Motivazioni finanziarie, come la spinta all’efficienza, hanno portato le aziende tecnologiche a ridurre il personale non tecnico. Mark Zuckerberg di Meta, ad esempio, ha descritto i vasti tagli di posti di lavoro dell'azienda come vantaggiosi per il settore.
Anche le pressioni politiche hanno avuto un ruolo, con i conservatori statunitensi che sostengono che le aziende tecnologiche non dovrebbero avere l’autorità di definire la verità in questioni politiche e sociali delicate. La soppressione di una storia sul figlio di Biden prima delle elezioni del 2020, successivamente ritenuta infondata, ha suscitato polemiche e sollevato interrogativi sui compromessi coinvolti nella rimozione aggressiva dei contenuti.
L’attuazione di politiche contro la disinformazione si è rivelata impegnativa, in particolare durante eventi in rapida evoluzione come la pandemia di COVID-19. Tentare di imporre la rimozione dei contenuti alla velocità degli eventi in rapido cambiamento può comportare limitazioni e difficoltà nello stabilire la verità.
Una conseguenza di queste sfide è lo spostamento delle piattaforme di social media verso argomenti meno controversi. L'introduzione di Threads da parte di Meta, posizionato come concorrente di Twitter, si concentra sullo stile di vita e sui contenuti di intrattenimento per evitare il controllo e la negatività associati alle notizie difficili e alla politica.
Deep fake generati dall’intelligenza artificiale: una preoccupazione crescente
Per rispondere alla crescente preoccupazione dei deepfake generati dall’intelligenza artificiale, Meta prevede di implementare protocolli simili a quelli utilizzati nelle elezioni precedenti, compreso il divieto di nuovi annunci politici una settimana prima delle elezioni. Le piattaforme sono sempre più preoccupate per i deepfake, che implicano l’utilizzo dell’intelligenza artificiale per creare immagini, audio o video falsi. Anche se il loro impatto sulla disinformazione non è ancora sostanziale, hanno il potenziale per creare dubbi, in particolare in situazioni urgenti come i giorni delle elezioni.
La campagna Biden ha già adottato misure per contrastare la disinformazione online, compreso l’uso dei deepfake, attraverso vie legali. Si concentrano sull'affrontare potenziali violazioni della legge sul copyright e degli statuti contro la rappresentazione.