Mentre le elezioni si svolgono in tutto il mondo, si trovano ad affrontare una minaccia formidabile e in evoluzione da parte di attori stranieri che brandiscono un’arma potente: l’intelligenza artificiale. L’ambito dell’influenza elettorale è entrato in una nuova fase nel 2016, quando le campagne di disinformazione russe hanno preso di mira le elezioni presidenziali americane attraverso i social media. Negli anni successivi, paesi come la Cina e l’Iran hanno seguito l’esempio, utilizzando i social media per influenzare le elezioni negli Stati Uniti e in varie parti del mondo. Mentre ci avviciniamo al 2023 e al 2024, la minaccia rimane, ma con un nuovo elemento: l’intelligenza artificiale generativa e modelli linguistici di grandi dimensioni che hanno il potenziale per amplificare l’impatto della disinformazione.
Il potere della propaganda guidata dall’intelligenza artificiale
Gli strumenti di intelligenza artificiale generativa, esemplificati da ChatGPT e dal più potente GPT-4, possono produrre grandi quantità di testo rapidamente e in vari toni e prospettive. Ciò li rende particolarmente adatti alla propaganda dell’era di Internet. Sebbene le esatte implicazioni di queste tecnologie sulle campagne di disinformazione rimangano incerte, il mondo sta per testimoniare la loro influenza.
La stagione elettorale sta per invadere il mondo democratico, con molti paesi che terranno elezioni nazionali. Queste elezioni rivestono un’enorme importanza per i paesi precedentemente impegnati in operazioni di influenza sui social media. Ad esempio, gli interessi della Cina si estendono a Taiwan, Indonesia, India e numerose nazioni africane, mentre la Russia monitora Regno Unito, Polonia, Germania e Unione Europea. Gli Stati Uniti rimangono un punto focale per vari attori. Man mano che i costi dell’influenza straniera diminuiscono, più paesi possono entrare nell’arena, soprattutto con strumenti come ChatGPT che rendono accessibile la produzione di propaganda.
Interferenze elettorali e panorama in evoluzione
In una recente conferenza alla quale hanno partecipato rappresentanti di tutte le agenzie di sicurezza informatica statunitensi, le discussioni si sono incentrate sulle aspettative relative alle interferenze elettorali nel 2024. Oltre agli attori familiari come Russia, Cina e Iran, è emersa una nuova categoria: gli “attori nazionali”. Questo cambiamento è il risultato diretto della riduzione dei costi associati alle campagne di disinformazione basate sull’intelligenza artificiale.
Sfide oltre la generazione di contenuti
Mentre l’intelligenza artificiale facilita la creazione di contenuti, la distribuzione rimane la sfida fondamentale per i propagandisti. Gli account falsi svolgono un ruolo cruciale nel pubblicare e amplificare i contenuti finché non diventano virali. Aziende come Meta hanno migliorato la loro capacità di identificare e rimuovere tali account, come dimostrato dalla recente repressione di una campagna di influenza cinese. Tuttavia, la disinformazione rimane una corsa agli armamenti. Man mano che le piattaforme dei social media cambiano, gli organi di propaganda si adattano, spesso passando a piattaforme di messaggistica come Telegram e WhatsApp, rendendo il rilevamento e la rimozione più difficili. Controllato dalla Cina, TikTok offre una piattaforma per brevi video generati dall’intelligenza artificiale, complicando ulteriormente il panorama.
Gli strumenti di intelligenza artificiale generativa consentono nuove tecniche di produzione e distribuzione, come la propaganda di basso livello su larga scala. Consideriamo gli account personali basati sull’intelligenza artificiale sui social media che si comportano normalmente, pubblicando contenuti sulla vita quotidiana e sugli interessi e inserendo occasionalmente contenuti politici. Questi “persona bot” hanno un’influenza individuale minima ma possono avere un impatto collettivo significativo se distribuiti in grandi numeri.
Disinformazione sugli steroidi AI
Le entità militari dietro l’interferenza elettorale, come quelle in Russia e Cina, stanno probabilmente escogitando tattiche sofisticate che vanno oltre le strategie dell’era del 2016. Prima di espandersi, questi paesi spesso testano attacchi informatici e operazioni di informazione su nazioni più piccole. Riconoscere e catalogare tempestivamente queste tattiche è fondamentale per contrastare le nuove campagne di disinformazione.
Man mano che le campagne di disinformazione guidate dall’intelligenza artificiale diventano più avanzate, gli Stati Uniti devono prendere le impronte digitali e identificare in modo proattivo la propaganda prodotta dall’intelligenza artificiale in altri paesi, come Taiwan, dove le registrazioni audio deepfake hanno diffamato i candidati politici. Senza un rilevamento e una comprensione tempestivi, queste campagne potrebbero passare inosservate finché non raggiungono le coste nazionali.
La necessità di ricerca e difesa
Sebbene alcune recenti elezioni si siano svolte senza problemi significativi di disinformazione legati all’intelligenza artificiale, la sensibilizzazione e la ricerca tempestive sono essenziali per essere preparati. I ricercatori devono studiare le tecniche impiegate nelle campagne straniere per sviluppare strategie di difesa efficaci. La comunità della sicurezza informatica riconosce che la condivisione dei metodi di attacco e della loro efficacia è fondamentale per costruire sistemi di difesa robusti.
La minaccia della disinformazione elettorale alimentata dall’intelligenza artificiale è in crescita e richiede un approccio proattivo e informato. Mentre entriamo in questa nuova era di interferenze elettorali, i paesi devono rimanere vigili, promuovere la collaborazione internazionale e sviluppare meccanismi di difesa in grado di contrastare la propaganda guidata dall’intelligenza artificiale. Prima comprenderemo queste tattiche in evoluzione, meglio potremo proteggere l’integrità dei nostri processi democratici.