In una rivelazione che fa luce sul ventre oscuro dell'interferenza elettorale digitale, l'Australian Strategic Policy Institute (ASPI) ha scoperto una campagna segreta orchestrata dal Partito Comunista Cinese (PCC) per manipolare le recenti elezioni di Taiwan attraverso la disinformazione generata dall'intelligenza artificiale. Le tattiche insidiose impiegate includevano l’uso di avatar generati dall’intelligenza artificiale, documenti trapelati e falsi test di paternità, sollevando preoccupazioni sul potenziale impatto globale di tali campagne di disinformazione.
Svelata la campagna segreta cinese
L'indagine ASPI ha rivelato le nefande attività di Spamouflage, una rete collegata al PCC, che utilizza avatar generati dall'intelligenza artificiale su piattaforme come X/Twitter, Facebook, Medium e blog taiwanesi. Questi account prendevano di mira i candidati del Partito Democratico Progressista (DPP), accusandoli di corruzione e appropriazione indebita per influenzare il sentimento pubblico contro di loro. La connessione della rete con le forze dell'ordine cinesi e le agenzie governative ha ulteriormente complicato la situazione.
Un secondo attore della minaccia, identificato nel rapporto del terzo trimestre del 2023 di Meta, è impegnato in sofisticate operazioni di influenza informatica. Questo attore ha diffuso presunti documenti governativi taiwanesi trapelati e un falso test di paternità del DNA che coinvolgeva il candidato presidenziale del DPP Lai Ching-te. La complessità di queste campagne, compreso l’uso di contenuti generati dall’intelligenza artificiale, ha segnato uno sviluppo preoccupante nelle operazioni di influenza della Cina.
Il rapporto ASPI mette in luce le conseguenze di vasta portata derivanti dalle campagne di disinformazione cinesi guidate dall’intelligenza artificiale, che superano i confini di Taiwan. In particolare, la rete Spamouflage, oltre ad esercitare influenza a Taiwan, è stata identificata diffondendo contenuti denigratori del Bharatiya Janata Party (BJP) e del governo indiano, con un focus specifico sulla regione di Manipur in India. Questa divulgazione svela un modello plausibile di potenziale interferenza da parte del Partito Comunista Cinese (PCC) nelle prossime elezioni su scala globale.
Unità democratica di fronte alla disinformazione generata dall’intelligenza artificiale
Il rapporto sottolinea la responsabilità di piattaforme come X/Twitter nel garantire la sicurezza online durante le elezioni, citando le carenze nella sospensione degli account associati alle reti coordinate di comportamento non autentico con sede in Cina. Chiede inoltre alle società occidentali di intelligenza artificiale generativa, come Synthesia e D-ID, di esercitare la dovuta diligenza e trasparenza nel prevenire l’uso improprio dei loro prodotti, esortando OpenAI a seguire l’esempio delle piattaforme di social media nel rilasciare rapporti sulle minacce sull’uso improprio.
Le osservazioni conclusive del rapporto offrono un atteggiamento cautelativo, suonando un campanello d’allarme riguardo agli investimenti esteri nel fiorente settore cinese dell’intelligenza artificiale. Il rapporto sostiene una rivalutazione da parte dei governi e delle aziende occidentali del loro impegno in questo settore. Il potenziale intrinseco di duplice uso dei prodotti di intelligenza artificiale, soprattutto nell’ambito delle operazioni di guerra politica, richiede un chiaro appello per un maggiore controllo e, potenzialmente, l’imposizione di responsabilità legale alle società di intelligenza artificiale che potrebbero inavvertitamente facilitare l’interferenza elettorale.
Mentre le democrazie si preparano alle prossime elezioni, il rapporto ASPI incoraggia a rafforzare i legami con Taiwan e ad adottare un fronte unito contro la disinformazione . Condividere informazioni sugli autori delle minacce del PCC, indagare sugli account dei social media che prendono di mira più regioni e collaborare agli sforzi di lotta alla disinformazione potrebbe rafforzare le difese democratiche.
In un mondo sempre più dipendente dalle piattaforme digitali, la rivelazione delle sofisticate campagne di disinformazione cinesi generate dall’intelligenza artificiale serve a ricordare duramente le sfide che le democrazie devono affrontare nel preservare l’integrità dei loro processi elettorali. L’onere non spetta solo ai governi, ma anche alle aziende tecnologiche e alla più ampia comunità globale combattere collettivamente questa minaccia in evoluzione.