L'ascesa dei chatbot di intelligenza artificiale e l'emergere di nuove stazioni televisive hanno sollevato preoccupazioni significative riguardo al loro potenziale impatto sulle future elezioni. Gli attivisti e persino gli stati canaglia possono sfruttare la tecnologia dell'IA generativa per influenzare l'esito delle elezioni nel Regno Unito. Con la crescita esponenziale dei chatbot di intelligenza artificiale, il numero di voti espressi sulla base di notizie fuorvianti create da questi robot è motivo di allarme. Inoltre, le false immagini e la mimica vocale generate dagli strumenti di elaborazione del linguaggio naturale possono ingannare gli elettori, portandoli a scegliere i candidati con false pretese.
La minaccia della disinformazione
La tecnologia dell'IA generativa rappresenta una minaccia pressante per l'integrità delle notizie e delle informazioni. La sua capacità di produrre testi autentici su vari argomenti ha portato alla rapida crescita di applicazioni come ChatGPT, accumulando oltre 100 milioni di utenti entro due mesi dal suo lancio. NewsGuard, un'organizzazione che analizza la credibilità delle testate giornalistiche, ha identificato 49 siti di notizie e informazioni scritti da AI a maggio, che erano saliti a 217 secondo l'ultimo conteggio. L'enorme volume di articoli di "notizie" generati dall'intelligenza artificiale solleva preoccupazioni sulla diffusione della disinformazione.
L'uso di false immagini e imitazioni vocali generate dall'intelligenza artificiale aggiunge un altro livello di preoccupazione. Casi recenti, come la circolazione di un'immagine falsa generata dall'IA raffigurante un'esplosione al di fuori del Dipartimento della Difesa degli Stati Uniti e l'ammissione da parte della campagna del candidato presidenziale repubblicano Ron DeSantis di utilizzare immagini false create dall'IA per screditare il suo rivale, illustrano il potenziale per manipolazione. Inoltre, lo strumento di intelligenza artificiale di Microsoft può replicare la voce di una persona con soli tre secondi di audio campione, offuscando ulteriormente il confine tra verità e inganno.
Il ruolo dei nuovi notiziari televisivi
Le imminenti elezioni britanniche saranno le prime a testimoniare il coinvolgimento dei più giovani notiziari televisivi britannici, GB News e Talk TV. Controverso, entrambi i canali hanno parlamentari come host, spingendo i confini dell'imparzialità politica. Ci sono preoccupazioni per quanto riguarda il loro ruolo potenziale nei dibattiti elettorali formali. La necessità di notizie imparziali diventa ancora più critica poiché queste nuove stazioni cercano di plasmare l'opinione pubblica durante i cicli elettorali.
Rachel Corp, amministratore delegato di ITN, ha sottolineato la pressante minaccia rappresentata dall'IA generativa per le informazioni fattuali. Corp ha chiesto un intervento urgente del governo, proponendo l'istituzione di un gruppo di lavoro per affrontare i potenziali danni causati da questa tecnologia. Avverte che la produttività dell'intelligenza artificiale generativa potrebbe sopraffare le agenzie di stampa affidabili, portando le persone a perdere la fiducia nelle informazioni presentate loro. La marea di contenuti generati dall'intelligenza artificiale comporta un rischio di sovraccarico di informazioni, erodendo potenzialmente la fiducia del pubblico nelle fonti di notizie.
Disinformazione del giorno delle elezioni
Una delle principali preoccupazioni sollevate è la potenziale proliferazione della disinformazione generata dall'intelligenza artificiale il giorno delle elezioni, quando le emittenti del servizio pubblico (PSB) sono vincolate dal purdah del giorno delle elezioni, astenendosi dal riferire sulla politica mentre le urne sono aperte. Questo crea un ambiente in cui le informazioni fuorvianti possono circolare senza i soliti mezzi di contrasto forniti dai PSB. L'efficacia e la pertinenza della politica del purdah devono essere rivalutate alla luce dell'evoluzione del panorama dei media.
I partiti politici nel Regno Unito sono stati cauti nell'utilizzo della tecnologia AI per il materiale elettorale. Sebbene attività banali come le e-mail di raccolta fondi possano essere affidate a robot basati sull'intelligenza artificiale, c'è ancora riluttanza a fare affidamento su di loro per attività di campagna più critiche. La mancanza di comprensione culturale e conoscenza locale posseduta dai robot di intelligenza artificiale può portare a errori che portano alla perdita di voti. I partiti politici danno la priorità alla cautela per evitare di alienare la loro base di elettori e indebolire involontariamente le loro campagne.
La tecnologia dell'IA generativa offre agli attivisti e persino agli stati canaglia l'opportunità di influenzare le elezioni nel Regno Unito. Le piattaforme di social media come Twitter potrebbero subire un'impennata di discorsi incivili e molestie nei confronti di candidati politici. L'assenza di conseguenze significative per coloro che perseguono tali programmi può esacerbare ulteriormente il problema. Le autorità di regolamentazione come Ofcom devono considerare attentamente le implicazioni dei nuovi canali di notizie TV che ospitano dibattiti elettorali, garantendo al contempo che le principali emittenti continuino a fornire una piattaforma neutrale per il discorso politico.
La crescita esponenziale dei chatbot AI e l'emergere di nuove stazioni televisive hanno implicazioni significative per le future elezioni. La diffusione della disinformazione attraverso l'IA generativa rappresenta una grave minaccia per il flusso di informazioni fattuali. Il potenziale impatto delle false immagini e del mimetismo vocale generato dagli strumenti di intelligenza artificiale complica ulteriormente il problema. È fondamentale che fonti di notizie imparziali rimangano ferme nel fornire informazioni affidabili per controbilanciare l'influenza delle tecnologie in evoluzione. Le autorità di regolamentazione ei governi devono affrontare prontamente queste preoccupazioni, salvaguardando l'integrità dei processi democratici e garantendo l'affidabilità delle informazioni nelle campagne elettorali.