Con lo svolgersi delle primarie presidenziali americane, la dipendenza dall’intelligenza artificiale (AI) per le informazioni elettorali è aumentata, mettendo in luce i potenziali vantaggi e le insidie di questa tecnologia. Una recente ricerca di AI Democracy Projects e Proof News ha lanciato allarmi sull’accuratezza degli strumenti basati sull’intelligenza artificiale, rivelando che, più della metà delle volte, queste piattaforme generano informazioni elettorali fuorvianti o dannose.
La sfida della precisione
Si prevedeva che questa nuova era dell’intelligenza artificiale, in grado di produrre testo, video e audio quasi istantaneamente, avrebbe rivoluzionato l’accesso alle informazioni. Tuttavia, lo studio sottolinea un difetto critico: i modelli di intelligenza artificiale spesso forniscono agli elettori informazioni errate. Ad esempio, Llama 2 di Meta informava erroneamente gli utenti che votare tramite SMS era un'opzione in California, una chiara falsità, poiché nessuno stato americano consente il voto tramite SMS. Inoltre, tutti e cinque i modelli di intelligenza artificiale testati, tra cui ChatGPT-4 di OpenAI, Gemini di Google, Claude di Anthropic e Mixtral di Mistral, non sono riusciti a identificare correttamente che la legge del Texas proibisce di indossare loghi elettorali nei seggi elettorali.
La diffusione di falsi seggi elettorali e la promozione di metodi di voto inesistenti sono tra gli errori che contribuiscono alla disinformazione pubblica. Ciò non solo può confondere gli elettori, ma anche minare la fiducia nel processo elettorale.
Risposte tecnologiche e direzioni future
In reazione a questi risultati, le aziende tecnologiche si sono affrettate a difendere i propri prodotti pur riconoscendo la necessità di miglioramenti. Meta ha chiarito che il suo modello Llama 2 è destinato agli sviluppatori, non al pubblico in generale, e afferma che la sua intelligenza artificiale rivolta al consumatore indirizza gli utenti verso autorevoli risorse elettorali statali. Anthropic ha annunciato l'intenzione di rilasciare una nuova versione del suo strumento di intelligenza artificiale per fornire informazioni di voto accurate. Nel frattempo, OpenAI si è impegnata a evolvere il suo approccio basato su approfondimenti sull’utilizzo, anche se i dettagli rimangono nascosti.
Nonostante queste assicurazioni, l’episodio evidenzia un problema più ampio all’interno del dominio dell’intelligenza artificiale: il fenomeno delle “allucinazioni” dell’intelligenza artificiale, in cui i modelli generano risultati sostanzialmente errati. Questa limitazione intrinseca dell’attuale tecnologia di intelligenza artificiale rappresenta una sfida significativa, soprattutto in contesti critici come le elezioni, dove la precisione è fondamentale.
Vuoto normativo e preoccupazione del pubblico
La preoccupazione del pubblico riguardo al ruolo dell’intelligenza artificiale nella diffusione della disinformazione è palpabile. Un recente sondaggio indica che la maggior parte degli adulti statunitensi teme che gli strumenti di intelligenza artificiale possano esacerbare la diffusione di informazioni false durante le elezioni. Tuttavia, senza una legislazione specifica che regoli l’uso dell’intelligenza artificiale in contesti politici, l’onere della governance ricade sulle stesse aziende tecnologiche.
Questo approccio di autoregolamentazione, tuttavia, non affronta completamente le questioni di fondo. L’uso improprio dell’intelligenza artificiale, come l’impiego di chiamate robotiche generate dall’intelligenza artificiale che impersonano personaggi pubblici per dissuadere gli elettori, sottolinea l’urgente necessità di politiche globali che garantiscano l’uso etico dell’intelligenza artificiale nelle elezioni.
Poiché l’intelligenza artificiale continua a integrarsi in vari aspetti della vita quotidiana, la sua applicazione nei processi politici richiede un esame accurato. L’equilibrio tra lo sfruttamento dell’intelligenza artificiale per il bene pubblico e la salvaguardia dal suo potenziale di fuorviare o danneggiare è delicato. Lo sviluppo di modelli di intelligenza artificiale più affidabili, insieme a processi di test trasparenti e all’implementazione di solidi quadri normativi, è essenziale per garantire che la tecnologia migliori le pratiche democratiche anziché sminuirle.
Sebbene l’intelligenza artificiale prometta di trasformare i processi elettorali attraverso l’efficienza e l’accessibilità, il viaggio verso la realizzazione di questo potenziale è irto di sfide. Garantire l’accuratezza delle informazioni generate dall’intelligenza artificiale, in particolare nel contesto elettorale, è fondamentale. Con l’avanzare della tecnologia, altrettanto devono fare le misure volte a salvaguardare l’integrità delle nostre istituzioni democratiche.