L’intelligenza artificiale viene utilizzata per manipolare le elezioni, OpenAI lancia l’allarme

Il rapporto di OpenAI afferma che i suoi modelli vengono utilizzati per influenzare le elezioni. Ha inoltre affermato di aver eliminato oltre 20 operazioni che si basavano sul suo modello di intelligenza artificiale per svolgere tali attività dannose.

Anche il rapporto OpenAI , “Un aggiornamento sull’interruzione degli usi ingannevoli dell’intelligenza artificiale”, ha sottolineato la necessità di vigilanza quando si interagisce con contenuti politici.

Il documento ha mostrato una tendenza secondo cui i modelli di OpenAI stanno diventando uno strumento importante per interrompere le elezioni e diffondere disinformazione politica. I malintenzionati, spesso sponsorizzati dallo stato, utilizzano questi modelli di intelligenza artificiale per varie attività, tra cui la generazione di contenuti per personaggi falsi sui social media e il reverse engineering del malware.

La crescente influenza di OpenAI nelle elezioni e nella politica dell'IA

Alla fine di agosto, OpenAI ha interrotto una campagna iraniana che produceva contenuti sui social media per influenzare le opinioni nelle elezioni statunitensi, nella politica venezuelana, nel conflitto di Gaza e in Israele. È stato riferito che alcuni account, successivamente bloccati, pubblicavano anche post sulle elezioni ruandesi.

Si è inoltre scoperto che anche una società israeliana era coinvolta nel tentativo di manipolare i risultati dei sondaggi in India.

Tuttavia, OpenAI ha osservato che queste attività non sono diventate virali né hanno coltivato un pubblico consistente. I post sui social media relativi a queste campagne hanno ottenuto una popolarità minima. Ciò potrebbe indicare la difficoltà nell’influenzare l’opinione pubblica attraverso campagne di disinformazione basate sull’intelligenza artificiale.

Storicamente, le campagne politiche sono solitamente alimentate dalla disinformazione da parte dei partiti in corsa. Tuttavia, l’avvento dell’intelligenza artificiale rappresenta una minaccia diversa per l’integrità dei sistemi politici. Il World Economic Forum (WEF) ha affermato che il 2024 sarà un anno storico per le elezioni, con 50 paesi che si voteranno. 

Gli LLM nell'uso quotidiano hanno già la capacità di creare e diffondere disinformazione in modo più rapido e convincente.

Regolazione e sforzi di collaborazione

In risposta a questa potenziale minaccia, OpenAI ha affermato che sta lavorando con le parti interessate pertinenti condividendo informazioni sulle minacce. Si prevede che questo approccio collaborativo sia sufficiente per controllare i canali di disinformazione e promuovere l’uso etico dell’IA, soprattutto in contesti politici.

OpenAI riferisce: "Nonostante la mancanza di un significativo coinvolgimento del pubblico derivante da questa operazione, prendiamo sul serio qualsiasi sforzo volto a utilizzare i nostri servizi in operazioni di influenza straniera".

L’azienda di intelligenza artificiale ha inoltre sottolineato che è necessario costruire solide difese di sicurezza per prevenire gli attacchi informatici sponsorizzati dallo stato, che utilizzano l’intelligenza artificiale per creare campagne online ingannevoli e dirompenti.

Il WEF ha inoltre evidenziato la necessità di mettere in atto normative sull’IA, affermando: “Gli accordi internazionali sugli standard interoperabili e sui requisiti normativi di base svolgeranno un ruolo importante nel consentire l’innovazione e nel migliorare la sicurezza dell’IA”.

Lo sviluppo di quadri efficaci richiede partenariati strategici tra aziende tecnologiche come OpenAI, il settore pubblico e le parti interessate private, che aiuteranno a implementare sistemi di intelligenza artificiale etici.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto