OpenAI ha intrapreso un'azione decisiva vietando un gruppo di account ChatGPT collegati a un'operazione di influenza iraniana. Questi account pubblicavano materiale prodotto da AI riguardante le elezioni presidenziali americane, come spiegato dalla società in un post sul blog. L’operazione, che conteneva articoli e post sui social media, sembrava aver avuto una portata ridotta.
Questa non è la prima volta che attori affiliati allo stato tentano di abusare del ChatGPT di OpenAI. A maggio, l’azienda ha impedito cinque diversi tentativi di influenzare il pubblico con articoli mediatici falsi pubblicati da robot IA. Questi sforzi fanno parte di un modello più ampio in cui gli attori statali utilizzano le nuove tecnologie per cercare di modellare i processi politici.
OpenAI risponde rapidamente per contrastare le minacce emergenti
In precedenza, tali gruppi utilizzavano Facebook e Twitter come principali piattaforme di social media. Tuttavia, l’intelligenza artificiale generativa viene ora utilizzata per sopraffare le piattaforme di social media con informazioni false. In risposta a queste minacce, OpenAI è stata rapida, simile all’approccio “colpisci la talpa” che abbiamo visto nelle piattaforme di social media. Non appena i conti collegati a tali attività vengono alla luce, vengono immediatamente bloccati. Ciò è importante poiché le elezioni presidenziali degli Stati Uniti del 2024 stanno lentamente entrando in scena.
L'analisi di OpenAI del recente gruppo di account si basa su un rapporto di Microsoft Threat Intelligence pubblicato la scorsa settimana. Il rapporto nomina il gruppo che sponsorizza queste operazioni come il gruppo Storm-2035, coinvolto nell’interferenza con le elezioni statunitensi dal 2020.
Si dice che Storm-2035 sia una rete iraniana con numerosi domini pensati per assomigliare a veri siti Web di notizie. Questi siti si rivolgono all'elettore americano e presentano contenuti polarizzanti relativi ai candidati presidenziali, ai diritti dei gay e al conflitto Israele-Hamas.
ChatGPT genera contenuti polarizzanti su vari argomenti politici
Come in altre operazioni simili, lo scopo di Storm-2035 non è sostenere una politica individuale ma suscitare polemiche tra la popolazione. Secondo OpenAI, il gruppo era associato a cinque siti web che si presentavano come siti di notizie sia liberali che conservatori.
Questi siti avevano buoni nomi di dominio, come “evenpolitics. com” e utilizzava ChatGPT per scrivere articoli di una certa lunghezza. Uno di questi articoli affermava che la rete di social media di proprietà di Elon Musk, X, stava bloccando i tweet dell'ex presidente degli Stati Uniti Donald Trump.
OpenAI ha identificato una dozzina di account X e un account Instagram collegati a Storm-2035. Questi account hanno utilizzato ChatGPT per generare nuove dichiarazioni politiche e poi le hanno pubblicate su questi canali di social media. Ad esempio, un tweet implicava falsamente il cambiamento climatico in “aumento dei costi di immigrazione” taggando la dichiarazione con #DumpKamala in riferimento al vicepresidente Kamala Harris.