Gli hacker degli stati nazionali di Russia, Iran, Corea del Nord e Cina utilizzano l’intelligenza artificiale solo per compiti di base

Le aziende tecnologiche e i funzionari governativi continuano a mettere in guardia dal fatto che l'intelligenza artificiale sta diventando un'arma pericolosa per i nemici stranieri, ma nuove prove raccontano una storia diversa. Rapporti recenti mostrano che i gruppi sponsorizzati dallo Stato utilizzano gli stessi strumenti pubblicamente disponibili dei normali utenti di Internet, e spesso incontrano le stesse difficoltà.

OpenAI ha recentemente condiviso dettagli su come gruppi legati al governo hanno tentato di utilizzare le sue piattaforme.

Il caso più eclatante è quello di una campagna di influenza cinese, smascherata per caso quando un funzionario delle forze dell'ordine cinese ha utilizzato ChatGPT come un diario personale. Il funzionario ha scritto di un'operazione che prendeva di mira oppositori cinesi residenti in altri Paesi.

Secondo OpenAI , la campagna ha coinvolto centinaia di operatori e migliaia di falsi account sui social media.

L'operazione ha cercato di impersonare funzionari dell'immigrazione degli Stati Uniti per spaventare un dissidente, affermando falsamente che le sue dichiarazioni pubbliche violavano la legge americana. In altri casi, gli operatori hanno utilizzato documenti falsi che si spacciavano per provenienti da un tribunale di contea per cercare di far chiudere gli account social dei critici.

Necrologi falsi e documenti falsi fanno parte di una campagna di molestie

Hanno creato un necrologio falso e foto di lapidi per diffondere false voci sulla morte di un dissidente. Queste voci sono in realtà apparse online nel 2023, come confermato da un articolo in lingua cinese di Voice of America. Ben Nimmo, che dirige le indagini presso OpenAI, ha definito lo sforzo una molestia industrializzata rivolta ai critici del Partito Comunista Cinese attraverso molteplici canali.

L'utilizzo di ChatGPT come strumento di archiviazione ha finito per smascherare l'operazione. ChatGPT fungeva da diario per l'agente, consentendogli di tracciare la rete segreta, mentre altri strumenti generavano la maggior parte dei contenuti veri e propri, diffusi poi sui social media. OpenAI ha bannato l'utente dopo aver scoperto l'attività.

Gli investigatori di OpenAI hanno confrontato le descrizioni dell'utente di ChatGPT con la sua reale attività online. L'utente ha descritto di aver simulato la morte di un dissidente cinese creando un necrologio falso e foto di lapidi da pubblicare online.

In un altro caso, l'utente di ChatGPT ha chiesto al sistema di elaborare un piano per danneggiare la reputazione del Primo Ministro giapponese entrante Sanae Takaichi, fomentando la rabbia per i dazi americani. ChatGPT ha rifiutato. Ma a fine ottobre, quando Takaichi è salito al potere, su un popolare forum di grafici giapponesi sono comparsi hashtag che la attaccavano e si lamentavano dei dazi.

Il rapporto di OpenAI ha inoltre preso in esame diverse operazioni fraudolente dalla Cambogia che hanno sfruttato la piattaforma per frodi sentimentali e di investimento, oltre a campagne di influenza collegate alla Russia che hanno preso di mira Argentina e Africa.

Il rapporto di Microsoft mostra modelli di utilizzo di base simili

Microsoft ha pubblicato un rapporto separato, in collaborazione con OpenAI, che analizza come attori statali di Russia, Corea del Nord, Iran e Cina stiano sperimentando modelli linguistici di grandi dimensioni per supportare operazioni di attacco informatico. Entrambe le aziende hanno bloccato le attività di cinque attori affiliati a stati, chiudendone gli account.

Il rapporto di Microsoft ha scoperto che questi attori volevano principalmente utilizzare i servizi per attività semplici come la ricerca di informazioni disponibili al pubblico, la traduzione di contenuti, la correzione di errori di codifica e l'esecuzione di attività di programmazione di base. Finora non sono stati rilevati attacchi importanti o nuovi che utilizzano questi modelli.

Questo divario tra paura e realtà si verifica durante la dura competizione tra Washington e Pechino per il controllo di questa tecnologia. Il ruolo che svolgerà in ambito militare ed economico è diventato un argomento di discussione importante. Il Pentagono ha recentemente comunicato a un'altra azienda, Anthropic, che ha tempo fino a venerdì per rimuovere alcune caratteristiche di sicurezza dal suo modello, pena la perdita di un contratto di difesa.

Microsoft ha affermato di stare lavorando su principi per ridurre i rischi derivanti dall'uso improprio di questi strumenti da parte di gruppi statali e organizzazioni criminali. Questi principi includono l'individuazione e l'arresto degli utenti malintenzionati , la segnalazione ad altri fornitori di servizi, la collaborazione con altri gruppi e la trasparenza.

Fatti notare dove conta. Pubblicizza su Cryptopolitan Research e raggiungi gli investitori e gli sviluppatori di criptovalute più abili.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto