Armare l’intelligenza artificiale è la nuova norma nella guerra informatica? Approfondimenti da Microsoft e OpenAI

In una rivelazione rivoluzionaria che fa luce sull’evoluzione del panorama della sicurezza informatica, Microsoft e OpenAI hanno scoperto una tendenza preoccupante: gli stati-nazione stanno utilizzando l’intelligenza artificiale come arma negli attacchi informatici. La collaborazione tra questi giganti della tecnologia ha messo in luce l’utilizzo di modelli linguistici di grandi dimensioni (LLM) da parte di importanti attori delle minacce allineati con le principali potenze globali, segnando uno sviluppo significativo nel campo della sicurezza informatica.

Le APT stato-nazione che utilizzano OpenAI

Gli approfondimenti degli esperti sullo stato attuale e sulle potenziali implicazioni future delle minacce informatiche guidate dall’intelligenza artificiale fanno luce sul panorama in evoluzione della sicurezza informatica. Questi autori di minacce, associati a Cina, Iran, Corea del Nord e Russia, sfruttano l’intelligenza artificiale per vari scopi, dalla raccolta di informazioni agli attacchi di phishing e alla generazione di codici. Gruppi importanti come Fancy Bear, Charcoal Typhoon e Crimson Sandstorm sono tra quelli che utilizzano la tecnologia OpenAI per attività dannose.

Fancy Bear, noto anche come Forest Blizzard, noto per la sua associazione con la direzione principale dello stato maggiore generale delle forze armate della Federazione Russa (GRU), incorpora LLM in operazioni per attività di scripting, raccolta di informazioni e ricerca sui protocolli di comunicazione satellitare, particolarmente rilevante nel conflitto ucraino.

Gli attori statali cinesi, Charcoal Typhoon e Salmon Typhoon, dimostrano competenza nelle attività basate sull’intelligenza artificiale come la raccolta di informazioni, la generazione di script e l’ingegneria sociale. Allo stesso modo, Crimson Sandstorm iraniana utilizza OpenAI per sviluppare materiali di phishing ingannevoli e semplificare le operazioni attraverso snippet di codice generati dall'intelligenza artificiale.

Emerald Sleet, attribuito al regime di Kim Jong-Un, si occupa di attività di scripting di base e di generazione di contenuti di phishing, sfruttando anche gli LLM per la ricerca di vulnerabilità e la raccolta di informazioni relative alla difesa. Questi casi sottolineano le diverse e in evoluzione applicazioni dell’intelligenza artificiale nelle operazioni informatiche da parte di autori di minacce a livello nazionale.

Armare l’intelligenza artificiale: per ora l’impatto dell’intelligenza artificiale sulla sicurezza informatica rimane limitato

Nonostante l’utilizzo degli LLM da parte degli autori delle minacce, gli esperti sottolineano che l’impatto dell’intelligenza artificiale negli attacchi informatici rimane limitato, poiché serve principalmente a migliorare le capacità esistenti piuttosto che a rivoluzionare i metodi di attacco. Tuttavia, vi sono preoccupazioni riguardo alla scalabilità e all’adattabilità degli attacchi basati sull’intelligenza artificiale, che spingono a chiedere una vigilanza continua e l’adesione alle migliori pratiche di sicurezza informatica.

Joseph Thacker, principale ingegnere di intelligenza artificiale e ricercatore di sicurezza presso AppOmni, sottolinea l'idea che sebbene l'intelligenza artificiale offra vantaggi agli aggressori, il suo potenziale di trasformazione deve ancora essere pienamente realizzato. Thacker suggerisce che gli autori delle minacce esperti nello sviluppo di software stanno sfruttando gli LLM per accelerare la creazione di codice dannoso, migliorando così la loro efficienza operativa. Tuttavia, sottolinea che la natura fondamentale delle minacce informatiche non ha subito cambiamenti significativi, con l’intelligenza artificiale che facilita principalmente miglioramenti incrementali piuttosto che innovazioni rivoluzionarie nelle metodologie di attacco.

Thacker sottolinea il potenziale di espansione degli attacchi basati sull'intelligenza artificiale in termini di portata e portata, facilitato dalla versatilità degli LLM nella traduzione linguistica e nella conversione del codice. Anche se le attuali operazioni informatiche basate sull’intelligenza artificiale potrebbero non presentare tecniche innovative, Thacker avverte della possibilità di progressi non rilevati nei vettori di minaccia basati sull’intelligenza artificiale. Pertanto, sostiene un approccio proattivo alla sicurezza informatica, sottolineando l’importanza del monitoraggio continuo e di solide misure di difesa per mitigare le minacce in evoluzione.

L’integrazione dell’intelligenza artificiale nelle operazioni informatiche degli stati nazionali presenta sia sfide che opportunità per le parti interessate della sicurezza informatica. Anche se le osservazioni attuali suggeriscono che gli attacchi potenziati dall’intelligenza artificiale devono ancora raggiungere il loro pieno potenziale, la natura dinamica della tecnologia impone vigilanza e adattamento continui. Man mano che il panorama della sicurezza informatica si evolve, la domanda rimane: come possono le organizzazioni gestire efficacemente l’intersezione tra intelligenza artificiale e guerra informatica per proteggersi dalle minacce emergenti?

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto