Nel campo della sicurezza informatica , l’adozione dell’intelligenza artificiale generativa (AI) è diventata uno strumento fondamentale per i professionisti nella loro continua battaglia contro le minacce informatiche. Sebbene questa tecnologia innovativa offra notevoli vantaggi, presenta anche nuove sfide poiché gli autori malintenzionati sfruttano sempre più il suo potere per potenziare gli attacchi.
Rob Joyce, Direttore della Cybersecurity presso la National Security Agency (NSA), ha recentemente sottolineato i vantaggi significativi che l’intelligenza artificiale generativa apporta nell’identificazione e nel contrasto delle attività dannose. Tuttavia, ha anche riconosciuto le crescenti preoccupazioni relative al suo utilizzo improprio da parte dei criminali informatici.
Una forza positiva: rafforzare la sicurezza informatica
In un evento tenutosi alla Fordham University di New York, Rob Joyce ha parlato con entusiasmo dell’impatto positivo dell’intelligenza artificiale generativa nel rafforzare gli sforzi di sicurezza informatica. Ha affermato che l’intelligenza artificiale generativa “ci rende più bravi a individuare attività dannose”. Questa tecnologia offre al personale addetto alla sicurezza strumenti e metodologie innovativi per rilevare e mitigare le minacce informatiche in modo più efficace.
Uno dei principali vantaggi dell’intelligenza artificiale generativa nella sicurezza informatica è la sua capacità di combattere gli attori delle minacce che si annidano nelle reti, mascherandosi da account sicuri attraverso exploit di vulnerabilità. Questi account mascherati mostrano modelli di comportamento anomali, che possono essere difficili da identificare manualmente. L’intelligenza artificiale generativa, insieme ai Large Language Models (LLM), aiuta i team di sicurezza informatica ad aggregare e analizzare queste attività sospette, scoprendo così intenti dannosi più rapidamente.
Una preoccupazione crescente: gli abusi da parte dei criminali informatici
Sebbene l’intelligenza artificiale generativa sia molto promettente per il miglioramento della sicurezza informatica, ha anche sollevato allarmi a causa del suo utilizzo improprio da parte dei criminali informatici. Nell’ultimo anno, gli autori malintenzionati hanno utilizzato sempre più strumenti di intelligenza artificiale generativa per amplificare attività fraudolente e truffe. Queste tecnologie avanzate consentono loro di lanciare attacchi di ingegneria sociale altamente personalizzati e potenti.
Mandiant, una rinomata azienda di sicurezza informatica, aveva lanciato un avvertimento l’anno precedente, sottolineando che l’intelligenza artificiale generativa potrebbe consentire agli autori delle minacce di scatenare una nuova ondata di attacchi di ingegneria sociale con una sofisticatezza senza precedenti.
Questi attacchi di phishing supportati dall’intelligenza artificiale potrebbero essere ottimizzati per ingannare anche gli utenti più vigili, rappresentando una minaccia sostanziale per individui e organizzazioni. Tali preoccupazioni sono state riprese da vari esperti di sicurezza nel corso del 2023.
Inoltre, la ricerca condotta da Darktrace ha sollevato preoccupazioni riguardo agli attacchi di phishing guidati dall’intelligenza artificiale. La preoccupazione è che gli hacker possano sfruttare continuamente l’intelligenza artificiale generativa per affinare le proprie tecniche, rendendo sempre più difficile per gli utenti distinguere la comunicazione legittima dalle intenzioni dannose.
Un’arma a doppio taglio: valutare l’impatto
Rob Joyce ha riconosciuto che le preoccupazioni sull’uso improprio dell’intelligenza artificiale generativa nella criminalità informatica sono fondate. Tuttavia, ha anche sottolineato i progressi significativi compiuti dagli organismi di sicurezza nazionale nello sfruttare questi strumenti in modo efficace. Ha osservato che gli esperti di sicurezza informatica sfruttano l’intelligenza artificiale generativa per combattere le minacce e proteggere le risorse critiche tanto quanto gli attori malintenzionati la sfruttano per i loro scopi nefasti.
Joyce ha messo in guardia dal considerare l’intelligenza artificiale generativa come una panacea per tutte le sfide della sicurezza informatica, affermando che “non è il super strumento che può rendere capace qualcuno che è incompetente”. Tuttavia, ha sottolineato che migliora le capacità di coloro che lo utilizzano, rendendoli più efficaci e potenzialmente più pericolosi nella difesa e nell’attacco informatico.