In un recente rapporto pubblicato da NCC Group, è stata esaminata attentamente l’intersezione tra intelligenza artificiale (AI) e sicurezza informatica, facendo luce sia sulle promesse che sui limiti dell’intelligenza artificiale generativa nel contesto del rilevamento delle vulnerabilità del codice. Il rapporto, intitolato “Sicurezza, protezione, privacy e suggerimenti: resilienza informatica nell’era dell’intelligenza artificiale”, offre un’analisi completa di vari casi d’uso della sicurezza informatica dell’IA.
IA generativa e vulnerabilità del codice
La crescita esplosiva della tecnologia dell’intelligenza artificiale generativa alla fine del 2022 ha suscitato discussioni e preoccupazioni riguardo alle sue implicazioni per la sicurezza informatica. Un punto focale di questo discorso ruota attorno ai potenziali rischi per la sicurezza posti dai chatbot con intelligenza artificiale generativa. Questi rischi vanno dall’esposizione involontaria di informazioni aziendali sensibili alla possibilità che attori malintenzionati sfruttino questi algoritmi avanzati di autoapprendimento per rafforzare i propri attacchi informatici.
Una delle principali aree di interesse all’interno del rapporto è la fattibilità dell’impiego di chatbot con intelligenza artificiale generativa per la valutazione della vulnerabilità del codice. Questi sistemi di intelligenza artificiale , se forniti di codice sorgente, possono condurre una forma interattiva di analisi statica e individuare con precisione i punti deboli della sicurezza? I risultati del rapporto indicano un insieme di risultati contrastanti. Sebbene l’intelligenza artificiale generativa sia promettente e incrementi di produttività nello sviluppo di codice e software, la sua efficacia nel rilevare le vulnerabilità del codice rimane variabile.
D’altro canto, il rapporto evidenzia una promettente applicazione dei modelli di machine learning (ML) nel campo della sicurezza informatica. Nello specifico, i modelli ML possono essere determinanti nell’identificazione di nuovi attacchi zero-day, consentendo una risposta automatizzata per salvaguardare gli utenti da file dannosi. Per convalidare questo concetto, NCC Group ha sponsorizzato uno studente di master presso il Centre for Doctoral Training in Data Intensive Science (CDT DIS) dell'University College di Londra per sviluppare un modello di classificazione per l'identificazione del malware.
I risultati di questo sforzo sono convincenti. Il modello di classificazione ha raggiunto un impressionante tasso di precisione del 98,9%. Questo successo sottolinea il potenziale dei modelli ML nel rafforzare le difese della sicurezza informatica identificando e mitigando rapidamente le minacce emergenti.
Sfruttare l'intelligence sulle minacce con l'intelligenza artificiale
Un altro aspetto critico esplorato nel rapporto riguarda l’intelligence sulle minacce, una componente fondamentale della sicurezza informatica proattiva. L’intelligence sulle minacce implica il monitoraggio continuo di varie fonti di dati online, che forniscono preziose informazioni sulle vulnerabilità appena identificate, sugli exploit in evoluzione e sulle tendenze emergenti nel comportamento degli aggressori. Questi dati, spesso sotto forma di testo non strutturato proveniente da forum, social media e dark web, possono essere una miniera d’oro di informazioni.
I modelli di machine learning possono svolgere un ruolo fondamentale nell’elaborazione di questi dati, nell’estrazione delle principali sfumature della sicurezza informatica e nell’identificazione di modelli e tendenze nelle tattiche, tecniche e procedure degli aggressori (TTP). Grazie a queste informazioni, i difensori possono adottare un approccio proattivo e preventivo per implementare ulteriori sistemi di monitoraggio o controllo, soprattutto quando nuove minacce rappresentano un rischio significativo per la loro attività o il panorama tecnologico.
In un’era caratterizzata da un rapido progresso tecnologico, il ruolo dell’intelligenza artificiale nella sicurezza informatica continua ad evolversi. Sebbene i chatbot con intelligenza artificiale generativa siano promettenti in alcuni aspetti dello sviluppo del codice, la loro affidabilità nel rilevamento delle vulnerabilità rimane una questione di esplorazione continua. D'altro canto, i modelli ML dimostrano un elevato livello di potenziale nell'identificazione e nella lotta alle nuove minacce informatiche, rendendoli una risorsa preziosa nell'arsenale del difensore.
È fondamentale riconoscere che l’intelligenza artificiale nella sicurezza informatica non è una soluzione valida per tutti. Piuttosto, integra la competenza e la vigilanza umane. La partnership tra professionisti della sicurezza informatica umana e sistemi di intelligenza artificiale è essenziale per trovare un equilibrio tra lo sfruttamento della potenza dell’automazione e il mantenimento della supervisione umana fondamentale necessaria per navigare nel panorama delle minacce in continua evoluzione.