Nel panorama in continua evoluzione della tecnologia, la promessa dell’intelligenza artificiale (AI) incontra una preoccupazione crescente: la vulnerabilità dei sistemi di intelligenza artificiale agli attacchi informatici. Recentemente, il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti ha presentato un rapporto sull’“intelligenza artificiale affidabile e responsabile”, facendo luce sulle sfide persistenti nella difesa dei sistemi di intelligenza artificiale da attori malintenzionati. Il rapporto identifica quattro tipi di attacchi informatici che potrebbero manipolare il comportamento dei sistemi di intelligenza artificiale, esortando la comunità a ideare difese più robuste.
Le minacce del machine learning contraddittorio
Il rapporto del NIST approfondisce le complessità dell’apprendimento automatico antagonista, classificando i potenziali aggressori in tre tipi distinti: hacker white-box, hacker sandbox e hacker grey-box. Gli hacker white-box possiedono una conoscenza completa dei sistemi di intelligenza artificiale, gli hacker sandbox hanno un accesso minimo e gli hacker grey-box detengono informazioni parziali su un sistema di intelligenza artificiale ma non hanno accesso ai suoi dati di addestramento. Nonostante i loro diversi gradi di comprensione, tutti e tre rappresentano gravi minacce all’integrità dei sistemi di intelligenza artificiale.
Le frodi nel regno digitale sono in aumento, come sottolineato da Gerhard Oosthuizen, CTO di Entersekt. La tecnologia che inizialmente prometteva vittorie presenta ora maggiori sfide a fronte della crescente sofisticazione delle attività fraudolente. Il rapporto del NIST sottolinea i rischi crescenti man mano che l’intelligenza artificiale diventa sempre più integrata nella nostra economia connessa.
Il rapporto evidenzia due principali attacchi avversari di machine learning: avvelenamento e abuso. L’avvelenamento del sistema AI comporta l’iniezione di dati corrotti durante la fase di addestramento, portando al malfunzionamento dei sistemi. Il NIST cita un esempio in cui un malintenzionato introduce un linguaggio inappropriato nei registri delle conversazioni, inducendo un chatbot ad adottare questi casi come linguaggio comune nelle interazioni con i clienti.
D’altro canto, gli attacchi di abuso comportano l’inserimento di informazioni errate in una fonte legittima che il sistema di intelligenza artificiale assorbe. Questi attacchi mirano a ridefinire l'uso previsto del sistema di intelligenza artificiale fornendo informazioni errate. Alina Oprea, coautrice del rapporto NIST e professoressa alla Northeastern University, sottolinea la semplicità di questi attacchi, che richiedono conoscenze e capacità antagoniste minime.
Svelati gli attacchi informatici – Esplorare la complessità della difesa dell'IA
Gli attacchi alla privacy e gli attacchi di evasione aggiungono ulteriori livelli di complessità alla difesa dell’IA. Gli attacchi alla privacy tentano di raccogliere informazioni sensibili sull’IA o sui suoi dati di addestramento, utilizzando domande legittime per decodificare il modello. Gli attacchi di evasione, che si verificano dopo l'implementazione, cercano di alterare le risposte del sistema di intelligenza artificiale agli input tradizionali. Ciò include modifiche ingannevoli alla segnaletica stradale, che mettono a rischio i veicoli autonomi.
La sfida generale risiede nella difficoltà di far sì che i modelli di intelligenza artificiale disimparano i comportamenti insegnati, anche quando si rivelano dannosi o dannosi. Man mano che l’intelligenza artificiale diventa sempre più radicata nella nostra vita quotidiana, il rapporto avverte della crescente necessità di affrontare queste vulnerabilità per prevenire fallimenti catastrofici.
Mentre lo spettro degli attacchi informatici incombe sul progresso dell’intelligenza artificiale, il rapporto del NIST porta l’attenzione sulle sfide irrisolte nella protezione dei sistemi di intelligenza artificiale. L’appello alla comunità per migliori difese sottolinea l’urgenza di affrontare queste vulnerabilità. La comunità dell’intelligenza artificiale può ideare collettivamente misure infallibili per salvaguardarsi dalle minacce informatiche in continua evoluzione, o siamo destinati a navigare nel labirinto in continua espansione degli attacchi avversari di machine learning? Il futuro della difesa basata sull’intelligenza artificiale si basa sulla nostra capacità di innovare e stare un passo avanti rispetto a coloro che cercano di sfruttarne le vulnerabilità.