L’intelligenza artificiale (AI) è emersa come una forza potente con implicazioni significative in vari settori, tra cui sanità , scienza dei dati e finanza. Sebbene il rapido progresso dell’intelligenza artificiale sia molto promettente, presenta anche sfide legate alle frodi. In questo articolo esploriamo il panorama sfaccettato del coinvolgimento dell'intelligenza artificiale sia nella facilitazione che nella lotta alle attività fraudolente, analizzando le complessità che comporta e le potenziali strade per la risoluzione.
Truffe legate all'intelligenza artificiale e deep fake
La proliferazione di truffe basate sull’intelligenza artificiale sta diventando sempre più allarmante, con gli autori che perfezionano continuamente le loro tattiche. I criminali ora possiedono la capacità di creare contenuti video e vocali che imitano fedelmente le fonti autentiche, rendendo estremamente difficile per le persone distinguere tra materiale reale e fittizio. Un recente studio condotto da McAfee ha rivelato una statistica allarmante: un individuo intervistato su quattro ha ammesso di essere rimasto vittima di una truffa basata sull’intelligenza artificiale. Ancora più preoccupante è il fatto che il 70% degli intervistati ha espresso una mancanza di fiducia nella propria capacità di discernere tra una falsa voce generata dall’intelligenza artificiale e una autentica.
Un esempio illustrativo del 2018 riguarda il caso di Martin Lewis, un importante giornalista finanziario. Data la sua reputazione di fiducia, Lewis è diventato un obiettivo primario per i criminali informatici che hanno sfruttato la tecnologia deepfake per creare un video ingannevole su Facebook, dipingendolo falsamente come sostenitore di truffe finanziarie. Mentre Lewis perseguiva un’azione legale contro la piattaforma di social media, l’incidente sottolineava l’urgente necessità di una regolamentazione efficace nel settore dell’intelligenza artificiale.
Uso improprio dell’intelligenza artificiale: un dilemma legale complesso
La rapida evoluzione della tecnologia dell’intelligenza artificiale ha superato lo sviluppo di quadri normativi completi per prevenirne l’uso improprio. Di conseguenza, la responsabilità di affrontare la cattiva condotta legata all’IA rimane oscura da un punto di vista legale. Questa ambiguità crea un ambiente adatto affinché i criminali possano sfruttare le tecnologie emergenti, ponendo una sfida formidabile alle forze dell’ordine e ai legislatori.
Tracciando un parallelo con gli albori di Internet, quando il primo grande attacco informatico negli Stati Uniti fu perpetrato da uno studente laureato nel 1988, si illustra il potenziale di cattiva condotta quando le normative restano indietro rispetto al progresso tecnologico. L'incidente del "Morris Worm" non solo ha portato alla prima condanna per un reato ai sensi del Computer Fraud and Abuse Act, ma ha anche innescato una duratura competizione tra hacker e sviluppatori.
Alimentare l’innovazione
Sorprendentemente, l’uso improprio dell’intelligenza artificiale da parte di malfattori ha conseguenze positive indesiderate per gli sviluppatori e per il pubblico in generale. Proprio come l’incidente del “Morris Worm” ha costretto gli sviluppatori a rispondere rapidamente alle minacce informatiche emergenti, le attività criminali contemporanee legate all’intelligenza artificiale stimolano l’innovazione. Questa competizione dinamica tra sviluppatori e criminali favorisce l’acquisizione di nuove competenze da entrambe le parti.
In alcuni casi, gli individui in possesso di conoscenze acquisite illecitamente reindirizzano la propria esperienza per scopi etici. Kevin Mitnick, un ex noto hacker, è diventato un hacker white-hat più avanti nella sua carriera, utilizzando le sue capacità per scopi costruttivi. La natura unica dell’intelligenza artificiale, caratterizzata da software open source e condivisione delle conoscenze, incoraggia un approccio collaborativo che può essere determinante nell’affrontare questioni come la frode.
L’intelligenza artificiale nella prevenzione delle frodi
Paradossalmente, nonostante la sua suscettibilità ad abusi, l’intelligenza artificiale si sta rivelando anche una potente arma contro le frodi, in particolare nel settore bancario. Un rapporto di Juniper Research prevede che le spese aziendali globali per le piattaforme di rilevamento e prevenzione delle frodi finanziarie basate sull’intelligenza artificiale supereranno i 10 miliardi di dollari entro il 2027. Alla guida di questo impegno, Mastercard ha introdotto “Consumer Fraud Risk”, una soluzione preventiva basata sull’intelligenza artificiale che ha ottenuto l’adozione da parte di numerose banche del Regno Unito. Questa tecnologia consente agli istituti finanziari di rilevare e contrastare tempestivamente le attività fraudolente esaminando vari fattori, tra cui i nomi dei conti, i valori dei pagamenti, la cronologia del pagatore e del beneficiario.
Si stima che l’adozione anticipata di questa tecnologia da parte della sola TSB consentirà di risparmiare quasi 100 milioni di sterline in pagamenti per truffe in tutto il Regno Unito. È sempre più evidente che l’intelligenza artificiale è la chiave per proteggersi dallo sfruttamento da parte dei truffatori.
Navigare tra le ambiguità dell'intelligenza artificiale
L’ambiguità intrinseca che circonda l’intelligenza artificiale richiede un’azione rapida e normative chiare. L’imminente legge dell’UE sull’intelligenza artificiale offre speranza nell’affrontare molte di queste sfide. Tuttavia, data la natura sfaccettata del potenziale dell’intelligenza artificiale e le complessità coinvolte nella regolamentazione di un campo così dinamico, si tratta di un’impresa complessa.
Nel frattempo, spetta a coloro che sostengono un’IA etica l’onere di cercare soluzioni creative, sottolineando al contempo la collaborazione e la trasparenza. Queste parti interessate devono dare priorità all’educazione della popolazione in generale e all’attuazione di misure preventive per mitigare l’impatto dei truffatori.
L’intelligenza artificiale si trova a un bivio in cui il suo potenziale positivo e negativo è sempre più evidente. L’impennata delle truffe e dei deepfake legati all’intelligenza artificiale sottolinea l’urgente necessità di normative esaustive. Tuttavia, l’uso improprio dell’intelligenza artificiale catalizza anche l’innovazione, costringendo gli sviluppatori a ideare soluzioni e migliorare le competenze sul mercato. Con il supporto di iniziative etiche di intelligenza artificiale, collaborazione ed educazione pubblica, il potenziale dell’intelligenza artificiale per combattere le frodi tutelandosi contro il suo uso improprio diventa una realtà tangibile. Poiché l’intelligenza artificiale continua ad evolversi, raggiungere un delicato equilibrio tra i suoi aspetti positivi e negativi rimane fondamentale.