Secondo un recente rapporto di TRM Labs, nell'ultimo anno le frodi basate sull'intelligenza artificiale in ambito crittografico sono aumentate del 500%.
Il rapporto aggiunge che l'intelligenza artificiale aumenta notevolmente la portata e la velocità degli attacchi informatici alle criptovalute. Ciò indica il rapido utilizzo dell'intelligenza artificiale generativa in frodi come phishing, furto di identità e riciclaggio di denaro.
L'intelligenza artificiale potenzia le truffe di ingegneria sociale e le frodi automatizzate nelle criptovalute
Prima dell'avvento dei modelli di intelligenza artificiale, le grandi truffe basate sulle criptovalute si basavano sul lavoro umano, come call center e operatori qualificati. Ma ora l'intelligenza artificiale ha rimosso molti di questi limiti.
Il rapporto spiega che l'intelligenza artificiale aiuta gli hacker ad automatizzare, personalizzare ed espandere i crimini basati sulle criptovalute. Aggiunge che gli autori delle minacce utilizzano l'intelligenza artificiale generativa per scrivere e progettare rapidamente email di phishing e falsi siti web di investimento, e persino per creare chatbot realistici.
I modelli linguistici di grandi dimensioni, o LLM, aiutano i truffatori a creare messaggi personalizzati con maggiori probabilità di interazione. Inoltre, gli strumenti di traduzione basati sull'intelligenza artificiale aiutano i truffatori a localizzare le truffe in diverse lingue e regioni.
Il rapporto aggiunge che l'audio e il video deepfake accelerano l'imitazione. I criminali usano questa tecnologia per "imitare dirigenti, partner o personaggi pubblici con sempre maggiore realismo".
L'intelligenza artificiale aiuta i truffatori a creare un rapporto di fiducia con le loro vittime. Crea storie convincenti e gestisce centinaia di conversazioni contemporaneamente. L'intelligenza artificiale ha sostanzialmente accelerato e semplificato le truffe legate alla macellazione dei maiali e alle relazioni sentimentali.
TRM ha anche spiegato che gli strumenti di apprendimento automatico possono testare in massa nomi utente e password rubati. Possono analizzare seed phrase e chiavi private e rubare fondi in pochi secondi. Inoltre, l'apprendimento automatico può identificare le debolezze degli smart contract e aiutare gli hacker ad attaccare rapidamente interi protocolli blockchain.
"L'intelligenza artificiale non si limita ad aumentare il volume delle attività di sensibilizzazione, ma accelera l'intero ciclo di vita della frode", si legge nel rapporto.
Il mese scorso, una balena delle criptovalute ha perso 1.459 BTC e 2,05 milioni di LTC dopo essere stata vittima di una truffa di ingegneria sociale. I truffatori hanno ingannato la vittima convincendola ad approvare transazioni fraudolente, hanno avuto accesso al suo portafoglio hardware e hanno rubato la cifra esorbitante di 282 milioni di dollari.
Nel 2024, un dipendente di un'azienda di ingegneria britannica è caduto vittima di una truffa deepfake e ha trasferito circa 26 milioni di dollari su conti bancari di Hong Kong.
Due giorni fa, gli agenti federali statunitensi nella Carolina del Nord hanno sequestrato oltre 61 milioni di dollari in USDT di Tether. Gli investigatori hanno scoperto che il denaro sequestrato proveniva da portafogli crittografici collegati al riciclaggio di fondi rubati da attività di macellazione di maiali.
Lo scorso anno, le transazioni illecite in criptovalute hanno raggiunto il volume record di 158 miliardi di dollari, con un aumento di circa il 145% rispetto all'anno precedente. Secondo TRM Labs, circa 30 miliardi di dollari delle perdite totali sono stati causati da truffe.
L'aumento delle frodi basate sull'intelligenza artificiale (IA) non sorprende. Vectra AI ha dichiarato che le truffe basate sull'IA sono aumentate del 1.210%. L'azienda prevede di raggiungere i 40 miliardi di dollari entro il prossimo anno.
Chainalysis ha ripreso le conclusioni di TRM Labs in un recente post su X. La società di analisi blockchain ha affermato : "Le truffe basate sull'intelligenza artificiale hanno generato un fatturato 4,5 volte superiore per operazione e 9 volte più transazioni giornaliere rispetto alle truffe non basate sull'intelligenza artificiale".
L'azienda ha ribadito che per contrastare le truffe basate sull'intelligenza artificiale è necessario che i difensori adottino strumenti simili, affermando che "se i malintenzionati utilizzano l'intelligenza artificiale, anche i difensori dovrebbero farlo".
Se stai leggendo questo, sei già in vantaggio. Resta aggiornato con la nostra newsletter .