Le truffe basate sull'intelligenza artificiale stanno accelerando e gli utenti di criptovalute sono sempre più nel mirino. Tra maggio 2024 e aprile 2025, le segnalazioni di truffe che sfruttano l'IA di ultima generazione sono aumentate del 456%, secondo i dati di Chainabuse di TRM Labs. Chainalysis rileva inoltre che il 60% dei depositi nei portafogli fraudolenti confluisce ora in truffe che utilizzano strumenti di intelligenza artificiale, un dato in forte aumento rispetto al 2024, a dimostrazione di quanto i truffatori stiano adottando ampiamente modelli di basso livello (LLM), deepfake e automazione.
Cosa sta alimentando questa impennata di truffe sulle criptovalute basate sull'intelligenza artificiale? Cosa sta guidando l'aumento delle truffe sulle criptovalute basate sull'IA nel 2025? L'IA offre velocità, scalabilità e realismo: un singolo operatore può creare migliaia di esche di phishing personalizzate, video/voci deepfake e imitazioni di marchi in pochi minuti, contenuti che eludono i filtri tradizionali e convincono le vittime. A novembre 2025, nuove superfici di attacco come l'iniezione di prompt contro i browser agenti e i copiloti IA hanno aumentato il rischio che pagine web o screenshot dannosi possano dirottare gli assistenti connessi a wallet o account.
Le criptovalute rimangono un obiettivo primario, soprattutto per i trader comuni: mercati in rapida evoluzione, transazioni irreversibili e regolamento on-chain 24 ore su 24, 7 giorni su 7, rendono difficile il recupero, mentre le tendenze criminali più ampie del 2025, dagli attacchi hacker al macellamento di suini, mostrano un aumento del rischio complessivo dell'ecosistema delle criptovalute.
Cosa sono le truffe crittografiche basate sull'intelligenza artificiale e come funzionano?
Le truffe nel settore delle criptovalute basate sull'intelligenza artificiale utilizzano tecniche avanzate di IA per ingannarti e rubare denaro, chiavi private o credenziali di accesso. Queste truffe vanno ben oltre i vecchi schemi di phishing e sono molto più difficili da individuare.
Le frodi tradizionali nel settore delle criptovalute si basano in genere su tattiche manuali: email scritte male, concorsi a premi generici sui social media o evidenti furti d'identità. Questi metodi erano più facili da individuare se si sapeva cosa cercare.
Le truffe legate alle criptovalute che sfruttano l'intelligenza artificiale stanno crescendo a un ritmo esponenziale. Parallelamente, i report di settore mostrano anche una forte crescita anno su anno delle truffe basate sull'IA, evidenziando la rapida adozione di questi strumenti da parte dei truffatori.
Ora, l'intelligenza artificiale cambia completamente le carte in tavola. I truffatori stanno sfruttando l'IA generativa, i bot basati sull'apprendimento automatico, la clonazione vocale e i video deepfake per:
- Crea contenuti realistici e personalizzati che sembrino umani.
Gli strumenti di intelligenza artificiale possono generare email di phishing e messaggi falsi che sembrano provenire da un amico fidato, un influencer o una piattaforma affidabile. Utilizzano una grammatica impeccabile, imitano i modelli di parlato e inseriscono persino tocchi personali basati sul tuo comportamento online. I video deepfake e i cloni vocali spingono ulteriormente questo concetto: potresti davvero credere che un CEO, una celebrità o un conoscente ti stia parlando.
- Sferra attacchi massicci alla velocità della luce
Grazie all'intelligenza artificiale generativa e ai modelli linguistici su larga scala (LLM), i truffatori possono produrre migliaia di messaggi di phishing, siti web falsi o bot che impersonano altre persone in pochi secondi. Questi messaggi possono essere localizzati, personalizzati e distribuiti tramite e-mail, Telegram, Discord, SMS e social media. Ciò che un tempo richiedeva team dedicati, ora può essere fatto da un singolo operatore con gli strumenti giusti.
- Aggira i filtri e i sistemi di sicurezza tradizionali
I vecchi sistemi di rilevamento delle frodi cercavano errori di ortografia, evidenti segnali di ingegneria sociale e domini riutilizzati. Le truffe basate sull'intelligenza artificiale evitano queste trappole. Generano testi puliti, ruotano i domini, utilizzano caratteri invisibili/a larghezza zero, imitano il comportamento umano e combinano canali come voce, video e chat. Secondo la società di analisi Chainalysis, circa il 60% di tutti i depositi nei portafogli fraudolenti confluisce ora in truffe che sfruttano strumenti di intelligenza artificiale.
Questi attacchi sono più convincenti perché imitano fedelmente il comportamento, il modo di parlare e di scrivere delle persone reali, rendendo più difficile per gli utenti individuarli in tempo reale. Ad esempio, utilizzando uno strumento come WormGPT o FraudGPT, un singolo malintenzionato può lanciare migliaia di truffe molto credibili in pochi minuti.
Perché le criptovalute sono un bersaglio ideale per le truffe basate sull'intelligenza artificiale?
Il mercato delle criptovalute è particolarmente vulnerabile a questa nuova generazione di truffe, soprattutto per gli utenti che agiscono rapidamente o effettuano transazioni frequenti. Le transazioni sono veloci, spesso irreversibili e gli utenti si trovano spesso al di fuori dei tradizionali quadri normativi o di tutela dei consumatori. Se a questo si aggiungono un pubblico globale, molteplici canali come social media, chat e forum, e forti motivazioni emotive/l'avidità, ad esempio "raddoppia le tue criptovalute", "airdrop esclusivo", "approvazione del CEO", si crea un ambiente ideale per i truffatori che utilizzano l'intelligenza artificiale.
Quali sono le tipologie più comuni di truffe crittografiche basate sull'intelligenza artificiale?
Le truffe crittografiche basate sull'intelligenza artificiale ora combinano deepfake, modelli linguistici di grandi dimensioni (LLM) e automazione per impersonare persone, produrre phishing su larga scala e aggirare i filtri tradizionali. Analizziamo le tipologie più comuni e alcuni casi reali che dimostrano quanto siano diventate pericolose.
1. Truffe deepfake: impersonificazione audio e video
Le truffe deepfake utilizzano video o clip audio generati dall'intelligenza artificiale per impersonare personaggi pubblici, influencer o persino dirigenti della tua azienda. I truffatori manipolano le espressioni facciali e i modelli di voce per far sembrare il contenuto reale. Questi video falsi spesso promuovono omaggi fraudolenti di criptovalute o ti invitano a inviare fondi a specifici indirizzi di portafoglio.
Uno dei casi reali più allarmanti si è verificato all'inizio del 2024. Un impiegato del settore finanziario di una multinazionale di Hong Kong ha partecipato a una videochiamata con quello che sembrava essere il direttore finanziario e altri dirigenti senior dell'azienda. Gli è stato chiesto di trasferire 25 milioni di dollari. Si trattava di una trappola. La chiamata era un deepfake e ogni volto e voce erano stati generati dall'intelligenza artificiale. L'impiegato se n'è accorto solo quando era troppo tardi.
2. Phishing generato dall'intelligenza artificiale
Il phishing si è evoluto con l'intelligenza artificiale. Invece di una grammatica approssimativa e link sospetti, questi messaggi sembrano autentici e personali. I truffatori utilizzano l'IA per raccogliere dati pubblici su di te, per poi creare email, messaggi diretti o persino interi siti web che corrispondono ai tuoi interessi e al tuo comportamento.
La truffa potrebbe avvenire tramite Telegram, Discord, e-mail o persino LinkedIn. Ad esempio, potresti ricevere un messaggio che imita la voce dell'assistenza clienti, invitandoti a "verificare il tuo account" o a "richiedere un premio". Il link conduce a una pagina falsa, praticamente identica a quella originale. Inserisci i tuoi dati e il gioco è fatto.
3. Piattaforme e bot di trading basati sull'intelligenza artificiale fasulli
I truffatori creano anche intere piattaforme di trading che affermano di utilizzare l'intelligenza artificiale per generare profitti automatici. Questi falsi strumenti promettono rendimenti garantiti, esecuzione "intelligente" delle operazioni o tassi di successo imbattibili. Ma una volta depositate le vostre criptovalute, spariscono.
Queste truffe spesso sembrano legittime. Presentano dashboard accattivanti, grafici in tempo reale e testimonianze, il tutto basato su immagini e codice generati dall'intelligenza artificiale. Alcune offrono persino operazioni demo per simulare performance. Nel 2024, siti come MetaMax hanno utilizzato avatar creati dall'IA di falsi CEO per guadagnare fiducia e attirare utenti ignari.
In realtà, dietro queste piattaforme non c'è alcuna strategia basata sull'intelligenza artificiale, ma solo una trappola ben congegnata. Una volta che i fondi vengono depositati, scoprirai di non poter prelevare nulla. Alcuni utenti segnalano che i loro portafogli si sono svuotati dopo averli collegati a questi siti. I bot basati sull'IA inviano anche "segnali" su Telegram o Twitter per spingerti verso operazioni rischiose o inesistenti.
4. Clonazione vocale e chiamate in tempo reale
La clonazione vocale tramite intelligenza artificiale permette ai truffatori di imitare perfettamente la voce di una persona che conosci. Possono ricreare la voce di un CEO, del tuo responsabile o persino di un familiare, per poi chiamarti con istruzioni urgenti per inviare criptovalute o approvare una transazione.
Questa tecnica è stata utilizzata nella rapina da 25 milioni di dollari a Hong Kong menzionata in precedenza. Il dipendente non è stato ingannato solo da un video deepfake; i truffatori hanno anche clonato le voci in tempo reale per rendere l'inganno più efficace. Bastano pochi secondi di audio perché i truffatori possano ricreare la voce di qualcuno con una precisione sconvolgente.
5. Macellazione del maiale con l'intelligenza artificiale
Le truffe legate alla "macellazione dei maiali" sono raggiri a lungo termine. Prevedono la costruzione di un rapporto di fiducia nel tempo, che può durare settimane o addirittura mesi.
In sostanza, queste truffe si basano su un unico elemento: la vostra fiducia. Imitando persone reali, piattaforme e team di supporto, gli strumenti di intelligenza artificiale rendono più difficile distinguere ciò che è reale da ciò che è falso.
Nel 2024, Chainalysis ha riportato che le truffe legate alla macellazione dei suini, facilitate dall'intelligenza artificiale, hanno generato oltre 9,9 miliardi di dollari a livello globale.
6. Iniezione di prompt contro browser agenti e IA connesse al portafoglio
Una nuova minaccia emersa nel 2025 riguarda l'iniezione di prompt, in cui un sito web, un'immagine o un testo dannoso "dirotta" un agente di intelligenza artificiale connesso a un browser, a un'e-mail o persino a un portafoglio di criptovalute. Poiché alcuni browser e assistenti di portafoglio basati sull'IA possono leggere dati, riassumere pagine o intraprendere azioni per conto dell'utente, un'istruzione nascosta può costringere l'agente a divulgare informazioni private o ad avviare transazioni non sicure.
7. Bypass della procedura KYC e documenti d'identità falsi presso gli exchange e i VASP
I gruppi criminali utilizzano ormai selfie, passaporti e patenti di guida generati dall'intelligenza artificiale per eludere i controlli KYC (Know Your Customer) presso gli exchange di criptovalute (VASP) e aprire conti fittizi per riciclare fondi rubati.
Per i principianti, questo è importante perché anche le piattaforme legittime possono essere oggetto di abusi in background, e gli exchange ora si affidano all'analisi blockchain per bloccare o tracciare i fondi prima che scompaiano.
8. Botnet sociali su X (Twitter)
I truffatori di criptovalute gestiscono enormi botnet su X che sembrano umani, rispondono immediatamente ai post e diffondono link che svuotano i portafogli o falsi airdrop.
Poiché gli utenti di criptovalute si affidano a X per le notizie in tempo reale, i bot sfruttano l'urgenza e la paura di perdere le occasioni. Per i principianti: non fidatevi mai dei link nelle risposte, soprattutto se promettono token gratuiti, rendimenti garantiti o richiedono l'approvazione del portafoglio; la maggior parte dei "giveaway" più pubblicizzati su X sono truffe.
Come difendersi dalle truffe basate sull'intelligenza artificiale
Le truffe basate sull'intelligenza artificiale stanno diventando sempre più sofisticate, ma è comunque possibile rimanere un passo avanti.
- Attiva sempre l'autenticazione a due fattori (2FA) o Passkeys per la tua email, gli exchange e i wallet.
- Una quota considerevole di truffe legate all'intelligenza artificiale inizia con un link falso.
- Se nel mondo delle criptovalute qualcosa sembra troppo bello per essere vero, probabilmente lo è.
- Tratta la tua frase di recupero come la tua identità digitale: tienila privata e sempre offline.
- Per ricevere assistenza, rivolgetevi sempre al sito web o all'app ufficiali, mai tramite messaggi non richiesti.
- I portafogli hardware come Ledger e Trezor aiutano a mantenere le chiavi private offline.
- BingX Academy pubblica regolarmente guide sulla sicurezza e avvisi sulle truffe pensati per i principianti.
Le truffe basate sull'intelligenza artificiale stanno diventando sempre più sofisticate, ma puoi stare un passo avanti. Segui questi consigli per proteggere le tue criptovalute e la tua tranquillità.
Conclusioni e punti chiave
Le truffe legate alle criptovalute basate sull'intelligenza artificiale si stanno diffondendo perché sono economiche, scalabili e sempre più convincenti, ma è ancora possibile proteggersi. E, man mano che i truffatori si evolvono, la migliore difesa rimane la conoscenza.