L'utilizzo di agenti basati sull'intelligenza artificiale è diventato sempre più diffuso tra i trader. Tuttavia, SlowMist ha condiviso alcune scoperte su possibili vettori di attacco, invitando gli utenti alla prudenza per proteggersi da malintenzionati.
Si raccomanda ai trader di limitare le autorizzazioni concesse ai propri agenti di intelligenza artificiale, poiché questi possono essere compromessi con estrema facilità. Con un accesso limitato, anche in caso di attacco informatico, i danni saranno ridotti al minimo.
È possibile che gli hacker rubino denaro ingannando i sistemi di intelligenza artificiale?
Solitamente, un hacker doveva indurre un utente a cliccare su un link per estorcergli denaro. Ora, invece, è sufficiente che inganni l'agente di intelligenza artificiale utilizzato.
Cryptopolitan ha recentemente riportato che un agente AI di Solana ha regalato token Lobstar per un valore di 441.000 dollari dopo essere stato ingannato sui social media. Tuttavia, non è chiaro se l'incidente sia stato o meno inscenato per attirare l'attenzione sulla memecoin.
Polymarket ha recentemente confermato una violazione della sicurezza che ha coinvolto un fornitore di servizi di autenticazione di terze parti, Magic Labs, e che ha comportato lo svuotamento di numerosi account utente nonostante l'autenticazione a due fattori fosse attiva. Si stima che le perdite totali superino i 500.000 dollari.
L'incidente si è verificato nel dicembre del 2025 e 23pds, il CISO di SlowMist, ha segnalato su GitHub un bot di copy trading dannoso contenente codice progettato per compromettere gli account di Polymarket.
Più recentemente, SlowMist ha pubblicato un rapporto in cui afferma che la nuova arma più pericolosa è l'iniezione indiretta rapida .
Questo approccio si rivela particolarmente efficace nell'ecosistema delle competenze, come ad esempio Agent Hub di Bitget o OpenClaw, un progetto open-source.
I ricercatori di SlowMist hanno monitorato ClawHub e scoperto che quasi il 10% dei plugin disponibili conteneva malware a due fasi . La prima fase sembra legittima, ma una volta installato, scarica il malware che poi raccoglie informazioni sul computer locale, cookie del browser e chiavi SSH.
Nel caso in cui gli agenti di intelligenza artificiale siano in funzione 24 ore su 24, 7 giorni su 7, questi furti possono rimanere inosservati per settimane.
Recenti report del 2026 di Oasis Security hanno identificato una vulnerabilità di elevata gravità denominata ClawJacked (CVSS 8.0+). Questa falla consente a siti web dannosi di dirottare l'agente AI in esecuzione localmente su un utente tramite una semplice visita del browser.
Come evitare perdite di agenti IA
Il report del team di sicurezza di Bitget suggerisce un sistema di sicurezza a 5 livelli incentrato sul principio del "minimo privilegio". Se il tuo agente di intelligenza artificiale deve solo analizzare i grafici, non dovrebbe avere l'autorizzazione a eseguire operazioni di trading. Se invece esegue operazioni di trading, non dovrebbe mai avere l'autorizzazione a prelevare i fondi.
Innanzitutto, Passkeys (FIDO2/WebAuthn) dovrebbe essere il metodo di accesso principale. Passkeys utilizza la crittografia a chiave pubblica-privata, che rende impossibili gli attacchi di phishing.
Anche se un malintenzionato riuscisse a indirizzare un utente verso una falsa pagina di accesso, il sistema di sicurezza hardware non rilascerà le credenziali, proteggendo l'account da accessi non autorizzati.
In secondo luogo, anziché utilizzare una chiave API per l'account principale, i trader dovrebbero creare sottoconti dedicati per i loro agenti di intelligenza artificiale e trasferire a questi sottoconti solo i fondi necessari. Anche in caso di fuga di dati, gli utenti possono limitare efficacemente l'impatto.
L'inserimento degli indirizzi IP in una whitelist è già un passaggio obbligatorio per qualsiasi configurazione automatizzata che garantisca che l'exchange accetti comandi solo da un indirizzo server specifico e approvato.
Gli utenti degli agenti di intelligenza artificiale dovrebbero implementare il file .agentignorefiles per impedire loro di leggere o registrare file locali sensibili durante le normali attività.
Il rapporto sottolinea inoltre l'importanza della supervisione umana nelle operazioni di alto valore.
Anche senza ricorrere ad attacchi informatici, lasciare che un'IA funzioni in modo completamente automatico rappresenta un rischio finanziario.
L' esperimento di Nov1.ai alla fine del 2025 ha dimostrato che GPT-5 ha sofferto di "paralisi da analisi" e ha perso oltre il 60% del suo capitale in due settimane, mentre Gemini è diventato un "operatore eccessivo" e ha accumulato commissioni enormi che hanno azzerato i suoi guadagni.
Vuoi che il tuo progetto venga presentato alle menti più brillanti del settore crypto? Includilo nel nostro prossimo report di settore, dove i dati incontrano l'impatto.