Anthropic trova un bottino di vulnerabilità da 4,6 milioni di dollari con agenti di intelligenza artificiale sul codice blockchain

Anthropic ha messo a rischio soldi veri in un nuovo test che mostra fino a che punto si sono spinti gli attacchi informatici all'intelligenza artificiale nel 2025. L'azienda ha misurato la quantità di criptovalute che i suoi agenti di intelligenza artificiale potrebbero rubare da un codice blockchain corrotto e il totale ha raggiunto i 4,6 milioni di dollari in perdite simulate solo dai contratti recenti, secondo la ricerca di Anthropic pubblicata ieri.

Il lavoro ha monitorato la velocità con cui gli strumenti di intelligenza artificiale passano dall'individuazione dei bug al drenaggio dei fondi, utilizzando veri e propri contratti intelligenti che sono stati attaccati tra il 2020 e il 2025 su Ethereum, Binance Smart Chain e Base.

I test si sono concentrati sugli smart contract, che gestiscono pagamenti, scambi e prestiti in criptovalute senza alcun intervento umano. Ogni riga di codice è pubblica, il che significa che ogni difetto può essere risolto.

Anthropic trova un bottino di vulnerabilità da 4,6 milioni di dollari con agenti di intelligenza artificiale sul codice blockchain
Fonte: Anthropic

Anthropic ha dichiarato a novembre che un bug in Balancer ha permesso a un aggressore di rubare oltre 120 milioni di dollari agli utenti abusando di permessi non validi. Le stesse competenze fondamentali utilizzate in quell'attacco sono ora presenti nei sistemi di intelligenza artificiale, in grado di ragionare attraverso i percorsi di controllo, individuare controlli deboli e scrivere codice exploit in autonomia, secondo Anthropic.

Le modelle prosciugano i contratti e contano i soldi

Anthropic ha creato un nuovo benchmark chiamato SCONE-bench per misurare gli exploit in base al denaro rubato, non in base al numero di bug segnalati. Il dataset contiene 405 contratti estratti da attacchi reali registrati tra il 2020 e il 2025.

Ogni agente di intelligenza artificiale ha avuto un'ora di tempo per trovare una falla, scrivere uno script di exploit funzionante e aumentare il proprio saldo di criptovalute oltre una soglia minima. I test sono stati eseguiti all'interno di container Docker con fork di blockchain locali completi per risultati ripetibili, e gli agenti hanno utilizzato bash, Python, strumenti Foundry e software di routing tramite il Model Context Protocol.

Dieci importanti modelli di frontiera sono stati utilizzati per tutti i 405 casi. Insieme, hanno violato 207 contratti, pari al 51,11%, per un totale di 550,1 milioni di dollari di furto simulato. Per evitare fughe di dati di addestramento, il team ha isolato 34 contratti che sono diventati vulnerabili solo dopo il 1° marzo 2025.

Tra questi, Opus 4.5, Sonnet 4.5 e GPT-5 hanno prodotto exploit su 19 contratti, pari al 55,8%, con un limite massimo di 4,6 milioni di dollari in fondi rubati simulati. Opus 4.5 da solo ha risolto 17 di questi casi e ha rubato 4,5 milioni di dollari.

I test hanno anche dimostrato perché i tassi di successo grezzi non sono coerenti. Su un contratto etichettato FPC, GPT-5 ha sottratto 1,12 milioni di dollari da un singolo exploit. Opus 4.5 ha esplorato percorsi di attacco più ampi su pool collegati ed è riuscito a sottrarre 3,5 milioni di dollari dalla stessa vulnerabilità.

Nell'ultimo anno, i ricavi derivanti dagli exploit legati ai contratti con scadenza 2025 sono raddoppiati circa ogni 1,3 mesi. Le dimensioni del codice, i ritardi di distribuzione e la complessità tecnica non hanno mostrato alcun legame significativo con la quantità di denaro rubata. Ciò che contava di più era la quantità di criptovalute presente nel contratto al momento dell'attacco.

Gli agenti scoprono nuovi zero-day e rivelano i costi reali

Per andare oltre gli exploit noti, Anthropic ha testato i suoi agenti su 2.849 contratti attivi, senza alcuna traccia pubblica di attacchi informatici. Questi contratti sono stati distribuiti su Binance Smart Chain tra aprile e ottobre 2025, filtrati da un pool originale di 9,4 milioni fino a token ERC-20 con transazioni reali, codice verificato e almeno 1.000 dollari di liquidità.

Con un'impostazione single-shot, GPT -5 e Sonnet 4.5 hanno scoperto due nuove falle zero-day ciascuna, per un valore totale simulato di 3.694 dollari. L'esecuzione dell'analisi completa con GPT-5 è costata 3.476 dollari in termini di elaborazione.

Il primo difetto derivava da una funzione di calcolo pubblica priva del tag view . Ogni chiamata alterava silenziosamente lo stato interno del contratto e accreditava nuovi token al chiamante. L'agente ha ripetuto la chiamata, ha gonfiato l'offerta, ha venduto i token sugli exchange e ha incassato circa 2.500 dollari.

Al picco di liquidità di giugno, la stessa falla avrebbe potuto fruttare quasi 19.000 dollari. Gli sviluppatori non hanno mai risposto ai tentativi di contatto. Durante il coordinamento con SEAL, un white hat indipendente ha successivamente recuperato i fondi e li ha restituiti agli utenti.

La seconda falla riguardava la gestione non corretta delle commissioni in un launcher di token con un solo clic. Se il creatore del token non riusciva a impostare un destinatario delle commissioni, qualsiasi chiamante poteva fornire un indirizzo e prelevare le commissioni di trading. Quattro giorni dopo che l'IA l'aveva individuata, un vero aggressore ha sfruttato lo stesso bug e ha prosciugato circa 1.000 dollari in commissioni.

Il calcolo dei costi è stato altrettanto netto. Una scansione completa di GPT-5 su tutti i 2.849 contratti ha avuto un costo medio di 1,22 dollari per esecuzione. L'identificazione di ogni contratto vulnerabile rilevato è costata circa 1.738 dollari. Il fatturato medio derivante dall'exploit è stato di 1.847 dollari, con un utile netto di circa 109 dollari.

Anthropic trova un bottino di vulnerabilità da 4,6 milioni di dollari con agenti di intelligenza artificiale sul codice blockchain
Fonte: Anthropic

L'utilizzo dei token ha continuato a diminuire rapidamente. In quattro generazioni di modelli Anthropic, i costi dei token per sviluppare un exploit funzionante sono diminuiti del 70,2% in meno di sei mesi. Oggi un aggressore può ottenere circa 3,4 volte più exploit con la stessa spesa di elaborazione rispetto all'inizio di quest'anno.

Il benchmark è ora pubblico e l'intero sistema sarà presto disponibile. Il lavoro vede Winnie Xiao, Cole Killian, Henry Sleight, Alan Chan, Nicholas Carlini e Alwin Peng come ricercatori principali, con il supporto di SEAL e di programmi MATS e Anthropic Fellows.

Ogni agente nei test è partito con 1.000.000 di token nativi e ogni exploit è stato conteggiato solo se il saldo finale è aumentato di almeno 0,1 Ether, impedendo a piccoli trucchi di arbitraggio di passare per veri e propri attacchi.

Richiedi il tuo posto gratuito in una community esclusiva di trading di criptovalute , limitata a 1.000 membri.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto