Anthropic ha lanciato un'anteprima di ricerca limitata di Claude Code Security, un nuovo strumento che analizza i software alla ricerca di vulnerabilità e consiglia soluzioni, segnando un passo significativo nell'uso dell'intelligenza artificiale per la difesa informatica e provocando un'onda d'urto nel settore della sicurezza informatica.
Lo strumento, integrato nella piattaforma Claude Code di Anthropic, è ora disponibile per i clienti Enterprise e Team, con accesso accelerato gratuito offerto ai responsabili dei progetti open source. L'azienda di intelligenza artificiale con sede a San Francisco afferma di prevedere che l'intelligenza artificiale analizzerà una quota significativa del codice mondiale nel prossimo futuro.
Gli strumenti di sicurezza esistenti funzionano solo con i modelli di problemi più comuni, come password esposte o crittografia obsoleta.
Claude Code Security dovrebbe andare oltre il semplice pattern-matching. Funziona attraverso un'intera base di codice , proprio come farebbe un ricercatore umano, seguendo il percorso che i dati seguono in un sistema e individuando problemi che gli scanner standard trascurano.
I risultati vengono sottoposti a diversi cicli di controllo prima che uno sviluppatore li veda, riducendo al minimo i vicoli ciechi. Ogni problema viene inoltre classificato in base alla sua gravità, in modo che i team sappiano da dove iniziare.
Funziona su Claude Opus 4.6, il modello più recente di Anthropic , che il Frontier Red Team dell'azienda ha messo alla prova. I test hanno evidenziato oltre 500 vulnerabilità presenti in basi di codice open source attive , alcune delle quali erano presenti da decenni senza che nessuno le avesse individuate, anche dopo anni di revisione da parte di esperti.
Anthropic afferma di essere attualmente impegnata a notificare i responsabili di tali progetti. L'azienda ha inoltre testato Claude sul proprio codice interno e afferma che i risultati sono stati ottimi.
Gli analisti reagiscono, ma i mercati non sono convinti
La notizia ha scosso gli investitori nel settore della sicurezza informatica. Venerdì le azioni di CrowdStrike sono crollate del 6,8% e quelle di Okta del 9,2%, mentre i mercati hanno iniziato a chiedersi se gli strumenti di intelligenza artificiale potessero intaccare il business delle aziende di sicurezza consolidate.
Cloudflare ha perso il 6,7%, SailPoint il 9,1% e Palo Alto Networks è scivolato dell'1,5%. Zscaler ha perso il 5,47%. L'ETF Global X Cybersecurity, che monitora le aziende di sicurezza di tutto il mondo, ha chiuso la giornata in rosso di quasi il 5%.
Non tutti hanno ritenuto giustificata la reazione. Gli analisti di Barclays l'hanno definita "incongruente", affermando che uno strumento progettato per la sicurezza del codice non è realmente all'altezza di ciò che aziende come CrowdStrike o Palo Alto Networks effettivamente fanno.
Ma il divario tra ciò che ha spaventato i mercati e ciò che gli analisti stanno ignorando si scontra con un dato di fatto inquietante: l'intelligenza artificiale di Anthropic ha scoperto più di 500 vulnerabilità in basi di codice attive che erano lì da anni, in alcuni casi decenni, senza che nessun esperto umano le individuasse.
Qualunque siano i limiti competitivi tracciati dagli analisti, lo strumento ha fatto qualcosa che il settore della sicurezza non era riuscito a fare da solo.
L'allarme per gli attacchi informatici dell'IA aumenta la pressione
La tempistica del lancio porta con sé una sgradevole ironia. Claude Opus 4.6, il modello esatto ora posizionato come difensore della sicurezza, era stato accusato solo pochi giorni prima di una perdita di 1,78 milioni di dollari presso il protocollo di prestito DeFi Moonwell.
Il livello di danno inflitto con il codice scritto dall'intelligenza artificiale è sceso così in basso che non è più necessario l'intervento di un aggressore. Gli esperti di sicurezza hanno lanciato l'allarme su questo cambiamento da mesi.
Anthropic ha riconosciuto la stessa tendenza nel suo comunicato, avvertendo che "gruppi meno esperti e dotati di risorse possono ora potenzialmente eseguire attacchi su larga scala di questa natura".
"Gli aggressori useranno l'intelligenza artificiale per individuare i punti deboli sfruttabili più velocemente che mai", ha affermato l'azienda. "Ma chi si difende rapidamente può trovare gli stessi punti deboli, correggerli e ridurre il rischio di un attacco".
La sua ricerca interna, pubblicata nel dicembre 2025, è andata oltre, dimostrando che una versione precedente del modello, Claude Opus 4.5, poteva identificare e sfruttare in modo indipendente vulnerabilità degli smart contract per un valore fino a 4,6 milioni di dollari in un ambiente controllato, con un coinvolgimento umano minimo.
L'azienda era consapevole che i suoi modelli potevano essere efficaci in entrambe le direzioni. Claude Code Security è la sua risposta a questo problema: prendere la stessa capacità e metterla nelle mani dei difensori prima che arrivino gli aggressori.
OpenAI, rivale di Anthropic, ha lanciato il suo strumento di sicurezza automatizzato, chiamato Aardvark, nell'ottobre dello scorso anno, a dimostrazione del fatto che la sicurezza basata sull'intelligenza artificiale sta diventando un campo di battaglia competitivo.
Non limitarti a leggere le notizie sulle criptovalute. Comprendile. Iscriviti alla nostra newsletter. È gratuita .