Anthropic afferma che tre aziende cinesi di intelligenza artificiale hanno creato oltre 24.000 account falsi per estrarre dati dal suo sistema Claude. L'azienda afferma che l'obiettivo era quello di potenziare rapidamente i propri modelli.
Le aziende citate erano DeepSeek , Moonshot AI e MiniMax. Anthropic ha affermato che questi account hanno inviato oltre 16 milioni di prompt a Claude per raccogliere risposte e modelli che potevano essere riutilizzati per l'addestramento.
Anthropic ha condiviso i dettagli in un post sul blog lunedì. L'azienda ha affermato che l'attività è una sorta di distillazione. Questo processo utilizza i risultati di un modello per addestrarne un altro. Dario Amodei è a capo di Anthropic.
Anthropic avrebbe affermato che DeepSeek ha gestito circa 150.000 interazioni con Claude. Moonshot AI ha registrato oltre 3,4 milioni di richieste. MiniMax ha raggiunto oltre 13 milioni di richieste. Anthropic ha affermato che la portata dimostra una chiara intenzione di estrarre valore rapidamente.
OpenAI segnala un comportamento simile a Washington
All'inizio di questo mese, OpenAI ha inviato un promemoria ai legislatori della Camera accusando DeepSeek di utilizzare la stessa tattica di distillazione per copiare i suoi sistemi. Sam Altman gestisce OpenAI . Dopo aver inizialmente citato OpenAI, l'azienda ha dichiarato ai legislatori che DeepSeek ha cercato di imitare i suoi prodotti attraverso grandi volumi di richieste.
Anthropic ha affermato che la distillazione in sé ha validi utilizzi. Le aziende la utilizzano per costruire versioni più piccole dei propri modelli. Anthropic ha anche affermato che lo stesso metodo può creare sistemi concorrenti in una frazione del tempo e a una frazione del costo.
I dati sintetici svolgono ora un ruolo importante nell'addestramento di modelli di base di grandi dimensioni. Gli sviluppatori li utilizzano perché i dati reali di alta qualità sono limitati. Molti laboratori stanno anche sviluppando sistemi agenti in grado di intervenire per gli utenti. In un rapporto tecnico di luglio, Moonshot ha affermato di aver utilizzato dati sintetici per addestrare il suo modello Kimi K2.
Anthropic ha affermato che l'attività solleva preoccupazioni per la sicurezza nazionale. L'azienda ha affermato che i laboratori stranieri che elaborano modelli americani possono integrare tali capacità nei sistemi militari, di intelligence e di sorveglianza.
I mercati reagiscono al lancio di un nuovo strumento di sicurezza da parte di Anthropic
Venerdì Anthropic ha anche lanciato un nuovo strumento di sicurezza per Claude, in un'anteprima limitata. Lo strumento analizza il codice software alla ricerca di punti deboli e suggerisce soluzioni. Anthropic prevede di tenere un briefing aziendale martedì con ulteriori annunci di prodotto.
I mercati hanno reagito rapidamente. Lunedì, i titoli del settore della sicurezza informatica sono crollati per il secondo giorno consecutivo, poiché gli investitori temevano che i nuovi strumenti di intelligenza artificiale potessero sostituire i vecchi servizi di sicurezza.
CrowdStrike ha perso circa il 9%. Anche Zscaler ha perso circa il 9%. Netskope ha perso quasi il 10%. SailPoint ha perso il 6%. Okta, SentinelOne e Fortinet hanno perso ciascuna più del 4%. Palo Alto Networks ha perso il 2%.
Cloudflare ha perso il 7% dopo i recenti guadagni legati all'interesse per Moltbot. L'iShares Cybersecurity and Tech ETF ha perso quasi il 4%. Il Global X Cybersecurity ETF ha toccato il livello più basso da novembre 2023.
La pressione non si limita ai titoli azionari. Quest'anno, gli strumenti di intelligenza artificiale che creano app e siti web a partire da semplici prompt hanno scosso le aziende di software.
Salesforce ha perso circa un terzo del suo valore. ServiceNow ha perso oltre il 34%. Microsoft ha perso circa il 20%.
Bank of America ha affermato che lo strumento Anthropic minaccia principalmente piattaforme di scansione del codice come GitLab e JFrog. GitLab è sceso dell'8% venerdì, mentre JFrog è sceso del 25% lo stesso giorno.
Affina la tua strategia con tutoraggio + idee quotidiane – 30 giorni di accesso gratuito al nostro programma di trading