Anthropic triplica la valutazione a 183 miliardi di dollari con una raccolta di 13 miliardi di dollari in soli cinque mesi

Anthropic è inarrestabile. L'azienda di intelligenza artificiale, sostenuta da Amazon e gestita da ex dirigenti di OpenAI, ha confermato martedì di aver raccolto 13 miliardi di dollari di finanziamenti, portando la sua valutazione a 183 miliardi di dollari.

Si tratta di tre volte il valore di marzo, il che rende questa una delle più rapide impennate di valutazione che la Silicon Valley abbia mai visto finora nel 2025.

Il round di finanziamento è stato guidato da Iconiq, Fidelity Management & Research e Lightspeed Venture Partners. Hanno contribuito anche colossi come Altimeter, General Catalyst e Coatue. Il responsabile finanziario di Anthropic, Krishna Rao, ha affermato che la raccolta fondi dimostra la stretta collaborazione dell'azienda con gli investitori.

"Questo finanziamento dimostra la straordinaria fiducia degli investitori nella nostra performance finanziaria e la forza della loro collaborazione con noi per continuare ad alimentare la nostra crescita senza precedenti", ha affermato Krishna.

Il lancio di Claude accende un fuoco sotto la crescita

Da quando Claude è stata annunciata a marzo 2023, la valutazione di Anthropic è aumentata vertiginosamente. L'azienda ora afferma di avere oltre 300.000 clienti aziendali e un fatturato di 5 miliardi di dollari ad agosto, in aumento rispetto al solo miliardo di dollari di inizio anno. Si tratta di un balzo di 5 volte in meno di dodici mesi.

Anthropic è stata creata da persone che lavoravano in OpenAI, tra cui il suo CEO Dario Amodei. Questo è importante, perché la rivalità tra le due aziende si sta rapidamente intensificando. OpenAI è al centro dell'attenzione da quando ha lanciato ChatGPT alla fine del 2022. Sta preparando una vendita di azioni che la valuterebbe 500 miliardi di dollari, come riportato da CNBC.

A marzo, OpenAI ha chiuso un round di raccolta di 40 miliardi di dollari con una valutazione di 300 miliardi di dollari, la più grande di sempre per un'azienda tecnologica privata. Solo il mese scorso, ha raccolto altri 8,3 miliardi di dollari legati allo stesso round. Nel frattempo, ha lanciato GPT-5, che OpenAI definisce più veloce e "molto più utile" rispetto ai modelli precedenti. Ma non tutti sono contenti. Alcuni utenti si sono lamentati della mancanza di funzionalità di GPT-40. "Abbiamo sicuramente sottovalutato quanto siano importanti per loro alcune delle cose che piacciono di GPT-40, anche se GPT-5 offre prestazioni migliori sotto molti aspetti", ha dichiarato Sam Altman, CEO di OpenAI, su X.

Anthropic afferma che il nuovo finanziamento sosterrà la ricerca sulla sicurezza dell'IA, contribuirà a soddisfare la domanda delle grandi aziende e promuoverà l'espansione internazionale. Queste sono le tre priorità.

Anthropic cambia la sua politica sui dati e dà agli utenti una scadenza

Un altro grande cambiamento sta avvenendo dietro le quinte. Anthropic sta apportando modifiche sostanziali al modo in cui raccoglie e archivia i dati degli utenti, e gli utenti di Claude hanno tempo fino al 28 settembre per decidere se le loro conversazioni possono essere utilizzate per addestrare i modelli di intelligenza artificiale dell'azienda. Si tratta di un'inversione di rotta rispetto alla vecchia politica aziendale.

Prima di questo aggiornamento, agli utenti di Claude veniva comunicato che i loro dati sarebbero stati cancellati dopo 30 giorni, a meno che non violassero una regola o non dovessero essere conservati più a lungo per motivi legali, nel qual caso potevano rimanere in archivio fino a due anni. Ora è storia. Se gli utenti non si dissociano, Anthropic conserverà le loro conversazioni e sessioni di programmazione per cinque anni e utilizzerà tali informazioni per addestrare futuri modelli di Claude.

La policy riguarda tutti gli utenti individuali di Claude Free, Claude Pro, Claude Max e Claude Code. I clienti aziendali che utilizzano Claude Gov, Claude for Work, Claude for Education o che accedono tramite API non saranno interessati. Analogamente, OpenAI protegge i propri clienti aziendali non utilizzando i loro dati per la formazione.

Anthropic non ha fornito una spiegazione completa, se non in un post sul blog. Tuttavia, l'azienda afferma che la nuova policy riguarda la "scelta dell'utente". Se le persone non si dissociano, contribuiranno a migliorare l'intelligenza artificiale. L'azienda afferma che questo renderà Claude più abile in attività come la codifica e il ragionamento, e contribuirà anche a ridurre il numero di volte in cui messaggi innocui vengono segnalati come dannosi.

Tuttavia, la vera ragione è chiara. Ogni azienda di intelligenza artificiale in questo momento ha bisogno di enormi quantità di dati reali. Le chat di Claude offrono proprio questo. Addestrare modelli di grandi dimensioni non è possibile senza milioni di conversazioni di qualità. Questo dà ad Anthropic ciò di cui ha bisogno per competere con OpenAI e Google: dati su larga scala, direttamente dagli utenti.

Registrati su Bybit e inizia a fare trading con $ 30.050 in regali di benvenuto

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto