Con una mossa rivoluzionaria volta a consolidare la propria posizione dominante nel mercato del cloud pubblico, Amazon Web Services (AWS) ha annunciato un sostanziale investimento di 4 miliardi di dollari nel laboratorio di intelligenza artificiale Anthropic. La collaborazione tra Amazon e Anthropic, produttore del chatbot Claude, segna una partnership strategica che combina i modelli avanzati di intelligenza artificiale di Anthropic con l'infrastruttura cloud sicura e affidabile di AWS. Questo investimento significativo sottolinea l’impegno di Amazon a stare al passo con concorrenti come Microsoft e Google, che hanno recentemente fatto importanti incursioni nel mondo dell’intelligenza artificiale.
L'investimento nell'intelligenza artificiale di Amazon in Anthropic per rafforzare il dominio del cloud
L'ambizioso investimento di Amazon in Anthropic, presentato all'inizio di questa settimana, posiziona AWS come il principale fornitore di servizi cloud di Anthropic sia per l'addestramento che per la distribuzione dei modelli. Questa mossa arriva in risposta alla crescente domanda da parte dei clienti AWS di accesso a Claude, il modello di intelligenza artificiale all'avanguardia di Anthropic, che sarà reso ancora più accessibile attraverso il toolkit AI di Amazon, Bedrock.
Uno degli aspetti chiave di questa partnership è la capacità degli utenti aziendali di AWS di personalizzare e mettere a punto modelli sicuri, consentendo loro di adattare le prestazioni del modello per soddisfare le loro esigenze specifiche. Questo livello di personalizzazione consente alle aziende di addestrare ulteriormente il modello con le proprie conoscenze proprietarie, mitigando il rischio di risultati potenzialmente dannosi.
L'investimento strategico di AWS in Anthropic assume ancora più significato poiché cerca di mantenere il proprio vantaggio competitivo rispetto a Microsoft Azure, che vanta una partnership consolidata con OpenAI. Allo stesso modo, Google Cloud, il terzo attore principale nel mercato del cloud pubblico, vanta una propria vasta ricerca e modelli di intelligenza artificiale.
Sid Nag, vicepresidente per i servizi e le tecnologie cloud di Gartner, ha osservato che AWS si è trovata in una posizione reattiva nel contesto dello slancio dell'intelligenza artificiale generativa. AWS aveva precedentemente risposto alla partnership di Microsoft con OpenAI introducendo Amazon Bedrock. Ma, con la recente partnership di Oracle OCI con Cohere, AWS ha riconosciuto la necessità di sviluppare ulteriormente le proprie capacità di intelligenza artificiale, portando all'annuncio di Anthropic.
Nag ha sottolineato l'importanza della scelta del modello da parte di AWS, sottolineando che non si tratta di un accordo esclusivo, che consente ai clienti AWS di accedere a vari modelli di altri fornitori. Tuttavia, questa partnership con Anthropic facilita un’integrazione più stretta e livelli più elevati di personalizzazione, distinguendo AWS in un mercato affollato.
Diverse opzioni di chip sono il punto di forza unico di AWS
In mezzo alla concorrenza, AWS ha trovato un punto di forza unico sottolineando il proprio impegno nel fornire ai clienti la più ampia gamma di opzioni di chip. Ciò include CPU, GPU e chip personalizzati come Trainium e Inferentia, un fattore distintivo che distingue AWS sul mercato.
La partnership di Anthropic con AWS consente alle organizzazioni che operano su AWS di sfruttare Claude 2, il modello di intelligenza artificiale per linguaggi di grandi dimensioni dell'attuale generazione. Claude 2 offre funzionalità come dialogo e generazione di contenuti creativi, ragionamenti complessi e istruzioni dettagliate, distinguendolo da rivali come GPT-4 di OpenAI e il modello PaLM di Google. Claude 2 vanta una dimensione del contesto impressionante, in grado di ospitare fino a 100.000 token in una singola chat, superando di gran lunga le capacità dei suoi concorrenti.
Roy Illsley, analista capo di Omdia, ha osservato che ogni principale infrastruttura e attore cloud deve avere un'offerta nativa nello spazio del modello AI. Immagina che le organizzazioni scelgano il modello LLM (Large Language Model) che meglio si adatta ai loro casi d'uso specifici, una tendenza esemplificata dall'integrazione di Claude 2 da parte di Amazon insieme ad altre scelte in Bedrock.
Questo investimento rappresenta un'opportunità conveniente per AWS, con la maggior parte delle spese sostenute in crediti di calcolo anziché in contanti. Steve Dickens, vicepresidente e practice leader del gruppo Futurum, ha sottolineato che l'investimento di 4 miliardi di dollari di Amazon consiste probabilmente in crediti cloud, che si traducono potenzialmente in un investimento effettivo di 2 miliardi di dollari se si considera un margine di profitto del 50%.
La collaborazione tra Anthropic e AWS si estende a Inferentia e Trainium, i chip AI personalizzati di AWS. Questa partnership si allinea con la strategia più ampia di Amazon di implementare silicio personalizzato nei suoi data center, posizionando AWS per un successo a lungo termine nel mercato cloud.
Nigel Green, CEO del gruppo deVere, ha sottolineato che è probabile che la tendenza dei giganti della tecnologia a investire in laboratori e tecnologie di intelligenza artificiale continui. Questo approccio strategico consente loro di accedere a modelli e tecnologie di intelligenza artificiale avanzati senza il tempo e gli sforzi necessari per la ricerca e lo sviluppo interni. Diversificando il proprio portafoglio di intelligenza artificiale attraverso acquisizioni, i giganti della tecnologia come Amazon possono mitigare i rischi intrinseci associati alla ricerca sull’intelligenza artificiale e rimanere in prima linea nell’innovazione, fornendo in definitiva soluzioni più competitive ai propri clienti.