Apple ha rivelato la sua scelta di utilizzare le Tensor Processing Unit (TPU) di Google per la sua nuova infrastruttura software AI, come dettagliato in un documento di ricerca pubblicato lunedì. Ciò segna un significativo allontanamento dalla norma del settore, in cui le GPU di Nvidia sono in genere il punto di riferimento per l'addestramento dei modelli AI.
Secondo l'ultimo documento tecnico di Apple, l'AFM dell'azienda e il server AFM che lo supporta operano sui cluster Cloud TPU di Google. Questi dettagli suggeriscono che Apple abbia subaffittato lo spazio del server dalle strutture di cloud computing di Google per i complessi calcoli richiesti nei suoi framework di intelligenza artificiale.
Apple presenta il nuovo sistema di intelligenza artificiale
Apple ha anche presentato il suo sistema di intelligenza artificiale, Apple Intelligence, insieme al documento tecnico. Il nuovo sistema ha un Siri migliorato, una migliore elaborazione del linguaggio naturale e riepiloghi AI. Inoltre, nel prossimo anno, Apple intende incorporare nel sistema funzionalità di intelligenza artificiale generativa, inclusa la generazione di immagini ed emoji e un Siri potenziato in grado di recuperare e utilizzare le informazioni dalle app.
Il documento tecnico afferma inoltre che l'AFM sul dispositivo di Apple è stato addestrato con 2048 chip TPU v5p e il server AFM con 8192 chip TPU v4. Il modello attuale è il TPU v5p di Google, annunciato a dicembre e che migliora l'efficienza del calcolo dell'intelligenza artificiale. I TPU di Google, immessi sul mercato nel 2017, sono ancora tra i chip personalizzati più sofisticati per l'esecuzione di operazioni di intelligenza artificiale.
NVidia è rimasta il fornitore dominante di GPU utilizzate nell'addestramento delle reti neurali. Tuttavia, a causa dei costi elevati e dell’accessibilità limitata, le organizzazioni hanno cercato di cercare altre alternative. Alcuni dei principali clienti di Nvidia sono OpenAI, Microsoft e Anthropic. Tuttavia, anche altri giganti della tecnologia come Google, Meta, Oracle e Tesla esprimono interesse per lo sviluppo delle capacità di intelligenza artificiale.
I leader tecnologici valutano i rischi e i benefici degli investimenti nell’intelligenza artificiale
Il CEO di Meta Mark Zuckerberg e il CEO di Alphabet Sundar Pichai hanno recentemente espresso preoccupazione per gli investimenti eccessivi nell’infrastruttura dell’intelligenza artificiale, ma hanno convenuto che la mancanza di investimenti comporta un alto rischio di perdere terreno in una tecnologia che rappresenterà il futuro punto di svolta. Pur essendo uno dei maggiori clienti di Nvidia, Google utilizza anche le TPU per addestrare modelli di intelligenza artificiale e offre GPU Nvidia tramite servizi cloud.
Come affermato da Apple, le TPU di Google consentono la costruzione di modelli AI più complessi e più grandi. Il documento di ricerca dettagliato che incorpora anche le informazioni divulgate alla Worldwide Developers Conference di Apple a giugno indica che questi TPU offrono la potenza computazionale richiesta dai piani avanzati di intelligenza artificiale dell’azienda. Quando Apple rilascerà le sue funzionalità AI agli utenti beta questa settimana, gli effetti delle sue decisioni hardware saranno più evidenti.