I ricercatori Apple aprono la strada all’intelligenza artificiale generativa sugli iPhone

Facendo un passo significativo verso l’introduzione dell’intelligenza artificiale generativa sugli iPhone, i ricercatori Apple hanno introdotto un metodo rivoluzionario per aggirare le limitazioni della RAM sui dispositivi mobili. I Large Language Models (LLM), come ChatGPT 4 di OpenAI, sono noti per le loro immense esigenze computazionali, che in genere richiedono server potenti per gestire la loro elaborazione. Tuttavia, la recente Gemini AI di Google, progettata per rivaleggiare con GPT-4, offre una variante “Nano” su misura per gli smartphone. Questo adattamento utilizza tecniche di quantizzazione per ridurre i parametri del modello a 1,8 miliardi o 3,6 miliardi. Attualmente, una di queste varianti Nano alimenta gli smartphone Pixel 8 Pro di Google, ora disponibili a un prezzo ridotto di $ 799 su Amazon.

Mentre gli sforzi di Google con Gemini Nano segnano uno sviluppo significativo, Qualcomm afferma che il suo nuovo SoC Snapdragon 8 Gen 3 può supportare LLM AI generativi con un massimo di 10 miliardi di parametri. Anche se questo supera le capacità di Google, è ancora ben al di sotto degli 1,7 trilioni di parametri richiesti affinché GPT-4 funzioni in modo ottimale. La quantizzazione, pur facilitando l'elaborazione sui SoC mobili, inevitabilmente sacrifica l'accuratezza e l'efficacia. Pertanto, la capacità di ospitare LLM più grandi su dispositivi mobili diventa fondamentale per migliorarne le prestazioni.

La soluzione ingegnosa di Apple

Uno dei maggiori ostacoli all’abilitazione dell’intelligenza artificiale generativa sugli smartphone è il notevole fabbisogno di RAM. Ad esempio, un modello LLM ridotto a 8 bit per parametro con 7 miliardi di parametri, come Llama 2 di Meta supportato dallo Snapdragon 8 Gen 3, richiederebbe uno smartphone con almeno 7 GB di RAM. La serie iPhone 15 Pro di Apple vanta 8 GB di RAM, indicando che un LLM sviluppato da Apple, come Llama 2, si avvicinerebbe ai limiti superiori delle attuali capacità dell'iPhone. Per superare questa limitazione della RAM, i ricercatori di Apple hanno ideato un nuovo approccio.

Aumento della memoria flash

In un documento di ricerca intitolato “LLM in a flash: Efficient Large Language Model Inference with Limited Memory”, i ricercatori di intelligenza artificiale generativa di Apple introducono un metodo che sfrutta la memoria flash di un iPhone per integrare la RAM di sistema integrata del dispositivo. Sebbene la larghezza di banda della memoria flash non corrisponda a quella della RAM mobile LDDR5/X, i ricercatori di Apple hanno ingegnosamente superato questa limitazione intrinseca. Il loro metodo combina il “windowing”, che consente al modello AI di riutilizzare i dati precedentemente elaborati e archiviati nella memoria flash, con il “bundling riga-colonna”, una tecnica che organizza in modo ottimale i dati LLM per velocità di lettura più elevate.

Prospettive future per l’intelligenza artificiale generativa su iPhone

Anche se Apple deve ancora svelare un prodotto basato su LLM, le voci suggeriscono l’imminente arrivo di una Siri più intelligente basata su LLM, destinata a debuttare con iOS 18 e a funzionare sui modelli iPhone 16 Pro di prossima generazione. Quando ciò si concretizzerà, Apple è ben posizionata per utilizzare il suo innovativo metodo di estensione della RAM per fornire un modello LLM con il numero massimo di parametri possibili per l’esecuzione sul dispositivo.

Il panorama dell’IA generativa nel 2024

Mentre l’industria tecnologica continua la sua incessante ricerca di far progredire le capacità dell’intelligenza artificiale generativa, il 2024 sembra destinato a essere l’anno in cui l’intelligenza artificiale generativa diventerà una caratteristica comune sugli smartphone. Samsung, un attore formidabile in questo campo, si sta preparando a svelare le sue offerte migliorate di intelligenza artificiale generativa con il lancio della serie Galaxy S24 il mese prossimo. Con l’innovativo metodo di aumento della RAM di Apple e i prossimi sviluppi di Samsung, i consumatori possono anticipare una trasformazione sostanziale nelle capacità e nelle prestazioni delle funzionalità basate sull’intelligenza artificiale sui loro dispositivi mobili.

L’approccio pionieristico di Apple per superare le limitazioni della RAM e facilitare l’esecuzione sul dispositivo di modelli linguistici di grandi dimensioni segna un passo significativo verso la realizzazione dell’intelligenza artificiale generativa sugli iPhone. Mentre il panorama competitivo si surriscalda, con Gemini Nano di Google e Snapdragon 8 Gen 3 di Qualcomm che fanno passi da gigante, l’anno 2024 promette di essere un punto di svolta per l’integrazione dell’intelligenza artificiale generativa nelle esperienze quotidiane degli smartphone.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto