Un incontro tra i capi della società madre di SK Hynix e Nvidia mercoledì ha indicato che i due stringeranno legami più stretti nell'hardware AI. Chey Tae Won, parlando durante la conferenza stampa di Nvidia al CES di Las Vegas, ha affermato che SK Hynix sta accelerando lo sviluppo di chip per soddisfare le crescenti richieste di Nvidia.
Secondo quanto riferito , il co-fondatore di Nvidia Jensen Huang e il presidente del gruppo SK Chey Tae Won hanno discusso le modalità per espandere le applicazioni IA. Entrambi hanno concordato di aumentare i chip di memoria a larghezza di banda elevata (HBM) di SK Hynix, che sono gli elementi chiave degli acceleratori AI di Nvidia.
Le azioni di SK Hynix sono balzate di oltre il 5% a Seul in seguito alla notizia, che ha alimentato guadagni sostanziali per la società finora quest'anno. Il produttore coreano di chip di memoria è stato il principale fornitore di Nvidia durante il boom dell'intelligenza artificiale innescato da ChatGPT, lasciandosi alle spalle il suo rivale, Samsung Electronics.
I chip HBM3E di SK Hynix l'hanno portata all'avanguardia nelle soluzioni di memoria per l'intelligenza artificiale e hanno stimolato la successiva formazione avanzata sui prodotti.
Come la Corea ha ottenuto un vantaggio nella produzione di intelligenza artificiale
Huang ha affermato che i sistemi di intelligenza artificiale in grado di “ragionare, pianificare e agire” potrebbero rivoluzionare tutti i settori che valgono 50 trilioni di dollari.
Chey ha aggiunto che la Corea del Sud è un partner fondamentale in questa trasformazione grazie ai suoi punti di forza nel settore manifatturiero.
Sia SK Hynix che Nvidia hanno concordato di esplorare un'ulteriore collaborazione sulla recente piattaforma Cosmos di Nvidia per sviluppare tecnologie di intelligenza artificiale fisica come robot e veicoli autonomi.
Nvidia ha presentato la sua piattaforma Cosmos per modelli di mondi generativi e tokenizzatori video avanzati adatti alle sue GPU all'evento CES 2025 di Las Vegas. I sistemi di intelligenza artificiale fisica si occupano di compiti pratici come la manipolazione di oggetti e la mobilità, a differenza dell'intelligenza artificiale software in stile ChatGPT.
I progressi di HMB superano la domanda di Nvidia
I sistemi di intelligenza artificiale generativa di Nvidia necessitano di chip HBM3E di quinta generazione, con SK Hynix in testa al gruppo. Secondo Chey, la cui HBM sta ora avanzando rispetto alle richieste di Nvidia, SK Hynix ha il vantaggio tecnologico.
Si prevede che SK introdurrà campioni HBM3E a 16 strati e prodotti HBM4 a 12 strati durante la prima metà del 2025.
Nvidia è il maggiore cliente dell'azienda e l'intera produzione di chip HBM per il 2025 è già esaurita. Attualmente, SK Hynix fornisce a Nvidia prodotti HBM3E a 12 strati e sta espandendo le proprie capacità per soddisfare la crescente domanda di intelligenza artificiale.
SK Group dà inoltre priorità ai data center AI come motore di crescita. Chey ha sottolineato l'importanza delle soluzioni efficienti dal punto di vista energetico per le strutture assetate di energia, come alimentatori ottimizzati, sistemi di raffreddamento e gestione dell'energia in generale. SK ritiene che esista un’enorme opportunità di collaborare tra questi sforzi e la sua più ampia trasformazione guidata dalla tecnologia.
Da Zero a Web3 Pro: il tuo piano di lancio carriera di 90 giorni