La divisione cloud computing di Amazon, Amazon Web Services (AWS), ha ideato un sistema di raffreddamento su misura per tenere sotto controllo le temperature dei nuovi e potenti chip di intelligenza artificiale (AI) di Nvidia.
Mercoledì, AWS ha annunciato di aver sviluppato l'In-Row Heat Exchanger (IRHX), il suo sistema di raffreddamento a liquido personalizzato progettato per i data center dotati di GPU Nvidia ad alte prestazioni.
Questi chip, utilizzati per addestrare modelli di intelligenza artificiale di grandi dimensioni come i chatbot o i generatori di immagini oggi così popolari, sono tra i componenti hardware più esigenti in termini di energia al mondo. La loro crescente popolarità nei carichi di lavoro di intelligenza artificiale ha messo a dura prova le soluzioni di raffreddamento tradizionali, in particolare quelle ad aria.
Invece di lasciare che fosse il mercato a fornire una soluzione di raffreddamento scalabile, Amazon ha dovuto essere creativa e risolvere il problema. L'IRHX è adatto per retrofit e nuove applicazioni in data center, senza richiedere una riprogettazione radicale. Questo risultato si ottiene facendo circolare liquido refrigerato vicino alle file di server per rimuovere il calore dalle GPU, che sono densamente assemblate.
Dave Brown, Vicepresidente dei Servizi di Calcolo e Machine Learning di AWS, ha spiegato che le soluzioni di raffreddamento standard non erano adatte alle loro esigenze. Ha affermato che queste opzioni avrebbero sprecato troppo spazio nei data center e utilizzato l'acqua in modo inefficiente. Sebbene tali sistemi possano funzionare per alcuni cabinet presso provider più piccoli, ha osservato che non dispongono della capacità di raffreddamento a liquido necessaria per supportare la scalabilità di AWS.
AWS lancia le istanze P6e con GPU Nvidia Blackwell
AWS ha inoltre appena introdotto istanze P6e che sfruttano la piattaforma GB200 NVL72 di NVIDIA, una piattaforma di supercomputing densa contenente 72 GPU Blackwell in un unico rack. Queste sono progettate per gestire la natura computazionalmente intensiva di modelli di intelligenza artificiale di grandi dimensioni e attività di intelligenza artificiale generativa.
Finora, solo aziende come Microsoft e CoreWeave offrivano questo cluster GPU di ultima generazione. Ora i clienti AWS possono accedere alla più recente e avanzata infrastruttura di addestramento GPU personalizzata per machine learning disponibile nel cloud, basata sulle GPU NVIDIA A100 Tensor Core di ultima generazione raffreddate a liquido.
L'IRHX mantiene queste sacche di cluster a temperature di sicurezza, garantendo prestazioni ottimali senza surriscaldamento. Integrando l'IRHX direttamente nel design del data center, AWS può evitare di dover riadattare intere strutture per il raffreddamento a liquido o di dover sostenere costi di costruzione elevati.
Nel suo annuncio del lancio del P6e, Brown ha sottolineato che, combinando il sistema GB200 NVL72 con l'IRHX di Amazon, i clienti potranno sfruttare una potenza di calcolo senza pari su larga scala. Ciò consentirà inoltre a sviluppatori, ricercatori e aziende di addestrare modelli di intelligenza artificiale molto più ampi, in modo più rapido ed efficiente rispetto al passato.
Amazon rafforza la sua leadership nell'infrastruttura cloud
La spinta a internalizzare la tecnologia di raffreddamento del data center in costruzione rivela ancora di più la più ampia strategia di Amazon di acquisire una quota maggiore della sua infrastruttura. Negli ultimi anni, AWS ha investito molto nello sviluppo di chip, sistemi di storage e dispositivi di rete per alimentare i suoi servizi cloud.
Questi progressi consentono ad Amazon di ridurre ulteriormente la dipendenza da fornitori terzi e di trovare un equilibrio tra prestazioni operative e costi.
Questo approccio ha dato i suoi frutti. Nel primo trimestre del 2025, AWS ha registrato il margine operativo più alto dalla sua creazione e ora è il motore principale della redditività complessiva di Amazon. Il lancio di IRHX rafforza la leadership di AWS nell'innovazione e la sua presenza infrastrutturale nel settore cloud.
Anche altri colossi della tecnologia stanno facendo lo stesso. Microsoft, ad esempio, ha sviluppato i propri chip di intelligenza artificiale e il sistema di raffreddamento personalizzato Sidekicks. Anche Google e Meta stanno studiando come realizzare hardware e sistemi su misura per i carichi di lavoro dell'intelligenza artificiale.
Tuttavia, Amazon ha un vantaggio cruciale: la sua ampia presenza globale di data center e anni di esperienza nella creazione e distribuzione di hardware personalizzato su larga scala. L'IRHX potrebbe contribuire ulteriormente semplificando la sua infrastruttura predisposta per l'intelligenza artificiale, rendendola più efficiente, sostenibile e scalabile.
Cryptopolitan Academy: Stanco delle oscillazioni del mercato? Scopri come la DeFi può aiutarti a generare un reddito passivo costante. Registrati ora