ASUS lancia una infrastruttura AI raffreddata a liquido basata su piattaforma NVIDIA Vera Rubin

Con questo annuncio Asus propone soluzioni flessibili AI end-to-end ovvero un portfolio completo di sistemi raffreddati a liquido, ibridi e ad aria, con soluzioni storage dai data center all'edge.

Autore: Redazione InnovationCity

Svelata in anteprima mondiale alla GTC 2026 di NVIDIA, la nuova infrastruttura AI di ASUS completamente raffreddata a liquido rappresenta una soluzione completa end-to-end basata sulla piattaforma NVIDIA Vera Rubin ed è ispirata alla filosofiaTrusted AI, Total Flexibility. Questo framework personalizzabile, dalle AI Factory su scala rack al supercomputing AI desktop, fino alle soluzioni Edge AI ed Enterprise AI, consente ad aziende e cloud provider di realizzare cluster AI ad alte prestazioni, energeticamente efficienti e su larga scala, con un PUE e un TCO significativamente ridotti.

Già fornitore dei sistemi  NVIDIA GB300 NVL72  e NVIDIA HGX B300, l’Azienda mette al centro della propria offerta ASUS AI POD, un sistema rack-scale basato sulla piattaforma NVIDIA Vera Rubin, completamente raffreddato a liquido e progettato per i carichi di lavoro AI più intensi.

Grazie a partnership strategiche con i principali vendor di componentistica, ASUS è in grado di offrire diverse modalità di raffreddamento, soluzioni termiche personalizzate e ridondanza per soddisfare qualsiasi esigenza in ambito enterprise. Forte di numerosi successi con importanti clienti in tutto il mondo, ASUS assicura consulenza specializzata, un ampio portfolio di soluzioni AI e storage, possibilità di implementazione rapida delle infrastrutture, integrazioni applicative e servizi continuativi, combinando scalabilità e sostenibilità per generare valore in termini di business e intelligenza operativa.

Dall'infrastruttura all'implementazione: ASUS AI Factory in azione

In prima linea si trova la soluzione di punta XA VR721-E3, basata su NVIDIA Vera Rubin NVL72, che rappresenta un sistema rack-scale completamente raffreddato a liquido con un TDP fino a 227kW (MaxP) o 187kW (MaxQ) e prestazioni fino a 10 volte superiori per watt, progettato specificamente per modelli con trilioni di parametri e carichi di lavoro AI su larga scala.

Con la collaborazione di Vertiv, leader mondiale nelle infrastrutture digitali critiche, Schneider Electric e altre aziende di primo piano, ASUS mette a disposizione un'infrastruttura completa di alimentazione e raffreddamento, progettata per offrire prestazioni senza throttling, dalle installazioni standard ai sistemi avanzati per il raffreddamento a liquido, garantendo ridondanza per ogni esigenza.

Per rispondere anche alle richieste più intensive dei data center, ASUS introduce poi una nuova serie di server basati su sistemi NVIDIA HGX Rubin NVL8, con otto GPU NVIDIA Rubin collegate tramite NVIDIA NVLink di sesta generazione e una larghezza di banda integrata di 800G per GPU. Per facilitare una transizione fluida ed economicamente vantaggiosa verso il raffreddamento a liquido, ASUS propone due soluzioni distinte: XA NR1I-E12L, con raffreddamento ibrido innovativo, e XA NR1I-E12LR, con raffreddamento a liquido al 100%. La soluzione ibrida XA NR1I-E12L combina il raffreddamento a liquido diretto al chip (D2C) per la baseboard NVIDIA HGX Rubin con il raffreddamento ad aria per i due processori Intel Xeon 6.

Il portfolio di ASUS si arricchisce poi anche di nuovi server scalabili ad alte prestazioni, come lo XA NB3I-E12, basato su sistemi NVIDIA HGX B300, in grado di rispondere anche ai carichi di lavoro AI più gravosi, il modello ESC8000A-E13X, basato su NVIDIA MGX integrato con NVIDIA ConnectX-8 SuperNIC per una connettività GPU-to-GPU estrema, e l’ESC8000A-E13P, con NVIDIA RTX PRO 4500 Blackwell Server Edition o NVIDIA RTX PRO 6000 Blackwell Server Edition, per prestazioni eccezionali in elaborazione dati, AI, video e visual computing e con un design ad alta efficienza energetica.

L'impatto concreto del concept ASUS AI Factory è già stato messo alla prova in numerosi casi di successo. Tra questi, segnaliamo che la serie  ASUS ESC8000 ha dato vita a un digital twin per linee di produzione realizzato con le librerie NVIDIA Omniverse e integrato con il workflow multi-camera di NVIDIA, consentendo simulazioni da remoto, riducendo significativamente i rischi di implementazione e massimizzando il valore sin dal primo giorno.

A supporto di questi sistemi e per democratizzare la diffusione dell’AI, ASUS ha costruito un solido ecosistema per la gestione dei dati in partnership con fornitori di storage certificati da NVIDIA, tra cui IBM, DDN, WEKA e VAST Data, con l’obiettivo di offrire soluzioni scalabili e resilienti per applicazioni AI memory-intensive. Si tratta di una gamma completa, che spazia da block storage, modelli VS320D-RS12, JBOD-VS320D-RS12J, object storage OJ340A-RS60 a sistemi software-defined, garantendo flessibilità dall'edge al cloud, dalle applicazioni enterprise ai carichi di lavoro AI e HPC.

L'AI fisica diventa realtà: soluzioni di supercomputing edge full-stack dallo sviluppo all'implementazione

Grazie alle sue competenze specifiche nell’ambito delle soluzioni edge AI full-stack, ASUS mette a disposizione un ecosistema completo per l’AI fisica, fornendo la potenza di calcolo necessaria in ogni fase, dallo sviluppo iniziale al deployment finale.

Il percorso inizia sulla scrivania dello sviluppatore con ASUS ExpertCenter Pro ET900N G3, un supercomputer desktop basato sulla piattaforma NVIDIA Grace Blackwell Ultra. Dotata di interconnessioni NVIDIA NVLink-C2C e 748GB di memoria unificata coerente, questa soluzione è in grado di gestire le operazioni più impegnative del training di modelli di grandi dimensioni. Oltre a questo sistema, è disponibile poi anche l'ultracompatto ASUS Ascent GX10, che offre prestazioni petaflop flessibili basate sul superchip NVIDIA Grace Blackwell, ideale per iterazioni rapide sui modelli e configurazioni edge scalabili.

Queste capacità di sviluppo si traducono nel PE3000N, un motore di inferenza rugged basato su NVIDIA Jetson Thor. Con 2.070 TFLOPS di potenza di calcolo, il PE3000N offre la capacità di elaborazione in tempo reale necessaria per la sensor fusion e la navigazione autonoma. Insieme, questi sistemi formano un workflow unificato in cui modelli aperti come NVIDIA Cosmos  e le librerie vision AI di Metropolis possono percepire, ragionare e agire nel mondo fisico.

Sviluppo di AI agentica sicura e scalabile

Per potenziare ulteriormente queste capacità, ASUS Ascent GX10 e ASUS ExpertCenter Pro ET900N G3 supportano lo sviluppo di AI agentica con NVIDIA NemoClaw, creando una piattaforma agent-ready che consente di sviluppare in locale agenti autonomi sicuri e di lunga durata. Grazie ad ambienti sandbox isolati, controllo degli accessi e inferenza privata on-device, la piattaforma garantisce workflow agentici sicuri e scalabili anche per le applicazioni enterprise AI più gravose.

Enterprise AI: ASUS AI Hub con business intelligence in tempo reale

Per accelerare l'adozione dell'AI nel mondo enterprise, ASUS ha introdotto ASUS AI Hub, una piattaforma AI on-premises chiavi in mano, ottimizzata con server della serie ESC8000 e basata su LLM open source, come NVIDIA Nemotron e Gemma. La piattaforma consente alle aziende di sviluppare assistenti AI personalizzati, implementare sistemi di document intelligence con RAG e mantenere la piena sovranità sui dati per la massima sicurezza e conformità normativa.

Già collaudata internamente su oltre 10.000 dipendenti con picchi di oltre 600 richieste all'ora, accuratezza OCR superiore all'80% e incrementi di efficienza superiori al 30%, la piattaforma dispone di moduli specifici per le diverse applicazioni, tra cui la nuova piattaforma agentica interna di business intelligence di ASUS, che consentono ai vertici aziendali di accedere istantaneamente a informazioni critiche su costi, vendite, margini e altri indicatori chiave tramite semplici domande in un linguaggio naturale, trasformando dati complessi in decisioni manageriali immediate e concrete.

Inoltre, ASUS e NVIDIA collaborano su NVIDIA NemoClaw, uno stack open source che semplifica l'esecuzione di assistenti OpenClaw always-on, in modo più sicuro e con un singolo comando. Il sistema installa il runtime NVIDIA OpenShell, un ambiente sicuro per l'esecuzione di agenti autonomi e modelli open source come NVIDIA Nemotron.

 

Green computing e sostenibilità al centro

La sostenibilità è un pilastro fondamentale della filosofia alla base del design di prodotto di ASUS, che integra soluzioni innovative di green computing sia a livello hardware, sia software per ridurre al minimo il TCO e l’impatto ambientale. Sul fronte hardware, ad esempio, i server ASUS dispongono di Thermal Radar 2.0, che utilizza fino a 56 sensori per ottimizzare in modo intelligente le prestazioni delle ventole, riducendo i consumi fino al 36% e generando un risparmio di circa 29.000 dollari all'anno in un cluster da 1.000 nodi. Questo impegno si estende al software con ASUS Control Center (ACC) Data Center Edition, una piattaforma di gestione unificata che migliora i livelli di sicurezza e include il monitoraggio automatizzato delle emissioni di anidride carbonica, fornendo alle aziende gli strumenti necessari per raggiungere i propri obiettivi ESG.

In conclusione, ASUS, forte di una consolidata expertise nel supercomputing AI, è in grado di offrire soluzioni e servizi completi, dalla consulenza e dall’implementazione alla formazione degli utenti e all'integrazione tramite API compatibili OpenAI. In un'epoca in cui le aziende si confrontano con le sfide dell'era dell’intelligenza artificiale, ASUS garantisce un percorso verso l'innovazione e la gestione intelligente, che è al tempo stesso conveniente, sicuro, potente e sostenibile.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.