Realizzato con il processo all'avanguardia a 3 nanometri di TSMC, ogni chip Maia 200 contiene oltre 140 miliardi di transistor ed è pensato per carichi di lavoro AI su larga scala
Autore: Redazione InnovationCity
Maia 200 è un nuovo acceleratore di intelligenza artificiale progettato per rendere l’intelligenza artificiale più veloce, più efficiente nell’uso di tutti i giorni. Di seguito i dettagli su caratteristiche, prestazioni e vantaggi di Maia 200:
Progettare l’intelligenza artificiale per funzionare in modo efficiente e scalabile negli scenari di utilizzo reale. Maia 200 rende l’AI più efficiente e accessibile, combinando modelli più intelligenti con un’infrastruttura avanzata. Progettato per l’inferenza - il momento in cui l’AI risponde a prompt, genera contenuti o supporta decisioni in tempo reale - rende l’AI più veloce, efficiente e conveniente su scala globale, garantendo prestazioni affidabili e sostenibili negli scenari di uso quotidiano
L’inferenza è dove l’AI entra davvero in gioco. L’inferenza è il momento in cui l’AI fa davvero la differenza. Sebbene l’addestramento dei modelli riceva molta attenzione, la maggior parte dell’uso reale dei modelli avviene successivamente. Tradizionalmente si usava hardware per effettuare i training, potente ma costoso e poco efficiente. Maia 200 è la prima piattaforma di silicon e sistema progettata da Microsoft espressamente per l’inferenza AI, con l’obiettivo di migliorare in modo significativo costo, latenza ed efficienza energetica nell’esecuzione di modelli generativi e di reasoning su larga scala. Maia 200 è anche il sistema di inferenza più efficiente abbiamo mai implementato, con prestazioni per dollaro migliori del 30% rispetto all'hardware di ultima generazione.
Progettato per funzionare concretamente, non solo in teoria. Maia 200 rende l’AI davvero utile, rispondendo in modo immediato, affidabile e su larga scala. Costruito con tecnologie avanzate e ottimizzato per i calcoli dei modelli AI, include un sistema di memoria e networking ridisegnato per mantenere i dati vicini e ridurre ritardi. I primi sistemi Maia 200 sono in fase di deployment nella regione Azure US Central, con estensione prevista ad altre regioni, tra cui US West 3, nei prossimi mesi.
L’AI integrata nei prodotti che usiamo ogni giorno. Maia 200 supporterà una gamma di workload AI di Microsoft, inclusi la generazione di dati sintetici, il miglioramento avanzato dei modelli e le esperienze AI in Microsoft Foundry e Microsoft 365 Copilot. Nel tempo, supporterà anche workload più ampi dei clienti come parte della piattaforma cloud Microsoft. Riducendo costi e complessità nell’esecuzione dell’AI, Maia 200 contribuisce a garantire che le capacità avanzate di AI possano scalare in modo responsabile – senza aumentare il consumo energetico o l’overhead operativo.
Dalla sperimentazione all’uso reale
Maia 200 mostra come il settore stia passando dalla sperimentazione all’infrastruttura, dalla novità alla necessità. Maia 200 non promette solo intelligenza, ma la rende utilizzabile, accessibile e pronta per la vita di tutti i giorni. Maia 200 è la precisione e scalabilità: Maia 200 ottimizza l’uso di formati numerici ridotti, elaborando i workload AI in modo più efficiente, con meno energia, memoria e macchine. Un singolo sistema può eseguire i modelli più grandi attuali con margine, riducendo il numero di chip necessari e il costo per risposta. Realizzato con il processo all'avanguardia a 3 nanometri di TSMC, ogni chip Maia 200 contiene oltre 140 miliardi di transistor ed è pensato per carichi di lavoro AI su larga scala
Per saperne di più su Maia 200 e scoprire tutti i dettagli tecnici è possibile leggere il blog post ufficiale di Microsoft a questo link.
Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.