Cos’è Maia 200? Il chip proprietario con cui Microsoft sfida Google, Amazon e Nvidia

P. F.

27 Gennaio 2026 - 13:43

Microsoft ha presentato Maia 200, il nuovo chip proprietario per l’intelligenza artificiale. Con questa mossa, il colosso di Bill Gates punta a sfidare la concorrenza di Nvidia, Google e Amazon.

Cos’è Maia 200? Il chip proprietario con cui Microsoft sfida Google, Amazon e Nvidia

Microsoft ha presentato ufficialmente Maia 200, la seconda generazione del suo microchip proprietario per l’intelligenza artificiale. La mossa della Big Tech di Bill Gates rientra in una strategia più ampia che punta a ridurre la dipendenza dalle GPU di Nvidia, ma anche di Google e Amazon, che hanno sviluppato anch’essi chip proprietari per competere contro il colosso guidato da Jensen Huang.

Microsoft ha annunciato che Maia 200 è entrato in funzione nei data center dell’azienda nello stato dell’Iowa a partire da questa settimana, mentre una seconda installazione è già prevista in Arizona. In seguito, il chip verrà distribuito in altre regioni cloud degli Stati Uniti.

Il primo modello proprietario, Maia 100, era stato presentato nel 2023 ed era confinato a utilizzi interni. Con Maia 200, invece, l’azienda di Mountain View promette una maggiore disponibilità per l’ecosistema esterno, seppur inizialmente limitata a programmi di accesso anticipato.

Microsoft utilizzerà il nuovo chip per alimentare i modelli del suo team di Superintelligence, guidato da Mustafa Suleyman, oltre che per servizi chiave come Microsoft 365 Copilot e Microsoft Foundry. Parallelamente, l’azienda ha aperto le candidature - rivolte a sviluppatori, ricercatori e laboratori di AI avanzata - per accedere in anteprima al software development kit del chip.

Architettura e prestazioni: cosa c’è dentro Maia 200

Dal punto di vista architetturale, Maia 200 è pensato principalmente per l’inferenza, ossia l’esecuzione dei modelli di intelligenza artificiale già addestrati. Poiché l’addestramento richiede enormi risorse computazionali in una fase iniziale, l’inferenza rappresenta un costo operativo continuo, che incide in modo crescente sui bilanci delle aziende AI.

Con l’aumento dell’utilizzo di chatbot, assistenti digitali e agenti autonomi, l’efficienza dell’inferenza è diventata uno dei principali terreni di competizione tra le aziende tech. Non a caso Microsoft definisce Maia 200 “il sistema di inferenza più efficiente mai distribuito dall’azienda”.

Il chip è prodotto dalla Taiwan Semiconductor Manufacturing Company (TSMC) utilizzando un processo produttivo a 3 nanometri. Ogni Maia 200 integra oltre 100 miliardi di transistor ed è in grado di offrire più di 10 petaflops di prestazioni in precisione a 4 bit e circa 5 petaflops in precisione a 8 bit, segnando un netto miglioramento rispetto alla generazione precedente.

Una delle scelte progettuali più rilevanti riguarda l’ampio utilizzo di SRAM, una memoria estremamente veloce che consente di ridurre le latenze nei carichi di lavoro tipici dei sistemi AI interattivi. Questo approccio favorisce prestazioni più elevate quando il sistema deve gestire un numero elevato di richieste simultanee, come nel caso dei chatbot e dei servizi di AI generativa su larga scala.

Il confronto i chip di Google, Amazon e Nvidia

Secondo i dati forniti da Microsoft, Maia 200 garantisce circa il 30% di prestazioni in più a parità di prezzo rispetto ai chip concorrenti. L’azienda sostiene inoltre che ogni unità integri una quantità di memoria ad alta larghezza di banda superiore a quella dei chip Trainium di terza generazione di Amazon Web Services e delle TPU di settima generazione di Google.

Nel confronto diretto, Microsoft afferma che il nuovo chip offre prestazioni FP4 fino a tre volte superiori rispetto ai chip Trainium e prestazioni FP8 superiori a quelle delle TPU di Google, rafforzando il posizionamento del chip come alternativa credibile alle soluzioni oggi dominanti nel cloud.

La partita, tuttavia, non si gioca solo sull’hardware. Microsoft accompagna Maia 200 con un pacchetto di strumenti software dedicati, pensati per semplificare la programmazione e l’adozione del chip. Tra questi spicca Triton, un framework open source che svolge funzioni analoghe a CUDA, la piattaforma software che rappresenta uno dei principali vantaggi competitivi di Nvidia. Triton può contare su contributi significativi di OpenAI e mira a ridurre le barriere per sviluppatori e aziende interessate a sperimentare infrastrutture alternative alle GPU Nvidia.

Trading online
in
Demo

Fai Trading Online senza rischi con un conto demo gratuito: puoi operare su Forex, Borsa, Indici, Materie prime e Criptovalute.