La (strana) strategia di Nvidia per accelerare il boom dell’AI

Giorgia Paccione

20/05/2025

Nvidia apre la sua tecnologia ai concorrenti, puntando a diventare l’ossatura delle future infrastrutture AI anche quando i chip non portano il suo marchio.

La (strana) strategia di Nvidia per accelerare il boom dell’AI

Nvidia, leader dei chip avanzati per l’intelligenza artificiale, ha annunciato una svolta strategica che potrebbe rivoluzionare il settore. In occasione del suo discorso di apertura al Computex 2025 di Taipei, il CEO Jensen Huang ha svelato NVLink Fusion, una tecnologia che consente per la prima volta anche ai concorrenti di collegare i propri chip ai potenti acceleratori Nvidia, superando le barriere che finora avevano reso il suo ecosistema chiuso e inaccessibile.

Questa mossa, che vede già coinvolti partner come MediaTek, Marvell, Alchip, Fujitsu e Qualcomm, apre la strada a una nuova era di infrastrutture AI, dove Nvidia punta a diventare la spina dorsale tecnologica anche in sistemi che includono chip di altri produttori.

NVLink Fusion rappresenta un’evoluzione rispetto all’originario NVLink, l’interconnessione ad altissima velocità che permette a più GPU Nvidia di lavorare come un unico superprocessore. La novità? Ora anche CPU e acceleratori non progettati da Nvidia potranno sfruttare questa tecnologia, beneficiando di una larghezza di banda fino a 14 volte superiore rispetto allo standard PCIe 5.0 (128 GB/s), fondamentale per le applicazioni AI che richiedono lo scambio di enormi quantità di dati in tempo reale.

Questa apertura non è solo un gesto di “fair play” tecnologico, ma una risposta pragmatica alla crescente tendenza dei grandi cloud provider e delle aziende hi-tech a sviluppare chip personalizzati per esigenze specifiche. NVLink Fusion consente di integrare questi componenti custom con le GPU Nvidia, offrendo flessibilità e prestazioni senza precedenti.

L’obiettivo però resta chiaro: diventare l’elemento di interconnessione imprescindibile per i data center del futuro, anche quando la concorrenza sceglie di progettare in casa parte della propria architettura AI.

Una strategia che sfida la logica

La decisione di Nvidia di “aprire le porte” ai competitor può sembrare controintuitiva per un’azienda che ha costruito la propria fortuna su un ecosistema proprietario. Ma la posta in gioco è altissima: se NVLink Fusion diventerà lo standard de facto per la comunicazione tra chip nei supercomputer AI, Nvidia manterrà un ruolo centrale nell’industria, anche in scenari dove i suoi processori non sono più gli unici protagonisti.

Al momento, colossi come Intel e Broadcom non fanno ancora parte dell’ecosistema NVLink Fusion, ma la lista dei partner cresce rapidamente. MediaTek e Marvell hanno già annunciato l’adozione della tecnologia per i loro chip custom, mentre l’apertura a Fujitsu e Qualcomm indica che anche i giganti asiatici e della telefonia mobile puntano a sfruttare i vantaggi dell’infrastruttura Nvidia.

Jensen Huang ha sottolineato come questa strategia sia pensata per rispondere al cambiamento radicale delle esigenze di calcolo: non più solo addestrare grandi modelli di AI, ma renderli operativi in applicazioni reali che richiedono prestazioni, scalabilità e interoperabilità. NVLink Fusion si candida così a essere “il motore delle fabbriche di AI del futuro”, secondo le parole del CEO, e a offrire alle aziende la possibilità di costruire sistemi su misura senza rinunciare alle prestazioni delle tecnologie Nvidia.

Nvidia espande la sua influenza con nuovi prodotti e una visione globale

La presentazione di NVLink Fusion non è stata l’unica novità di Computex 2025. Nvidia ha anche annunciato la piattaforma cloud DGX Cloud Lepton, che permetterà agli sviluppatori di accedere a decine di migliaia di GPU in tutto il mondo, e il desktop DGX Spark, pensato per democratizzare l’accesso al calcolo AI di altissimo livello anche per ricercatori e piccoli laboratori.

Inoltre, l’azienda ha confermato la costruzione di una nuova sede a Taiwan e la collaborazione con Foxconn e TSMC per lo sviluppo di un supercomputer AI locale, a testimonianza di una visione sempre più globale e integrata.

La strategia di Nvidia, quindi, per quanto possa sembrare inaspettata rispetto alle logiche tradizionali di concorrenza, consente in realtà all’azienda di mantenere la sua leadership e si inserisce in un contesto in cui la collaborazione e l’interoperabilità sono ormai indispensabili per sostenere la crescita esplosiva dell’intelligenza artificiale.

Iscriviti a Money.it

SONDAGGIO