I chip avanzano più in fretta delle infrastrutture che dovrebbero alimentarli e raffreddarli, ridefinendo le opportunità per il mercato.
Il dibattito sull’intelligenza artificiale si concentra su modelli migliori e chip più veloci, ma il funzionamento dei sistemi su larga scala dipende dall’elettricità, dallo spazio disponibile e dai sistemi di raffreddamento. I data center dedicati all’intelligenza artificiale sembrano sempre più impianti industriali per la produzione di energia e il raffreddamento, piuttosto che a strutture IT convenzionali. Se un sito non è in grado di garantire l’alimentazione elettrica e il raffreddamento in sicurezza, il nuovo hardware non diventa un sistema informatico utilizzabile. La capacità è produttiva solo quando sono presenti sistemi fisici.
Perché i data center sono un punto chiave
Sulla carta, la capacità globale sembra ampia, ma gran parte di essa dipende da permessi, aggiornamenti della rete e attrezzature con tempi di consegna lunghi come trasformatori, quadri elettrici e sistemi di backup. Anche dove esiste energia elettrica a livello regionale, fornirla con un’elevata densità di rack e un’affidabilità di livello Tier richiede una riprogettazione dei layout elettrici, una maggiore ridondanza e personale qualificato per la messa in servizio, che scarseggia.
Le grandi strutture nei principali hub spesso richiedono dai 24 ai 72 mesi per essere attivate, con ritardi causati da code di interconnessione, nodi critici nella catena di approvvigionamento e limitazioni di manodopera. Gli sviluppatori e gli hyperscaler si stanno spostando verso mercati secondari con un accesso più rapido all’energia elettrica e approvazioni più chiare.
I sistemi di raffreddamento diventano il fattore decisivo
Il raffreddamento è il secondo limite vincolante. Quello ad aria ha quasi raggiunto il suo limite massimo pratico per l’addestramento dell’AI. I rack di produzione funzionano abitualmente a 50-120 kW, con i sistemi più recenti che raggiungono valori più elevati; a tali densità, il flusso d’aria diventa inefficiente e costoso.
Il raffreddamento diretto a chip con liquido e il raffreddamento ibrido aria-liquido stanno passando dalla fase pilota alla pratica standard nelle nuove costruzioni e nelle ristrutturazioni significative. I siti brownfield possono spesso supportare l’inferenza con soluzioni parzialmente liquide o scambiatori di calore posteriori, mentre i cluster di addestramento densi necessitano di progetti appositamente realizzati e predisposti per il liquido. Intanto gli investimenti nelle infrastrutture di raffreddamento a liquido stanno aumentando.
Non è un ciclo, ma un limite strutturale
Questi vincoli derivano dalla fisica, dalla pianificazione della rete e dai tempi di costruzione. Un rallentamento della domanda non eliminerebbe la necessità di potenziare i sistemi elettrici e termici già vicini ai limiti, e consegne più rapide dei chip non creano capacità effettiva se l’infrastruttura non è pronta.
L’opportunità “pala e piccone” più i rischi
Il valore si sta spostando verso i fornitori di infrastrutture abilitanti: quadri elettrici, trasformatori, UPS, distribuzione di energia, scambiatori di calore, piastre di raffreddamento, unità di distribuzione del refrigerante, refrigeratori e integrazione del circuito del liquido.
Queste aziende lavorano su progetti pluriennali con fatturazione a tappe, offrendo una migliore visibilità dei ricavi e una minore dipendenza dal chip o dall’algoritmo leader. I rischi principali sono legati all’esecuzione: ritardi nei progetti, inflazione dei componenti, carenza di manodopera ed errori di integrazione. Le aspettative del settore prevedono una spesa cumulativa molto elevata per i data center fino al 2030, con una quota maggiore destinata all’alimentazione e al raffreddamento.
Zone critiche
I vincoli sono più evidenti nei centri di primo livello come la Virginia settentrionale, Dublino, Francoforte e Singapore, dove la capacità della rete, le difficoltà burocratiche e l’opposizione della comunità limitano la crescita.
L’espansione si sta spostando verso i mercati secondari degli Stati Uniti e le regioni ricche di energia con risorse idriche o accordi di acquisto di energia (PPA) favorevoli. Per facilitare le approvazioni e migliorare la sostenibilità, gli sviluppatori stanno adottando tecnologie di raffreddamento efficienti dal punto di vista idrico e senza acqua, soprattutto nelle zone con scarsità d’acqua.
Punti salienti per gli investitori
Valutare l’energia reale, non le promesse: quanti megawatt sono effettivamente garantiti, quando saranno disponibili e con quale densità di rack? I sistemi di alimentazione di backup e i profili di carico di picco contano quanto la capacità nominale dichiarata.
- Affidarsi a integratori collaudati: l’esecuzione è il vero vantaggio competitivo. Meglio privilegiare operatori con una comprovata esperienza nel consegnare capacità ad alta densità, pronta per il raffreddamento a liquido, nei tempi previsti.
- Monitorare il mix di raffreddamento: nel breve termine il raffreddamento diretto al chip è destinato a prevalere; l’immersion cooling crescerà nelle aree a densità più elevata. Le soluzioni ibride faranno da ponte per le sale legacy.
- Diversificare l’esposizione: affiancare posizioni centrali su capacità di calcolo e piattaforme a investimenti in infrastrutture energetiche e termiche aiuta a ridurre la volatilità e a migliorare l’equilibrio complessivo.
- Considerare geografia e risorse idriche: i mercati con code di interconnessione più brevi, capacità di rete già collaudata e sistemi di dissipazione del calore a basso consumo d’acqua offrono tempi di monetizzazione più rapidi e minori rischi di esecuzione.
I progressi dell’intelligenza artificiale sono determinati da megawatt disponibili, spazio fisico e capacità di smaltire il calore. Il software conquista i titoli dei giornali; sono l’energia e la gestione termica a dettare i tempi di realizzazione.
Il potere di determinazione dei prezzi si sta spostando verso la capacità realmente disponibile, già messa in servizio, e verso chi può garantire consegne affidabili. Gli asset in grado di trasformare rapidamente gli investimenti in capitale in megawatt operativi ottengono tassi di utilizzo più elevati, contratti di durata maggiore e una visibilità più solida sui flussi di cassa.
La prontezza dell’infrastruttura sta diventando un fattore determinante del rendimento del capitale investito, non più una semplice nota tecnica.
Articolo originariamente pubblicato su Money.it International: AI’s real bottleneck is infrastructure: power, space and cooling
© RIPRODUZIONE RISERVATA