Mer. Set 24th, 2025
La Crescente Importanza dei Data Center nell’Era dell’IA

“`html

La portata è sbalorditiva. Le proiezioni indicano che tra oggi e il 2029 verranno investiti a livello globale circa 3 trilioni di dollari in data center a supporto dell’intelligenza artificiale.

Questa stima, fornita da Morgan Stanley, specifica inoltre che circa la metà di questo capitale sarà destinata ai costi di costruzione, mentre la parte restante sarà destinata all’hardware di fascia alta essenziale per la rivoluzione dell’IA.

Per contestualizzare questa cifra, si avvicina alla produzione economica totale della Francia nel 2024.

Nel Regno Unito, si prevede che verranno costruiti ulteriori 100 data center nei prossimi anni per soddisfare la crescente domanda di capacità di elaborazione dell’IA.

In particolare, alcune di queste strutture saranno sviluppate per Microsoft, che ha recentemente annunciato un investimento di 30 miliardi di dollari nell’infrastruttura IA del Regno Unito.

Ciò solleva la domanda: cosa distingue questi data center incentrati sull’IA dalle strutture convenzionali che ospitano server di computer che supportano attività quotidiane come l’archiviazione di foto personali, la gestione di account di social media e l’esecuzione di applicazioni aziendali?

Inoltre, questo ingente investimento è giustificato?

I data center si stanno espandendo in scala da anni. Il termine “hyperscale” è stato introdotto per classificare i siti che richiedono decine di megawatt di potenza, che da allora è stato superato da “gigawatt”, che rappresenta una capacità mille volte maggiore.

Tuttavia, l’IA ha accelerato drasticamente questa tendenza. La maggior parte dei modelli di IA si basa su chip per computer specializzati di Nvidia per eseguire compiti complessi.

Questi chip Nvidia sono alloggiati in grandi armadi, ciascuno dei quali costa circa 4 milioni di dollari, e sono fondamentali per comprendere le caratteristiche uniche dei data center di IA.

I modelli linguistici di grandi dimensioni (LLM) utilizzati per addestrare il software di IA richiedono la suddivisione del linguaggio in minuti componenti di significato. Ciò richiede una rete di computer che operi all’unisono e in stretta prossimità fisica.

La prossimità è fondamentale perché ogni metro che separa due chip aggiunge un nanosecondo, ovvero un miliardesimo di secondo, al tempo di elaborazione.

Sebbene apparentemente insignificanti, questi ritardi si accumulano in un intero magazzino di computer, diminuendo le prestazioni complessive essenziali per le applicazioni di IA.

Gli armadi di elaborazione dell’IA sono strettamente impaccati per ridurre al minimo la latenza e consentire l’elaborazione parallela, consentendo al sistema di funzionare come un computer unificato ad alte prestazioni. Questa enfasi sulla densità è un fattore chiave nella progettazione dei data center di IA.

Questa densità mitiga i colli di bottiglia di elaborazione che si trovano nei data center convenzionali in cui i processori sono distanziati di diversi metri.

Tuttavia, questi densi array di armadi consumano quantità significative di energia, con l’addestramento LLM che porta a picchi sostanziali di domanda di elettricità.

Questi picchi sono paragonabili a migliaia di famiglie che accendono e spengono contemporaneamente i bollitori ogni pochi secondi.

Tale domanda fluttuante richiede un’attenta gestione della rete elettrica locale.

Daniel Bizo, analista presso The Uptime Institute, una società di consulenza ingegneristica per data center, studia professionalmente i data center.

“Rispetto al carico costante dei data center standard, le esigenze energetiche dei carichi di lavoro di IA pongono una pressione unica sulla rete.”

Bizo descrive queste improvvise impennate dell’IA come un problema singolare, simile all’esempio del bollitore sincronizzato.

“La portata del carico di lavoro è senza precedenti”, afferma Bizo. “Affrontare questa estrema sfida ingegneristica è paragonabile al programma Apollo.”

Gli operatori dei data center stanno esplorando varie soluzioni per mitigare le sfide relative all’energia.

Parlando con la BBC all’inizio di questo mese, il CEO di Nvidia Jensen Huang ha suggerito di utilizzare più turbine a gas fuori rete nel Regno Unito per alleviare la pressione sulla rete pubblica.

Ha anche osservato che l’IA stessa potrebbe ottimizzare la progettazione di turbine a gas, pannelli solari, turbine eoliche e sistemi di energia da fusione, promuovendo una produzione di energia sostenibile più экономична.

Microsoft sta investendo pesantemente in progetti energetici, inclusa una collaborazione con Constellation Energy per reintrodurre la produzione di energia nucleare a Three Mile Island.

Anche Google di Alphabet sta investendo nell’energia nucleare come parte del suo obiettivo di operare con energia senza emissioni di carbonio entro il 2030.

Nel frattempo, Amazon Web Services (AWS) afferma di essere già il più grande acquirente aziendale di energia rinnovabile al mondo.

L’industria dei data center è profondamente consapevole del controllo normativo riguardante il potenziale impatto delle strutture di IA sull’infrastruttura locale e sull’ambiente, in particolare per quanto riguarda l’elevato consumo di energia.

Un’altra considerazione ambientale è la significativa fornitura di acqua necessaria per raffreddare i chip ad alte prestazioni.

In Virginia, uno stato americano con una crescente concentrazione di data center che servono importanti aziende tecnologiche come Amazon e Google, è in fase di considerazione una legislazione che collega l’approvazione di nuovi siti ai livelli di consumo di acqua.

Nel Regno Unito, un proposto impianto di IA nel Lincolnshire settentrionale ha incontrato obiezioni da parte di Anglian Water, il fornitore di acqua regionale.

Anglian Water sottolinea che non è obbligata a fornire acqua per scopi non domestici e suggerisce di utilizzare acqua riciclata dal trattamento degli effluenti come agente di raffreddamento anziché acqua potabile.

Date queste sfide pratiche e i costi sostanziali, il movimento dei data center di IA è una potenziale bolla?

Durante una recente conferenza sui data center, un relatore ha usato il termine “bragawatts” per descrivere le affermazioni gonfiate del settore riguardo alla scala dei siti di IA proposti.

Zahl Limbuwala, specialista di data center presso la società di investimento tecnologico DTCP, riconosce importanti domande sulla redditività a lungo termine della spesa per i data center di IA.

“La traiettoria attuale sembra insostenibile. C’è stata molta esagerazione. Tuttavia, gli investimenti devono generare rendimenti, altrimenti il mercato si autocorreggerà.”

Nonostante queste riserve, sostiene che l’IA merita una considerazione speciale nelle strategie di investimento. “L’IA avrà un impatto maggiore rispetto alle tecnologie precedenti, incluso Internet. Pertanto, è concepibile che avremo bisogno di tutti quei gigawatt.”

Osserva che, a parte le esagerazioni, i data center di IA “sono il settore immobiliare del mondo tecnologico”. A differenza delle bolle tecnologiche speculative come il boom delle dot-com degli anni ’90, i data center di IA rappresentano risorse tangibili. Tuttavia, l’attuale ondata di spesa è improbabile che persista indefinitamente.

Il nuovo organismo si concentrerà sullo sviluppo e la regolamentazione dell’intelligenza artificiale sull’isola.

Nvidia afferma che fornirà chip ad alte prestazioni necessari per i data center di OpenAI.

Stockton sta sperimentando l’IA in aree quali il rilevamento delle frodi e la previsione delle esigenze di assistenza sociale.

Il lancio fa parte di una partnership tra l’istituzione e OpenAI, che sviluppa ChatGPT.

I lavori dovrebbero iniziare a dicembre mentre una società tecnologica britannica cerca di creare “2 GW di capacità di supercalcolo”.

“`

**Post length:** 6,867 characters