Nuova frontiera dei data center: l’intelligenza artificiale si proietta nello spazio

Si sposta nello spazio la ricerca di energia elettrica per costruire data center come stazioni orbitanti. Intanto, sulla Terra si cercano soluzioni sostenibili per ridurre il loro ambientale.

La corsa all’Intelligenza Artificiale e la necessità di grandi infrastrutture per ospitarla, alimentarla, raffreddarla, trasmetterla, travalica i confini. E la Terra inizia a presentare il conto: energia, acqua, aree disponibili non sono risorse illimitate. La nuova frontiera è costruire i data center come stazioni orbitanti nello spazio.

Fino a pochi anni fa sarebbe sembrata fantascienza. Oggi è entrata nel dibattito industriale. Non perché qualcuno abbia deciso di spostare il computing e i server nello spazio, ma perché la scala del problema è cambiata. L’intelligenza artificiale non è solo software, ma infrastruttura. Il “cloud”, la nuvola, lo storage dei dati, gli algoritmi per farli girare, sono infrastruttura. E l’infrastruttura ha bisogno di energia elettrica continua, di sistemi di raffreddamento, di spazio fisico e di reti sempre più potenti.

Dagli Usa all’Italia, il boom dei data center

I numeri rendono evidente la trasformazione in atto. Negli Stati Uniti, il Paese con la più alta concentrazione di data center al mondo, il loro consumo energetico è già circa il 4,4% dell’elettricità nazionale, secondo il Department of Energy (DOE) e potrebbe arrivare fino al 12% entro il 2028. In termini assoluti, significa passare da circa 176 TWh a oltre 500 TWh in pochi anni.

Su scala globale, le stime indicano una crescita altrettanto impressionante: entro il 2030, il consumo di elettricità dei data center, secondo l’International Energy Agency (IEA), potrebbe superare i 900 TWh annui. Tanto per avere un’idea, si tratterebbe di un livello paragonabile all’intero fabbisogno elettrico di un paese industriale come il Giappone.

Il consumo elettrico dei data center negli Stati Uniti è destinato a triplicare, spinto dall’esplosione dell’intelligenza artificiale

Oggi, secondo Data Center Map, ci sono oltre 11mila data center distribuiti in 174 Paesi: circa 4mila sono negli Stati Uniti, 500 nel Regno Unito, 500 in Germania, 216 in Italia, e 360 in Cina, anche se il numero potrebbe essere significativamente sottostimato in mancanza di informazioni ufficiali.

Il loro funzionamento non è solo una questione di energia. Il raffreddamento dei server richiede enormi quantità d’acqua, in alcuni casi milioni di galloni al giorno. E mentre la domanda cresce, aumentano anche le resistenze locali: uso del suolo, impatto ambientale, pressione sulle reti elettriche. I data center stanno diventando infrastrutture critiche, al centro di questioni economiche, ambientali e geopolitiche.

Entro il 2030 i data center potrebbero superare il fabbisogno energetico di un Paese industriale come il Giappone

Intelligenza artificiale e infrastrutture: dalla Terra allo spazio

È in questo contesto che ha preso forma l’idea di portare una parte del calcolo oltre la Terra. Uno studio pubblicato da Aspen Institute Italia sul numero di Aspenia dal titolo Infrastrutture intelligenti affronta il tema con un approccio concreto, individuando diverse possibili traiettorie, dalle applicazioni di edge computing in orbita fino a ipotesi più ambiziose di costellazioni di calcolo e sistemi di archiviazione off-planet pensati per la resilienza globale.

«All’inizio del 2026 – scrive su Aspenia Giorgia Rau, astrofisica e professoressa alla Catholic University of America – i data center nello spazio non sono più un singolo titolo speculativo, ma un insieme crescente di esperimenti, alcuni già in atto, molti annunciati, che testano se il calcolo orbitale possa evolvere dall’edge computing a un autentico livello infrastrutturale».

A spingere in questa direzione non è un impulso futuristico, ma una combinazione di vincoli molto concreti: disponibilità di energia elettrica, tempi autorizzativi, accesso alle risorse, impatto ambientale.

Sono 11mila i data center attivi e distribuiti in 174 paesi, una rete globale con impatti su energia, acqua, territorio e consenso sociale

Negli Stati Uniti e in Europa, la costruzione di nuovi data center è sempre più oggetto di dibattito pubblico. Il tema si intreccia con la sovranità digitale, la sicurezza e la resilienza delle infrastrutture.

Eppure, proprio quando l’idea sembra aprire nuove possibilità, entra in gioco un altro tipo di realismo. Lo studio Aspen lo sottolinea con efficacia: lo spazio non è un ambiente “facile”. Un data center orbitale deve espellere energia termica attraverso radiatori, rendendo la gestione del calore uno dei principali vincoli progettuali. A questo si aggiungono altri fattori: la radiazione che degrada l’elettronica, la difficoltà di manutenzione, la latenza nelle comunicazioni, il rischio di detriti orbitali, l’impatto ambientale dei lanci.

In altre parole, spostare il problema nello spazio non significa eliminarlo, ma trasformarlo. Il dibattito si gioca così su un equilibrio sottile tra visione e vincoli. Elon Musk, fondatore di Tesla e Space X, ha sintetizzato il punto in modo diretto: il limite dell’intelligenza artificiale non saranno i chip, ma l’energia. Se la domanda di calcolo cresce di ordini di grandezza, allora anche le infrastrutture devono farlo.

Lo spazio emerge come possibile estensione del sistema digitale, tra edge computing e storage off-planet

In questa prospettiva, lo spazio diventa una possibile estensione del sistema, una piattaforma dove l’energia solare è abbondante e quasi continua.

Dall’altra parte, l’approccio scientifico invita a misurare con precisione questi scenari, a capire se e quando possano essere sostenibili dal punto di vista tecnico, economico e di impatto ambientale. Non è una posizione che frena l’innovazione, ma che ne definisce i limiti reali.

«Come in molte frontiere – si interroga l’astrofisica Giorgia Rau – la domanda cruciale è non solo “Possiamo costruirlo?”, ma “Possiamo costruirlo in modo robusto, sostenibile, e compatibile con i beni comuni scientifici e ambientali da cui tutti dipendiamo?».

Grandi gruppi come Webuild sono al lavoro nella costruzione di data center ad alta tecnologia e sostenibilità

Lo sviluppo dei data center sulla Terra, tra digitalizzazione e sostenibilità

Mentre il dibattito guarda al cielo, la trasformazione è già in corso sulla Terra. I data center sono diventati una nuova categoria di infrastruttura: richiedono livelli di complessità progettuale elevatissimi, integrazione con reti elettriche avanzate, standard ambientali sempre più stringenti, continuità operativa assoluta. Non sono più semplici edifici tecnologici, ma sistemi critici per l’economia e la società.

In questo spazio si inserisce l’attività di grandi aziende come Webuild, che attraverso la controllata CSC Costruzioni, è impegnata nella realizzazione di infrastrutture ad alta tecnologia e sostenibilità. È un ruolo che riflette il cambiamento in atto: costruire un data center significa lavorare al punto di incontro tra costruzione, energia e digitale. Significa dare forma fisica a un sistema che, pur essendo percepito come immateriale, dipende da infrastrutture estremamente concrete.

Perché, anche nello scenario più avanzato, il digitale ha sempre bisogno di una base fisica, di un’infrastruttura, alla quale si arriva sempre nello stesso modo: il progetto, il cantiere, la costruzione.