Esiste qualcosa di paradossale nel vedere l’industria tecnologica dell’intelligenza artificiale confrontarsi con una necessità primordiale: l’energia elettrica. In quantità enormi. Servono risorse idriche, infrastrutture elettriche, superfici disponibili, autorizzazioni burocratiche, sistemi di dissipazione termica e territori disposti ad accogliere immensi edifici colmi di processori attivi senza sosta. L’AI appare eterea quando interagisce tramite uno schermo, tuttavia dietro ogni risposta si cela un’infrastruttura concreta, rumorosa, surriscaldata e vorace. Un’infrastruttura che oggi qualcuno propone di trasferire oltre l’atmosfera terrestre.
Il concetto dei data center nello spazio emerge proprio da questa urgenza: ricollocare una porzione dell’apparato che attualmente divora energia e acqua sul nostro pianeta e posizionarlo in orbita, dove l’irraggiamento solare arriva ininterrotto, senza copertura nuvolosa, senza alternanza giorno-notte come la sperimentiamo sulla superficie, e dove il raffreddamento potrebbe avvalersi del vuoto dello spazio. In teoria appare efficiente, quasi visionario. Processori alimentati da celle fotovoltaiche, connessioni laser tra satelliti, elaborazione distribuita sopra le nostre teste. Poi si approfondisce e l’utopia si scontra con la realtà: vettori spaziali, residui orbitali, esposizione alle radiazioni, investimenti colossali, impossibilità di interventi tecnici diretti, normative ancora indefinite e una massa di materiale da lanciare che impressiona solo a immaginarla.
L’impulso deriva dai consumi crescenti delle infrastrutture digitali
Secondo le proiezioni più aggiornate dell’Agenzia internazionale dell’energia, il fabbisogno elettrico mondiale dei data center potrebbe quasi duplicarsi, salendo da 485 TWh nel 2025 a 950 TWh nel 2030, rappresentando circa il 3% della richiesta elettrica globale. Le strutture dedicate all’intelligenza artificiale mostrano un’espansione ancora più marcata: il loro assorbimento energetico potrebbe triplicarsi nello stesso arco temporale. All’interno di questi dati si nasconde l’aspetto meno affascinante dell’AI, quello costituito da armadi server, dispositivi di trasformazione, dissipazione termica e concentrazione elettrica. Un singolo rack avanzato, dalle dimensioni simili a quelle di un elettrodomestico da cucina, potrebbe raggiungere nel 2027 un picco di domanda equivalente a quello di 65 unità abitative e dover dissipare un calore paragonabile a quello generato da 30 sistemi di riscaldamento a combustione.
Ed è proprio qui che l’orbita terrestre inizia a sembrare, almeno per alcuni operatori, una soluzione alternativa. Fuori dall’atmosfera l’energia solare può alimentare pannelli con una regolarità superiore rispetto al suolo. Le strutture spaziali ridurrebbero la necessità di aree edificabili, risorse idriche per la dissipazione termica e nuove reti di distribuzione elettrica locali. Alcune società immaginano reti di satelliti in grado di operare come enormi centri di elaborazione distribuiti, interconnessi tramite laser e alimentati da energia fotovoltaica. Google ha già presentato Project Suncatcher, un’iniziativa sperimentale per collocare in orbita satelliti equipaggiati con chip TPU e connessioni ottiche; il prossimo obiettivo dichiarato prevede il lancio di due prototipi entro l’inizio del 2027, in collaborazione con Planet.
La competizione, tuttavia, ha già assunto dimensioni ben superiori alla mera fase sperimentale. Negli Stati Uniti, la FCC, l’autorità federale che supervisiona comunicazioni e frequenze, ha accettato per la valutazione una domanda di SpaceX relativa a un sistema composto da fino a un milione di satelliti destinati a operare come “Orbital Data Center”. La proposta descrive orbite comprese tra 500 e 2.000 chilometri di altitudine, connessioni ottiche ad alta capacità tra satelliti e possibili integrazioni con la rete Starlink. Nel documento compare persino un riferimento alla civiltà di tipo II della scala di Kardashev, una classificazione teorica che valuta una civiltà in base alla quantità di energia che può sfruttare. Tradotto in termini pratici: l’ambizione è immensa, e altrettanto lo è l’impatto potenziale.
Nel frattempo alcune realtà hanno già iniziato a inviare componenti hardware in orbita. Starcloud-1, lanciato nel novembre 2025, ha trasportato nello spazio una GPU Nvidia H100, un processore utilizzato nei centri di calcolo terrestri più sofisticati. A dicembre, secondo quanto comunicato dall’azienda, il satellite avrebbe eseguito una versione di Gemma e addestrato un modello nanoGPT in orbita. Si tratta di esperimenti iniziali, certamente, ma segnano un passaggio tangibile: il centro di calcolo orbitale ha smesso di essere solamente un’ipotesi teorica da presentazione.
Parallelamente ai server in orbita si sviluppa anche un’altra proposta: utilizzare lo spazio per alimentare i centri di calcolo rimasti sulla superficie. Meta ha annunciato una collaborazione con Overview Energy per portare sulla Terra fino a 1 GW di energia solare spaziale, sfruttando satelliti in orbita geosincrona, a circa 35.400 chilometri sopra l’equatore, capaci di raccogliere energia solare e trasmetterla a impianti fotovoltaici terrestri sotto forma di radiazione nel vicino infrarosso. La dimostrazione orbitale è programmata per il 2028, con possibile fornitura commerciale dal 2030. Anche in questo caso la promessa è allettante: consentire agli impianti solari già operativi di produrre energia anche quando sulla superficie il Sole è assente.
L’aspetto più intuitivo riguarda l’approvvigionamento energetico. Al di sopra dell’atmosfera, l’irraggiamento solare può risultare molto più vantaggioso rispetto al livello del suolo. Un’orbita eliosincrona al terminatore, quella che segue approssimativamente la linea di demarcazione tra giorno e notte, consentirebbe a un satellite di mantenere una faccia sempre esposta al Sole e l’altra più fredda, utile per dissipare calore. Fin qui, tutto relativamente lineare. Poi emergono le dimensioni. Uno scenario citato dal servizio di ricerca del Parlamento europeo menziona, per un centro di calcolo spaziale da 5 GW, pannelli solari con una larghezza fino a 4 chilometri per lato. Per un satellite più contenuto, equivalente a un singolo rack, potrebbero essere sufficienti superfici molto più ridotte, attorno a 60 metri quadrati e 28 kW, come avviene su sistemi della Stazione spaziale internazionale. La scala modifica radicalmente tutto.
Il raffreddamento rappresenta la parte meno poetica. Affermare che lo spazio è freddo serve a poco, perché nel vuoto il calore si disperde quasi esclusivamente per irraggiamento. Servono circuiti con fluidi refrigeranti e ampi radiatori orientati verso lo spazio profondo. Questi radiatori possono avere dimensioni paragonabili ai pannelli solari e pesare considerevolmente. Una perdita causata da micrometeoriti o frammenti orbitali potrebbe danneggiare il sistema di raffreddamento e quindi l’elettronica. A questo si somma l’esposizione alle radiazioni, capace di alterare bit, degradare componenti e ridurre l’affidabilità dei processori. Servono schermature, ridondanza, correzione degli errori, tolleranza ai guasti. Tutte caratteristiche che nello spazio si traducono in massa, e la massa in orbita si traduce in costi.
Anche la manutenzione assume un significato diverso. Sulla superficie un tecnico accede alla sala, sostituisce un componente, verifica un collegamento, interviene sull’impianto. In orbita ogni malfunzionamento diventa un problema molto più complesso. I carichi AI intensivi possono aumentare il tasso di guasto dei processori; se si aggiungono radiazioni e cicli termici, la durata operativa può ridursi. Le opzioni restano limitate: ridondanza, sostituzione dei satelliti a fine vita oppure manutenzione robotica, ancora tutta da consolidare come pratica ordinaria. La stessa comunicazione tra satelliti richiede precisione estrema: per garantire collegamenti ottici ad alta velocità, i satelliti potrebbero dover viaggiare a distanze molto ravvicinate, anche di poche centinaia di metri. In un’orbita già congestionata, questa è una considerazione che andrebbe valutata con attenzione.
C’è poi la questione della massa. Un centro di calcolo orbitale da 1 GW, simile per scala ai più grandi impianti terrestri in costruzione, potrebbe richiedere oltre 10.000 tonnellate di carico utile da trasportare nello spazio: più di tre volte la massa complessiva lanciata in orbita nel 2025. Un centro di calcolo completo potrebbe richiedere oltre cento lanci, seguiti da lanci annuali per sostituire satelliti a fine vita. Nel 2025, tutti i lanci spaziali mondiali messi insieme sono stati circa 300. L’idea di trasferire il problema oltre l’atmosfera comincia così a riportare tutto molto vicino alla superficie: rampe di lancio, carburanti, ossigeno liquido, emissioni, filiere industriali, infrastrutture portuali e spaziali.
Anche le normative rimangono sulla superficie
La questione giuridica è meno spettacolare di un lancio, tuttavia potrebbe avere un peso equivalente. Il Trattato sullo spazio extra-atmosferico, firmato negli anni Sessanta, stabilisce che lo spazio non appartiene a nessuno Stato, mentre gli Stati di lancio restano responsabili delle attività spaziali. Quel trattato, però, nasceva in un contesto senza cloud computing, senza AI generativa, senza server orbitanti pieni di dati personali, industriali, militari o sanitari. Quando un dato europeo viene elaborato in un satellite registrato altrove, all’interno di una costellazione gestita da una società privata, collegata a stazioni di terra in più Paesi, il concetto di confine diventa meno definito del solito.
Nel dibattito comincia infatti a comparire l’idea di una sorta di “bandiera digitale”, cioè un criterio giuridico per stabilire quale normativa si applica ai dati trattati nello spazio. Il GDPR europeo, per esempio, regola anche trasferimenti di dati verso Paesi terzi. Un satellite, però, non è un Paese terzo nel senso convenzionale. È un oggetto spaziale, registrato, lanciato, controllato, collegato. Eppure può trattare dati terrestri in quantità enorme. La zona grigia è evidente e riguarda anche sicurezza informatica, responsabilità in caso di incidente, accesso governativo ai dati, rapporti tra diritto spaziale e diritto digitale.
Sul piano ambientale la promessa dei centri di calcolo nello spazio va maneggiata con cautela. L’assenza di consumo diretto di acqua dolce in orbita può rappresentare un vantaggio. L’energia solare abbondante può esserlo ancora di più. Però i lanci hanno un impatto, i satelliti a fine vita rientrano in atmosfera, rilasciano materiali e possono contribuire a una forma di inquinamento dell’alta atmosfera ancora poco compresa. Le costellazioni molto grandi aumentano il rischio di congestione orbitale, collisioni, detriti e interferenze con l’osservazione astronomica. La regolazione delle orbite basse passa ancora in modo indiretto anche dall’assegnazione dello spettro radio da parte dell’Unione internazionale delle telecomunicazioni, spesso secondo logiche da “chi arriva prima”. Per infrastrutture di questa scala, sembra inadeguato.
La versione più realistica della storia, quindi, è questa: i data center nello spazio potrebbero diventare tecnicamente realizzabili prima di quanto sembrasse qualche anno fa. Il loro ostacolo principale resta economico, con costi futuri molto legati al prezzo dei lanci e alla capacità di costruire, sostituire e gestire hardware orbitale su scala industriale. Alcune stime ottimistiche immaginano costi circa tre volte superiori rispetto agli impianti a terra nel breve periodo, con grandi margini di incertezza. Il fatto che qualcosa sia possibile, però, non lo rende automaticamente sensato, né leggero, né pulito.
Forse una parte dell’elaborazione dell’AI finirà davvero in orbita. Forse servirà prima per missioni spaziali, osservazione della Terra, elaborazione dati vicino ai satelliti, poi per carichi più grandi. Forse resterà una nicchia costosa, buona per annunci e prototipi. Intanto, sulla Terra, i centri di calcolo continuano a chiedere energia, acqua, spazio e consenso. Guardare verso l’alto può aiutare a innovare. Sfuggire alla fisica, invece, funziona molto peggio. Anche con un razzo.
Fonte: Nature
