Mi ero perso due di questi tre programmi che si stanno finanziando in Europa, programmi molto a lungo termine, uno solo dei quali è stato trattato nel forum:
PROTEIN
SOLARIS
ASCEND
Il primo è un prerequisito desiderabile del secondo e il secondo del terzo.
PROTEIN è un programma per lo sviluppo indipendenti di due vettori europei riutiizzalibili superpesanti. L’ESA sta finanziando Arianegroup e RFA per lo studio di fattibilità.
Del secondo ne abbiamo già parlato nel relativo thread sul forum, lo sviluppo di una centrale solare nello spazio per portare energia elettrica sulla Terra.
Il terzo è finanziato solo dalla Commissione Europea a quanto ho capito, senza il coinvolgimento, almeno momentaneamente, di nessuna agenzia spaziale. ASCEND è al momento solo uno studio su come poter creare un datacenter nello spazio. I datacenter di oggi sono molto energivori e richiedono parecchie risorse esclusivamente per il raffreddamento delle macchine. Nello spazio basta mettere i server in ombra. Alcuni datacenter hanno già raggiunto un limite con l’implementazione dell’AI, soprattutto durante la fase di training spesso bisogna stare attenti a non buttar giù la rete elettrica delle città vicine. Io mi ricordo di un progetto simile dell’allora Google nel 2007 (oggi Alphabet), dove avevano pure aperto delle posizioni per lo studio (avevo mandato il CV ma non mi hanno risposto).
Non ci metterei la mano sul fuoco… un sistema così energivoro avrà bisogno di un bel po’ di raffreddamento anche se lo metti permanentemente in ombra, e il raffreddamento nello spazio è molto più difficile, perché si può solo usare il super inefficiente irraggiamento.
A sto punto, se si deve andare in un posto remoto, non converrebbe metterli in Antrartica, dove c’é tanta bella aria fredda a disposizione?
L’irraggiamento è super inefficiente se vuoi raffreddare fino a temperatura ambiente. L’irraggiamento va con la quarta potenza della temperatura, che è più che sufficiente a mantenere stabili temperature accettabili per i server e mortali per gli umani.
In antardide non si possono offrire servizi commerciali e la connettività a bande elevate non è disponibile, cosa che è disponibile dallo spazio.
Il posto esatto non è oggetto dello studio, ma sono presi in considerazione due scenari, a quanto ho capito, l’orbita eliosincrona a 890 km e l’orbita geostazionaria, in entrambe le situazioni c’è illuminazione solare per il 100% del tempo (con forse qualche eccezione negli equinozi in geostazionaria).
I pannelli solari al sole, i radiatori dalla parte opposta, all’ombra, non è mica una novità.
Sinceramente vedo problemi molto più grossi per la realizzazione che raffreddamento e connettività, visto che abbiamo già tecnologie di TRL 9 per queste due cose.
L’Europa non è l’unica a portare avanti queste iniziative, tutte e tre sono già in fase di studio, alcune anche in studio avanzato, da più attori.
Un breve e libero pensiero off topic: al di là gli studi e gli eventuali dimostratori tecnologici, SOLARIS e ASCENT li vedrei bene insieme in un unica struttura orbitante. E se si vuole una persenza umana stabile da quelle parti, potrebbe essere anche una stazione spaziale permanentemente abitata (almeno negli anni che serviranno ad assemblare il vasto parco fotovoltaico).
L’aggiornamento tecnologico dei datacenter per essere competitivi sulla terra è di 5 anni grossomodo. Figuriamoci dover progettare un sistema competitivo da dover lanciare nello spazio. Con l’AI si parla come ordine di grandezza di 50 kW a cabinet. Aria fritta totale proprio
Dimenticavo che un prerequisito di SOLARIS e ASCENT, è il made in space, che in un primo momento vuol dire solo capacità di fare manutenzione. Quindi tutti i componenti saranno sostituibili senza l’intervento necessario di un astronauta. Le varie parti verranno mandate da Terra e sostituite secondo necessità.
Questa non è una tecnologia a disposizione, ma è una cosa che si presume sia realizzabile nei prossimi 20 anni.
Già senza AI siamo a circa a 50 kW di potenza a chassis per gli enclosure grossi (E9000 Huawei assorbe 45 kW ad esempio). Non mi sembrano numeri assurdi se un SBSP è di qualche giga. Non esiste ancora SBSP, lo so.
Non è questione di sbsp, ma di dissipazione termica. Un datacenter spaziale mica lo fai per 1 cabinet, lo fai per MW, dove li dissipi MW con un sistema che non pesi centinaia di tonnellate con una temperatura di 70°C a dire tanto? Tieni sempre presente che è un sistema hot swap per tutto, soprattutto per le interfacce tra i nodi che sono attualmente il limite più che i processori in sé.
Per andare un po’ più sul tecnico, la dissipazione di calore per un corpo con emissività 0,8 (un valore abbastanza comune) a 20°C è di circa 112 W/m². Una bazzecola effettivamente, se si vuole mantenere l’oggetto a una temperature decente per essere abitato.
A 80°C già sale a 576 W/m².
A 120°C, la temperatura nominale massima di una normale CPU di un server siamo a 1315 W/m².
A 150°C, le CPU vendute ai militari, la dissipazione arriva a 2008 W/m².
A 400°C, al momento la temperatura massima che una CPU riesca a sopportare, siamo a 230.000 W/m².
Un rack liscio ha circa 8m². Con qualche aletta per la dissipazione l’area aumenta considerevolmente. A 40m² ci arriviamo facilmente. Bisogna considerare anche che con le alette la dissipazione cresce in modo sublineare rispetto alla superficie, un po’ di calore quindi torna indietro nel sistema, ma è poco.
I conti li ho fatti io con la calcolatrice, potrei aver sbagliato qualcosa a trascrivere.
Questo per dire che già con le tecnologie attuali la dissipazione è una cosa affrontabile. Come ho detto prima, la legge per la dissipazione del calore va con la quarta potenza della temperatura (ricordatevi di convertire in Kelvin), è la legge di Stefan-Boltzmann. All’aumentare della temperatura aumenta tantoXtantoXtantoXtanto la dissipazione.
Poi, questi studi sono finanziati con milioni di euro, prima di far partire un finanziamento ci si ragiona un po’ per vedere se è una cosa quanto meno credibile. E ripeto, il progetto al momento sembra fantascientifico, e ci sono molte altre tecnologie breakthrough necessarie per la realizzazione, la dissipazione del calore in confronto è un problemino semplice semplice.
Le cpu per server giravano a 90-100 gradi 20 anni fa, adesso mooolto meno. Le nuove Blackwell nvidia sono disponibili raffreddate a liquido anche per le connessioni NVlink, ormai si parla di stare sotto i 70 gradi
Ecco qui un render di una compagnia privata che punta a costruire un datacenter nello spazio, 5GW di potenza e 16 km2 di superficie dei pannelli. Non c’entrano niente con l’ESA, e nemmeno con SpaceX anche se si vede un loro vettore a fare la consegna.