Project Suncatcher

È uscito un preprint di Google relativo a un nuovo progetto, Project Suncatcher, con l’idea di lanciare 81 satelliti a partire dal 2027 per costruire il primo datacenter vero nello spazio.
Qui c’è il preprint:

Qui il sito dell’iniziativa, con un’animazione degli 81 satelliti in orbita che ne evidenzia la posizione relativa:

Non ci sono dettagli sul singolo satellite, ma alcuni numeri evidenziano che si tratta qualcosa di significativo, non di test. Tra due satelliti contigui, la comunicazione potrebbe arrivare a 800 gigabit al secondo, che è ragguardevole.
La potenza impegnata non è specificata, ma si tratterà a mio avviso di qualche megawatt. Stimerei qualcosa di intermedio tra un satellite tipo viasat, con 25kw di produzione, e i 200kW (di picco) della stazione spaziale, quindi tra i 2 e i 16 MW.
Di stazioni a terra non c’è da preoccuparsi, visto che probabillmente il caso d’uso sarà il training dell’ai, la fase che richiede più energia, la lanci e aspetti i risultati per giorni, non c’è bisogno quindi di collegamento in tempo reale.

3 Mi Piace

Questa analisi tecnica sulla convenienza dei data center nello spazio è particolarmente interessante per la chiarezza e perché l’autore è un esperto di entrambi i settori coinvolti, lo spazio e i datacenter, avendo lavorato sia per la NASA che per Google.

6 Mi Piace

Nello stare sempre all’erta per i contenuti generati dall’IA, mi sono chiesto: se questo è davvero un esperto così perfetto, si saprà chi è… se non c’è il nome potrebbe essere lecito sospettare.

Ebbene sull’About del sito viene direttamente specificato che l’autore vuole restare anonimo (per quasi troppo ottimi motivi).

Ho letto velocente un po’ degli altri articoli (tutti suoi), e il sospetto mi è rimasto.

Non lo so eh, dico solo di stare attenti. Magari qualcuno di voi segue questo sito da tempo e ha buone ragioni per dire che sia autentico. Io l’ho solo spulciato.

1 Mi Piace

L’autore è Sarah Thompson. Magari dice di non volere essere citata, però si pubblicizza sui social.
L’articolo di Thompson è molto qualitativo, non fa un’analisi quantitativa dei dati, come è giusto che sia per gli articoli divulgativi.
Nella pubblicazione di Arcas et al., invece, il paper linkato al primo post, ci sono risposte, sebbene non complete, alle obiezioni dell’articolo di Thompson.

La prima obiezione riguarda la potenza elettrica. Le stime di Thompson sembrano volutamente esagerate. Prima di tutto, all’inizio parla di TPU e GPU, ma poi si limita al confronto solo con le GPU, perché ovviamente commercialmente più disponibili. Le TPU hanno un consumo di circa 200 W a unità (TPUv4, studiate apposta per il risparmio energetico, non ho i dettagli di Trilluim) al posto di 700 W, e un cluster AI di Google per il training ne usa circa 20.000, non 100.000.

Sulla dissipazione del calore ne ho parlato già tante volte, invano, qui sul forum. Il problema è già risolto in un sistema senza accumulo, come quello di project Suncatcher. Un satellite quando raggiunge la temperatura di equilibro dissipa quanto assorbe. Non importa se l’energia del Sole è prima trasformata in elettrica dai pannelli e poi in calore dalla CPU. Il flusso è costante. Non ci sono batterie nel project Suncatcher, quindi non ci possono essere dei picchi. Il sistema dissipa sempre tanti Watt quanti ricevuti dal Sole. Il modello comparativo con la ISS non ha senso con questo progetto (con altri tipi di satellite sì, sono d’accordo con lei).

Sulle radiazioni invece lo studio è conclusivo. Intanto, per rispondere alla domanda di Thompson, l’orbita è SSO, e sinceramente mi pare molto strano che si ponga questa domanda, è l’unica orbita dove avrebbe un senso collocare questo tipo di sistemi. La Trillium è stata testata contro i SEU a livelli di radiazioni leggermente superiori a quelli in SSO, dimostrato l’efficacia di funzionamento in quell’ambiente. Sul paper ci sono in dettaglio in numeri, sull’articolo di Thompson si cita solo una frequenza di SEU più alta senza fare una stima numerica. Da notare che i SEU ci sono pure a Terra, anzi la settimana scorsa era l’argomento più trattato dagli appassionati di aeronautica.

Sulle comunicazioni tra membri del cluster si superano tranquillamente i 100 Gb/s citati come estremo inferiore nell’articolo divulgativo. Gli 800 Gb/s raggiunti sono in un abiente ideale, è vero, ma siamo comunque quasi a un ordine di grandezza maggiore. Sulle comunicazioni a Terra ammetto di non essermi documentato a sufficienza e non commento.

Sulle conclusioni mi trova d’accordo, è fattibile ma difficile, infatti sarebbe un prototipo. I costi sarebbero maggiore di farlo a Terra e le prestazioni peggiori. Manca la considerazione sulla scalabilità, che è proprio quello il motivo che spinge a sviluppare la tecnologia. Un datacenter AI in orbita scala senza problemi oltre i limiti attuali della richiesta, un datacenter AI a Terra no.

Costo e prestazioni non sono accattivanti al momento. In futuro lo saranno. La scommessa sta solo nel determinare il tempo di ritorno dell’investimento.

3 Mi Piace

Momento, il problema della dissipazione è cardinale, altro che inesistente. L’hardware deve lavorare a meno di 70-75°C per avere una vita utile non ridotta. A quella temperatura quanti cmq di superficie esposta all’ombra ti serve per dissipare 1 kW ammesso e non concesso sia conveniente realizzare dei sistemi di captazione del calore dai singoli die in gruppi con poca massa e funzionalità?

Ti serviranno 3-4 mq di superficie puramente in vista dell’eternità per dissipare 1 kW. Un datacenter deve dissipare MW, se per te è una cosa semplice… Se hai coefficienti di vista <1 (superfici che vedono la Terra, o altre superfici calde) vai su. Per me rimane una cosa tecnicamente priva di fondamenta

2 Mi Piace

È uguale per tutti i satelliti più produce, più è ampia la superficie del satellite, più dissipa. Se non ha accumulo, è scalare senza problemi. Nessun satellite in orbita si sta surriscaldando. Per questo è uguale.

Un satellite di cemento e uno con un datacenter superenergivoro, se hanno la stessa forma e la stessa albedo, si scaldano uguale. Se entrambi assorbono (e riemettono) la stessa quantità di radiazione solare, il fatto che nel secondo caso venga utilizzata per fare calcoli, non fa differenza.

1 Mi Piace

Ragazzi un datacenter consuma decine di MW, di cosa stiamo parlando? È una cosa senza capo né coda, mi chiedo come possa essere anche solo pensata. Un satellite è una caccola in termini di potenza, cosa ne mandi su 100.000 per fare il lavoro di 1 medio data center terrestre che allestisci con 1 milionesimo dei costi?

1 Mi Piace

Ok, l’idea non ti piace. Prima criticavi il problema della dissipazione, ora quello della produzione. Il concetto sulla dissipazione è chiaro, visto che sei passato ad altro?

Non siamo più agli inizi degli anni 2000, ormai le costellazioni di satelliti sono realtà. Guarda Starlink, giusto per fare un esempio noto a tutti. È un’infrastruttura in produzione, ha circa 10.000 satelliti e ognuno ha circa 10 kW. Siamo a 100 MW di produzione di infrastruttura. Non surriscalda e ha un costo tale da generare profitto, a quanto ne dice Musk (ci dobbiamo fidare).

Dov’è la differenza? Sinceramente non riesco a capire la tua obiezione.

1 Mi Piace

Starlink non centra niente. Si parla di calcoli non di connessione. Se vuoi fare una rete di connessione satellitare, devi per forza farla con dei satelliti

Ti faccio un esempio spicciolo. Questa primavera ci siamo occupati di un datacenter nel nord italia dove ci sono 12 MW di gruppi frigoriferi, e si parla di qualcosa come il 5% della potenza di calcolo installata in italia in datacenter, il nulla.

Per fare la stessa cosa, ipotizzando di usare 10 kW a satellite e che siano tutti usati per il calcolo, servono 1200 satelliti. Un datacenter ha una vita media dei componenti ad alta intensità di 3 anni. Se vuoi che la tua infrastruttura sat rimanga utile ha una vita utile di 3 anni.

Ipotizzando un costo di lancio di 2500€/kg e una massa di 1 tonnellata a satellite (prendo starlink come ordine di grandezza) hai un costo di lancio di 3 miliardi di euro, senza hardware.

Non ha senso, se uno lo vuole fare come supremazia tecnologica ok va bene tutto ma dal punto di vista tecnico economico è un assurdo.

2 Mi Piace

Starlink c’entra eccome, è un esempio che ti ho fatto di fattibilità. Anzi i numeri mi sembrano proprio calzanti, la vita media di un satellite è la stessa, 3-5 anni più o meno, stessa potenza e stesso ordine di grandezza.
I frigoriferi non ti servono nello spazio.

Il costo è lo stesso di Starlink.

Scusa ma non divagare, stai andando fuori tema, cosa non ti torna che come produzione di energia elettrica, dissipazione, numero di satelliti è la stessa cosa? Questa è proprio la dimostrazione di fattibilità. Ti torna o no?

Riscrivo il messaggio.

Punto uno: un satellite che impegna potenza per emettere radiazioni come starlink non ha gli stessi requisiti di dissipazione con radiatori di un satellite che la stessa potenza non la emette con un’antenna ma la deve dissipare partendo da elementi che scaldano.

Per questo la superficie radiante di uno starlink non è paragonabile a quella di un satellite di calcolo.

Punto due: starlink non ha alternative, serve una rete satellitare

Punto tre: conosco chi ha centri di calcolo importanti e la manutenzione non è una cosa che non fai mai. In orbita vuol dire avere dei fuori servizio terminali.

Conclusione: tecnicamente puoi andare anche su Venere. Fare una costellazione di calcolo in orbita non è conveniente sotto nessun punto di vista e non si faranno. Per ogni W consumato devi gestire 1 W dissipato in calore. Non prendere per esempio un satellite radio, prendi i sistemi di controllo temperatura della ISS e quello che richiedono come infrastruttura, replicala per una potenza decine / centinaia di volte superiore, per avere un centro di calcolo che ora che lo hai lanciato è vecchio e ti copre una frazione infinitesima della potenza mondiale costando un bilancio di un piccolo stato.

1 Mi Piace

Invitiamo a mantere la discussione sugli aspetti tecnici evitando toni accesi e polemiche personali.

Se te la racconto così ti convinco ad investire nel prossimo datacenter costellazionato orbitale di FA?

Ipotizza anche che non paghi il manutentore dell’hardware (ne il tecnico, ne quello delle pulizie, quello della sicurezza con la pistola), ne lo smaltimento del rifiuto industriale (deorbitazione), ne i consumi elettrici (fotovoltaico), non credo ci sia nemmeno l’IMU sulla prima orbita…

Sul costo di connessione (occupazione della frequenza, ma solo con Terra: tra satelliti si andrà di laser) e sulla prevenzione delle collisioni c’è da ragionarci…

Pure la ISS consuma qualcosa e genera calore al suo interno, eppure dissipa… basta adeguarsi (radiatori a go-go).

I radiatori della suddetta mica funzionano all’ombra, gli basta prendere il Sole di taglio…

Perché pensi che solo una stazione spaziale possa essere dotata di radiatori?

Le antenne utente piccole a Terra di Starlink scaldano*, figurati quanto di più hanno da dissipare quelle più grandi in orbita che sono isolate dal vuoto (*nemmeno hanno gatti cui cedere calore, spero…)

Non è che se hai una certa idea di Starlink uno Starlink con datacenter annesso o un datacenter wifi puro deve essere fatto per forza allo stesso modo

Poi lo sai che certe aziende possono avere finanziatori che le sostengono anche in perdita per anni ed anni ed anni… Prima o poi l’ingegneria troverà la quadra.

Pare che i gatti amino le antenne starlink non tanto per il calore dell’elettronica che le fa funzionare ma per il riscaldatore che fonde la neve e il ghiaccio che potrebbero ricoprirle.

3 Mi Piace

E non hanno bisogno di una riscaldatina nemmeno quando sono all’ombra nello spazio?

Oppure il mercato realizzerà una salutare pulizia, molti soldi saranno deorbitati. Magari qualcuno vedrà il proprio fondo pensione consumarsi in una lunga scia nel cielo.

Non voglio commentare la presunta valutazione di SPX a 800 G$.

1 Mi Piace

Riguardo alla scalabilità, intendevo la capacità di aumentare la produzione di energia elettrica. Sulla Terra è poco scalabile, mentre nello spazio è scalabile linearmente.
A corredo, questo è il rapporto dell’IEA sulla previsione dell’utilizzo di energia elettrica a supporto della AI entro il 2030. Lo scenario base prevede il consumo di circa 1000 TWh, che è praticamente circa la metà della produzione nucleare mondiale. Chiaramente è impensabile dirottare tutta l’energia verso le AI, visto che il suo utilizzo è necessario ad altri bisogni primari.
https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai

Ci sono altre soluzioni più economiche in previsione a breve termine, come l’utilizzo di SMR (reatttori modulari) all’interno di datacenter, come riportato in fondo all’articolo da IEA. Il vantaggio di Project Suncatcher è la scalabilità dell’operazione a lungo termine, non un’operazione di ritorno economico immediato.

Il rapporto dell’IEA non tiene conto della possibilità che l’IA possa rivelarsi una bolla (non ne tiene conto almeno fino al 2030). Tuttavia è un timore che condividono sempre più persone e sembra tutt’altro che infondato.

In quel caso probabilmente non avremmo bisogno di IA spaziali tanto presto.

2 Mi Piace

Ciao potresti dare ulteriori dettagli?

I dispositivi che oggi si usano nei Datacenter hanno densità molto spinte sia in termini di unità di calcolo che di RAM

che tipo di schermature si possono fare senza introdurre peso (e quindi spreco che rende antieconomica l’operazione) oppure ridondanza (che diluisce la capacità di calcolo e quindi nuovamente antieconomica)?

Mi viene da pensare che se ci sono sistemi leggeri che permettano di schermare dalle radiazioni con efficacia e leggerezza li useremo per gli essersi umani e invece… ci sono allora dei sistemi di CRC “densi ed economici” ?