Da oggi entra pienamente in funzione il supercomputer a bordo della ISS

Della Hewlett Packard e si chiama Spaceborn, un computer capace di 1 teraflop di calcolo. Basato su Linux ed inviato sulla ISS nel agosto 2017 con una Dragon.

I vantaggi sono tutti nello sfruttare la potenza di calcolo per gli esperimenti direttamente in loco, senza dover trasmettere pacchetti di dati da far girare a terra. In prospettiva verrà usato per le future missioni dove la distanza sarà un ostacolo alla elaborazione permettendo anche di risparmiare banda per le trasmissioni.

Le fonti dal sito di hwupgrade e da webnews
Non avevo trovato altri thread, se così fosse ditemelo che cancello da qui e riposto nella sezione giusta

Un saluto!

11 Mi Piace

Mi chiedo a cosa serva avere molta potenza di calcolo a bordo della ISS. Gli astronauti sono in grado di utilizzare direttamente i software di analisi dei dati o i computer verrebbero comunque comandati da terra?

1 Mi Piace

Una parziale risposta è data nel post: fare una prima elaborazione che screma i dati invece di mandarli a terra raw salvaguardando la banda di trasmissione.
Poi magari portano tutto a terra ma con storage su supporto fisico.

1 Mi Piace

Il dubbio nasce dal fatto che la ISS gode di una banda verso terra dell’ordine dei 100+ Mbps, che significa trasferire oltre 60GB al giorno. Si producono così tanti dati a bordo? Mi sembra francamente un botto

1 Mi Piace

Mi correggo. La ISS si appoggia ad un network che trasmette a terra svariati TB di dati al giorno, e la connessione tra la ISS e questo network è a 300 MBps e verrà incrementata.
A queste velocità si possono trasmettere quasi 3 TB di dati al giorno. Posto che non immaginavo, se si parla di questo ordine di grandezza allora poter fare qualche tipo di lavoro, fosse anche solo compressione, diventa rilevante
LINK

1 Mi Piace

Oltre ai vantaggi nell’immediato, viene anche posto l’accento su una futura utilità per missioni con latenze di diversi minuti nelle comunicazioni.

1 Mi Piace

Ma la trasmissione verso terra è continua? Ovvero trasmettono dati a terra alla massima velocità teorica tutto il giorno?

1 Mi Piace

Non credo sempre alla massima velocità teorica ma un flusso di dati continuo c’è quantomeno per la telemetria.
Ottimizzare l’utilizzo della banda è sicuramente una cosa saggia, avere delle tecnologie (o testarle) per ridurne l’uso è uno dei metodi.
Devi anche vederlo (come scritto nel post iniziale) come test per usi futuri in cui la trasmissione in tempo reale o quasi non sarà possibile e ci sarà la necessità di elaborazione in loco.

1 Mi Piace

La trasmissione potenzialmente è continua. Le stazioni a terra dove fare downlink sono 3 e le stanno aggiornando, ma la stazione così come i satelliti non trasmettono quasi mai direttamente a terra, ma si appoggiano ad altri satelliti che forniscono connettività e fanno da ponte tra le tre stazioni a terra e tutto ciò che ormita e deve essere connesso.

2 Mi Piace

Vai! Giusto per rimanere in tema: uno dei computer russi si è bloccato. Lo riavviano domani ( con un cazzotto Fonziano)

Fonte Tom’s hardware

Nel caso qualcuno volesse continuare, la discussione sul computer russo è in corso qui: Soyuz MS-09 / Expedition 56 Mission Log - #80 di Saimoncis

3 Mi Piace

La ISS comunica continuamente in banda Ka attraverso la rete dei satelliti TDRS. Ma lo fa in share con altri utenti, per cui non è detto che disponga sempre della stessa larghezza di banda, e poi ci saranno gli handover tra satelliti. Quindi una pre-elaborazione a bordo per esperimenti ad alto volume di dati (mi vengono in mente, ad esempio, telescopi e AMS2) ha sicuramente senso.

2 Mi Piace

Sicuramente questo tipo di computer saranno sempre più necessari quando cominceremo a compiere missioni umane nello spazio sempre più profondo. Per la Luna magari no ma Marte o gli asteroidi cominciano ad essere a distanze dove il ritardo di comunicazione assume una certa importanza.

1 Mi Piace

Ku, non Ka :wink:

1 Mi Piace

Oltre all’utilizzo diretto sulla stazione (gli esperimenti scientifici producono una mole di dati impressionante), bisogna pensare all’utilizzo sui satelliti.

Stiamo parlando in un altro thread di usare la AI per gestire le costellazioni; questo sicuramente non è possibile con i processori e computer in uso oggi.

E in più si potrebbe pensare ad elaborare i dati a bordo: un’immagine radar di Sentinel 1 fa 10 GB, per i satelliti di nuova generazione tipo Pleiades Neo saranno ancora più grandi. E immagina la mole di dati prodotti da mostri come AMS, Hubble o JST.

Oggi quei satelliti scaricano centinaia e centinaia di GB al giorno di raw data, e il downlink è sempre un problema. Con processori più potenti si potrebbe pensare di preprocessare le immagini già a bordo e scaricare solo dati preprocessati, selezionati e compressi.

Senza bisogno di guardare all’esplorazione, le ricadute in orbita sono immense.

4 Mi Piace

Hai ragione Buzz, non mi ricordo mai che la Ku è sotto la Ka. La Ku copre da 12 a 18 GHz, la Ka da 18 a 24 GHz. L’uplink dovrebbe essere a 13.775 GHz, il downlink a 15.0034 GHz, con banda di 100 MHz. Mi confondo anche perchè i TDRS hanno canali in Ka, uplink 22.55 a 23.55 e downlink 25.25-27.50 GHz. Pensavo usassero quelli per link intrasatellite.

2 Mi Piace

Può darsi che li usino per altri clienti e non per la ISS…
Noi per la ISS useremo Ka, ma installeranno un’antenna apposita su Columbus

1 Mi Piace

Per darvi un’idea di cosa parliamo quando si discute di quantità di dati trasmessa e potenza di elaborazione, vi porto volentieri l’esempio di Gaia, che di fatto è UN esperimento molto specializzato.
Gaia produce un minimo di 10 GiB al giorno di dati, che vengono poi trasmessi a terra per ulteriore processing. Questi dati sono parzialmente processati a bordo da 7 Video Processing Units, che sono veri e propri minicomputer dedicati che acquisiscono i dati in analogico dal CCD (1/7 di CCD ciascuno) digitalizzano e comprimono con algoritmo lossless a ciclo continuo, andando a salvare i dati digitalizzati in una memoria a stato solido da 800 gigabit ridondata, chiamata PDHU.

Nel corso di ogni pass, in media 9 ore al giorno, da terra comandiamo il playback dei dati salvati nella PDHU che ci vengono trasmessi grazie a un sofisticato sistema radio con Phase Array antenna ad alto guadagno, per una quantità finale di dati che va, a seconda della zona della galassia osservata, dai 10 ai 30 GiB al giorno (guardando al centro galattico produciamo dati più velocemente della nostra capacità di scaricarli, quindi lottiamo contro il tempo per non finire… lo spazio su disco).

Questo richiede antenne da 35 metri, ed ESA ne ha solo 3. Gaia per ora è sola nel panorama ESA ad avere questo requisito, ma presto Bepi, Juice, Solar Orbiter la supereranno in termini di quantità di dati da trasmettere e quindi il tempo / antenna si ridurrà…

Non dico che si possa fare elaborazione dati a bordo di Gaia, considerato la complessità degli algoritmi necessari e la mole di dati c’è un intero sistema di Data Center sparsi per gli stati membri di ESA per masticare dati, con consumi energetici nemmeno proponibili per un satellite che genera poche centinaia di watt di potenza e che non tollera sbalzi termici., ma in generale avere più potenza di elaborazione, migliori algoritmi di compressione dati lossless e grandi antenne al suolo sta diventando sempre più importante.

14 Mi Piace