Robot a terra teleguidati dall'ISS

Meteron (Multi-purpose End-To-End Robotic Operations Network) è un programma di esperimenti ESA che mira a fornire le basi per realizzare una completa struttura di teleguida di elementi robotici, da impiegarsi nell’esplorazione lunare, marziana e di altri corpi celesti. L’iniziativa è nata in risposta ai numerosi suggerimenti pervenuti ad ESA, che aveva richiesto proposte su nuovi modi di impiegare la stazione spaziale come banco di prova per missioni esplorative. Molte delle proposte riguardavano, appunto, il controllo di robots a terra a partire da una postazione in orbita.

Uno dei vantaggi di Meteron è che consente di realizzare velocemente gli esperimenti, sfruttando infrastrutture e tecnologie già esistenti e riducendo i costi.

Il primo test previsto è la guida di Eurobot (un rover prototipo ESA montato su 4 ruote e con due bracci meccanici) impiegando un computer speciale installato sull’ISS e dotato di schermi particolari e joystick.

Il passo successivo, entro due/tre anni, sarà il controllo di Justin, un robot antropoide che ha la peculiarità di poter replicare il senso umano del tatto, grazie ad appositi sensori. Il robot verrà mosso dall’astronauta sull’ISS indossando un esoscheletro sul braccio. L’apparato restituirà all’operatore le medesime stimolazioni tattili percepite dal robot a terra, realizzando un feedback che consentirà maggior precisione e duttilità nei movimenti.

La realizzazione di questa interfaccia uomo-macchina è piuttosto complessa, e richiede di integrare una solida architettura di comunicazione, un sistema operativo ed un protocollo per permettere ad astronauti, robots e centro di controllo di cooperare al meglio. Pare comunque certo che una buona parte delle future attività di esplorazione spaziale verrà condotta con questi nascenti sistemi di guida remota.

fonte: ESA


Interessantissimo . pensato ad un robot antropomorfo che monta una base lunare guidato da un astronauta in orbita corcumlunare o da Terra . Oppure ad un robot marziano dell dimensione del MSL che monta la base marziana ( magari gonfiando mobuli Bigelow ) guidato da un astronauta in orbita attorno a Marte ( così si evita il problema dei ritardo dei segnali ) il quale può una volta montata la base scendere tranquillamente sulla suoperficie di Marte !

Ovviamente essendo umanoide i moduli li gonfia a fiato… :angel:

la Mars Society organizza ogni anno lo University Rover Challenge, una competizione tra team universitari volta proprio alla progettazione di sistema di questo tipo, cioè si ipotizza che si sia in orbita a pilotare un rover dotato di manipolatore ed altri strumenti a terra (pardon, a marte) il team di controllo in questo caso viene rinchiuso in una tenda od in un van, non può quindi vedere nulla di cosa succede al proprio drone se non ciò che il drone mostra al team via radio.
Il bello di questa competizione è che esiste un budget massimo controllato con estrema severità dagli organizzatori che lo scorso anno mi apre fosse di 15000$ (poco più di 10000€ cifre alla portata di qualsiasi università.

ciao

Raffaele

Bellissimo scenario! In 20-30 anni potrà essere realtà! :ok_hand:

Partendo dal presupposto che per guidare questi aggeggi bisogna stare, diciamo, entro una distanza di un secondo/luce, mi sembrano una buona idea per fare qualcosa sulla nostra luna.
Per qualsiasi altra destinazione, dopo aver fatto la fatica di mandare qualcuno fino la’, lo tenete in orbita n mesi in attesa che Justin Timberlake gli monti una capanna fatta di sassi marziani? Tanto vale mandare su un habita prima, o far arrivare tutto insieme.

O si fa l’esplorazione manned o quella automatica: trovo che le vie di mezzo abbiano i difetti di entrambe, ma non i pregi. (imho! ;))

Allora secondo questo presupposto non si può guidare un robot sulla Luna dalla ISS, perchè la distanza è di 1.3 secondi luce.

Concordo con te, però l’utilità di pilotare un rover su marte dalla sua orbita esiste lo stesso, per esempio per costruire l’habitat, o per andare in salvataggio di qualche astronauta disperso a terra. una delle prove dell’URC era appunto ritrovare un astronauta (rappresentato da una vera tuta spaziale) che risultava disperso e non rispondeva alla radio conoscendone solo la sua posizione di 30minuti prima.

beh, per un rover lunare è piu comodo pilotarlo da terra che dalla ISS a livello di infrastrutture eheheh

e comunque, per esempio, il rover del google lunar xprize italiano è progettato in modo da gestire il ritardo, nel senso che se da terra gli viene detto “vai drito” e lui sta per cadere in una trappola fatta da un rettiliano è in grado di fermarsi e ritornare un pochino indietro in attesa di nuovi comandi.

Hasta la vista, baby!

Andrebbero visti per bene gli scenari di missione, però secondo me le vie di mezzo potrebbero essere utili.
Se non ricordo male questi robot antropomorfi sono progettati per arrivare prima, montare gli habitat in maniera autonoma (per esempio assemblare moduli arrivati con lanci differenti) e poi aiutare gli astronauti durante la missione. A guidare i robot in remoto potrebbe essere l’equipaggio rimasto in orbita, un po’ come fanno nella ISS quando gli astronauti sono in EVA. E devono essere antropomorfi per poter lavorare negli spazi “a misura d’uomo”. Non mi sembra un’idea così malvagia

Cosa avevo scritto io? :angel: :angel: :angel:

Infatti completavo quello che avevi detto tu, sottolineando che il robot può costruire l’habitat in maniera autonoma anche prima dell’arrivo degli astronauti nell’orbita di Marte. In questo modo il valore aggiunto del mezzo sarebbe notevolmente superiore.

molto umilmente, dissento.
se Justin e’ abbastanza sveglio da costruirlo da solo, questo habitat, allora non vedo perche’ teleguidarlo.
Piuttosto questi sistemi li vedo bene per limitare le eva “umane” durante le missioni in orbita terrestre.

Poichè sono stato l’autore di una proposta alla Call for Ideas vi allego l’Abstract:

Tele-operations of a on Ground robotic fleet from ISS
The goal of the proposal involves an astronaut on the Columbus operating a robot’s fleet on the Earth’s Surface performing specifics tasks useful for establishing a human presence on the Moon, Mars or Near Earth Objects. Tasks falling in this realm could include: exploration, searching and sampling for minerals of interest, bulldozing and excavation for a base construction, burying a pressurized volume with regolith for radiation and micrometeoroid protection, obtaining Mars terrain to produce water, oxygen and other elements for In-Situ Resource Utilization (ISRU).
The demonstration could emulate one or more candidate cases: a robotic fleet exploring a Mars Emulation Terrain (MET) to search and identify a target distinct from the rest of the environment (e.g. thermally); a robotic fleet providing logistical support through the transportation of supplies (fuel, oxygen, water, food, etc) and equipment from one place to another within a general area of operations within the MET; a robotic fleet performing physical work in support of the construction of the Lunar or Mars base.
It is proposed a multi-level autonomy supervision architecture, that provides an integrated approach to multi-robot coordination and multi-level robot-human autonomy. It allows multiple robotic assets (both mobile and fixed) to work in a cooperative fashion, and the operating mode of different robots to vary from full autonomy to the telepresence/teleoperation control. High-level Task Planning and Monitoring allows an Human Supervisor (HS) to assign to a fleet of robotic assets high-level goals, such as specifying an area of ground or section of cliff to investigate, which are then automatically subdivided into operational commands sent to each robot by the Robot Team Coordinator Module (RTCM). The RTCM functions can be in principle integrated in orbit, or placed on ground in one specific robotic asset (e.g. Planetary Lander, a master rover, etc.). As the robots execute these plans, their operation are monitored both by the RTCM and by the HS. The main objective of the proposed architecture is to have one human supervising a numerous robot fleet
The technological demonstration will also focus on the communication protocols technologies to keep the round trip time as low as possible. After the enhancement of the communications and disturbance tolerant networking capabilities, the crew will test the telerobotic control mode by sending high-level commands from dedicated Human Computer Interfaces running from a laptop. and the telepresence mode using an hand controller. In parallel several autonomy fleet architecture will be exploited: Master/Slave, Teamwork, Expanded teamwork, Hybrids approach.


Buran, se passa mi offro volontario per lavorarci… :angel: :angel: :angel:

terro’ presente…

Penso che l’idea di fondo sia: Da solo Justin può fare A+B, se teleguidato può fare A+B+C+D. Comunque sarei curioso di vedere gli scenari operativi ipotizzati per verificare se il mio modo di vedere sia giusto o sbagliato

Una presentazione dal sito ESA:
http://robotics.estec.esa.int/ASTRA/Astra2011/Presentations/Plenary%202/03_schiele.pdf