Opportunity: aggiornamenti.

Il 19 Maggio scorso un evento inatteso ha fornito un po’ di beneficio al MER Opportunity: una raffica di vento ha rimosso della polvere dai pannelli solari aumentando del 10% la produzione d’energia elettrica del Rover.

Il giorno dopo (SOL 2247) si è compiuto il checkout sul software AEGIS responsabile della esplorazione autonoma. L’esito è stato favorevole.
Purtroppo un problema è comparso sullo strumento Mini-TES (Spettometro ad emissione termica). Si tratta di un vecchio problema che si è ripresentato: si tratta della polvere accumulata sullo specchio.
I tecnici al JPL sono comunque fiduciosi di poter gestire il contrattempo, esponento lo specchio durante i movimenti di Opportunity.

Attualmente prosegue il cammino verso Endevour.
L’odometria totale è di 20,81 km.

Nella foto un particolare dei pannelli solari del Rover


mer solar panel.JPG

Domanda: come mai alcune foto fatte dai rover sono in bianco&nero e altre a colori?!

Ogni tanto un colp di fortuna!
Meglio così!

La fotocamera panoramica del rover, è un CCD 1024x1024 che di fatto scatta sempre in bianco e nero, cioè i pixel sono plottati solo in base alla luminosità.
Nella fotocamera però sono integrati anche 13 filtri passa banda, coi quali ottenere i colori.
Per immagini alla veloce, non si usano i filtri: la foto sarà unica in bianco e nero e il flusso dati verso Terra è ridotto (cosa buona).
Per immagini a colori grosso modo veritiere, si combinano 3 scatti con 3 filtri. Ovviamente ci sarà bisogno di una trasmissione di dati 3 volte superiore.
Per immagini molto veritiere e ben calibrate cromaticamente si combinano 6 immagini con 6 filtri differenti, ma va da sé che la trasmissione sarà sempre più pesante.

Le immagini panoramiche a 180° o 360° sono la somma di tanti scatti singoli e capirai anche tu, che fare un panorama a full-color diventa abbastanza esoso dal punto di vista dei dati da mandare a Terra.
Gli scienziati possono decidere di usare l’una o l’altra modalità a seconda di quello che vogliono mettere in evidenza.

Le immagini a 3 colori e a 6 colori, presentano alcune discrepanza, tant’è che certi complottisti, ignorando questa cosa dei filtri, affermano che NASA ritocchi le immagini a proprio piacere e sollevano discorsi tipo il cielo blu marziano.

Ti ricordi questa discussione? http://www.forumastronautico.it/index.php?topic=13056.0

Grazie per la dettagliata spiegazione!

Però ora sorge un’altra domanda…per quale motivo si sono complicati la vita con questa cosa dei filtri?? Non si poteva mettere direttamente una fotocamera a colori (sempre uno scatto anche per il full-color invece che 13)

questioni di pesi, possibilità dei falsi colori per evidenziare particolari strutture e trasmissione dati.

Exelion, c’è da specificare che anche le fotocamere digitali in commercio sarebbero in bianco e nero se davanti al sensore non ci fosse un filtro CFA.
http://en.wikipedia.org/wiki/Color_filter_array

I 13 filtri dei MER sono una soluzione molto più flessibile.

Caapito, sempre chiari e disponibili nelle spiegazioni :slight_smile:

Grazie

quindi in realtà i megapixel delle fotocamere vanno divisi per 3 (se non per di 4 nel senso che il filtro classico RGB contiene 16 pixel di cui 4 rossi 8 verdi 4 blu) per avere il numero reale di pixel, al contrario dei pixel dei monitor che sono “reali”.
Ed aggiungo una mia conclusione: di verdi ce ne sono il doppio poiché l’occhio umano è molto più sensibile alla luce verde (centro della banda visibile) che alle altre lunghezze d’onda.