Il 19 Maggio scorso un evento inatteso ha fornito un po’ di beneficio al MER Opportunity: una raffica di vento ha rimosso della polvere dai pannelli solari aumentando del 10% la produzione d’energia elettrica del Rover.
Il giorno dopo (SOL 2247) si è compiuto il checkout sul software AEGIS responsabile della esplorazione autonoma. L’esito è stato favorevole.
Purtroppo un problema è comparso sullo strumento Mini-TES (Spettometro ad emissione termica). Si tratta di un vecchio problema che si è ripresentato: si tratta della polvere accumulata sullo specchio.
I tecnici al JPL sono comunque fiduciosi di poter gestire il contrattempo, esponento lo specchio durante i movimenti di Opportunity.
Attualmente prosegue il cammino verso Endevour.
L’odometria totale è di 20,81 km.
Nella foto un particolare dei pannelli solari del Rover
La fotocamera panoramica del rover, è un CCD 1024x1024 che di fatto scatta sempre in bianco e nero, cioè i pixel sono plottati solo in base alla luminosità.
Nella fotocamera però sono integrati anche 13 filtri passa banda, coi quali ottenere i colori.
Per immagini alla veloce, non si usano i filtri: la foto sarà unica in bianco e nero e il flusso dati verso Terra è ridotto (cosa buona).
Per immagini a colori grosso modo veritiere, si combinano 3 scatti con 3 filtri. Ovviamente ci sarà bisogno di una trasmissione di dati 3 volte superiore.
Per immagini molto veritiere e ben calibrate cromaticamente si combinano 6 immagini con 6 filtri differenti, ma va da sé che la trasmissione sarà sempre più pesante.
Le immagini panoramiche a 180° o 360° sono la somma di tanti scatti singoli e capirai anche tu, che fare un panorama a full-color diventa abbastanza esoso dal punto di vista dei dati da mandare a Terra.
Gli scienziati possono decidere di usare l’una o l’altra modalità a seconda di quello che vogliono mettere in evidenza.
Le immagini a 3 colori e a 6 colori, presentano alcune discrepanza, tant’è che certi complottisti, ignorando questa cosa dei filtri, affermano che NASA ritocchi le immagini a proprio piacere e sollevano discorsi tipo il cielo blu marziano.
Però ora sorge un’altra domanda…per quale motivo si sono complicati la vita con questa cosa dei filtri?? Non si poteva mettere direttamente una fotocamera a colori (sempre uno scatto anche per il full-color invece che 13)
Exelion, c’è da specificare che anche le fotocamere digitali in commercio sarebbero in bianco e nero se davanti al sensore non ci fosse un filtro CFA. http://en.wikipedia.org/wiki/Color_filter_array
I 13 filtri dei MER sono una soluzione molto più flessibile.
quindi in realtà i megapixel delle fotocamere vanno divisi per 3 (se non per di 4 nel senso che il filtro classico RGB contiene 16 pixel di cui 4 rossi 8 verdi 4 blu) per avere il numero reale di pixel, al contrario dei pixel dei monitor che sono “reali”.
Ed aggiungo una mia conclusione: di verdi ce ne sono il doppio poiché l’occhio umano è molto più sensibile alla luce verde (centro della banda visibile) che alle altre lunghezze d’onda.