Principalmente perche’ i russi fanno molto jamming del segnale li’, a due passi dal loro confine…
ah, Vero, ma allora non hai guardato https://gpsjam.org
Indovina un po’ quali sono le aree militarmente “calde” in Europa?
Immagina di voler fare un passeggiata tra Cipro e Israele, ad esempio
Non l’ho guardato
Pensavo fosse per una qualche strana causa naturale.
Capito!
La questione è un po’ tecnica, in realtà se hai già iniziato una procedura RNAV e perdi totalmente il GPS puoi continuare l’avvicinamento con le sole piattaforme. Poi ogni compagnia aerea ha le sue regole e magari in questi casi aumentano un po’ i minimi di atterraggio. Con il solo GPS questo non è permesso, proprio perché questo sistema potrebbe avere errori tipo spoofy che non sono rilevabili.
In pratica la deriva delle piattaforme rimaste da sole per pochi minuti garantisce una imprecisione tollerabile, almeno per gli aerei. Poi certo se devi appoggiare un booster a pochi metri da una torre d’acciaio forse la precisione necessaria è ancora maggiore.
Non vorrei ci fossero anche altre ragioni, questo non lo so, perché volendo ci sono ancora le aerovie e le procedure di avvicinamento basate sui VOR e gli ILS.
Non sottovalutei anche i sensori ottici. Anche i droni giocattolo integrano il gps con sensori ottici e questo rende il loro volo molto piu’ stabile. E non dimentichiamo che la guida autonoma di Tesla, per dichiarazioni di EM, dovrebbero essere basate da un certo momento in poi esclusivamente sull’ottica ie. le telecamere. Niente piu’ Lidar. A propostito, per straridondare c’e’ anche il Lidar, i pipistrelli e i delfini navigano bene a corto raggio. Una navigazione multifattore potrebbe essere molto piu’ affidabile. Ma fino a che gli atterraggi non sono abitati e il sistema di navigazione primario e’ ritenuto sufficientemente affidabile forse non vale la pena di stratificare troppi sensori e troppo software.
È così già da un paio di anni e in USA possono già usare la guida autonoma. Da tempo sulle Tesla non ci sono più sensori oltre alle ottiche. Per essere precisi questo va bene per guidare ma non per fare le manovre nei luoghi stretti/parcheggio dove la mancanza della visione stereoscopica mostra grossi limiti nella valutazione precisa delle distanze.
In realtà il gioco è usare una moltitudine di diversi sensori tutto con la loro specializzazione e fondere le varie informazioni per modellare uno stato del sistema fisico più preciso possibile che sfrutti i punti forti di ciascun sistema per mitigare i punti deboli degli altri.
Esempio
Una piattaforma INS è estremamente veloce (si parla di kHz come frequenza di aggiornamento) piccola compatta e resistente (almeno quelle MEMS in uso da qualche anno) ma anche poco precisa sul medio periodo.
Un GPS è molto preciso ma relativamente lento.
Con i corretti strumenti matematici e della teoria del controllo (a partire dal filtro di Kalman e i suoi derivati) è possibile costruire un controllore di assetto e posizione che sia veloce e che stimi e corregga prima ancora che si verifichino gli errori propri delle piattaforme inerziali. In questo modo ottengo una stima dello stato di un veicolo nello spazio molto preciso ad una frequenza molto elevata che mi permette di applicare correzioni piccole e veloci consentendo al regolatore di mantenere dinamicamente stabile il sistema.
Ho fatto appositamente un esempio banale, dietro ci sta un bel po’ di teoria del controllo.
Le Tesla non usano solo sensori di visione ma a bordo per la ricostruzione dello stato dell’auto ne utilizzano molti altri: accelerometri, giroscopi, GPS, etc. La sola visione non sarebbe in grado di guidare l’auto da sola.
La velocità è comunque un fattore “poco” rilevante oltre certi limiti. Un sistema del genere è ragionevole che sia gestito con un loop PID che lavora sui decimi di secondo, non credo oltre, per non introdurre rumore (e comunque gli attuatori sia dei coni che delle grid fins non sparano).
GPS a 10 Hz ci sono da molti anni, quelli servono per la posizione media, l’assetto istantaneo lo fanno probabilmente con degli accelerometri alle estremità perché serve una lettura molto più precisa e lì le piattaforme vincono 10 a 0.
Sono scettico sulle letture ottiche, almeno nel visibile, per l’affidabilità dei sistemi ottici alle condizioni del rientro (come abbiamo visto) e perché per essere utili devono guardare sotto, la condizione più gravosa. Forse hanno dei coperchi protettivi e le attivano solo in regime subsonico?
Non credo neanche io che ne facciano uso ne’ per i booster Falcon ne’ per SS e SH (assumendo che tutti e 3 i veicoli usino lo stesso stack di navigazione).
So solo che qualche anno fa mi ero comprato alcuni droni sgrausi, e il gps era utilissimo per mantenere posizione e altitudine “all’incirca” in termini assoluti e per ritornare autonomamente alle coordinate di partenza, ma non molto per stabilizzare il volo. Per avere un drone in grado di stare bello stabile all’aperto o indoor dove il GPS non arriva, serviva il cosiddetto “optical flow”, accellerometri e giroscopi non bastavano.
Lo so dalle descrizioni su amazon, dai video di Issam (un famoso blogger tecnologico anche se non al livello di Galeazzi) e da altre fonti online. E anche dalle prove sul campo degli oggetti acquistati: per far volare un drone senza optical flow ci vuole molto piu’ allenamento e correzioni manuali.
Non so se e’ cosi’ ancora, grazie al cielo non ho piu’ la scimmia dei droni che favoriva flussi in uscita di denari e accumulo di cianfrusaglie in casa, peraltro erano di fascia bassa, non certo dei dji.
Dato che l’argomento e’ molto interessante, perche’ il fallout tecnologico di queste tecnologie non e’ irrilevante e probabilmente include almeno in minima parte il recupero dell’hardware dei vari veicoli SpaceX con conseguente rivoluzione dell’astronautica (per non parlare delle guerre moderne in cui possiamo distinguere un prima e un dopo ma e’ un altro discorso), posto il link questa pagina che spiega un po’ come funziona l’optical flow per i droni della Parrot.
NB: ripeto, so benissimo che probabilmente SpaceX non fa uso di optical flow o altre tecnologie ottiche, come gia’ discusso, perche’ ci hanno dimostrato che la nebbia non gli cambia nulla, ma e’ di un certo interesse per una disamina esaustiva sulle possibili tecnologie per la navigazione autonoma di oggetti volanti.
Interessante, però per poter capire bene di cosa stiamo parlando, chideo una cosa: cosa intendete per “ottico”? Qualsiasi lunghezza d’onda che permette di fare imaging? Perché concettualmente un optical flow lo posso tottenere dalle microonde ai raggi gamma e anche col lidar.
sì issam lo seguo anch’io e ho imparato molto dai suoi video, specie i più vecchi e meno commerciali.
Come dice sinucep magari hanno effettivamente sistemi non necessariamente nel campo del visibile ma comunque ottici. Non credo comunque oltre il vicino infrarosso sia perché i sensori poi non sono più adatti se non andando su microbolometri ma soprattutto per la precisione che con crescere della lunghezza d’onda crolla.
Personalmente ho una termocamera che se non fosse sovrapposta con l’immagine nel visibile non ti permette di distinguere una banana da un’anguria a 10 metri di distanza
Io ho usato il termine ottico per indicare oltre alle telecamere sensori di tipo “optical flow”, appunto. Pero’ non ho una definizione precisa, non c’e’ nulla di profondo, semplicemente qualcosa che “vede” captando radiazioni nel campo del visibile o dintorni.
Dove potrebbero essere dei sensori di quel tipo? A parte il rischiare di essere accecati, abbiamo visto la cam sul flap, dovrebbero avere la massima precisione in un momento in cui i raptor sbuffano e l’atmosfera è parecchio movimentata.