L'intelligenza artificiale e l'impatto sull'astronautica

sulla base di cio’ , ci sono tendenze esplicite di altre discipline , diverse dalla elettronica informatica. la Genetica.
Non e’ detto che il genere umano per potersi adattare ad altri mondi , non decida di inventare un 'altra razza umanoide.
Per esempio modificando il dna per avere le ossa fatte in maniera da “reggere” meglio …boh… marte ?
Una sorta di evoluzione accelerata…

ed e’ subito CRISP CAS9… :stuck_out_tongue_winking_eye: :stuck_out_tongue_winking_eye: :stuck_out_tongue_winking_eye:

mi sento di quotare anche io… forse un ulteriore salto avverra’ con computer quantistici , ma e’ presto per dirlo…
Una volta lessi una cosa… " L’uomo pensa non perche’ ha il cervello , ma perche’ ha l’anima. E quella la da solo Dio."
Sulla base di cio’ il pensiero informatico /elettronico di quando ero gggiofane, era che una mente artificiale realmente pensante non ci sara’ mai, semmai ci sara’ qualcosa
che riuscira’ ad emularla magari talmente bene da confondere quella reale.

Chi vivra’ …vedra’…

Questa è sicuramente una delle sfide attualmente in corso. C’è forte interesse in nuove modalità di distribuzione di energia che prevedono nuove forme di immagazzinamento della stessa. Anche la
riduzione del consumo di ogni dispositivo elettronico sicuramente è un’area in cui avremo forti miglioramenti nel futuro.

Però il differente paradigma a cui mi riferivo non è molto legato a questo aspetto.

Partiamo da qui:

Siamo lontani da entrambe le cose e su questo concordo. Dubito fortemente si possa costruire un motore a curvatura e la mia era una metafora un po’ forte, però, in realtà abbiamo
dei modelli tipo il motore di Alcubierre che, al netto della impossibilità tecnica di realizzazione e probabilmente anche di utilizzo sono da un punto di vista puramente teorico definiti.
Magari non definiti al 100% ma ragionevolmente corretti teoricamente.
Del cervello umano, invece, non abbiamo dei modelli così precisi di funzionamento. Abbiamo alcune teorie, abbiamo conoscenze molto approfondite su parti ben definite del cervello ma,
come possiamo sviluppare dei ragionamenti, come arriviamo a comprendere la realtà che ci circonda, come possiamo avere coscienza di noi stessi non è per nulla chiaro. Si parla di cervello
con funzionamento olografico, di microtubuli quantistici e similari … ma tutta roba al di là della teoria. Del cervello, in pratica, abbiamo una conoscenza inferiore di quanto non abbiamo dello
spazio-tempo.

E così giungiamo a questo punto

Sicuramente, utilizzando lo stesso paradigma attuale, cioè modello di Von Neumann con Cpu con registri interni che eseguono istruzioni e memoria esterna, amplificato da decenni di sviluppo tecnico
ancora non siamo in grado di far eseguire ad un computer( termine forse riduttivo ma per capirci :wink: ) ricerche con dati incerti che generino delle soluzioni non preprogrammate ma parto di una “scintilla” di un “intuito”, della macchina in funzione di sue esperienze pregresse. Due computer uguali e funzionanti dotati dello stesso software davanti allo stessa situazione si comportano nello stesso identico modo. Un Neil Armstrong ( sempre lui :slight_smile: ) su una Gemini 8 ha la freddezza e l’intuito di utilizzare i razzi di rientro ( mi correggano gli esperti storici del forum se è una inesattezza ) per bloccare la rotazione
della capsula, un computer, anche il più potente, se non preprogrammato in tal senso non lo avrebbe mai fatto. Uno Scott Carpenter, invece, qualche anno prima, combina un casino in fase di rientro a causa forse proprio della sua umanità e del trovarsi davanti ad uno spettacolo emozionante.
Quindi con il paradigma attuale, possiamo costruire dei modelli accuratissimi di ciò che ci circonda ma se a n-mila metri di quota durante un atterraggio su un pianeta un sistema rileva un valore negativo di quota, i retrorazzi comunque non si accendono :wink: . Un essere umano li avrebbe accesi.
Potrebbe essere che cio’ che ci fa essere così bravi rispetto ad un computer, e cioè cavarcela in situazioni impreviste, sia dovuto alla stessa natura di ciò che ci fa essere dei “disgraziati” :wink: in situazioni di routine tipo un pilota della domenica che manda in stallo un ultraleggero per distrazione. Insomma, ci manca un modello del modo in cui il nostro cervello “funziona”. Senza quello risulta essere difficile costruire sistemi che possano essere definiti intelligenti.

Un commento al volo sui software scacchistici che da tempo hanno superato i Grandi Maestri.

Per quanto possa fare paura od inquietare è un aspetto che non deve trarre in inganno, gli scacchi sono un gioco a variabilità enorme, ma comunque limitata.

Per giocare a scacchi ‘bastano’ un’ottima memoria, una fenomenale potenza di calcolo e naturalmente un sistema adeguato per pesare vantaggi materiali e posizionali (che può essere efficacemente implementato), la creatività di un grande giocatore non è altro che potenza di calcolo.

L’AI intesa come un sistema in grado di prendere decisioni non convenzionali di cui NON ha esperienza, al momento non esiste … e ripeto, ci sono teorie matematiche ed informatiche che sembrano indicare che NON possa proprio esistere anche con una potenza di calcolo infinita.

Ha a che fare con la complessità del reale rispetto alla semplificazioni implicita nella matematica, quindi nell’informatica e quindi in un algoritmo…(banalizzando, che temperatura abbiamo oggi? 22 gradi, no 22.1, no 22. 17, no 22.175 ecc…)

State parlando dell’intuizione? Definita anche “scintilla divina” :open_mouth:

Un software di scacchi come dice DOOOOD calcola tutte le possibili mosse; non riesce ad essere creativo. Se lo sembra, é solo perché ha memorizzato al suo interno degli schemi tattici preimpostati.
E’ la capacità di utilizzare oggetti o idee difformi in maniera creativa per risolvere i problemi contingenti che é sorprendente, e che non é programmabile.
Probabilmente per arrivarci dovremo dare alle macchine una percezione diversa delle cose e delle idee, ossia la capacità di concettualizzare, cioé di comprenderne l’essenza e quindi l’utilità “oltre”.

Io non sono così sicuro come lo siete voi che le macchine supereranno la biologia. Perché la biologia é adattabile, autoriparante, autoevolutiva, autoreplicante, a basso consumo energetico e permette meraviglie come il cervello umano. E prevede tentativi multipli che grazie alla replicazione aggira il “game over” da singolo guasto. Guardate gli insetti.

PS: mi piacciono gli interventi di Roosa, ci voleva un argomento così per portarlo allo scoperto :smiley:

ci manca un modello del modo in cui il nostro cervello "funziona". Senza quello risulta essere difficile costruire sistemi che possano essere definiti intelligenti.

Posto che tutti conveniamo che siamo ancora lontani,e posto che (a meno di traumatici arresti,sempre possibili) possiamo soltanto intuire i progressi tecnologici dei prossimi cento anni e oltre ( più o meno quanto un uomo del 1917 poteva immaginare le tecnologie sviluppate nel 2017), ripeto che presumibilmente non si tratterà di replicare un cervello umano,ma di un differente approccio all’inteligenza artificiale.

Sicuramente, utilizzando lo stesso paradigma attuale, cioè modello di Von Neumann con Cpu con registri interni che eseguono istruzioni e memoria esterna, amplificato da decenni di sviluppo tecnico ancora non siamo in grado di far eseguire ad un computer( termine forse riduttivo ma per capirci ;-) ) ricerche con dati incerti che generino delle soluzioni non preprogrammate

Non siamo ancora.
Come nel 1917 non si era ancora in grado,non dirò di inviare un uomo sulla luna,ma neanche un satellite in orbita.
Il nostro è infatti un ragionamento su possibilità future.

Un Neil Armstrong ( sempre lui :-) ) su una Gemini 8 ha la freddezza e l'intuito di utilizzare i razzi di rientro ( mi correggano gli esperti storici del forum se è una inesattezza ) per bloccare la rotazione della capsula, un computer, anche il più potente, se non preprogrammato in tal senso non lo avrebbe mai fatto. Uno Scott Carpenter, invece, qualche anno prima, combina un casino in fase di rientro a causa forse proprio della sua umanità e del trovarsi davanti ad uno spettacolo emozionante.

OT.
E’ ormai fatto assodato che il povero Scott Carpenter non ha combinato alcun casino,e che i guai della sua Mercury al rientro dipendevano da un malfunzionamento della capsula.
Anche se ai comandi ci fosse stato (come da programma originale) Deke Slayton sarebbe accaduta la stessa cosa.
Che poi a Slayton non avrebbero detto nulla,mentre a Carpenter si (per tutte una serie di ragioni non era considerato uno con “la stoffa giusta”) è un altro discorso.
Chiuso OT.

Lasciamo perdere le “scintille divine”.
Si entrerebbe in discorsi metafisici che in buona sostanza sono il regno delle opinioni (e fedi) personali.

Io non sono così sicuro come lo siete voi che le macchine supereranno la biologia. Perché la biologia é adattabile, autoriparante, autoevolutiva, autoreplicante, a basso consumo energetico e permette meraviglie come il cervello umano. E prevede tentativi multipli che grazie alla replicazione aggira il "game over" da singolo guasto. Guardate gli insetti.

Beh,penso che il livello intellettivo di un insetto sia stato abbondantemente raggiunto e superato.
In ogni caso non si tratta nè di “superare” nè di "replicare"la biologia,ma se mai di emularla ( o emularne i risultati).
Non ci arriveremo mai?
Può darsi,ma oggi comunque rimane la possibilità concreta che un giorno ( forse non lontanissimo) potremo riuscirci.

Lo dice Jacob Böhme ma anche altri filosofi

Abbiamo sotto gli occhi una tecnologia già FUNZIONANTE che é quella biologica, su quali basi ne potremmo creare un’altra? Le “macchine autoreplicanti” sono al momento meramente teoriche, debbono scendere a livello atomico per procurarsi gli elementi (infatti sono chiamate anche “automi cellulari”) quindi stiamo parlando probabilmente della stessa cosa. La biologia può già creare infinite macchine viventi, quello che possiamo fare noi é accorciarne i tempi evolutivi. Ma quel giorno saremo anche in grado di migliorare noi stessi.

Appunto, “filosofi”.

Abbiamo sotto gli occhi una tecnologia già FUNZIONANTE che é quella biologica, su quali basi ne potremmo creare un'altra? Le "macchine autoreplicanti" sono al momento meramente teoriche, debbono scendere a livello atomico per procurarsi gli elementi (infatti sono chiamate anche "automi cellulari") quindi stiamo parlando probabilmente della stessa cosa. La biologia può già creare infinite macchine viventi, quello che possiamo fare noi é accorciarne i tempi evolutivi. Ma quel giorno saremo anche in grado di migliorare noi stessi. https://en.wikipedia.org/wiki/Self-replicating_machine

Eh, ma qui entriamo in un campo ancora più spinoso,l’ingegneria genetica.
Posto che per le difficoltà cui accennavi,l’estrema complessità della “macchina” uomo,eventuali modifiche o “migliorie” genetiche sono molto difficili ,dovremmo anche tenere presente tutta una serie di problematiche di natura etica che verrebbero ad aprirsi.
Diversa la questione dell’inteligenza artificiale.
Io credo che entrambi questi campi marceranno di pari passo,ma se dovessi scommettere sul più rapido progresso dell’uno rispetto all’altro scommetterei propio sull 'I.A.

Discussione molto interessante Carmelo. :slight_smile: Ringrazio anche Astro_Livio per aver trovato interessanti i miei interventi. Non sapevo di una nuova visione della missione di Scott Carpenter, ero rimasto a Deke!, l’autobiografia di Slayton, in cui si davano per certi errori clamorosi di Carpenter. Sono molto interessato a quelle epiche missione, Carmelo, posso gentilmente chiederti i riferimenti relativi a questa differente analisi di Aurora 7? Grazie anticipate :slight_smile: . Comunque poco sposta la nostra discussione. Il punto è realizzare una macchina pensante in grado di prendere decisioni autonome basandosi sulla esperienza pregressa avendo come input dati non completi. È possibile realizzare una macchina del genere? Si. Perchè una ‘macchina’ del genere esiste: noi. Abbiamo un modello teorico di questa macchina? Purtroppo no. È questo che io sto sostenendo non che sia impossibile, ma che manca un modello teorico su cui realizzare un progetto. E non è importante che replichi esattamente un cervello umano ma che sia in grado di derivare un comportamento corretto a fronte di accadimenti imprevisti pur non essendo stato preprogrammato a quel determinato scopo. Sicuramente avremo in futuro potenze di calcolo sempre più vaste che potremo ‘barattare’ in cambio di comportamenti preprogrammati sempre più complessi, e qui entrerà in gioco purtroppo la difficoltà di testare algoritmi sempre più pesanti. Ottimo l’esempio di chi prima ha parlato degli scacchi. Per un computer sarà sempre più facile prevedere scenari futuri in quantità sempre più elevata rispetto ad un maestro di Scacchi ma supponiamo che improvvisamente un falco piombi sulla scacchiera e si porti via un alfiere. Un essere umano potrebbe ancora tentare di vincere, un computer probabilmente si incasinerebbe perchè nelle regole degli scacchi non è previsto che un pezzo sparisca senza essere mangiato dall’avversario. In sintesi, non è questione di anni, potrebbe succedere dopodomani o non avvenire mai, è questione che ci manca un modello, anche differente dal cervello umano, di macchina cognitiva pensante. E, citando Forrest Gump “non ho altro da dire su questa faccenda” :smiley:

Credo che lo sviluppo della AI versione software sara’ piu’ veloce. O cmq verra’ prima , anche perche’ e’ molto piu’ flessibile da studiare e sperimentare. Poi trovati i modelli corretti
si potranno cablare in HW. Un po’ lo stesso di adesso coi i calcolatori programmabili general purpose o microcontrollori programmabili e la controparte cablata. Per ovvi motivi un conto e’ cablare in HW dei piccoli algoritmi , funzioni, un conto invece sono programmi complessi che quindi necessitano dei calcolatori programmabili di tipo Von neumann.
In definitiva serve molta potenza di calcolo.

https://www.ilsoftware.it/articoli.asp?tag=Intelligenza-artificiale-cos-e-e-qual-e-la-differenza-con-il-machine-learning_15168

Non so a che livello potranno arrivare le TPU. Io sono fiducioso sui computer quantistici, quando sara’…

La vicenda è ormai abbastanza chiarita.
Riassumendo, era presente una avaria che fece rientrare la capsula in un punto diverso da quello previsto.
Le manovre di Carpenter non avrebbero potuto consumare tanto carburante da determinare un rientro fuori bersaglio del genere.
Lo stesso si sarebbe verificato anche con Slayton a bordo,e senza le imbardate impresse da Carpenter per capire il fenomeno delle “lucciole” (fenomeno che peraltro andava indagato,perchè costituiva uno dei “misteri” del volo di Glenn).

Carpenter was tasked with one of the most comprehensive programmes of scientific research ever seen on a manned mission: astronomical observations, Earth observations, studies of visibility and flying abilities and medical checks. Sadly, Carpenter’s voyage aboard Aurora 7 also suffered from more than its fair share of technical problems, including a faulty pitch horizon scanner and a worrisome decline in fuel quantities in both his manual and automatic tanks. The consequence would be a mission that remains controversial to this very day. Flight Director Chris Kraft became increasingly frustrated with his performance after concluding that the astronaut had deliberately ignored a request to perform an attitude check. Kraft also voiced serious concerns that Carpenter should tightly curb his automatic fuel use prior to retrofire. By this time, Aurora 7 was restricted to long periods of drifting flight, with both automatic and manual fuel quantities now dropping to less than 50 percent. Years later, Assistant Flight Director Gene Kranz would blame ground controllers for waiting too long in addressing Aurora 7’s problematic fuel status and felt that they should have been more forceful in getting on with the checklists. “A thorough attitude check, during the first orbit,” added Carpenter, “would probably have helped to diagnose the persistent, intermittent and constantly varying malfunction of the pitch horizon scanner. By the third orbit, it was all too late.”
At retrofire the Automatic Stabilization and Control System (ASCS) failed. Postflight analysis found that the errant attitude readings were caused by a malfunctioning pitch horizon scanner (PHS). As an intermittent malfunction, however, the misbehaving PHS resisted troubleshooting efforts. No one during the flight, not in Mercury Control, nor the pilot himself, tied the occasionally errant readings to the mysterious rates of fuel consumption during the first two circuits. With fuel conservation measures in place during the third and final circuit, it was considered unwise to conduct “an adequate checkout of the ASCS before retrofire.” Postflight analysis showed that at retrofire the capsule was yawed to the right about 25 degrees. Meanwhile, the retrorockets had failed to fire automatically. The three seconds it took to fire them manually, combined with underthrusting retrorockets (and the error in yaw), produced a 250-mile overshoot of the planned landing zone—with no recovery forces nearby.

[quote] The Aurora 7 problems involved a faulty pitch horizon scanner and misalignment in the yaw and decelerating thrusters that forced Carpenter to operate the re-entry sequence manually. On splashdown, recognizing his recovery by sea was hours away,

Grazie Carmelo :slight_smile:

esattamente!
ma il passo successivo del ragionamento mi porta a prendere atto che un modello teorico di macchina cognitiva pensante non può esistere per i limiti impliciti di ogni modello teorico. Insomma è non programmabile.
E’ una valutazione matematica, non voglio appesantire la discussione parlando di teoremi di incompletezza od indecidibilità, ma resta il fatto che l’indirizzo attuale del pensiero matematico/informatico punti in questa direzione.

Quindi non potremo mai replicare un entità pensante ed autocoscente, ma ottenere validissimi bot in supporto ad azioni specifiche e ben preprogrammate. Quindi sistemi di guida sempre più autonomi o complessi, IA in grado di riconoscere patologie e stabilire iter di cura da sintomi, analisi del sangue o magari prelievi di dna, ecc… ecc… ma non qualcosa in grado di pensare autonomamente fuori dagli schemi se la situazione lo richiede.

La penso esattamente come te.

Pero’ Kurzweil che illustra dettagliatamente i progressi delle “tecniche di scanning del cervello” quindi afferma “una stima conservatrice suggerisce che intorno al 2025 avremo modelli efficaci per l’intero cervello” e poi aggiunge che “l’implicazione chiave sarà l’espansione della gamma di tecniche che potremo applicare alla creazione di intelligenze artificiali” …

mi fa venire piu’ di un dubbio …

Ma cosa si intende per pensante ed autocoscente?
Un computer è “pensante”…quanto all’autocoscenza,cioè al pensare “io sono” non vedo perchè un inteligenza artificiale non debba prima o poi arrivarci.
Poi,è ovvio che penserà in modo differente rispetto ad un umano.

Guardate,questa faccenda apre problemi etici (e anche legali) non da poco.
Un computer autocoscente può venire considerato un individuo o resta una macchina,e come tale di propietà di un essere umano?
Un computer autocoscente è legalmente responsabile delle sue azioni o ne è responsabile la propietà?
A proposito,sapete che per tali materie si pensa di trovare un antecedente nelle norme in vigore al tempo della schiavitù?
Inoltre,poste le famose leggi della robotica di Asimoviana memoria,se un computer autocoscente è programmato per seguirle…è autocoscente nel senso del libero arbitrio?
E un essere pensante e consapevole di se,ma non dotato di libero arbitrio può essere considerato un individuo o propio per quel limite una macchina propietà di umani?

1 Mi Piace

L’Uomo Bicentenario. Isaac Asimov ha già affrontato queste questioni decenni, secoli o millenni prima che si avverassero.
Mi pare che se l’intelligenza artificiale non ha la capacità di porsi domande, ha invece una straordinaria capacità di calcolo che il cervello biologico non ha. E viceversa.
Una implementa l’altra. L’intelligenza artificiale libera quella biologica dal peso di operazioni routinarie o tanto fini da sfuggire al controllo biologico. L’intelligenza biologica interviene quando si palesa un imprevisto. Vedete il volo degli aerei. Vidi una foto a lunga posa di un atterraggio notturno dove il percorso guidato dal computer era lineare, quello guidato dal pilota irregolare.
Qui mi viene una massima di Von Clausewitz nel suo libro Della Guerra: il miglior piano di battaglia andrà in fumo al primo contatto con il nemico. E le prove storiche di questa massima abbondano. Nessun computer contempla il caso.
Tuttavia, penso ad un futuro dove la genetica permetterà di realizzare strutture biologiche diverse da quelle attuali e forse integrate a quelle elettroniche attuali. Certo che questo pone interrogativi etici e morali, ma attenzione che questi cambiano con il tempo e di dogmi assoluti non ce ne sono.
Oggi nessuno vuole modifiche al DNA, domani le potrebbero volere tutti. I perché sono i più disparati.
E’ chiaro che qui siamo in piena SF o SHI-FI, come preferite. In questo caso ogni nostro parere potrebbe essere valido o totalmente impossibile.
Io volevo solo introdurre una possibile terza via, un computer biologico ma funzionante in modo forse simile al nostro cervello, migliore o peggiore, chi lo sa.

Accidenti, avevo detto che non avevo nulla da aggiungere alla faccenda ma in realtà mi sono sbagliato :slight_smile:
Aspetta Carmelo, facciamo un passo indietro se no andiamo troppo lontano.
Lasciamo perdere per un attimo la coscienza di se e consideriamo la coscienza dell’ambiente che circonda una macchina.
Una Google Car ha coscienza dell’ambiente che la circonda? Si, avrà coscienza di distanze tra gli ostacoli che si trova di fronte, di dimensioni di tali oggetti, di colori di velocità ecc. ecc.
Non ha una coscienza di ciò che si trova davanti. E’ un sistema con sensori estremamente sofisticati, hardware estremamente potenti e software molto complessi.
Non è però in grado di distinguere il tipo di ostacolo che si trova davanti. Se in centro Milano si trovasse davanti un orso si limiterebbe a calcolarne i parametri e rallentare, frenare, accelerare, i funzione unicamente
dei parametri indicati prima.
Al contrario un essere umano non sa dirti a che distanza si trova davanti un oggetto o te lo dice spannometricamente ma è in grado ( quasi sempre :slight_smile: ) di valutare “ad occhio” la distanza e prendere opportuni provvedimenti al fine di evitare l’ostacolo. Se si trovasse davanti un orso a Milano la prima reazione sarebbe di stupore.
La Google Car è un macchina di Turing ipersofisticata a cui si applica il Teorema di Turing per cui, in pratica, è soggetta al limite dato dall’esistenza di algoritmi per cui non può prendere una decisione.
L’ essere umano è una macchina di Turing? E’ soggetto al teorema di incompletezza di Gödel? Boh … :slight_smile: … E torniamo al solito punto, ne sappiamo pochissimo sul nostro cervello.
Tu ribadirai che non dobbiamo costruire macchine che replichino l’uomo ma, secondo me, per poter avere una macchina in grado di prendere la miglior decisione possibile a fronte di un imprevisto e di dati non completi
basandosi sulla propria esperienza, bene o male al cervello umano e non ad un computer ci dobbiamo riferire.

Ma esiste l’imprevisto?
Esistono un numero infinito di imprevisti?
O esistono centinaia (se non addirittura migliaia ) di casi che possono essere catalogati e programmati nella macchina?
E una macchina può imparare ad improvvisare in base a esperienze analoghe presenti nel suo database?
E ancora,fino a che punto è desiderabile (o utile) che una Google car abbia coscenza di se?
Io non credo che TUTTI i computer saranno autocoscenti .

Basta guidare tutti i giorni per avere un idea di cos’è l’imprevisto.
La macchina frena, ma se quello dall’altra parte ti arriva contromano in sorpasso? Puoi frenare fin che vuoi, però ti verrà addosso.
La macchina non può compensare un sabotaggio o un azione deliberata di danno.
La macchina non può prevedere la caduta di un albero a pochi centimetri di distanza.
Sono casi estremi? Si chiamano caso. Quanti casi possiamo calcolare? Tanti e non li esauriremo mai.
In certi casi, la flessibilità della mente umana può evitare il disastro, in altri non ci potrebbe fare nulla lo stesso.
Se la google car avesse una coscienza di se potrebbe dirci: sei un fesso, non ti porto da nessuna parte. :slight_smile:

Esiste sicuramente un numero finito di imprevisti, il loro numero è dato da tutto ciò che avevi previsto più almeno uno :smiley:
E’ quell’uno in più che ci frega :slight_smile:
Si può pensare ad un sistema ad elevata potenza computazionale che tenga conto di ogni imprevisto prevedibile ma quell’uno in più ti sfuggirà sempre.
E, comunque, testare un software che tenga conto di tutte le possibilità previste può essere un procedimento molto lungo, foriero di errori ed omissioni, probabilmente incompleto e costoso.
Addestrare un astronauta significa usare un approccio completamente differente affidandosi soprattutto alla sua esperienza, alla sua capacità di giudizio, sapendo che hai del margine a fronte di,
appunto, un imprevisto. Ovviamente un astronauta ha notevoli limiti dati dalla sua fisicità
Ritornando alla domanda iniziale una reale intelligenza artificiale (John McCarthy per intenderci) potrebbe dare indubbiamente enormi vantaggi alla esplorazione spaziale.
Ma son d’accordissimo con te Carmelo, non tutti i sistemi saranno intelligenti, anzi, credo che nessuno lo sarà in senso stretto. Credo che il futuro sarà sempre più della “Intelligenza espansa”. Per tornare ad un esempio
astronautico , Buzz Aldrin leggeva i parametri del Lem a voce a Neil Armstrong (Tanto che Slayton dovette dire a Duke capcom a Houston di star zitto per non incasinare la comprensione di Armstrong). Ora con un paio
di simil Google Glass ( gli originali non sono più supportati ) quelle informazioni potrebbero essere tranquillamente sovrapposte alla vista di Armstrong. E abbiamo centinaia di esempi simili nella vita di tutti i giorni. Esperimenti non di intelligenza artificiale ma di intelligenza espansa , di mix tra realtà tangibile e realtà virtuale sono sempre più utilizzati nell’industria e non solo ,pensiamo a Pokemon Go, che, al di là di quello che si possa pensare, è una eccezionale palestra di quanto potremmo avere in campo pratico.