L'intelligenza artificiale e l'impatto sull'astronautica

Un articolo del Corriere della Sera di oggi sui progressi dell’inteligenza artificiale nel prossimo futuro mi induce a qualche riflessione.

Nel 1963 ,l’USAF avviò il suo programma per la costruzione di una stazione spaziale di sorveglianza con Astronauti a bordo, il MOL.
Nel 1969 dopo sei anni di preparazione e milioni di dollari spesi il programma fu cancellato perchè nel frattempo i satelliti spia avevano compiuto talmente tanti progressi che una stazione con equipaggio lanciata a quello scopo non soltanto non era più necessaria,ma addirittura controproducente dal punto di vista tecnico.
Ora,mi chiedo,qualcosa del genere non potrebbe accadere anche per l’astronautica in generale quando,tra un paio di decenni (ma secondo il Corriere anche meno) l’inteligenza artificiale sarà progredita a livello di complessità di molti cervelli umani?
In altre parole,se potremo avere a disposizione computer in grado di far svolgere a robot,su Marte o su Titano, compiti di complessità tali da ,non dirò superare, ma eguagliare le capacità umane,che senso avrà inviare un equipaggio?
Perchè affrontare costi e difficoltà tecnologiche non indifferenti,oltre a mettere in pericolo la vita umana,quando si potrà mandare lassù un sostituto altrettanto valido (se non più) di un Astronauta,senza tra l’altro preoccuparsi di radiazioni,scorte alimentari,e tutto il resto?
Si dirà,l’impatto emotivo di un uomo su Marte sarà ben diverso per l’umanità che inviare un robot sia pur sofisticatissimo.
“Illogico”,direbbe il Signor Spock.
Inoltre siamo sicuri che un ente spaziale si assumerebbe l’onere di inviare equipaggi umani quando per cifre più contenute potrebbe impiegare sostituti robotici altrettanto validi?

La butto sul filosofico: se hai inviato su Marte un’intelligenza pari a quella umana, allora hai inviato una persona. Mi aspetto che un’entità di tale livello abbia come unico vantaggio di non dover respirare e mangiare ma, a livello psicologico, di avere gli stessi problemi nostri.Inoltre se l’obiettivo è espanderci oltre la Terra, inevitabilmente dovremo muoverci noi.La soluzione che esponi va bene da apripista diciamo.

Attenti, bisogna definire “intelligenza artificiale”. Nell’accezione corrente, si tratta di sistemi in grado di prendere decisioni e risolvere problemi in maniera autonoma, sulla base di istruzioni (database) preordinati o di esperienza precedente (apprendimento). Psicologia e ricognizione di se stesso sono ancora molto al di là, per quel che ne so. Non parliamo poi di etica o di maledette leggi della robotica (pura utopia, al momento).
A me una sonda capace di scegliere i sassi da esaminare, o capace di navigare in modo autonomo schivando gli ostacoli, o in grado di riconoscere situazioni di pericolo non crea alcun problema. Me li crea quando un drone sceglie autonomamente un obiettivo da colpire, perchè la capacità di discernimento e l’etica sono, appunto, ancora molto, ma molto, al di là da venire.
Parlando di situazione attuale, eh. La fantascienza è un’altra cosa.

1 Mi Piace

Si ma allora parliamo di sonde come le attuali solo un po’più autonome

Appunto. Bisogna decidere cosa si intende per AI o IA che dir si voglia. Al momento siamo distanti anni luce da quella umana, ma sistemi dedicati con larghi databases e capacità di apprendimento possono fare ottime cose in campi ristretti.

Beh,anni luce…
L’’ articolo del Corriere parlava di circa vent’anni.
Ammettiamo sia un esagerazione giornalistica…vogliamo dire quarant’anni?
Dopo di che la penso come Mark:

Allarghiamo l’orizzonte,andiamo sul filosofico,come dice Mark.
Io sono convinto ( e l’ho scritto più volte) che se la razza umana si diffonderà nell’universo sarà tramite i suoi discendenti non biologici.
Saranno le inteligenze artificiali che avremo costruito a sopravviverci,a sopravvivere persino alla nostra terra; ed è giusto e logico che sia così.
Gli umani biologici non sono costruiti per vivere nello spazio ed arrivare oltre il nostro cortile di casa,il sistema solare.
Sono troppo fragili,hanno una vita troppo breve,richiedono supporti vitali troppo complessi e costosi da realizzare.
Non potrebbero mai trasferirsi ad anni luce di distanza,perchè il viaggio sarebbe troppo lungo e mantenere in vita un equipaggio per generazioni troppo complesso.
I nostri discendenti non biologici invece potranno farlo…non avranno neanche bisogno di trovare un pianeta abitabile,potranno vivere semplicemente nello spazio.

Rovesciando la questione,io credo che se un giorno dovesse arrivare sulla terra la classica astronave aliena,dentro ci troveremo inteligenze artificiali che hanno viaggiato per migliaia di anni.

La penso esattamente come te.

Questa è pura futurologia, un argomento sempre interessante:

https://it.wikipedia.org/wiki/Singolarità_tecnologica

quoto lo Zio, la complessità della mente umana è apparentemente indecifrabile in termini informatici e finora abbiamo prodotto deboli simulazioni di reti in grado di apprendere e ‘ricordare’, stabilire processi e priorità autonomamente (una volta fissato un paradigma valutativo dai produttori) e che sono comunque semplici imitazioni deficitarie sotto moltissimi aspetti.

Ma c’è di più, il giorno in cui produrremo macchine superintelligenti in grado di riprodursi a loro volta ed in grado di sviluppare emozioni e coscienza proprie al punto da considerarci obsoleti (secondo i canoni più classici della fantascienza visionaria sul tema) probabilmente non arriverà mai.

Mi vengono in mente i teoremi di incompletezza di Godel, l’indecibilità nei sistemi di Turing, l’NP complessità e tutta una serie di '‘segnali’ che sembrano indicare come insuperabili i limiti cui la programmazione sarà sempre vincolata nell’accostarsi al Reale.

Io punto sugli alieni ibernati quando riceveremo la prima visita di una nave aliena…

Se il progresso tecnologico non subirà improvvise battute d’arresto (sempre possibili per motivi disparati ) i progressi nel campo dei computer e dell’inteligenza artificiale,non dico da qui a cent’anni ma da qui a cinquanta saranno inimmaginabili.
Figurarsi in un periodo di tempo più lungo.
Attenzione,l’inteligenza artificiale del futuro avrà coscenza di se,ma non necessariamente avrà emozioni come quelle umane.
Non sarà la replica ( o il surrogato) di un cervello umano,ma uno stadio evolutivo differente.

Prima di tutto vi ri-saluto visto che è il mio primo intervento dopo l’iscrizione di alcuni mesi fa. Attualmente sarebbe già un successo riuscire a sviluppare un sistema che abbia coscienza dell’ambiente che lo circonda. Mi spiego: costruire un sistema che costruisca delle mappe mentali degli oggetti con cui si sta relazionando e prenda opportune decisioni in funzione della sua esperienza e delle sue abilità. Quando Neil Armstrong prese i comandi del LM a breve distanza dalla superficie lunare per evitare una zona di atterraggio con rocce e crateri lui costruii una mappa mentale con oggetti di tipo ‘roccia’ e ‘cratere’, valutò il rischio e accettò quello di restare senza carburante spostandosi verso una zona migliore facendo diventare blu parecchie persone nella sala di controllo a Terra. Il miglior sistema automatico odierno sarebbe in grado di costruire una mappa 3d sicuramente più precisa di quella nella mente di Armstrong ma senza sapere con quali oggetti si andava a relazionare prendendo decisioni in funzione unicamente di quanto chi lo aveva programmato aveva prestabilito e senza alternative davanti ad una situazione imprevista. Per arrivare a qualcosa di simile alla mente di Armstrong è necessario un approccio totalmente diverso a livello di architettura informatica passando da quella di Von Neumann classica Cpu con registri e memoria, pur amplificata da legge empirica di Moore e sviluppo di architetture parallele, ad una con approccio profondamente diverso. Sparo alto perchè si va sulla SF: forse un approccio basato su memorie associative olografiche che recuperino informazioni anche da situazioni incomplete e permettano associazioni ‘mentali’ in funzione dell’esperienza pregressa. In pratica, per quello che so, siamo molto lontani da una tale situazione.

Stiamo sempre parliamo di macchine più complesse delle attuali ma mai dei veri sostituti dell’uomo. Sinceramente: ve ne fregherebbe qualcosa sapere che un pianeta è abitabile se non ci fosse anche uno straccio di possibilità di andarci di persona? Io solo fermamente convinto che nelle agenzie spaziali non lavorino degli appassionati di macchine radiocomandate, se no passerebbero la domenica al parco a far volare degli aeromodelli. Sono delle persone che sognano che un giorno andranno dove si trova il veicolo che stanno guidando anche se possiede un’intelligenza estremamente complessa e può fare quasi tutto da solo.

Questo non è detto. La scienza informatica sta già raggiungendo il limite, motivo per cui si sta spingendo sulle architetture con tanti processori in parallelo. Per l’AI di cui parli tu, avremmo bisogno di un salto tecnologico “quantico”, come ad esempio i processori basati sulla fisica quantistica. Ma non è detto che davvero esista il modo di fare processori così complessi come il cervello umano, potremmo anche trovare un limite teorico e non riuscire ad andare avanti.

Ottimo esempio!
Un altro esempio ancora più “spinto” potrebbe essere la soluzione per il CO2 scrubber con Apollo 13, dubito che potremmo mai costruire una macchina che riesca ad arrivare ad una soluzione completamente fuori dagli schemi, come in quel caso.
E per quanto non siano mai diventate tanto famose, situazioni del genere capitano piuttosto spesso nelle operazioni. Io credo che le decisioni umane, che siano di astronauti in volo o del team di controllo di terra, sono qualcosa di cui non possiamo fare a meno…

Probabilmente il corriere fa riferimento alle previsioni di Ray Kurzweil (ingegnere capo di Google, noto per le innumerevoli previsioni tecnologiche azzeccate, per esempio quella fatta nel 1990 quando - fra lo scetticismo generale - predisse che un computer sarebbe stato capace di battere un campione di scacchi entro il 1998, cosa verificatasi nel 1997) quindi come dice DOOOOD la “sempre interessante” futurologia … il futuro “disegnato” da Ray crea un certo “sense of wonder” come la miglior SF :

credo anche io si riferiscano a Kurzweil… ma lui forse intendeva la previsione dell’evoluzione dell’ uomo piu’ che AI… come Cyborg

Anche Musk ha accennato qualcosa ultimamente … ma onestamente ( e ovviamente) di essere a livello ghost in the shell, siamo … anni luce veri lontanissimi… sempre che si riesca

Diverso invece e’ proprio l’AI pura ( non mescolata “biologicamente”) e magari limitata a specifiche funzioni. Se queste ultime a lungo andare sono sempre di piu’ e se il livello
di “intelligenza” progredisce al punto che diventa difficile scoprire se il ragionamento o il superamento di un ostacolo e’ stato fatto per via umana o no… ( un po’ come imbrogliare l’orecchio
con un suono digitale …o il non capire che dietro un callcenter non c’e’ piu’ un uomo ma una AI) ecco li la cosa diventa interessante. A quel punto il robot dotato di AI potrebbe anche prendere il posto dell’ uomo SE l’operazione che dovrebbe svolgere e’ pericolosa. Andare su marte o la Luna e’ pericoloso ? Poi cmq anche l’uomo di andra’ lo stesso credo…

Io non so se Charles Lindberg durante la sua trasvolata solitaria attraverso l’atlantico,nella lunga notte tra il 20 ed il 21 maggio 1927 abbia ingannato il tempo pensando che un giorno l’uomo avrebbe non soltanto volato di routine tra New York e Parigi,ma sarebbe addirittura arrivato a calcare la superficie della luna…probabilmente no; i piloti sono gente pratica e poco incline alle fantasticherie.
Eppure tra il volo dello "Spirit of Saint Louis"e l’allunaggio di Eagle nel mare della tranquillità vi sono soltanto 42 anni e due mesi,la stessa distanza che ci separa dal 1975 (a proposito,a quanti computer del 1975 corrisponde come capacità di calcolo il vostro smartphone?).
Cosa sarà il mondo dell’informatica tra cinquant’anni?
Cosa sarà tra cento?

Carmelo Pugliatti, non sto dicendo che non avverrà. Sto dicendo che deve cambiare il paradigma alla base. Può darsi che avvenga in cento anni, forse anche in meno tempo. Chi può dirlo? Sto dicendo che la potenza di calcolo è cambiata in modo impressionante dal 1975 ad oggi, ma l’architettura di base è ancora quella. Per quello che so io non aveva coscienza di se e del mondo circostante un programma che giocava a tris nel 1975 come non ce l’ha una google car oggi. Aggiungo che le conoscenze sul funzionamento del cervello umano sono notevolmente aumentate dal 75 ad oggi ma ancora non sappiamo esattamente come funziona. Non è solo questione di potenza: possiamo costruire un neurone artificiale molto più veloce di un neurone reale, che commuta solo attorno al migliaio di volte al secondo, ma non siamo in grado di costruire l’intricata rete di connessioni sinaptiche che legano tra loro i neuroni. E anche se lo fossimo non sappiamo bene cosa succede in quelle connessioni. Abbiamo forse capito con gli studi di Pribram che le informazioni nel nostro cervello non sono localizzate in engrammi ma distribuite e i ricordi sono, forse, legati tra loro con metodi che risultano essere simili a processi olografici in cui, forse, il ruolo svolto da fasci di luce laser coerente come strumento di memorizzazione e recupero di associazioni è svolto da onde cerebrali che si propagano lungo la rete sinaptica. Ho scritto ‘forse’ un pò di volte perchè è un bel modello ma non siamo poi nemmeno così certi che sia così. In pratica i fratelli Wright e i progettisti del Concorde parlavano la stessa lingua. Steve Wozniak parlava nel 1975-76 la stessa lingua parlata oggi dai progettisti della Google car ma -ed è quello che, forse sbagliando ma è secondo me il punto di discussione, sto sostenendo io - non è la lingua che dovrà essere parlata per costruire una macchina con coscienza di se e del mondo che la circonda. Secondo me i computer di oggi stanno ad una macchina in grado di replicare le funzioni umane come i motori dello Shuttle stanno ad un motore a curvatura :slight_smile:

Quoto in toto.
Più che ad esseri cibernetici penso ad esseri umani modificati geneticamente come nostri successori più probabili, solo quando saremo in grado di produrre vita artificialmente e padroneggeremo meglio la genetica. Isaac Asimov docet.
L’elettronica e la A.I. saranno sempre di supporto. Potranno con il tempo liberare l’umanità da compiti sempre più gravosi e complessi, ma diventare pari alla mente umana, no. Almeno non in questa forma.
In campo astronautico l’elettronica ha impiegato decenni per arrivare a fare cose in automatico che all’apparenza sembrano facili. Ancora oggi la gestione della ISS richiede un notevole contributo umano da parte dei controllori di terra per fare cose che un computer di bordo dovrebbe fare.
La nuova sfida in questo settore sarà il volo marziano, perché l’equipaggio della futura e probabile missione spaziale non potrà avvalersi del controllo diretto del veicolo come oggi la ISS, ma dovrà sbrigarsela da solo, quindi o computer più performanti o un equipaggio numeroso. Propendo per la prima ipotesi, ma ritengo che l’uomo in certe situazioni estreme sia ancora insostituibile.

Diciamo che la vera sfida,il vero limite,è un altro.
I computer assorbono ancora troppa energia e producono troppo calore.
L’ articolo sul Corriere ricordava che,se apriamo un iphone ci accorgiamo che la maggior parte dello spazio interno è occupato dalle batterie.
La verà sfida sarà dunque non tanto quella di miniaturizzare circuiti e ampliare capacità di calcolo,ma quella di costruire computer che riescano ad impiegare meno energia e produrre meno calore
Sfida tutt’altro che semplice e di facile soluzione.

Aggiungo che le conoscenze sul funzionamento del cervello umano sono notevolmente aumentate dal 75 ad oggi ma ancora non sappiamo esattamente come funziona.

Ma propio qui stà l’equivoco.
L’inteligenza artificiale probabilmente non replicherà il cervello umano,ma sarà qualcosa di diverso,con un differente meccanismo cognitivo.
Non stiamo parlando di costruire umani meccanici,ma computer che siano in grado di svolgere compiti altrettanto bene ed in modo altrettanto versatile degli umani; ma questi computer,per quanto filosoficamente potranno essere definiti “nostri discendenti non biologici” saranno diversi dagli esseri umani.
Ed è un bene che sia così; queste inteligenze artificiali del futuro non conosceranno sindromi depressive ,non saranno autistici o schizoidi,nè avranno disturbi di personalità propio perchè non replicheranno un cervello umano.

Secondo me i computer di oggi stanno ad una macchina in grado di replicare le funzioni umane come i motori dello Shuttle stanno ad un motore a curvatura :-)

Con una differenza importante.
Il concetto di motore a curvatura così come lo presenta la fantascienza (ad esempio Star Trek) probabilmente è impossibile da realizzare dal punto di vista delle leggi della fisica.
L’inteligenza artificiale,per quanto sfida ardua,è invece un obiettivo meno chimerico.
Concordo sul fatto che siamo ancora lontani.

Anche a me piace molto la soluzione cyborg. Lo sviluppo della tecnologia deve puntare a supportare l’uomo, non sostituirlo. Credo che l’astronautica punterà a potenziamenti degli umani, non alla loro sostituzione.