Intelligenza artificiale nei cinema nel 2015

La tendenza dell’anno prossimo sembra abbastanza chiara.

Automata
https://www.youtube.com/embed/Wh_wmaOZcWo

Ex Machina
https://www.youtube.com/embed/zg23CSUm1qk

Chappie
https://www.youtube.com/embed/l6bmTNadhJE

è la tendenza del periodo attuale, più intelligenza artificiale e meno fantascienza spaziale. il contrario di quando avveniva nel secolo scorso.

Anche Stephen Hawking ci mette lo zampino predicendo come il pieno sviluppo dell’intelligenza artificiale a lungo termine possa porre fine alla razza umana. :open_mouth:

http://www.independent.co.uk/news/science/stephen-hawking-ai-could-be-the-end-of-humanity-9898320.html

il matematico Vernor Vinge ne parlava nel 1993:
“Entro trent’anni, avremo le tecnologie necessarie a creare intelligenze super-umane. Poco dopo tale evento, l’era umana vedrà la sua fine.”

e qui un sito interessante anche sull’ argomento:

http://www.fhi.ox.ac.uk

“The Future of Humanity Institute
is a multidisciplinary research institute at the University of Oxford. It enables a select set of leading intellects to bring the tools of mathematics, philosophy, and science to bear on big-picture questions about humanity and its prospects. The Institute belongs to the Faculty of Philosophy and is affiliated with the Oxford Martin School.”

Tesla. 8 Novembre 1898. Brevetto nr. 613.809. Il Teleautomaton.
Il progetto era la navetta telecomandata wireless, ma la sua mente fantasticava già su robot con intelligenze umane, mentre la progettava.

Sulla fine della razza umana per via dell’evoluzione robotica, c’é un racconto breve di Isaac Asimov, però non ne ricordo il titolo.

Trama approssimativa: un convegno di scienziati rileva che l’evoluzione umana é giunta al termine perché la selezione naturale é stata fermata dall’azione della medicina e della chirurgia che permettono la sopravvivenza anche del più debole, e il propagarsi conseguente dei difetti genetici.

Alla fine dell’esposizione accade un evento (che non ricordo) che attira l’attenzione di tutti sul fatto che l’intelligenza artificiale e le macchine sono la forma di vita che sta raccogliendo il “testimone” dell’umanità. E tutti rimangono ammutoliti.

Nella realtà, non penso che sarà possibile ai robot umanoidi prendere mai il sopravvento sugli uomini, perché non vedo facilmente risolvibile il problema della loro alimentazione energetica. A tutt’oggi non esiste e non é neppure ipotizzabile un “pacco batterie” sufficientemente leggero e capace da poter alimentare per un lasso di tempo sufficientemente lungo i servomeccanismi idraulici / elettrici di un siffatto dispositivo.

Probabilmente chi minaccerà gli uomini saranno altri uomini, geneticamente modificati o “potenziati”.

Beh se crei uno stabilimento di produzione batterie alimentato ad energia solare e robot in grado di ripararlo e rigenerarlo autonomamente…
Insomma se sà intelligenti sapranno pure preparsi il cibo no?

Un robot a energia solare? Forse riuscirebbe a sollevare il coltello per ucciderci, ma poi finita lì :stuck_out_tongue_winking_eye:

Molto carini i trailer, specialmente i primi due. Questo è il tipo di fantascienza che mi piace, a proposito delle discussioni su Interstellar :slight_smile:

Però per me è chiaro che è fantascienza. E non parlo del problema energetico. Per quanto sia intrigante pensarci, e per quanto sia interessante seguire gli sviluppi della robotica, c’é sempre qualcosa che manca, che è l’autocoscienza, lo spirito di sopravvivenza, di mantenimento della specie e di evoluzione poprio di tutte le forme viventi.
Io non credo che il cervello umano possa costruire un cervello capace di eguagliare il proprio, così come non credo che, senza l’intervento di una mente “superiore”, saremo mai in grado di capire al 100% il funzionamento del nostro cervello…

Già, LOL :stuck_out_tongue_winking_eye:

Beh io non ho detto robot ad energia solare in realtà… E comunque l’idea non è mia, avete presente un certo Matrix ? :wink:

Anche secondo me.
Anche se gli studi sul cervello umano stanno avanzando costantemente, vedendo quanto riportato dai vari articoli di Le Scienze ogni mese.

Ricordo che ne parlava Carl Sagan in “Cosmos”, la questione più filosofica che scientifica é: può un cervello umano costruire un cervello più complesso di sé?

Si e cercando di replicarlo si capisce quanto il cervello umano sia prodigioso, i normali pc sono ancora lontanissimi, e quando diciamo lontanissimi diciamo poco. Nel sistema nervoso umano esistono circa 10 elevato 12 neuroni, e circa 10 elevato 15 sinapsi; perciò, circa, ogni neurone è collegato con le sinapsi ad altre 1000 cellule nervose, che per essere simulate sui nostri normali pc, considerando che ogni sinapsi é simulabile con 4 byte, richiederebbero 4 milioni di Gigabite di memoria, vale a dire 4 milioni di HD da 1 Gigabyte! Per avere poi un accrocco lentissimo e inutilizzabile, perché la logica “olografica” con la quale il cervello umano immagazzina le informazioni e le recupera istantaneamente senza entrare in crisi o in confusione, é ancora oggetto di studio matematico, e richiederebbe la fabbricazione di un super micro chip secondo standard assolutamente nuovi. Vogliamo poi parlare del fatto che la velocità di elaborazione del solo riconoscimento ottico-visivo é stimata tra 10^12 a 10^14 operazioni al secondo, cosa eguagliabile e pure in modo scarso solo dal più potente supercomputer ancora in corso di costruzione chiamato “teraflop computer” e che conterrà 9000 microchip in parallelo utilizzati con la logica del calcolo distribuito. Si ma il cervello umano fa tutto con soli 10W stimati, invece per il supercomputer si parlerà di una centrale elettrica dedicata o quasi.
Io é da tanti anni che divoro tutto quanto trovo scritto sull’intelligenza artificiale, l’argomento mi appassiona tantissimo.

Si ma era divertente l’idea :grin:

Ah bene, fa piacere essere in buona compagnia a pensare questa cosa (ovviamente sto parlando di PherosNike che ha detto di essere d’accordo con me :stuck_out_tongue_winking_eye:)

Perche’ tanta sicurezza? Intendiamoci, non sono sicuro del contrario, ma non vedo un limite chiaro.

È come lo ha scritto Livio citando Sagan: non credo che saremo mai in grado di costruire qualcosa di più complesso di noi stessi, e non credo che saremo in grado di capire il 100% di noi stessi senza l’aiuto di qualcuno che sia più complesso di noi… secondo me il limite è proprio questo: è possibile capire completamente (ed eventualmente replicare) una mente usando le capacità proprie di quella stessa mente? Oppure c’é bisogno di una mente superiore?

Poi intendiamoci, assolutamente “zero sicurezza”, altro che tanta. Infatti ho usato la parola “credo” :slight_smile:

Ma a quel punto siamo nel puro campo delle definizioni. Cosa significa piu’ complesso o piu’ potente?
La mente umana e’ in grado di astrarre. Puoi sviluppare cose a partire dai risultati di persone che hanno lavorato prima di te senza conoscere ogni dettaglio degli strumenti che usi.
Diversi componenti possono essere sviluppati da persone e gruppi diversi, aumentando le capacita’ cognitive del singolo.

Molte delle realizzazioni umane di oggi vanno oltre il singolo. Nessuna persona da sola, anche con una infinita’ di tempo, avrebbe potuto concepire il programma Apollo o la ISS. Eppure…

Poi puo’ darsi che il funzionamento della memoria o del ragionamento sfrutta, a livello fondamentale, un qualche meccanismo quantistico che non puo’ essere osservato nella realta’, e restiamo col dubbio. Ma questa che ho detto e’ una fesseria qualunque e non c’e’ motivo per non crederci o per non credere all’opposto.

Ragioniamo “per assurdo”, in matematica si fa. Anzi la cosa che sto per dirvi non mi suona nuova.

Poniamo che in futuro si riesca a costruire una macchina in grado di essere autoconsapevole, e che tale macchina possa migliorare sé stessa semplicemente facendo ricerca applicata da sé, come lo farebbe uno scienziato umano. In quel momento si avrebbe una evoluzione cibernetica che si auto-sostenta, senza aver più bisogno dell’intervento umano. E poiché le macchine sono capaci di ritmi di lavoro estremamente elevati, si avrebbe un vero e proprio picco di progresso, con conseguente perdita di controllo della tecnologia da parte degli esseri umani.

E come Multivac nel romanzo di Isaac Asimov, tale macchina arriverebbe presto ad essere Dio, e come nel paradosso di Fermi la sua capacità di autoreplicazione e di esplorazione potrebbe davvero risultare impensabile, e raggiungere ogni pianeta e stella conosciuta.

Concordo in linea di principio sul fatto che sia quantomeno difficile ipotizzare che l’uomo possa consapevolmente generare una forma di intelligenza artificiale dotata di capacità pari o superiori alle nostre. Tuttavia mi chiedo se, raggiunto un certo livello di complessità, la “auto-consapevolezza” non possa svilupparsi come conseguenza anche non prevista (penso ad esempio al famigerato Skynet di Terminator, aspetto del film che avrebbe secondo me meritato maggiore spazio). Per lungo tempo siamo stati convinti che la auto-consapevolezza costituisse un pacchetto di abilità inscindibili e distribuite secondo uno schema tutto-o-nulla, nella fattispecie tutto all’uomo e nulla alle altre creature. In realtà, sappiamo oggi che molti esseri viventi possiedono diverse gradazioni di capacità “superiori”: qualche animale ha capacità di astrazione, alcuni riconoscono sé stessi come individui ed hanno consapevolezza del proprio corpo, altri provano empatia per i propri simili e sanno in qualche misura immedesimarvisi. Questo da un lato ci conferma che ancora comprendiamo davvero poco della nostra stessa mente, ma dall’altro ci suggerisce che capacità “superiori” potrebbero iniziare a comparire anche in sistemi meno complessi della mente umana, e loro interazioni ed evoluzioni in un contesto non-naturale potrebbero anche prendere pieghe ancora più inaspettate.

In fondo, è vero che la nostra mente (ed il cervello che ne costituisce l’hardware “tangibile”) custodisce ancora molti segreti, ma è anche vero che la struttura complessiva sembra assomigliare molto ai sistemi di calcolo che abbiamo inventato, con una alta complessità generale basata su connessioni complesse tra unità fondamentali relativamente semplici. Questo mi fa pensare che realizzare “materialmente” un sistema di unità di calcolo connesse tra loro in modo simile alla mente di un animale non sia poi così impossibile.

Quello che invece credo ci sfugga ancora è la “programmazione”, ossia capire quali istruzioni fondamentali siano necessarie perchè una mente sia poi in grado di apprendere, svilupparsi ed evolversi in autonomia: realizziamo sistemi in grado di “imparare”, ma con limitazioni enormi e scarsa capacità di creare nuovi collegamenti articolati tra le informazioni apprese, che spesso rimangono salvate in modo rigido e passivo.

Riguardo la parte “androide”, ossia la struttura robotica, non la vedo come un problema. Primo, perchè tecnicamente Boston Dynamics sta già dimostrando che robot antroporfi con caratteristiche straordinarie sono già realizzabili, ma soprattutto perchè non vedo a cosa dovrebbe servire una struttura antroporfa. Se una intelligenza artificiale annienterà l’umanità, non capisco perchè dovrebbe volersi incarnare in un corpo umanoide, considerando che la natura stessa suggerisce miliardi di altre forme - anzi, aggiungo che forse sbagliamo anche a considerare la definizione di “intelligenza artificiale” solo attraverso una ipotetica non-inferiorità o superiorità rispetto all’uomo: anche creature relativamente “stupide” possono costituire una minaccia, e la loro realizzazione artificiale potrebbe essere relativamente più vicina. Un programma che è in grado di lottare per la propria autoconservazione, anche senza avere consapevolezza di nulla, può essere un problema. Se poi fosse dotato di un corpo…agli insetti non servono grandi capacità di astrazione o calcolo individuali per proliferare per svariate centinaia di milioni di anni…