Il futuro è oggi. Scenari del postumano

3f57c2d2-2ed8-491f-9798-8ae61e17cfd0robot
non più semplici macchine

di Giuseppe O. Longo su Rocca

Forse, in realtà, stiamo assistendo a una graduale fusione delle attività e delle funzioni umane con le attività e le funzioni di ciò che noi umani abbiamo costruito e di cui ci siamo circondati.
(segue)
Il robot, unione di mente sintetica e di corpo sintetico, rappresenta l’ultima versione del nostro tentativo plurisecolare di costruire l’uomo artificiale. La somiglianza sempre più spinta tra robot e uomo, che si estende alle capacità cognitive, all’autonomia e in prospettiva anche alle emozioni e forse alla coscienza, pone interrogativi inquietanti. La crescente diffusione dei robot in tutti i settori della società ci obbliga a considerare il rapporto di convivenza uomo-macchina in termini inediti, che, forse sorprendentemente, coinvolgono anche l’etica. Affrontare questi problemi è importante e urgente.
Mentre l’evoluzione biologica ha dotato gli organismi viventi prima di un corpo e poi di un cervello, avente funzioni di controllo centrale e dotato in certi casi di proprietà cognitive superiori, non strettamente necessarie alla regolazione del corpo, l’intelligenza artificiale funzionalistica ha invece cercato di costruire una mente senza corpo, cioè un’intelligenza che imitasse le funzioni simboliche e astratte del cervello biologico evitando ogni interazione con un ambiente considerato fonte di disturbo. Tuttavia le difficoltà di estendere questa forma d’intelligenza artificiale al di fuori dei do- mini simbolico-formali hanno fatto ritenere che soltanto accoppiando la mente artificiale all’ambiente, attraverso un corpo artificiale dotato di sensi e di organi attuatori, si potesse ottenere un’intelligenza flessibile e ad ampio spettro com’è quella biologica.

convivenza uomo-robot
Il recupero della dimensione corporea e sensoriale ha portato ai robot e ha aperto una serie di interrogativi che vanno dagli aspetti tecnici della loro costruzione fino a sottili questioni di natura etica. Infatti il robot è un artefatto capace di apprendere e dotato di una certa autonomia di decisione e comportamento. Queste caratteristiche, in una prospettiva di stretta convivenza uomo-robot, non possono non sollevare certe domande: Fino a che punto siamo disposti a convivere coi robot, ad affidarci a loro nella vita quotidiana, nell’accudimento e nelle cure? Se i robot dovessero un giorno diventare intelligenti e sensibili (quasi) quanto gli umani, potremmo continuare a considerarli macchine, come le lavatrici o le automobili? O dovremmo adottare atteggiamenti empatici e comprensivi come nei confronti degli animali domestici? Dovremmo arrivare ad attribuire loro dignità etica?
E viceversa: quali comportamenti dei robot dovremmo tollerare, incoraggiare o vietare? E di chi sarebbero le responsabilità di un loro eventuale comportamento dannoso?
L’ultima domanda è importante perché rivela il conflitto tra la natura artificiale dei robot, per cui essi dovrebbero obbedire alla nostra programmazione, e la loro parziale autonomia (se un robot non è autonomo non è un robot) che, in linea di principio, potrebbe indurli a decisioni nocive nei nostri confronti. Erano problemi di questo genere che aveva in mente Asimov quando nei primi anni ’40 postulò le «Leggi della robotica», che vietano ai robot di compiere azioni dannose per gli esseri umani e che costituiscono il primo embrione di un’etica dei robot o, con un espressivo neologismo, di una «roboetica».

tra realtà e fantascienza
In questo ambito le previsioni si mescolano facilmente con la fantascienza e accanto alle speculazioni ci sono le realtà: in Giappone (il paese di gran lunga più avanzato nella costruzione e nell’impiego dei robot) si tocca con mano quanto possa diventare intenso il rapporto uomo-macchina quando il robot sia un (o una) «badante» con sembianze umane oppure quando abbia più o meno le fattezze e il comportamento di un animale domestico (si pensi ad Aibo, il robot cane della Sony, ormai fuori produzione, che per anni ha svolto la funzione di «animale» da compagnia).
La proiezione affettiva è tanto forte da suscitare problemi psicologici e, ancora una volta, etici. E poi, in generale, la marcia sempre più convulsa di una tecnologia invasiva e onnipresente non può non avere effetti profondi sull’immagine che abbiamo di noi stessi e sul nostro stesso essere «umani»: specchiandoci in quello straniante alter ego che sta diventando il robot, quale immagine ce ne ritorna? Riusciremo, per differenza o per similarità, a capire qualcosa di più di noi stessi? Che questi problemi siano importanti e urgenti, è confermato dall’istituzione di un Comitato tecnico per la roboetica in seno alla Robotics and Automation Society dell’Ieee (Institute of Electrical and Electronics Engineers). Dopo un breve inquadramento storico dedicato al passaggio dall’intelligenza artificiale funzionalistica alla robotica, sottolineeremo l’importanza del corpo sotto il profilo cognitivo e attivo e considereremo i problemi etici sollevati dalla presenza sempre più diffusa dei robot. Tali problemi sono acuiti dalla somiglianza crescente che presentano con gli umani, oggi sul piano cognitivo e attivo e, domani, forse, anche sul piano emotivo e della coscienza.
Giuseppe O. Longo

——————————-
Scenari del postumano
di Pietro Greco, su Rocca

I robot non appartengono al futuro. I robot sono già tra noi. Per cui le domande che pone Giuseppe O. Longo non sono affatto un’esercitazione accademica. Non riguardano un domani, più o meno prossimo. Riguardano il presente. La nostra vita, qui e ora. Oggi. Le macchine con un corpo e una mente artificiali ci stanno già aiutando a risolvere molti problemi: in fabbrica, in ufficio, a casa, in ospedale, in giro per la città. Ma negli stessi luoghi e con forza analoga ci stanno ponendo davanti a nuovi rischi: la disoccupazione di massa, la sicurezza, la possibilità che cessino di essere meri esecutori di ordini e acquistino il controllo, parziale o totale, sulle nostre vite.
E, allora, come dobbiamo rapportarci – come ci stiamo rapportando – a queste macchine in un’era in cui la domanda non è più, per parafrasare Umberto Galimberti: cosa possiamo fare noi dei robot? Ma, cosa i robot faranno (stanno già facendo) di noi?

le leggi della roboetica
Per rispondere a questa domanda è nata addirittura una disciplina: la roboetica. Che, come sostiene Peter Kopacek, rettore dell’Università Tecnica di Vienna, affonda le sue radici nelle tre leggi di Asimov: 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. Isaac Asimov elaborò queste leggi oltre 75 anni fa, quando i robot erano ancora fantascienza. Appartenevano al futuro. Ma lo scrittore era dotato di genio e di vista lunga. Per molti versi lo ha anticipato, il futuro. Né il suo pensiero era cristallizzato. Tanto che sentì il bisogno di aggiungere un’ulteriore legge alle prime tre. La «legge zero della robotica». Si era dimenticato che i robot non possono arrecar danno a un singolo uomo. Ma anche all’intera umanità. Così scrisse.
0. Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.
Negli ultimi 75 anni molte cose sono cambiate. E, come abbiamo detto, i robot non appartengono più al futuribile. Ma sono una realtà concreta. Con cui quotidianamente ci rapportiamo, che ne siamo coscienti o no. Cosicché per rispondere alle nuove e attuali domande poste da Giuseppe O. Longo, dobbiamo intenderci su cosa sia mai un robot.
Secondo Peter Kopacek possiamo proporre quattro possibili affermazioni sui robot: 1. I robot non sono altro che macchine. 2. I robot hanno una dimensione etica.
3. I robot sono agenti morali.
4. I robot sono l’evoluzione di una nuova specie.
Le prime due definizioni sono già attuali. Le altre due riguardano uno sviluppo possibile ma non ancora realizzato di queste macchine.

dimensione etica delle macchine
Fermiamoci alla prima definizione, che riguarda la gran parte dei robot esistenti nelle fabbriche, negli uffici, nelle case, nelle strutture di una città. Non sono altro che macchine, per quanto abbastanza sofisticate. Sono, dunque, sotto il controllo dell’uomo. Nei modi in cui lo sono tutte le altre macchine. Per cui le tre leggi più una di Asimov possono essere applicate con relativa facilità. Ma, anche, con una novità sostanziale: le macchine robotiche posso agire con gradi di autonomia crescenti. Pensiamo alle automobili (quasi) autonome che iniziano a circolare in molte strade del mondo. Non sono totalmente autonome. Lo sono solo in parte. Sono automobili sicure. Ma, lo dimostra la cronaca, talvolta provocano degli incidenti. Anche gravi. Persino mortali. Ecco, dunque, che molti sollevano il problema inusitato della dimensione etica di queste macchine. Se io ho un fucile e sparo, uccidendo qualcuno, ebbene la responsabilità è chiara: sono io che devo rispondere delle conseguenze di questa azione. Ma se un’auto di Elon Musk, agendo con una notevole, ma non totale, autonomia provoca un incidente mortale, di chi è la responsabilità: del proprietario, della casa produttrice del software, della macchina stessa?

robot totalmente autonomi
La dimensione etica diventa ancora più chiara nei robot totalmente autonomi che si iniziano a progettare. Poniamo il caso che un sistema di intelligenza artificiale che sovrintende a un esercito di robot decide, senza alcun intervento umano, di scatenare una guerra e distruggere una città o, nel caso di una guerra nucleare totale, l’intera civiltà umana, di chi è la responsabilità? Naturalmente c’è un’altra domanda che precede quella che abbiamo appena proposto: è giusto progettare e costruire robot completamente autonomi? Robot che, almeno in apparenza, sollevano tutti e ciascun uomo da ogni responsabilità?
Questo ramo della roboetica è in rapido sviluppo e le risposte alle nostre domande iniziano ad arrivare. No, non è giusto – dicono persino molti militari e costruttori di armi e informatici – costruire sistemi d’arma completamente autonomi. Non è giusto porre il destino di un singolo uomo o dell’intera umanità nelle mani di robot del tutto autonomi.
Naturalmente non tutto è così semplice. Possiamo pensare a un robot badante completamente autonomo e in grado di prendersi cura di bambini o anziani soli? Possiamo rinunciare a robot medici completamente autonomi (ma iperspecializzati) in grado di assumere decisioni che possono salvare la vita di una persona?
Su queste domande non abbiamo ancora una risposta. Ma dovremo trovarla presto, perché simili macchine potrebbero a breve essere una realtà.
Come ci ricorda Giuseppe O. Longo, esistono già gruppi interdisciplinari di esperti che discutono di questi problemi. Ma, per parafrasare Georges Benjamin Clemenceau, potremmo (dovremmo) dire che «i robot sono una faccenda troppo seria per lasciarla nelle mani degli esperti». Occorre creare una nuova cultura diffusa della robotica. Proprio perché i robot hanno una spiccata dimensione morale.

se i robot diventeranno «macchine coscienti»
Il terzo caso proposto da Peter Kopacek – i robot come agenti morali – è ancora di scuola. Se essere agenti morali significa essere coscienti di se stessi e delle proprie azioni, ebbene questa condizione per i robot non si pone. Ma potrebbe porsi fra non molto tempo. Se i robot diventeranno «macchine coscienti», allora diventeranno agenti morali a tutti gli effetti. E dovranno essere chiamati in prima persona (è il caso di dirlo?) a rispondere delle loro azioni, nel caso contravvengano a una delle leggi di Asimov.
Ma anche noi saremo chiamati a nuove responsabilità. Se i robot dovessero diventare coscienti e (quindi?) senzienti, allora anch’essi diventerebbero portatori di diritti. E noi portatori di doveri nei loro confronti. Dovremmo stabilire delle leggi del tutto simmetriche a quelle di Asimov a tutela dei robot.
In questi casi potremmo rispondere a un’altra delle domande di Longo: confrontandoci con «l’altro» cosciente e senziente, impareremmo molto anche su noi stessi.

o addirittura una nuova specie capace di evoluzione?
Resta l’ultimo caso proposto da Peter Kopacek: i robot che divengono una nuova specie capace di evoluzione. Questo scenario non è molto diverso dal precedente. E da un punto di vista etico non ci porrebbe problemi diversi da quelli già brevemente esaminati. Resta un problema, oggi impossibile da risolvere: i robot coscienti ed in evoluzione riusciranno a convivere con l’uomo e noi con loro? Avremo due specie cooperanti o in conflitto?
Evitiamo di rispondere a queste domande. Perché le risposte non avrebbero alcuna valenza scientifica. Per ora limitiamoci a dire che il post-umano è già iniziato ma che il suo destino resta ancora nelle nostre mani. Siamo ancora noi, uomini sedicenti sapienti, che lo possiamo indirizzare verso un futuro desiderabile.

ROCCA 15 SETTEMBRE 2018.
Pietro Greco

rocca-18-2018
————
- L’immagine: Philip Dick, Mutazioni.

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

*

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>