S&F_scienzaefilosofia.it

Vivere con i robot. Una conversazione sulla robotica sociale

Autore


Luisa Damiano - Paul Dumouchel

Luisa Damiano - Università degli Studi di Messina Paul Dumouchel - Ritsumeikan University di Kyoto

Luisa Damiano insegna Logica e Filosofia della scienza presso l’Università degli Studi di Messina e coordina il Gruppo di Ricerca sulla Epistemologia delle scienze dell’artificiale Paul Dumouchel insegna Filosofia presso la Ritsumeikan University di Kyoto

Indice


1.Introduzione

2. Perché il telefono “ci capisce”

3. Cosa significa 4.0?  

4. Tutto è bit

5. L’intelligenza dei luoghi

6. Il narcisismo perduto e la riscoperta dell’altro

7. Stop alla retorica della rete

 

 

 

↓ download pdf

S&F_n. 22_2019

Abstract


Living with the Robots. A Conversation about social Robotics

This interview aims at focusing some aspects of an intriguing discipline known as social Robotics. In particular, we try to get familiar with concepts and philosophical frameworks which deal with this new human enterprise. Paul Dumouchel and Luisa Damiano will help us to get in contact with a scenario in which emotions, reason and ethics will be partially revised by a somehow different perspective about human-robot interaction and sociality.

 

 

 

[Intervista a cura di Delio Salottolo e Luca Lo Sapio]

 

S&F_: Potete raccontarci come è nata la vostra collaborazione e quali implicazioni essa ha per la strutturazione del vostro percorso di ricerca?

 

LD_PD_: La nostra collaborazione è nata nel 2007, quando la Japan Society for the Promotion of Science (JSPS) ha finanziato il progetto di ricerca “Empathy and Frontier Sciences”. Si trattava di un progetto mediante cui Luisa, che aveva appena finito il dottorato presso l’Università di Bergamo, intendeva continuare il proprio lavoro di ricerca in epistemologia delle scienze cognitive con Paul, alla Ritsumeikan University di Kyoto, focalizzando l’esplorazione sulle indagini scientifiche di frontiera inerenti all’empatia. Pochi giorni dopo l’arrivo di Luisa a Kyoto, JSPS le ha offerto la possibilità di richiedere fondi addizionali per sviluppare un ulteriore progetto di ricerca, dedicato ad approfondire una delle direzioni d’indagine costitutive del progetto appena avviato. La scelta è caduta su una delle direzioni più interessanti di Empathy and Frontier Sciences, centrata sulle modalità con cui la nozione di empatia viene operazionalizzata nell’ambito della robotica sociale. Questa può essere pensata come un’area dell’IA di orientamento embodied caratterizzata dall’intento programmatico di costruire robot in grado di interagire con i propri utenti attraverso segnali sociali – e, in particolare, segnali affettivi – compatibili con quelli umani. Il nuovo progetto, intitolato “Artificial Empathy”, prevedeva, da un lato, una lunga serie di visite di ricerca nei laboratori giapponesi di robotica sociale e, dall’altro, l’organizzazione di workshop scientifici internazionali. L’intento era quello di aprirci la possibilità di discutere con specialisti in robotica sociale le modalità di ricerca – teoriche, implementative e sperimentali – mediante cui i robot detti “sociali” – e, in particolare, “emozionali” o “empatici” – sono prodotti, testati e integrati nelle nostre ecologie sociali. Date queste linee programmatiche, con il finanziamento del progetto Artificial Empathy da parte di JSPS la nostra esplorazione epistemologica e filosofica della robotica sociale si è basata da subito non solo sull’analisi della letteratura scientifica della disciplina, ma anche e soprattutto sul dialogo e sulla collaborazione con gli specialisti nel settore. Continuando su questa linea, una volta finito il finanziamento JSPS, Luisa ha scelto di lavorare per alcuni anni all’interno di un team di robotica sociale, cooperando, come specialista in filosofia della scienza, nella ricerca teorica e sperimentale diretta alla produzione di robot sociali. La nostra esplorazione filosofica si è così arricchita di una componente “partecipativa”. La partecipazione attiva alle indagini della robotica sociale ci ha condotto a sviluppare le nostre ricerche di epistemologia, filosofia ed etica della robotica sociale anche dall’interno. Ci ha offerto una conoscenza approfondita del settore e facilitato nel presentare gli esiti delle nostre esplorazioni presso le conferenze di robotica sociale e sulle riviste scientifiche di robotica sociale. Un tale “approccio partecipativo” – emerso in gran parte dalle contingenze che hanno caratterizzato il percorso della nostra collaborazione – è probabilmente il tratto più specifico del nostro lavoro filosofico sulla robotica sociale. A nostro avviso ne costituisce anche l’aspetto più significativo. Riteniamo sia essenziale per la riflessione filosofica sulla robotica sociale basarsi su una conoscenza di dettaglio dei framework teorici, epistemologici e metodologici che guidano il campo, nonché del modo in cui essi si esprimono in concrete pratiche di ricerca. Troppo spesso c’è uno scollamento tra la robotica sociale e la riflessione filosofica che intende descriverne e orientarne l’evoluzione. Si tratta di una mancanza di trasmissione bidirezionale di conoscenze che è estremamente pericolosa. L’introduzione dei robot sociali nelle nostre ecologie sociali le cambierà in modi significativi – modi che non possiamo prevedere. Solo il dialogo continuo e l’attiva partecipazione a progetti di robotica sociale possono consentire alle scienze umane di lavorare a garanzia della sostenibilità della diffusione dei robot sociali. Non possiamo permetterci una riflessione epistemologica, filosofica ed etica che, come spesso accade, pur volendo avere un impatto sulle indagini della robotica sociale o sulla sua regolamentazione, si basa più sulla science-fiction che sulla conoscenza della robotica sociale e della sua produzione. La massimizzazione dei benefici e la gestione dei rischi dell’introduzione dei robot sociali richiedono la piena cooperazione di robotica sociale e scienze umane – epistemologia, filosofia ed etica in primis.

 

S&F_: Nel vostro lavoro avete evidenziato come il termine “robot” nasconda delle insidie. In alcuni casi esso viene impiegato entro una cornice ottimistica (la cultura giapponese costituisce un esempio in tal senso) mentre in altre circostanze esso viene impiegato entro una visione più cupa (pensiamo a quanto hanno detto a proposito dell’evoluzione dell’intelligenza artificiale e dei robot autori come Elon Musk, Stephen Hawking o Nick Bostrom). La vostra posizione sembra suggerire ed esplorare la possibilità di una “terza via” che non ceda né al catastrofismo né all’ottimismo ingenuo. Potete dirci qualcosa di più in proposito?

 

LD_PD_: Il dibattito sui robot sociali oggi tende a essere polarizzato tra gli estremi del tecno-entusiasmo e della tecno-fobia. Questa polarizzazione caratterizza in particolare la riflessione etica sulla robotica sociale, il cui “polo negativo” converge con la prospettiva della singolarità, alla quale lei fa riferimento, nel delineare uno scenario distopico. Nel caso dei robot sociali l’enfasi è posta sulla possibilità che la loro diffusione coincida con una progressiva degenerazione del legame sociale. Schematicamente l’idea è questa. Sempre più preferiremo interagire socialmente e affettivamente con i robot sociali più che con gli altri esseri umani. Sempre più preferiremo consegnare a queste macchine le relazioni di supporto verso individui vulnerabili. Assisteremo così al dilagare di una forma radicale di isolamento sociale, per evitare la quale dobbiamo bandire i robot sociali. Con le parole di Sherry Turkle: «escluderli dal regno delle nostre interazioni sociali». Questa posizione oggi tende a essere dominante nella riflessione etica sulla robotica sociale. Ma è una posizione che condanna l’indagine etica sulla robotica sociale all’assoluta inefficacia. Una riflessione etica che interviene “a cose fatte”, cioè valutando a posteriori la produzione della robotica sociale, per condannare tutti i robot sociali, senza considerare le specificità dei diversi modelli e dei relativi progetti di uso e integrazione, è destinata a rimanere inascoltata dagli specialisti in robotica sociale. Si condanna a non avere alcun impatto, risultando in definitiva equivalente, rispetto ai propri effetti, all’accettazione acritica della nuova tecnologia in cui consistono i robot sociali. A nostro avviso la possibilità di garantire la sostenibilità sociale della diffusione dei nuovi robot è vincolata in modo essenziale al superamento di questi approcci estremi. L’esigenza è quella di impegnare l’indagine etica nella partecipazione attiva alla costruzione dei robot sociali, dalla fase della loro progettazione a quella della loro valutazione in scenari di human-robot interaction, inclusa l’integrazione nei nostri contesti sociali. Non si tratta solo della necessità di proporre alla robotica sociale concrete linee guida, capaci di orientarla verso la gestione dei rischi e la massimizzazione dei benefici dei robot che essa produce. Si tratta anche e soprattutto di assumere un approccio partecipativo, che trasformi l’individuazione dei rischi legati all’uso di questi artefatti in concrete soluzioni da integrare in essi e studiare, implementare e testare partecipativamente. Come possiamo costruire robot sociali che invece di isolarci funzionino come “connettori sociali”, atti a incoraggiare le relazioni tra umani, in particolare le relazioni di supporto verso individui vulnerabili? La sostenibilità della diffusione dei robot sociali, e il futuro delle nostre ecologie sociali, dipende in modo cruciale dallo sviluppo di questo tipo di approccio etico. Oggi iniziano a emergere approcci di questo tipo. Non si tratta solo dell’approccio dell’“etica sintetica” che proponiamo nel libro e, in particolare, in alcuni articoli successivi. Si tratta anche, per esempio, dell’approccio che sta sviluppando il team di Johanna Seibt presso l’Università di Aarhus, in Danimarca, chiamato “integrative social robotics”. Sono programmi di ricerca che impongono di affrontare il problema che attraversa tutta la scienza e la tecnologia contemporanea: la questione di garantire e sostenere il dialogo tra le discipline.

 

S&F_: Parte del vostro lavoro è volto a fornire una giustificazione teorica alla disciplina nota come robotica sociale. Eppure il termine robot non sembra poter essere associato prima facie all’aggettivo “sociale”, essendo la socialità una dimensione relazionale che presuppone la presenza di sentimenti complessi. Dunque, l’espressione “robotica sociale” va intesa in senso metaforico o implica qualcosa di più radicale, un ripensamento del concetto di socialità?

 

LD_PD_: Il tentativo della robotica sociale di costruire macchine capaci di interagire “socialmente” con noi, di diventare per noi “partner sociali”, apre la possibilità di investigare da un nuovo punto di vista la nostra socialità. Il nostro lavoro non vuole giustificare la robotica sociale da un punto di vista teorico, ma vuole sfruttare le sue ricerche e le sue implementazioni per avanzare nell’esplorazione della nostra socialità. Questo è il nucleo metodologico del nostro approccio alla robotica sociale. Ogni robot sociale incorpora una serie di ipotesi sulla nostra socialità. Gli esperimenti di human-robot interaction effettuati dalla robotica sociale possono dirci molto su di noi. Più in generale, l’intero processo di integrazione dei robot detti “sociali” nei nostri contesti sociali può essere interpretato come un esperimento, o una serie di esperimenti, che ci offre la possibilità di avanzare nella nostra auto-conoscenza. Dal nostro punto di vista l’espressione “robotica sociale” va intesa innanzitutto in questo senso metodologico. L’idea è quella di una scienza dell’artificiale: una “scienza sintetica” della socialità e, più in generale, come spieghiamo nel libro, dell’uomo e della conoscenza umana. Pertanto l’espressione “robotica sociale” non esclude la possibilità di un ripensamento del concetto di socialità.

 

S&F_: La robotica sociale determina l’emergere di sfide più o meno complesse. Rispondere a queste sfide richiede anche l’elaborazione di modelli etici, categorie e strumenti di riflessione inediti. Fino a che punto, dunque, ritenete che i modelli offerti dalla tradizione etica occidentale (conseguenzialismo, etica deontologica, etica della virtù, etc.) possano essere sufficienti a fronteggiarle e quali nuovi modelli, categorie e idee vanno, invece, messi in campo? E in tale quadro come possiamo collocare quella che voi definite “etica sintetica”?

 

LD_PD_: Il nostro approccio all’etica della robotica sociale – che abbiamo chiamato “etica sintetica” – non rifiuta le posizioni classiche dell’etica occidentale. Al contrario, è aperto all’interazione con esse. L’idea di base è che l’introduzione dei robot sociali da un lato richiede e dall’altro permette una crescita della conoscenza etica. Interagire con questi robot impone nuove sfide, ma, al contempo, apre una nuova angolazione all’esplorazione del nostro comportamento etico, allo sviluppo della nostra conoscenza di esso e, su questa base, alla nostra capacità di affrontare nuove sfide etiche. La collaborazione con la robotica sociale può permettere all’indagine etica di svilupparsi anche a livello sperimentale, studiando in laboratorio, in scenari di interazione uomo-robot, il nostro comportamento etico, a livello generale e, più specificamente, a livello delle nostre interazioni con queste macchine. Si tratta di una dimensione essenziale dell’approccio dell’etica sintetica, la quale vede nei nuovi robot l’occasione di implementare il “metodo sintetico” introdotto dalla cibernetica e tipico delle scienze dell’artificiale: usare gli artefatti che costruiamo per conoscere meglio noi stessi. A livello etico questo approccio non scalza i modelli tradizionali dell’etica occidentale, ma apre la possibilità di testarli rispetto a specifici scenari di interazione uomo-robot, valutandone limiti e possibilità.

 

S&F_: Nel testo è presente un lavoro critico sulla filosofia di Descartes e il fatto che venga letta sempre a partire dal dualismo insito tra macchina e vivente, sottolineando invece come si possa “interpretare la dicotomia cartesiana tra mente e materia come una divisione interna al dominio cognitivo e non una separazione tra ciò che è cognitivo e ciò che non lo è” (p. 24). In che senso si può parlare di “cattivo cartesianesimo” delle scienze cognitive e della filosofia della mente? E qual è il ruolo possibile della robotica nell’evoluzione di queste discipline (ad esempio con riferimento al modello noto come “tesi della mente estesa”)?

 

LD_PD_: Dal nostro punto di vista il “cattivo cartesianesimo” delle scienze cognitive contemporanee consiste, da un lato, nell’accettazione – o nell’attiva elaborazione – di un’iper-semplificazione del pensiero di Descartes e, dall’altro, nella produzione di tematizzazioni della mente che, pur volendo superare la visione teorica attribuita a Descartes da questa lettura iper-semplificante, la ripropongono. L’ipotesi della mente estesa è un caso paradigmatico di questo tipo di approccio. Alla base c’è una lettura tradizionale, iper-semplificante, del dualismo cartesiano. Clark e Chalmers tentano di superare la posizione attribuita a Descartes mantenendone sia la struttura teorica di base, sia la caratterizzazione della mente. Quello che propongono è sostanzialmente una visione incorporata della mente che, descrivendola nei termini di un oggetto esteso, si articola sull’alternativa classica tra res cogitans e res extensa. Non solo. Con l’ipotesi che la nostra mente individuale, per realizzare i compiti cognitivi in cui è impegnata, si estenda fino a includere, per equivalenza funzionale, gli oggetti in cui si realizza la tecnologia, Clark e Chalmers ripresentano l’immagine della mente usualmente attribuita a Descartes: il prospetto di una macchina logica indipendente dalle specificità della sua realizzazione materiale. Se ipotizziamo che un taccuino di carta possa essere considerato parte della mente individuale di Otto perché gli consente di realizzare compiti cognitivi che coinvolgono la memoria, assumiamo che i processi di recupero di informazioni realizzati mediante la memoria biologica, basata su meccanismi neuronali, e quelli realizzati attraverso l’interazione con un taccuino di carta siano funzionalmente equivalenti. Ovvero: assumiamo che il recuperare informazioni sia un processo cognitivo indipendente dalle specificità della sua dimensione materiale, riproponendo una visione dualista. Come sosteniamo nel libro, la robotica sociale, a nostro avviso, struttura scenari di ricerca che suggeriscono di affrontare la questione della mente in termini diversi. In particolare, stando all’interpretazione che ne diamo, questi paesaggi esplorativi sollecitano a delineare una visione diversa della mente, non “estesa”, ma “distribuita”.

 

S&F_: Uno degli aspetti centrali nella riflessione della robotica sociale è l’opposizione tra “approccio interno” e “approccio esterno” alle manifestazioni emotive, con il conseguente problema di un’emotività robotica vista e vissuta come “finta” in quanto non connessa a uno stato “interiore”, che ne manifesterebbe la “verità” (o la “falsità”, ma almeno voluta). In che senso è possibile affermare che le emozioni devono essere indagate come “opere comuni” (p. 27)? E che cosa possiamo apprendere dalle forme di empatia artificiale che cerchiamo di implementare nei robot sociali?

 

LD_PD_: L’idea delle emozioni come “opere comuni” rimanda a una visione relazionale delle emozioni. È una prospettiva che, divergendo dalla visione classica delle emozioni, non le tematizza come eventi essenzialmente interni e privati, aventi luogo nello spazio intra-individuale, i quali, tramite l’espressione emozionale, entrano nello spazio inter-individuale, diventando anche esterni e sociali. La visione relazionale delle emozioni, che è stata sviluppata da Paul negli anni Novanta in base alla lezione hobbesiana e che poi abbiamo elaborato insieme rispetto alla robotica sociale, tematizza le emozioni come espressioni di un meccanismo di coordinazione inter-individuale. Molto schematicamente, l’idea è che, mentre interagiamo, attraverso l’espressione emozionale co-determiniamo le nostre emozioni, coordinando le nostre inclinazioni all’azione verso la cooperazione o il conflitto, nelle loro diverse forme. In questa prospettiva le emozioni sono eventi intrinsecamente interni ed esterni, privati e sociali, intra-individuali e inter-individuali. Come sosteniamo nel libro, riteniamo che la robotica sociale, pur aderendo dal punto di vista teorico a una visione classica delle emozioni, implementi una visione relazionale delle emozioni. In questo senso, il suo successo nel creare interazioni emozionali uomo-robot supporta una visione relazionale delle emozioni. Al contempo, la limitatezza e le altre specificità delle attuali interazioni emozionali uomo-robot ci dicono che dobbiamo pensare alle interazioni affettive uomo-robot come a forme di coordinazione affettiva completamente diverse da quelle che si instaurano tra umani e tra umani e animali. Benché i robot sociali non “provino” emozioni come noi, tra noi e loro, in certe condizioni, si sviluppano forme di coordinazione affettiva. Si tratta di “circuiti affettivi” rigidi ed estremamente limitati, ma che dobbiamo studiare sia per capire meglio noi stessi, sia per regolamentare gli usi della robotica sociale.

 

S&F_: Ritiene che gli agenti umani abbiano dei doveri verso gli agenti robotici sociali? In caso di risposta affermativa, di che doveri si tratta? Sono doveri solo indiretti o doveri diretti? Sono doveri prima facie o doveri assoluti?

 

LD_PD_: I robot sociali sono macchine. In questo senso non riconosciamo la necessità di definire dei doveri “diretti” nei confronti dei robot che siano diversi da quelli relativi ad altri oggetti – non distruggerli deliberatamente, ecc. Vogliamo però insistere sull’esigenza di considerare che in contesti interattivi questi robot, a causa della loro “presenza sociale”, cioè della loro capacità di generare nell’utente l’impressione di essere con un altro agente sociale, sono tendenzialmente percepiti da noi non come meri oggetti, non come qualcosa che sta nel mezzo tra oggetti e persone. Gli studi attuali evidenziano che l’impressione degli utenti è quella di interagire con “partner sociali”. Questo pone dei problemi. Quando permettiamo o, come accade nel contesto di certa robotica sociale da intrattenimento, sollecitiamo l’esercizio della violenza sui robot, stiamo permettendo o sollecitando l’esercizio di azioni violente su entità che, nell’interazione, vengono percepite dagli utenti come partner sociali. Che tipo di implicazioni ha questo, per esempio, sul comportamento dell’utente nelle interazioni con altre entità percepite come partner sociali, inclusi gli altri umani? Si tratta di un problema su cui oggi dobbiamo concentrare le indagini dell’etica della robotica sociale. È un problema reso urgente dalla rapida diffusione, in questi anni, di progetti di robotica da intrattenimento di questo tipo. Un esempio sono i robot a uso sessuale con “opzioni stupro” integrate, le quali permettono all’utente di incontrare la resistenza del robot alle proprie avances e di imporre a questo oggetto, in quel momento percepito come un partener sociale, un rapporto sessuale. Rispetto a questi casi è necessario affrontare la questione di stabilire se dobbiamo introdurre dei “doveri” verso le macchine dotate di presenza sociale, nel senso “indiretto” indicato sopra.

 

S&F_: In un passaggio del testo si legge che «la struttura fisica del robot e la sua presenza effettiva nello scenario ambientale scelto per la sperimentazione implicano che la modellizzazione non possa non tenere conto di molti fattori che nel quadro delle simulazioni al computer possono essere trascurati» (p. 65) e poco dopo si afferma che questa “presenza” permette di scoprire interazioni che la simulazione al computer tende a nascondere. In che senso la robotica, in connessione con le ipotesi di una “etologia artificiale”, rappresenta una sorta di argine al riduzionismo proprio della modellizzazione che si basa soltanto sull’utilizzazione del computer e, dunque, sull’analisi di variabili che per quanto numerose sono pur sempre “prevedibili”?

 

LD_PD_: I robot sono oggetti fisici che interagiscono nello spazio fisico. In questo senso mettono in gioco variabili che non sempre vengono considerate dalla modellizzazione software. Nella modellizzazione al computer tutto ciò che non viene esplicitamente preso in considerazione dal modellizzatore semplicemente non esiste. Nella modellizzazione hardware o robotica possono invece intervenire anche tutte le dimensioni e i fattori presenti nello spazio fisico. Se il modellizzatore non li ha presi in considerazione questi possono condurre, da un lato, a fallimenti e, dall’altro, a scoperte. Ma quello che la modellizzazione robotica propone è comunque un’altra forma di semplificazione. In questo senso un argine al riduzionismo risiede nel coordinare diverse forme di modellizzazione sintetica, più che nel sostituire una forma di modellizzazione sintetica con un’altra.

 

S&F_: L’introduzione dei robot sociali è una delle espressioni della cosiddetta Quarta Rivoluzione Industriale, una rivoluzione che, verosimilmente, modificherà in profondità il mondo di vita della specie Sapiens. A tal proposito, utilizzare quelli che vengono definiti “sostituti” nell’attività di cura – laddove esse non devono essere intese come aiuto di tipo “meccanico” ma come sostegno affettivo ed emotivo – non segnala forse una difficoltà etica delle nostre società nel costruire un sistema solidale di supporto a chi ha bisogni speciali?

 

LD_PD_: Tendiamo a pensare che l’introduzione dei robot sociali costituisca un tipo differente di sviluppo tecnologico, diverso da quello definito dalla nozione di Quarta Rivoluzione Industriale. L’idea alla base della costruzione dei robot sociali è quella della creazione di una nuova specie sociale, con la quale sia possibile una co-evoluzione. Certamente è una trasformazione che promette di trasformare in profondità non solo il nostro stile di vita, ma anche il nostro rapporto con la tecnologia e, forse, il nostro modo di concepire ed esperire la socialità. Come sottolineiamo nel libro, in generale tendiamo a pensare questa trasformazione non nei termini di una “sostituzione” degli umani con i robot a livello delle interazioni sociali e affettive. In Vivere con i robot usiamo il termine “sostituto” in modo provocatorio, proprio per indicare che questi robot non possono prendere il nostro posto nelle interazioni sociali e affettive. E usiamo l’idea di una “coordinazione affettiva uomo-robot” proprio per indicare le insuperabili differenze sussistenti tra le interazioni emozionali con i robot e le interazioni emozionali che caratterizzano le relazioni che instauriamo con altri umani e con animali. I robot sociali – e, in particolare, i robot detti emozionali ed empatici perché capaci di entrare in coordinazione affettiva con gli umani – possono essere usati sia a detrimento, sia a sostegno di un sistema solidale di supporto a individui vulnerabili. L’andare in una direzione o nell’altra dipende dalle decisioni che prendiamo sia nel progettare l’uso e la diffusione di questi robot, sia nel disegnarli, costruirli, testarli e integrarli nelle nostre ecologie sociali. Per questo è importante sviluppare un approccio partecipativo alla robotica sociale, in conformità al quale l’indagine etica sia attivamente coinvolta nei processi di progettazione, costruzione e integrazione “sociale” di queste macchine.

 

S&F_: La riflessione etica connessa alla robotica sociale sembra avere come fine ultimo la coordinazione sociale umano-robot, in quanto capace di “migliorare la gestione e la comprensione morale della nostra vita sociale” (p. 198). L’ipotesi è sicuramente affascinante, e soprattutto sgombra il campo da ogni eccessiva tecnofobia, ma qual è il motivo profondo per cui vivere con i robot potrebbe migliorare la nostra vita in comune?

 

LD_PD_: La co-evoluzione uomo-robot non è il fine ultimo della riflessione etica sulla robotica sociale, ma il suo perno. Oggi abbiamo molti esempi di progetti di robotica sociale che intendono impiegare i nuovi robot come mediatori sociali e/o terapeutici per persone vulnerabili – per esempio bambini con bisogni speciali, come i bambini autistici, o anziani in perdita di autonomia. È importante studiare possibilità e limiti dei robot sociali nello svolgere questo tipo di ruoli, caratterizzati da uno spessore sociale significativo. Nel nostro libro insistiamo anche sul fatto che la robotica sociale può aiutarci significativamente nel nostro processo di auto-comprensione. Ovviamente sono potenziali aspetti positivi dello sviluppo dei robot sociali che vanno studiati e implementati con responsabilità. Questo significa esplorazioni e monitoraggi realizzati con continuità e da una molteplicità di punti di vista – anche i punti di vista delle scienze umane. Queste devono partecipare attivamente allo sviluppo di questa nuova tecnologia in vista della massimizzazione dei benefici che può apportare e della gestione dei rischi.

 

S&F_: Nella conclusione “politica” del saggio si sostiene che «le ragioni per cui non ci sono ancora robot capaci di vera autonomia morale non risiedono esclusivamente in problemi di ordine tecnico […] è che non vogliamo costruire questo tipo di agente robotico» (p. 185). L’affermazione è sicuramente importante e la riflessione muove soprattutto dallo scenario bellico attraverso le analisi di Krishnan e Arkin. Il timore che, soprattutto nell’immaginario occidentale, sembra particolarmente vivo, un’idea tecnofobica di una robotica che possa spingere l’umanità alla sua definitiva alienazione, non è connessa all’intero mondo delle idee della nostra parte di mondo, che non riesce a fare altro che leggere l’Altro (tanto più “inanimato”!) sempre in funzione (come mezzo o come risorsa) di se stesso, e dunque il robot sempre o come una funzione economica (anche nella costruzione del profitto) o come una funzione bellica?

 

LD_PD_: Tutto il discorso sull’autonomia dei robot è un nascondimento del fatto che ci sono delle persone dietro ai robot. E tipicamente la questione dell’Altro è un modo di nascondere la questione degli altri, ovvero di far passare  come questione metafisica fondamentale un insieme di questioni politiche. Il pericolo non è tanto quello che il mondo sia dominato da una forma di intelligenza superiore all’intelligenza umana, ma quello che esso sia dominato da una forma inferiore di intelligenza. Sottolineare che dietro la tecnica ci sono individui e gruppi – aziende o stati – che hanno interessi e cercano di promuoverli significa innanzitutto ricordare che i pericoli che ci minacciano sono principalmente politici. Certamente la questione di cosa l’IA possa fare è una questione tecnica affascinante. Ma la questione delle conseguenze sociali dell’uso massiccio degli oggetti tecnici in cui l’IA è materializzata si costituisce innanzitutto come una questione politica, la quale ci impone di chiederci quale tipo di oggetti vogliamo sviluppare, quali sono i motivi per cui vogliamo farlo e quale forma di legislazione e regolamentazione pensiamo dovrebbe essere messa in atto al riguardo. Negli Stati Uniti è comune affermare che chi uccide non sono le pistole, ma le persone. A un certo livello di descrizione, questo è vero. Tuttavia va ricordato che una pistola non è fatta per tagliare la legna o cucinare. Una pistola è un’arma che è stata appositamente progettata e fabbricata per ferire e uccidere. Dal punto di vista sociale, è fondamentale chiarire se limiteremo l’accesso a questo tipo di oggetti o se lasceremo a tutti la possibilità di acquistare armi di livello militare. Mutatis mutandis, lo stesso vale per l’IA e i robot.

 

 

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *