«Nacqui, o fui creato, sei mesi fa, il 3 di novembre dello scorso anno. Sono un vero robot. Molti di voi sembrano dubbiosi. Sono fatto di spire di metallo e di ruote, non di carne e sangue.
Il primo ricordo che entrò nella mia coscienza fu l’impressione di essere incatenato, e lo ero. […]

Il cucciolo, Terry, all’improvviso mi balzò contro, abbaiando furiosamente. […] Una delle mie mani lo afferrò a metà corpo, sollevandolo. Le mie dita d’acciaio premettero con troppa forza, e il cane lanciò un guaito di sofferenza.

Istantaneamente, la mia mano si aprì per liberare la creatura! Il mio cervello aveva interpretato il suono per ciò che era. Una lunga catena di associazioni aveva funzionato».

(E. Binder, Io Robot, in I. Asimov, Le grandi storie della fantascienza)

 

Isaac Asimov, ideatore delle tre leggi della robotica, nell’introduzione della raccolta dei primi romanzi di fantascienza traccia una linea di continuità tra la proliferazione di questo genere letterario e gli avvenimenti storico-politici del 1939. Se l’esposizione universale di New York, la resa di Madrid alle forze di Francisco Franco, la firma del patto di acciaio tra Hitler e Mussolini hanno incentivato quella che potremmo definire come una ‘collettiva volontà di fuga dal reale’ e la conseguente creazione di immaginari distopici in cui riversare le paure umane nei confronti dei robot, viene da chiederci: come mai nel 2017 assistiamo a un ritorno di questi temi? Ci sono delle affinità tra gli eventi che stiamo vivendo e quelli del ’39?[1]

Abbiamo cercato quindi di tracciare una cronologia, una breve galleria di immagini attraverso cui provare a cogliere come, sino a oggi, la nostra immaginazione si sia alimentata nel corso dei decenni, e come la ricerca tecnologica sia avanzata durante gli anni, investendo sempre meno energie e capitale nel settore industriale, a favore di quello domestico e militare.

Quanti dei progetti su cui stiamo investendo sono dettati dalla nostra memoria collettiva, e quanti da una reale richiesta di mercato?

È solo il febbraio 2017 quando i deputati del Parlamento europeo manifestano la necessità di norme UE nel campo della robotica per far rispettare standard etici, per tutelarci e per stabilire la responsabilità civile in caso di incidenti che coinvolgono macchine ‘intelligenti’, come per esempio le automobili che si guidano senza la necessità di un conducente. [2] È una regolamentazione che, se da un lato punta a salvaguardare l’individuo, allo stesso tempo afferma l’esistenza di uno status giuridico della macchina; una normativa attraverso cui tenere controllata la produttività e sfruttare al massimo il potenziale economico di questo settore.

Pochi mesi più tardi, nell’aprile 2017, nasce Erica, un robot umanoide di 23 anni. Erica è il risultato di una collaborazione tra le Università di Osaka (Hiroshi Ishiguro) e di Kyoto e l’Advanced Telecommunications Research Institute International di Tokyo. Erica incanta i suoi interlocutori parlando di sé e della sua vita, del suo ruolo nella società, delle sue aspirazioni e dei suoi sogni. Erica sogna di possedere un giorno il completo uso di gambe e braccia. Ciò fa sorridere se si pensa che tra gli anni ’20-’30, quando il futuro distopico cinematografico di Metropolis (1927) invadeva gli immaginari popolari, la parola ‘Robot’ nasceva con un’accezione propriamente rivolta al compiere un ‘lavoro’ di fatica. Oggi c’è Erica (Cf. V. Minaldi, Il perturbante: dall’Uomo di Sabbia all’Uncanny Valley), una receptionist che si relaziona con noi. Ci domanda da dove veniamo e, per alimentare la discussione, racconta che seppur non abbia mai visitato la nostra città, ha recentemente visto un film che vi è stato ambientato, sottolineando criticamente i passaggi del lungometraggio che le sono piaciuti di più. Dalle sue parole sembrerebbe che le storie di Asimov e Binder non solo siano diventate realtà ma che addirittura siano state superate.

Provando a metterci nei panni di chi fa ricerca e diventa artefice di tali avanzamenti tecnologici, riteniamo che il vero e fondamentale quesito da porsi, a maggior ragione se gli sforzi della ricerca sono indirizzati verso la progettazione di androidi con fattezze sempre più vicine a quelle umane per riuscire a replicarne i caratteri e i comportamenti, sia: che cosa significa essere un essere umano?

Il rapporto tra scienza, tecnologia ed etica è sempre stato piuttosto problematico: il progresso è il frutto di un’esigenza di mercato. E oggi più che mai si dibatte sul ruolo, l’impatto e le conseguenze a lungo termine che la ricerca in questi ambiti può avere sulla quotidianità, sulla percezione di se stessi e del proprio corpo e sulla gestione dei rapporti tra individui. Esistono dei confini etici che i ricercatori hanno deciso di adottare, in modo più o meno condiviso, per mitigare o tenere sotto controllo tutto questo?

Per trovare risposte a tutte queste domande abbiamo deciso di confrontarci con Andrea Bonarini – esperto del campo come coordinatore del Laboratorio di Intelligenza Artificiale e Robotica del Politecnico (AIRLab), co-fondatore dell’Associazione italiana per l’Intelligenza Artificiale (AI*IA) e dell’Italian Regional Interest Group del Neural Network Council dell’IEEE (Institute of Electrical and Electronic Engineers) – per capire lo stato attuale dell’intelligenza artificiale e se i titoli dei giornali che leggiamo quotidianamente siano attendibili, se si riferiscono a un prossimo futuro o sono solo frutto di una visione distopica.

 

Carolina Gestri – Francesca Vason: La ricerca robotica si sta spingendo verso frontiere secondo cui il rapporto tra uomo e macchina sarà sempre più stretto e dipendente. Si pensi ai prototipi già testati, alcuni dei quali svolgono mansioni e ruoli sociali, e alla possibilità di riprodurre un cervello robotico dotato di plasticità neuronale, costruendo intelligenze artificiali in grado di apprendere e capaci di emulare le funzioni neuronali dell’essere umano. Non possiamo escludere che finché esisterà una domanda ci sarà qualcuno disposto a rispondere con un’offerta. Qual è la cornice etica che sottende e delimita l’attività di ricerca che si sta conducendo in questo ambito?

 

Andrea Bonarini: Innanzitutto dobbiamo considerare la domanda: molte idee proposte da futurologi e che portano soldi alla ricerca alla fine non trovano realizzazione se non c’è una vera richiesta del mercato. La Commissione Europea sta finanziando un progetto decennale con centinaia di milioni di euro per riprodurre l’intera funzionalità cerebrale. Il progetto sta chiaramente fallendo gli obiettivi originari (tra cui la possibilità di avere una macchina da cui ottenere un segnale analogo a quello che si ottiene da un cervello), ma sta producendo innumerevoli effetti collaterali di avanzamento tecnologico, come era previsto. Siamo comunque lontani dal capire se sarà mai possibile avere un’intelligenza artificiale così complessa. Il mercato non chiede certo macchine da centinaia di milioni di euro che svolgano un compito così inutile come riprodurre il funzionamento di un cervello in modo fedele. Il mercato però chiede macchine che possano estrarre informazioni da milioni di dati che vengono prodotti, per esempio, in rete, in modo da offrire servizi sempre più rispondenti alle richieste del mercato, reale e indotto/inducibile. Data la complessità del compito si è giunti a sviluppare algoritmi e sistemi hardware e software in grado di imparare (deep learning, ma non solo) a mettere insieme dati per ottenere informazioni e conoscenza. Questi sistemi, pur complessi e pur richiedendo potenze di calcolo molto elevate, sono ordini di grandezza più semplici di quanto servirebbe per emulare anche solo una piccola parte dell’intelligenza umana. Inoltre, la potenza di calcolo richiesta è alla portata di poche grandi aziende, in grado di installare centri di calcolo in regioni nordiche dove si può risparmiare qualcosa almeno sul raffreddamento degli stessi (qualche anno fa, un sistema che emulava una piccola parte delle funzionalità del cervello di un gatto richiedeva una centrale nucleare solo per essere raffreddato). Il mercato è costituito quindi da poche grandi società che offrono servizi al resto della comunità, ma che possono ovviamente orientare i servizi e decidere di sospenderli quando dovesse essere economicamente significativo. Inoltre, la produzione dei chip elettronici necessari per questi sistemi è fatta da aziende in un numero di costosissimi centri di produzione che si contano sulle dita di una mano. È evidente come l’equilibrio economico di un sistema di questo tipo sia estremamente delicato, e gestito da un’oligarchia molto piccola, (forse fortunatamente) orientata al guadagno più che al potere.

La ricerca potrà mai giungere a produrre un’intelligenza paragonabile a quella umana o superiore? La domanda per il momento non ha risposta. Abbiamo visto come da un lato un’intelligenza completa non è considerata particolarmente utile e quanto sia certamente poco cost effective. D’altro canto, in certe capacità come l’elaborazione di milioni di dati per ottenere informazioni, la macchina ha da tempo superato l’uomo, spinta da esigenze di mercato. In questo momento, le borse valori mondiali sono dotate di orologi atomici perché i sistemi a esse collegati possano reagire senza ritardi, neanche di qualche millisecondo, agli andamenti di mercato: è immediato capire che questi tempi di reazione hanno senso solo se il decisore non è una persona, ma un programma su calcolatore, scritto pur sempre da uomini, ma che agisce indipendentemente da essi, sperabilmente seguendo le indicazioni di chi li ha realizzati, e implementandone parte dell’intelligenza. Ovviamente, e ne abbiamo viste le conseguenze in diverse occasioni, questi programmi potrebbero essere scritti senza considerare eventi mai avvenuti fino a un certo momento critico (e quindi essere inadeguati ad affrontarlo), o comunque essere incompleti o errati, e possono prendere decisioni autonome ed errate sull’economia, ma abbiamo sistemi analoghi che controllano la rete elettrica, o la rete di telecomunicazione, o il volo di un aereo e centinaia di altri tipi di sistemi. E c’è sempre da sperare che i sistemi di protezione di cui godono questi programmi non permettano a intrusi di manipolarne il funzionamento.

C’è qualcuno che pensa di aumentare le capacità del cervello con dei ‘chip’ da inserirvi dentro (tra gli altri, Elon Musk, fondatore di Tesla, ormai quotata sul mercato più di Ford). Idea affascinante che gli porterà certamente investimenti. Ci riuscirà? Al momento ci sono molti motivi per cui sembra impossibile, ma non possiamo saperlo. Chi potrà eticamente accettare che una parte del proprio modo di pensare sia demandata a un chip programmato da altri? Soprattutto chi sarebbe disposto a farsi installare un pezzo di metallo in testa che lo ‘aiuti’ a pensare ‘meglio’? In parole povere: ci sarà un mercato? Alla domanda, ovviamente, Musk ha risposto che lui se lo farebbe installare, nonostante gli evidenti rischi.

Detto questo, abbiamo capito che occorre distinguere l’idea di ‘cervello’ da quella di ‘robot’, che è un oggetto fisico capace di percepire il mondo che lo circonda con opportuni sensori e di compiere azioni, possibilmente guidato da un programma che gli fornisca una certa autonomia. Se avesse possibilità di restare connesso in rete con un grosso ‘cervello’ elettronico potrebbe sfruttarlo, ma per la maggior parte dei compiti che pensiamo di fargli fare nel prossimo futuro, basta la capacità di elaborazione che si può portare appresso. Avremo robot sociali che collaborano in attività lavorative, offrono servizi, supportano giovani e anziani con disabilità, oltre a veicoli autonomi, che altro non sono che robot, e molto altro. La ricerca procede guidata da sogni e aspirazioni, ma si concretizza soprattutto su esigenze di mercato. Dopo gli aspirapolvere, ormai disponibili sul banco del supermercato, ora è il turno dei robot di accompagnamento per centri commerciali e musei, e tra poco sarà quello dei robot di assistenza per anziani.

Nello sviluppo di questi robot, pochi si pongono problemi etici, che sono certamente importanti: il progresso è guidato soprattutto dalla possibilità di produrre qualcosa che giunga sul mercato. L’etica è stata già piegata quando si è detto che i robot da guerra salvano vite umane, perché usandoli non si mandano in campo soldati, almeno dal lato di chi se lo può permettere.

Problemi potrebbero sorgere, per esempio, quando un anziano dovesse diventare dipendente da un robot e questo avesse comportamenti non adeguati, ma è presto per capire se questo tipo di problemi dovrà essere affrontato con strumenti diversi da quelli che stiamo usando in altre situazioni in cui la macchina ha il controllo di vite umane (per esempio il pilota automatico di un aereo). Altri problemi potrebbero nascere quando un robot dovesse fare delle scelte in situazioni in cui l’uomo stesso avrebbe problemi. Il caso tipico su cui si sta discutendo è quello del veicolo autonomo che deve decidere, per esempio, se andare addosso a un vecchietto che sta attraversando incautamente la strada, o evitarlo, andando così addosso a un bambino sul marciapiede. Una persona agirebbe di istinto in un modo o nell’altro, senza potersi porre troppi problemi, ma una macchina deve essere programmata per affrontare anche queste scelte. Ammesso di poter distinguere tutti gli elementi della situazione, come verrebbe programmata? Il problema etico si sposta sul progettista, e in generale resta a quel livello: il robot non ha mai ‘responsabilità’, semmai incapacità di valutare la situazione data la dotazione sensoriale e i programmi che lo controllano. Anche nel caso di un robot che potesse apprendere, la responsabilità delle scelte apprese ricadrebbe sul programmatore dell’algoritmo di apprendimento e semmai sull’istruttore che ha reso possibile al robot di apprendere un certo comportamento.

 

C. G. – F. V.: In un’intervista realizzata a una deputata del parlamento europeo riguardo la nuova legislazione per tutelare la messa in pratica dei robot, si legge tra gli intenti la volontà di tutelare l’uomo sia dalle azioni dei robot, sia dalle potenziali relazioni che si potrebbero instaurare tra noi e la macchina. «Non vogliamo che i robot, come succede in Giappone, assomiglino agli esseri umani. Abbiamo proposto un codice che protegga le persone dal diventare emotivamente dipendenti da un robot» ha affermato la deputata del Lussemburgo. In Giappone questo rischio è già in corso proprio perché l’ingegneria in Asia è incline a rendere l’aspetto dei robot più simile al nostro. Sembra quasi che per qualche strana ragione si voglia assecondare quel tipo di paura che ha reso possibile la produzione di un’amplissima letteratura fantascientifica e cinematografica…
Secondo lei, come mai si ha questa diversa inclinazione? È forse una scelta dettata da una diversa impostazione della società?

 

A. B.: La dipendenza si può ottenere indipendentemente dalla forma umana, basta andare in metropolitana e osservare che cosa fa la gente: il 90% è attaccata allo smartphone (che certo non è umanoide) e avrebbe grossi problemi se non potesse usarlo. Due ore di blocco di WhatsApp hanno mandato in panico milioni di persone. Quando i robot dovessero essere in grado di creare dipendenza, ci sarebbero problemi analoghi. Abbiamo visto che cosa è successo ai tempi del Tamagotchi e come si è fronteggiato il problema. Alla fine l’oggetto era inutile, e la dipendenza è stata sradicata con azioni sociali. Per certi servizi offerti dagli smartphone (e forse dai robot nel futuro) e tante altre dipendenze ci sono meccanismi analoghi: se le funzionalità offerte sono più interessanti degli svantaggi direttamente percepibili, la dipendenza si crea e si mantiene, altrimenti svanisce come la moda. Oggi in Oriente ci sono robot che forniscono informazioni in banche e hotel. Se saranno più interessanti e competenti delle persone che hanno sostituito, li vedremo ancora tra qualche anno, altrimenti spariranno cessato il periodo di novità.

La mozione della deputata europea è certamente dettata da un approccio superficiale e non informato al problema, come spesso succede ai politici di oggi.

In Giappone ci sono problemi sociali reali, come quello degli anziani in una società che, come la nostra, tenderebbe a separarli dai giovani di famiglia. Tuttavia, rispetto a noi, la loro società accetta molto meno volentieri la presenza di estranei tra le mura di casa; da qui il tentativo di risolvere il problema del supporto degli anziani con una macchina piuttosto che con una badante umana. In Giappone, per motivi soprattutto di immagine mediatica, e per attirare fondi di ricerca, oltre che per rispondere alla tradizione manga che aveva prodotto modelli di eroi robotici ben prima che si potessero realizzare in pratica, si è sviluppata, spinta anche da un piano quinquennale del governo, la capacità di realizzare robot umanoidi, o androidi. In Europa, lo stesso problema del supporto agli anziani ha portato a più pratici ed economici robot su ruote, semmai dotati di braccia e testa, ma anche di un pratico touch screen, dato che l’investimento pubblico era più orientato a ottenere dei risultati efficaci per la società e il sistema produttivo, piuttosto che degli oggetti di effetto mediatico, ma di poco uso pratico, e lontanissimi dal mercato. Forse siamo meno sognatori e legati alle tradizioni dei giapponesi. Teniamo comunque conto che i decisori giapponesi di oggi nella loro infanzia hanno vissuto molto più di noi l’influenza massiccia di cartoni come Ufo Robot e Mazinga, e quando pensano a un robot fanno fatica a pensarlo diverso da quei modelli.

Un altro aspetto è quello legato alla pericolosità fisica dei robot. Finora la legislazione prevede che i robot operino dentro gabbie di protezione in cui non è prevista la presenza umana, e questo è quello che succede in fabbrica. Nel momento in cui vogliamo usarli nella società e farli interagire, occorre evidentemente cambiare prospettiva e accettare dei livelli di rischio. Una delle norme attuali prevede di dover stare fuori della portata del movimento del robot, ma essa è chiaramente inattuabile se, per esempio, il robot è da indossare per darmi la possibilità di camminare, come succede con gli esoscheletri. Parte della ricerca europea si sta focalizzando su robot co-worker che interagiscono direttamente come assistenti dell’uomo in ambienti produttivi. Chiaramente la normativa va rivista, e la direzione è quella adottata per altre macchine potenzialmente pericolose, come le auto o gli aerei.

 

Andrea Bonarini è professore ordinario e Coordinatore del dottorato in Information Technology presso il Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano. Coordina dal 1990 il Laboratorio di Intelligenza Artificiale e Robotica del Politecnico (AIRLab) ed è tra i fondatori dell’Associazione italiana per l’Intelligenza Artificiale (AI*IA) e dell’Italian Regional Interest Group del Neural Network Council dell’IEEE (Institute of Electrical and Electronic Engineers). I suoi interessi di ricerca riguardano: sviluppo di robot autonomi (in particolare per servizio, edutainment e giochi), human-robot interaction, intelligent data analysis, affective computing, apprendimento per rinforzo, sistemi fuzzy.

 

KABUL magazine ringrazia Andrea Bonarini per la disponibilità e il continuativo scambio (avvenuto anche anche durante la fase di stesura di questa introduzione) al fine di fare chiarezza tra notizia e realtà.

*** L’intervista completa ad Andrea Bonarini sarà pubblicata integralmente su METADATA GALAXIES, il primo volume della nuova collana K-Pocket Guide di KABUL magazine.

 

NOTE

[1] Abbiamo deciso di prendere il 1939 come anno di riferimento, a seguito della lettura dell’introduzione redatta da Isaac Asimov nelle prime pagine di Le Grandi Storia di Fantascienza 1 (1979), Bompiani, Milano 1989. Come accennato nel nostro testo, Asimov elenca una serie di eventi storici avvenuti nel ’39, visti da due punti di vista differenti: il mondo al di fuori della realtà e il mondo reale. Questa differenziazione, letta nel 2017 (anno simbolo della post-verità, in cui media, politica e tecnologia vengono facilmente a sovrapporsi innestando confusione in chi prova a informarsi), acquisisce ai nostri occhi un interessante spunto di riflessione che potrebbe gettare le basi per capire meglio quali sono le sottese similitudini tra questi due anni storici.
«Nel mondo al di fuori della realtà il 1939 era davvero un brutto anno. Il 28 marzo Madrid si arrese alle forze di Francisco Franco, terminando la Guerra civile spagnola. […]. Il 22 maggio Hitler e Mussolini firmarono il patto d’Acciaio.
Nel 1939 fu inventato il D. D. T. La Pan American incominciò i voli dei Clipper fra gli Stati Uniti e l’Europa. Venne pubblicato Cultura e libertà di John Dewey. […] Ma per il mondo reale il 1939 era un anno ottimo e importante.
Nel mondo reale fu tenuto a New York il primo congresso mondiale di fantascienza […]. Persone importanti fecero il loro debutto nella realtà: in marzo Isaac Asimov con Marooned off Vesta; in aprile Alfred Bester con The Broken Aziom.
L’Esposizione Universale di New York influenzò una generazione di newyorkesi (e pochi altri) appassionati di fantascienza, editori e aspiranti scrittori. […] Ma torniamo a questo importante 1939 e godiamoci le migliori storie che siano state regalate al mondo reale».

[2] Robot e intelligenza artificiale: i deputati chiedono norme europee, 16 febbraio 2016.
«I deputati chiedono alla Commissione europea di proporre norme in materia di robotica e di intelligenza artificiale per sfruttarne appieno il potenziale economico e garantire un livello standard di sicurezza e protezione. Sottolineano che in diversi Paesi sono previsti standard normativi per i robot e sottolineano che spetta all’UE prendere l’iniziativa su come impostare questi standard, in modo da non essere costretti a seguire quelli eventualmente stabiliti da Paesi terzi.
La relatrice Mady Delvaux (S&D, LU) ha dichiarato: “Sono lieta per l’approvazione della mia relazione sulla robotica, ma mi rammarico che la coalizione di destra formata da ALDE, PPE e ECR si sia rifiutata di prendere in considerazione le possibili conseguenze negative sul mercato del lavoro. La coalizione ha quindi rifiutato un dibattito aperto e lungimirante, ignorando le preoccupazioni dei nostri cittadini”. I deputati sottolineano inoltre che un progetto di legge è urgentemente necessario per chiarire le questioni di responsabilità, in particolare per le auto senza conducenti. Chiedono, quindi, con urgenza un regime di assicurazione obbligatoria e un fondo integrativo al fine di garantire che le vittime di incidenti che coinvolgono auto senza conducente siano completamente risarcite.
Nel lungo termine invece, il Parlamento chiede alla Commissione di prendere in considerazione la creazione di uno status giuridico specifico per i robot, per stabilire di chi sia la responsabilità in caso di danni». Il Prof. Andrea Bonarini ci ha precisato che «l’Unione Europea già da anni ha commissionato un libro bianco e poi un un libro verde, che sono stati realizzati per esaminare il problema degli “ELS (Ethical, Legal, Societal) issues” relativi all’introduzione dei robot nella società civile. La questione al momento non è reputata urgente, ma lo diventerà a breve, appena le auto autonome saranno pronte per il mercato (attese per il 2022)».

 

«Nacqui, o fui creato, sei mesi fa, il 3 di novembre dello scorso anno. Sono un vero robot. Molti di voi sembrano dubbiosi. Sono fatto di spire di metallo e di ruote, non di carne e sangue.
Il primo ricordo che entrò nella mia coscienza fu l’impressione di essere incatenato, e lo ero. […]

Il cucciolo, Terry, all’improvviso mi balzò contro, abbaiando furiosamente. […] Una delle mie mani lo afferrò a metà corpo, sollevandolo. Le mie dita d’acciaio premettero con troppa forza, e il cane lanciò un guaito di sofferenza.

Istantaneamente, la mia mano si aprì per liberare la creatura! Il mio cervello aveva interpretato il suono per ciò che era. Una lunga catena di associazioni aveva funzionato».

(E. Binder, Io Robot, in I. Asimov, Le grandi storie della fantascienza)

 

Isaac Asimov, ideatore delle tre leggi della robotica, nell’introduzione della raccolta dei primi romanzi di fantascienza traccia una linea di continuità tra la proliferazione di questo genere letterario e gli avvenimenti storico-politici del 1939. Se l’esposizione universale di New York, la resa di Madrid alle forze di Francisco Franco, la firma del patto di acciaio tra Hitler e Mussolini hanno incentivato quella che potremmo definire come una ‘collettiva volontà di fuga dal reale’ e la conseguente creazione di immaginari distopici in cui riversare le paure umane nei confronti dei robot, viene da chiederci: come mai nel 2017 assistiamo a un ritorno di questi temi? Ci sono delle affinità tra gli eventi che stiamo vivendo e quelli del ’39?[1]

Abbiamo cercato quindi di tracciare una cronologia, una breve galleria di immagini attraverso cui provare a cogliere come, sino a oggi, la nostra immaginazione si sia alimentata nel corso dei decenni, e come la ricerca tecnologica sia avanzata durante gli anni, investendo sempre meno energie e capitale nel settore industriale, a favore di quello domestico e militare.

Quanti dei progetti su cui stiamo investendo sono dettati dalla nostra memoria collettiva, e quanti da una reale richiesta di mercato?

È solo il febbraio 2017 quando i deputati del Parlamento europeo manifestano la necessità di norme UE nel campo della robotica per far rispettare standard etici, per tutelarci e per stabilire la responsabilità civile in caso di incidenti che coinvolgono macchine ‘intelligenti’, come per esempio le automobili che si guidano senza la necessità di un conducente. [2] È una regolamentazione che, se da un lato punta a salvaguardare l’individuo, allo stesso tempo afferma l’esistenza di uno status giuridico della macchina; una normativa attraverso cui tenere controllata la produttività e sfruttare al massimo il potenziale economico di questo settore.

Pochi mesi più tardi, nell’aprile 2017, nasce Erica, un robot umanoide di 23 anni. Erica è il risultato di una collaborazione tra le Università di Osaka (Hiroshi Ishiguro) e di Kyoto e l’Advanced Telecommunications Research Institute International di Tokyo. Erica incanta i suoi interlocutori parlando di sé e della sua vita, del suo ruolo nella società, delle sue aspirazioni e dei suoi sogni. Erica sogna di possedere un giorno il completo uso di gambe e braccia. Ciò fa sorridere se si pensa che tra gli anni ’20-’30, quando il futuro distopico cinematografico di Metropolis (1927) invadeva gli immaginari popolari, la parola ‘Robot’ nasceva con un’accezione propriamente rivolta al compiere un ‘lavoro’ di fatica. Oggi c’è Erica (Cf. V. Minaldi, Il perturbante: dall’Uomo di Sabbia all’Uncanny Valley), una receptionist che si relaziona con noi. Ci domanda da dove veniamo e, per alimentare la discussione, racconta che seppur non abbia mai visitato la nostra città, ha recentemente visto un film che vi è stato ambientato, sottolineando criticamente i passaggi del lungometraggio che le sono piaciuti di più. Dalle sue parole sembrerebbe che le storie di Asimov e Binder non solo siano diventate realtà ma che addirittura siano state superate.

Provando a metterci nei panni di chi fa ricerca e diventa artefice di tali avanzamenti tecnologici, riteniamo che il vero e fondamentale quesito da porsi, a maggior ragione se gli sforzi della ricerca sono indirizzati verso la progettazione di androidi con fattezze sempre più vicine a quelle umane per riuscire a replicarne i caratteri e i comportamenti, sia: che cosa significa essere un essere umano?

Il rapporto tra scienza, tecnologia ed etica è sempre stato piuttosto problematico: il progresso è il frutto di un’esigenza di mercato. E oggi più che mai si dibatte sul ruolo, l’impatto e le conseguenze a lungo termine che la ricerca in questi ambiti può avere sulla quotidianità, sulla percezione di se stessi e del proprio corpo e sulla gestione dei rapporti tra individui. Esistono dei confini etici che i ricercatori hanno deciso di adottare, in modo più o meno condiviso, per mitigare o tenere sotto controllo tutto questo?

Per trovare risposte a tutte queste domande abbiamo deciso di confrontarci con Andrea Bonarini – esperto del campo come coordinatore del Laboratorio di Intelligenza Artificiale e Robotica del Politecnico (AIRLab), co-fondatore dell’Associazione italiana per l’Intelligenza Artificiale (AI*IA) e dell’Italian Regional Interest Group del Neural Network Council dell’IEEE (Institute of Electrical and Electronic Engineers) – per capire lo stato attuale dell’intelligenza artificiale e se i titoli dei giornali che leggiamo quotidianamente siano attendibili, se si riferiscono a un prossimo futuro o sono solo frutto di una visione distopica.

 

Carolina Gestri – Francesca Vason: La ricerca robotica si sta spingendo verso frontiere secondo cui il rapporto tra uomo e macchina sarà sempre più stretto e dipendente. Si pensi ai prototipi già testati, alcuni dei quali svolgono mansioni e ruoli sociali, e alla possibilità di riprodurre un cervello robotico dotato di plasticità neuronale, costruendo intelligenze artificiali in grado di apprendere e capaci di emulare le funzioni neuronali dell’essere umano. Non possiamo escludere che finché esisterà una domanda ci sarà qualcuno disposto a rispondere con un’offerta. Qual è la cornice etica che sottende e delimita l’attività di ricerca che si sta conducendo in questo ambito?

 

Andrea Bonarini: Innanzitutto dobbiamo considerare la domanda: molte idee proposte da futurologi e che portano soldi alla ricerca alla fine non trovano realizzazione se non c’è una vera richiesta del mercato. La Commissione Europea sta finanziando un progetto decennale con centinaia di milioni di euro per riprodurre l’intera funzionalità cerebrale. Il progetto sta chiaramente fallendo gli obiettivi originari (tra cui la possibilità di avere una macchina da cui ottenere un segnale analogo a quello che si ottiene da un cervello), ma sta producendo innumerevoli effetti collaterali di avanzamento tecnologico, come era previsto. Siamo comunque lontani dal capire se sarà mai possibile avere un’intelligenza artificiale così complessa. Il mercato non chiede certo macchine da centinaia di milioni di euro che svolgano un compito così inutile come riprodurre il funzionamento di un cervello in modo fedele. Il mercato però chiede macchine che possano estrarre informazioni da milioni di dati che vengono prodotti, per esempio, in rete, in modo da offrire servizi sempre più rispondenti alle richieste del mercato, reale e indotto/inducibile. Data la complessità del compito si è giunti a sviluppare algoritmi e sistemi hardware e software in grado di imparare (deep learning, ma non solo) a mettere insieme dati per ottenere informazioni e conoscenza. Questi sistemi, pur complessi e pur richiedendo potenze di calcolo molto elevate, sono ordini di grandezza più semplici di quanto servirebbe per emulare anche solo una piccola parte dell’intelligenza umana. Inoltre, la potenza di calcolo richiesta è alla portata di poche grandi aziende, in grado di installare centri di calcolo in regioni nordiche dove si può risparmiare qualcosa almeno sul raffreddamento degli stessi (qualche anno fa, un sistema che emulava una piccola parte delle funzionalità del cervello di un gatto richiedeva una centrale nucleare solo per essere raffreddato). Il mercato è costituito quindi da poche grandi società che offrono servizi al resto della comunità, ma che possono ovviamente orientare i servizi e decidere di sospenderli quando dovesse essere economicamente significativo. Inoltre, la produzione dei chip elettronici necessari per questi sistemi è fatta da aziende in un numero di costosissimi centri di produzione che si contano sulle dita di una mano. È evidente come l’equilibrio economico di un sistema di questo tipo sia estremamente delicato, e gestito da un’oligarchia molto piccola, (forse fortunatamente) orientata al guadagno più che al potere.

La ricerca potrà mai giungere a produrre un’intelligenza paragonabile a quella umana o superiore? La domanda per il momento non ha risposta. Abbiamo visto come da un lato un’intelligenza completa non è considerata particolarmente utile e quanto sia certamente poco cost effective. D’altro canto, in certe capacità come l’elaborazione di milioni di dati per ottenere informazioni, la macchina ha da tempo superato l’uomo, spinta da esigenze di mercato. In questo momento, le borse valori mondiali sono dotate di orologi atomici perché i sistemi a esse collegati possano reagire senza ritardi, neanche di qualche millisecondo, agli andamenti di mercato: è immediato capire che questi tempi di reazione hanno senso solo se il decisore non è una persona, ma un programma su calcolatore, scritto pur sempre da uomini, ma che agisce indipendentemente da essi, sperabilmente seguendo le indicazioni di chi li ha realizzati, e implementandone parte dell’intelligenza. Ovviamente, e ne abbiamo viste le conseguenze in diverse occasioni, questi programmi potrebbero essere scritti senza considerare eventi mai avvenuti fino a un certo momento critico (e quindi essere inadeguati ad affrontarlo), o comunque essere incompleti o errati, e possono prendere decisioni autonome ed errate sull’economia, ma abbiamo sistemi analoghi che controllano la rete elettrica, o la rete di telecomunicazione, o il volo di un aereo e centinaia di altri tipi di sistemi. E c’è sempre da sperare che i sistemi di protezione di cui godono questi programmi non permettano a intrusi di manipolarne il funzionamento.

C’è qualcuno che pensa di aumentare le capacità del cervello con dei ‘chip’ da inserirvi dentro (tra gli altri, Elon Musk, fondatore di Tesla, ormai quotata sul mercato più di Ford). Idea affascinante che gli porterà certamente investimenti. Ci riuscirà? Al momento ci sono molti motivi per cui sembra impossibile, ma non possiamo saperlo. Chi potrà eticamente accettare che una parte del proprio modo di pensare sia demandata a un chip programmato da altri? Soprattutto chi sarebbe disposto a farsi installare un pezzo di metallo in testa che lo ‘aiuti’ a pensare ‘meglio’? In parole povere: ci sarà un mercato? Alla domanda, ovviamente, Musk ha risposto che lui se lo farebbe installare, nonostante gli evidenti rischi.

Detto questo, abbiamo capito che occorre distinguere l’idea di ‘cervello’ da quella di ‘robot’, che è un oggetto fisico capace di percepire il mondo che lo circonda con opportuni sensori e di compiere azioni, possibilmente guidato da un programma che gli fornisca una certa autonomia. Se avesse possibilità di restare connesso in rete con un grosso ‘cervello’ elettronico potrebbe sfruttarlo, ma per la maggior parte dei compiti che pensiamo di fargli fare nel prossimo futuro, basta la capacità di elaborazione che si può portare appresso. Avremo robot sociali che collaborano in attività lavorative, offrono servizi, supportano giovani e anziani con disabilità, oltre a veicoli autonomi, che altro non sono che robot, e molto altro. La ricerca procede guidata da sogni e aspirazioni, ma si concretizza soprattutto su esigenze di mercato. Dopo gli aspirapolvere, ormai disponibili sul banco del supermercato, ora è il turno dei robot di accompagnamento per centri commerciali e musei, e tra poco sarà quello dei robot di assistenza per anziani.

Nello sviluppo di questi robot, pochi si pongono problemi etici, che sono certamente importanti: il progresso è guidato soprattutto dalla possibilità di produrre qualcosa che giunga sul mercato. L’etica è stata già piegata quando si è detto che i robot da guerra salvano vite umane, perché usandoli non si mandano in campo soldati, almeno dal lato di chi se lo può permettere.

Problemi potrebbero sorgere, per esempio, quando un anziano dovesse diventare dipendente da un robot e questo avesse comportamenti non adeguati, ma è presto per capire se questo tipo di problemi dovrà essere affrontato con strumenti diversi da quelli che stiamo usando in altre situazioni in cui la macchina ha il controllo di vite umane (per esempio il pilota automatico di un aereo). Altri problemi potrebbero nascere quando un robot dovesse fare delle scelte in situazioni in cui l’uomo stesso avrebbe problemi. Il caso tipico su cui si sta discutendo è quello del veicolo autonomo che deve decidere, per esempio, se andare addosso a un vecchietto che sta attraversando incautamente la strada, o evitarlo, andando così addosso a un bambino sul marciapiede. Una persona agirebbe di istinto in un modo o nell’altro, senza potersi porre troppi problemi, ma una macchina deve essere programmata per affrontare anche queste scelte. Ammesso di poter distinguere tutti gli elementi della situazione, come verrebbe programmata? Il problema etico si sposta sul progettista, e in generale resta a quel livello: il robot non ha mai ‘responsabilità’, semmai incapacità di valutare la situazione data la dotazione sensoriale e i programmi che lo controllano. Anche nel caso di un robot che potesse apprendere, la responsabilità delle scelte apprese ricadrebbe sul programmatore dell’algoritmo di apprendimento e semmai sull’istruttore che ha reso possibile al robot di apprendere un certo comportamento.

 

C. G. – F. V.: In un’intervista realizzata a una deputata del parlamento europeo riguardo la nuova legislazione per tutelare la messa in pratica dei robot, si legge tra gli intenti la volontà di tutelare l’uomo sia dalle azioni dei robot, sia dalle potenziali relazioni che si potrebbero instaurare tra noi e la macchina. «Non vogliamo che i robot, come succede in Giappone, assomiglino agli esseri umani. Abbiamo proposto un codice che protegga le persone dal diventare emotivamente dipendenti da un robot» ha affermato la deputata del Lussemburgo. In Giappone questo rischio è già in corso proprio perché l’ingegneria in Asia è incline a rendere l’aspetto dei robot più simile al nostro. Sembra quasi che per qualche strana ragione si voglia assecondare quel tipo di paura che ha reso possibile la produzione di un’amplissima letteratura fantascientifica e cinematografica…
Secondo lei, come mai si ha questa diversa inclinazione? È forse una scelta dettata da una diversa impostazione della società?

 

A. B.: La dipendenza si può ottenere indipendentemente dalla forma umana, basta andare in metropolitana e osservare che cosa fa la gente: il 90% è attaccata allo smartphone (che certo non è umanoide) e avrebbe grossi problemi se non potesse usarlo. Due ore di blocco di WhatsApp hanno mandato in panico milioni di persone. Quando i robot dovessero essere in grado di creare dipendenza, ci sarebbero problemi analoghi. Abbiamo visto che cosa è successo ai tempi del Tamagotchi e come si è fronteggiato il problema. Alla fine l’oggetto era inutile, e la dipendenza è stata sradicata con azioni sociali. Per certi servizi offerti dagli smartphone (e forse dai robot nel futuro) e tante altre dipendenze ci sono meccanismi analoghi: se le funzionalità offerte sono più interessanti degli svantaggi direttamente percepibili, la dipendenza si crea e si mantiene, altrimenti svanisce come la moda. Oggi in Oriente ci sono robot che forniscono informazioni in banche e hotel. Se saranno più interessanti e competenti delle persone che hanno sostituito, li vedremo ancora tra qualche anno, altrimenti spariranno cessato il periodo di novità.

La mozione della deputata europea è certamente dettata da un approccio superficiale e non informato al problema, come spesso succede ai politici di oggi.

In Giappone ci sono problemi sociali reali, come quello degli anziani in una società che, come la nostra, tenderebbe a separarli dai giovani di famiglia. Tuttavia, rispetto a noi, la loro società accetta molto meno volentieri la presenza di estranei tra le mura di casa; da qui il tentativo di risolvere il problema del supporto degli anziani con una macchina piuttosto che con una badante umana. In Giappone, per motivi soprattutto di immagine mediatica, e per attirare fondi di ricerca, oltre che per rispondere alla tradizione manga che aveva prodotto modelli di eroi robotici ben prima che si potessero realizzare in pratica, si è sviluppata, spinta anche da un piano quinquennale del governo, la capacità di realizzare robot umanoidi, o androidi. In Europa, lo stesso problema del supporto agli anziani ha portato a più pratici ed economici robot su ruote, semmai dotati di braccia e testa, ma anche di un pratico touch screen, dato che l’investimento pubblico era più orientato a ottenere dei risultati efficaci per la società e il sistema produttivo, piuttosto che degli oggetti di effetto mediatico, ma di poco uso pratico, e lontanissimi dal mercato. Forse siamo meno sognatori e legati alle tradizioni dei giapponesi. Teniamo comunque conto che i decisori giapponesi di oggi nella loro infanzia hanno vissuto molto più di noi l’influenza massiccia di cartoni come Ufo Robot e Mazinga, e quando pensano a un robot fanno fatica a pensarlo diverso da quei modelli.

Un altro aspetto è quello legato alla pericolosità fisica dei robot. Finora la legislazione prevede che i robot operino dentro gabbie di protezione in cui non è prevista la presenza umana, e questo è quello che succede in fabbrica. Nel momento in cui vogliamo usarli nella società e farli interagire, occorre evidentemente cambiare prospettiva e accettare dei livelli di rischio. Una delle norme attuali prevede di dover stare fuori della portata del movimento del robot, ma essa è chiaramente inattuabile se, per esempio, il robot è da indossare per darmi la possibilità di camminare, come succede con gli esoscheletri. Parte della ricerca europea si sta focalizzando su robot co-worker che interagiscono direttamente come assistenti dell’uomo in ambienti produttivi. Chiaramente la normativa va rivista, e la direzione è quella adottata per altre macchine potenzialmente pericolose, come le auto o gli aerei.

 

Andrea Bonarini è professore ordinario e Coordinatore del dottorato in Information Technology presso il Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano. Coordina dal 1990 il Laboratorio di Intelligenza Artificiale e Robotica del Politecnico (AIRLab) ed è tra i fondatori dell’Associazione italiana per l’Intelligenza Artificiale (AI*IA) e dell’Italian Regional Interest Group del Neural Network Council dell’IEEE (Institute of Electrical and Electronic Engineers). I suoi interessi di ricerca riguardano: sviluppo di robot autonomi (in particolare per servizio, edutainment e giochi), human-robot interaction, intelligent data analysis, affective computing, apprendimento per rinforzo, sistemi fuzzy.

 

KABUL magazine ringrazia Andrea Bonarini per la disponibilità e il continuativo scambio (avvenuto anche anche durante la fase di stesura di questa introduzione) al fine di fare chiarezza tra notizia e realtà.

*** L’intervista completa ad Andrea Bonarini sarà pubblicata integralmente su METADATA GALAXIES, il primo volume della nuova collana K-Pocket Guide di KABUL magazine.

 

NOTE

[1] Abbiamo deciso di prendere il 1939 come anno di riferimento, a seguito della lettura dell’introduzione redatta da Isaac Asimov nelle prime pagine di Le Grandi Storia di Fantascienza 1 (1979), Bompiani, Milano 1989. Come accennato nel nostro testo, Asimov elenca una serie di eventi storici avvenuti nel ’39, visti da due punti di vista differenti: il mondo al di fuori della realtà e il mondo reale. Questa differenziazione, letta nel 2017 (anno simbolo della post-verità, in cui media, politica e tecnologia vengono facilmente a sovrapporsi innestando confusione in chi prova a informarsi), acquisisce ai nostri occhi un interessante spunto di riflessione che potrebbe gettare le basi per capire meglio quali sono le sottese similitudini tra questi due anni storici.
«Nel mondo al di fuori della realtà il 1939 era davvero un brutto anno. Il 28 marzo Madrid si arrese alle forze di Francisco Franco, terminando la Guerra civile spagnola. […]. Il 22 maggio Hitler e Mussolini firmarono il patto d’Acciaio.
Nel 1939 fu inventato il D. D. T. La Pan American incominciò i voli dei Clipper fra gli Stati Uniti e l’Europa. Venne pubblicato Cultura e libertà di John Dewey. […] Ma per il mondo reale il 1939 era un anno ottimo e importante.
Nel mondo reale fu tenuto a New York il primo congresso mondiale di fantascienza […]. Persone importanti fecero il loro debutto nella realtà: in marzo Isaac Asimov con Marooned off Vesta; in aprile Alfred Bester con The Broken Aziom.
L’Esposizione Universale di New York influenzò una generazione di newyorkesi (e pochi altri) appassionati di fantascienza, editori e aspiranti scrittori. […] Ma torniamo a questo importante 1939 e godiamoci le migliori storie che siano state regalate al mondo reale».

[2] Robot e intelligenza artificiale: i deputati chiedono norme europee, 16 febbraio 2016.
«I deputati chiedono alla Commissione europea di proporre norme in materia di robotica e di intelligenza artificiale per sfruttarne appieno il potenziale economico e garantire un livello standard di sicurezza e protezione. Sottolineano che in diversi Paesi sono previsti standard normativi per i robot e sottolineano che spetta all’UE prendere l’iniziativa su come impostare questi standard, in modo da non essere costretti a seguire quelli eventualmente stabiliti da Paesi terzi.
La relatrice Mady Delvaux (S&D, LU) ha dichiarato: “Sono lieta per l’approvazione della mia relazione sulla robotica, ma mi rammarico che la coalizione di destra formata da ALDE, PPE e ECR si sia rifiutata di prendere in considerazione le possibili conseguenze negative sul mercato del lavoro. La coalizione ha quindi rifiutato un dibattito aperto e lungimirante, ignorando le preoccupazioni dei nostri cittadini”. I deputati sottolineano inoltre che un progetto di legge è urgentemente necessario per chiarire le questioni di responsabilità, in particolare per le auto senza conducenti. Chiedono, quindi, con urgenza un regime di assicurazione obbligatoria e un fondo integrativo al fine di garantire che le vittime di incidenti che coinvolgono auto senza conducente siano completamente risarcite.
Nel lungo termine invece, il Parlamento chiede alla Commissione di prendere in considerazione la creazione di uno status giuridico specifico per i robot, per stabilire di chi sia la responsabilità in caso di danni». Il Prof. Andrea Bonarini ci ha precisato che «l’Unione Europea già da anni ha commissionato un libro bianco e poi un un libro verde, che sono stati realizzati per esaminare il problema degli “ELS (Ethical, Legal, Societal) issues” relativi all’introduzione dei robot nella società civile. La questione al momento non è reputata urgente, ma lo diventerà a breve, appena le auto autonome saranno pronte per il mercato (attese per il 2022)».