Robot, coscienza ed etica: l’impossibilità di eguagliare l’essere umano

robot

«Lo sviluppo di una intelligenza artificiale potrebbe significare la fine della razza umana», ha avvertito Stephen Hawking l’anno scorso. Non sappiamo se tale annuncio sia dettato dal riduzionismo filosofico del noto fisico, per cui ritiene l’essere umano un nient’altro che facilmente sostituibile da un robot, oppure è un lancio pubblicitario, come il suo “universo dal nulla”, mero slogan di marketing (come ha ammesso Lawrence Krauss).

Certamente, il tema dell’intelligenza artificiale è ormai all’ordine del giorno, ma gli allarmismi non sembrano giustificati. Junji Tsuda, presidente della società di robotica giapponese Yaskawa Electric, ha affermato: «Ci sono diversi robot intelligenti in via di sviluppo ma, rispetto all’uomo, non sanno fare nulla». C’è, ad esempio, l’intelligentissimo robot che vince a scacchi ma, quando lo si mette a piegare gli asciugamani (costato 400mila dollari), impiega un’ora e quaranta minuti per sistemare cinque panni, come mostra questo esilarante video. Mansione che ad una casalinga porta via meno di trenta secondi.

Certo, nel tempo li si renderà sempre più efficienti, ma la questione è se davvero noi umani pensiamo di poter subire concorrenza da un ammasso di ferraglia guidato da un algoritmo. Ci sono Robot che possono vedere di notte come i gufi o i pipistrelli, ma non sanno che cosa vedono. Giustamente Illah R. Nourbakhsh, docente di Robotica presso il Robotics Institute della Carnegie Mellon University, chiede di prendere atto di una distanza, tra cervello (e mente, sopratutto) umano e robotico, pressoché irriducibile. Non è solo un gap enorme -forse incolmabile- di prestazioni (il cervello umano possiede una rete di sinapsi in cui ognuno dei cento miliardi di neuroni può interagire con altri diecimila), ma è sopratutto la dimensione affettivo-emotivo a non poter essere “trasferita” in una non-vita e, in generale, tutto l’aspetto che riguarda la coscienza.

Non è una questione di tempo e progresso ma di impossibilità. Uno studio di ricercatori della Cornell University, ripreso su The New Scientist due anni fa, ha dimostrato che in base ad una teoria algoritmica, per loro natura i computer non sono – né saranno in futuro – capaci di elaborare quei processi che ci permettono di mettere insieme le informazioni e di dargli un significato. «Non possiamo decomporre la loro coscienza in elementi indipendenti», ha riconosciuto Phil Maguire, docente di Informatica alla National University of Ireland.

Pochi giorni fa, Patrick Lin, direttore di Eticactor of Emerging Sciences Group alla California Polytechnic State University, ha spiegato che sarà semplicemente impossibile ridurre il processo decisionale etico umano in valori numerici comprensibili per un robot: come possibile, infatti, codificare la compassione, la pietà, la consapevolezza di sé, il dolore, l’altruismo, la moralità? Basterebbe semplicemente riflettere sul fatto che la mera capacità di scelta, per un robot, non dipenderà mai dal libero arbitrio, ma sarà sempre la capacità di confrontare la situazione con i dati installati nella sua memoria artificiale. È, quindi, sempre una questione di programmazione. L’essere umano, al contrario, è una creatura eidetica e creativa, capace di preferire una alternativa che, di volta in volta, reputa la più giusta e opportuna in base ad una legge morale interna, anche in assenza di informazioni già presenti nel suo cervello.

I ricercatori del Georgia Institute of Technology stanno cercando di sviluppare macchine che garantiscano il rispetto del diritto internazionale, ha spiegato Karl Stephan, docente di Ingegneria elettrica alla Texas State University. Eppure, ha proseguito, «molti dei ricercatori che lavorano sugli aspetti morali dei robot, manifestano frustrazione per il fatto che la moralità umana non è, e non potrà mai essere, riducibile al tipo di algoritmi che i computer possono leggere ed eseguire». Questo perché «vi è una differenza fondamentale in natura tra umani e robot. Per evitare di entrare in profonde acque filosofiche profonde, mi limito a dire che è una questione di autorità. Mentre i robot e i computer potrebbe essere eccellenti consulenti morali per l’uomo, quest’ultimo avrà sempre l’autorità morale e prenderà decisioni morali». In caso di incidente in una casa di riposo, ad esempio, dove gli infermieri sono aiutati dai robot, la polizia non porterà mai i computer con le gambe in prigione. La responsabilità morale sarà sempre dei programmatori e dei proprietari del robot. «Possiamo abdicare la responsabilità morale alle macchine, ma questo non ci rende meno responsabili», ha spiegato il prof. Stephan. Robot e computer sono solo strumenti, non agenti morali.

Riflettere sull’etica dei robot, ha concluso l’ingegnere americano, è in realtà «solo uno sforzo nel tentare di riflettere i nostri atteggiamenti etici nello specchio della robotica. Il sogno di alleviare noi stessi di responsabilità etica consegnando le difficili decisioni etiche ai robot è proprio questo. Un sogno».

(fonte: UCCR, 10.05.16)