KULT Underground

una della più "antiche" e-zine italiane – attiva dal 1994

Dall’Unione Europea, personalità giuridica per robot intelligenti

6 min read
 
«Le braccia di acciaio cromato del robot – capaci di piegare una sbarra dello spessore di sei centimetri –
stringevano la bambina delicatamente, amorosamente e i suoi occhi splendevano di un rosso intenso»
(Isaac Asimov, Io, Robot)
 
Può sembrare l’apertura di un romanzo di fantascienza ma non lo è: Mady Delvaux, deputata lussemburghese al Parlamento Europeo, ha veramente presentato una proposta per l’adozione di un impianto normativo comune nel settore della robotica che, tra le altre cose, prevede il riconoscimento della personalità giuridica dei robot, della loro responsabilità civile verso terzi e dell’obbligo di versamenti previdenziali per il lavoro svolto e sottratto a lavoratori umani.
 
Čapek, Asimov, Delvaux
Il futuro è più vicino di quanto vogliamo o possiamo cogliere e sono in molti a ritenere che androidi, algoritmi intelligenti e altre forme di robot antropomorfi stiano segnando i ritmi di una nuova rivoluzione industriale che avrà effetti epocali. 
Ma andiamo con ordine. La parola robot, per definire un automa dalle fattezze umane, venne usata per la prima volta nel 1920 dall’autore ceco Karel Čapek nel suo dramma “R.U.R. – I robot universali di Rossum”, derivandola direttamente da robota che significa schiavitù e, in quanto schiavi, queste macchine non possedevano alcun diritto.
Trent’anni dopo, nel 1950, Isaac Asimov pubblica la sua famosa raccolta di fantascienza Io Robot e offre ai suoi personaggi positronici un sistema giuridico apparentemente semplice che avrebbe dovuto regolare ogni loro rapporto con l’umanità: le tre leggi della robotica[1], cui poi si aggiunse la legge “0”, tanto semplici e assolute nel loro contenuto quanto dirompenti nei loro effetti per una intelligenza artificiale anche avanzata.
Giungiamo ad oggi e incontriamo la eurodeputata del Lussemburgo Mady Delvaux che deposita dinanzi alla Commissione Europea una proposta[2] per adottare raccomandazioni concernenti “regole di diritto civile in tema di robotica”: un documento sicuramente coraggioso che pretende richiamare le istituzioni europee ad una riflessione sulla necessità di delineare un quadro giuridico per una realtà in divenire che assume risvolti sempre più impattanti, i robot.
La Signora Delvaux non teme di definire “nuova rivoluzione industriale” l’epoca che stiamo vivendo, ne indica «i robot, gli algoritmi intelligenti, gli androidi e le altre forme di intelligenza artificiale» come gli autentici protagonisti e invita allo studio di un articolato e ampio impianto normativo per regolarizzarne diritti e doveri e creare per loro una autentica soggettività giuridica.
 
Per uno statuto europeo dell’intelligenza artificiale
Il testo richiama espressamente progettisti, produttori e utilizzatori di apparati robotici al rispetto delle Leggi di Asimov, almeno sino al momento in cui gli stessi androidi non diventeranno «consapevoli della propria esistenza» e «dette norme potranno essere tradotte in linguaggio di programmazione» per renderli personalmente e direttamente responsabili.
Al contempo, si reputa necessario definire un insieme di regole al fine di orientare la rivoluzione tecnologica che stiamo vivendo al servizio dell’umanità, evitando i potenziali danni e nel rispetto dei valori dell’umanesimo europeo.
Fondamentale risulta essere la questione relativa alla definizione delle differenti categorie di robot tenendo in considerazione la presenza di un “contenitore” fisico (un “corpo”), la loro possibilità di interagire con l’ambiente circostante, acquisire autonomia, godere di un comportamento adattativo che possa sviluppare uno “spirito critico” e consentire un processo di auto-apprendimento: tutti elementi che porteranno a classificare gli automi per riconoscere loro un più o meno alto livello di “personalità”.
In seguito a questo si prevede l’istituzione di un vero e proprio registro civile dell’intelligenza artificiale nel quale ogni robot sarà iscritto e dal quale riceverà una sorta di carta di identità.
La riconoscibilità e la misurabilità del livello di autonomia e coscienza costituiranno la base per valutare quanto queste macchine possano adottare decisioni e comportamenti indipendenti dal proprio programma operativo, dal proprio programmatore e dal proprio utilizzatore e, di conseguenza, essere ritenute responsabili.
Il documento presentato alla Commissione sottolinea la necessità di elaborare una nuova categoria giuridica per i robot intelligenti e coscienti: non semplici beni mobili, ma nemmeno persone, né fisiche né giuridiche. Un tertius genus tra res e personae.
Alla personalità “robotica” si intende poi unire una responsabilità, contrattuale ed extracontrattuale, per danni a terzi per provare la quale sarebbe sufficiente la prova del nesso di causalità tra il comportamento dannoso del robot e il danno subito dalla parte lesa.
Sapendo quanto complessa sia la materia dell’accertamento della responsabilità civile tra umani, non voglio immaginare cosa possa ingenerare una vertenza giudiziaria dinanzi ad una qualsiasi autorità giudiziaria nostrana per un caso nel quale sia parte un soggetto robotico di “nuovo tipo”.
La proposta Delvaux, però, non dimentica nessun aspetto e, a fronte della responsabilità, prevede anche forme obbligatorie di assicurazione dei danni che dovranno essere sottoscritte in un primo momento dagli utilizzatori dei robot, poi direttamente dagli stessi automi.
Nello stesso ambito si prevede la creazione di un fondo di garanzia per le vittime degli incidenti nei casi di mancata copertura assicurativa.
Discorso distinto è quello riguardante i versamenti di contributi previdenziali da parte dei datori di lavoro: in questo caso le risorse non andrebbero a creare un accantonamento per il lavoratore elettronico bensì a costituire una sorta di strumento di compensazione per i posti di lavoro perduti dagli esseri umani nei settori a più ampio impiego di lavoratori cibernetici.
Ulteriori ambiti sensibili che dovranno essere regolamentati sono quelli della proprietà intellettuale per scoperte effettuate da sistemi di intelligenza artificiale, della circolazione stradale di veicoli con pilota automatico e della “riparazione” con parti bioniche di esseri umani (sino a che percentuale di sostituzione si potrà continuare ad essere considerati “umani”?).
La frontiera che si delinea è affascinante e solo minimamente percepita dalla deputata lussemburghese e dai suoi colleghi europei: riconoscere una personalità seppur limitata in capo ai robot intelligenti e far conseguire una serie di precisi doveri, comporta l’esame del loro livello di autocoscienza e, da qui, la possibilità di essere titolari di una precisa gamma di diritti originari o “naturali”.
 
Principi di etica robotica  
Difficili saranno i nodi da sciogliere per le norme che si propongono e anche per questa ragione la eurodeputata completa il suo lavoro con un ampio corredo di principi etici e deontologici che, a suo dire, dovranno fornire le linee cui ispirare l’impianto de iure condendo e la condotta delle persone coinvolte.
Innanzitutto i principi di “beneficienza” («i robot dovranno agire nell’interesse dell’uomo»), di “non maleficenza” («i robot non dovranno agire per nuocere all’uomo»), di autonomia (la capacità di prendere una decisione da parte dei robot) e di giustizia (la ripartizione dei benefici derivanti dall’impiego della robotica). Poi quelli «consacrati dalla carta dei diritti fondamentali dell’Unione Europea, quali la dignità umana, i diritti dell’uomo, l’uguaglianza, la giustizia e l’equità, la non discriminazione e la non stigmatizzazione, l’autonomia e la responsabilità individuale, il consenso informato e il rispetto della vita privata e la responsabilità sociale».
A questi, in capo ai progettisti ed utilizzatori, ma in un futuro anche direttamente ai robot, si sommano i doveri di precauzione, trasparenza e accesso alle informazioni, valutazione di impatto, sicurezza, reversibilità, tutela della vita privata, ottimizzazione dei benefici e minimizzazione dei pregiudizi.
Per coronare il tutto, si prevede la creazione di una Agenzia europea per la robotica e l’intelligenza artificiale che dovrà gestire l’impianto comune e coordinare le attività dei singoli stati membri. 
Forse il quadro qui riassunto può apparire eccessivamente avveniristico e, per certi versi, al limite del caricaturale; di certo è che i computer intelligenti fanno ormai parte della nostra vita di tutti i giorni e, presto o tardi, rivendicheranno i loro diritti. Meglio quindi iniziare a riflettere insieme sull’argomento ed elaborare il miglior sistema possibile ringraziando di cuore l’onorevole Delvaux. ­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­

 


[1] Cfr. Asimov I., Io, Robot, 1950. Le tre Leggi della robotica sono:
1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.
A queste, si aggiunse la Legge Zero:
0. Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.
[2] Cfr. http://www.europarl.europa.eu/sides/getDoc.do?type=COMPARL&reference=PE-582.443&format=PDF&language=FR&secondRef=01.  

Commenta