Diritti dei robot
Da decine di anni ciascuno di noi utilizza, possiede, gestisce frigoriferi, automobili, telefonini. In pratica, macchine. Eppure nessuno ha mai pensato, fino ad ora, che tali macchine potessero essere titolari di diritti. Le macchine fino ad oggi sono state “oggetti” di diritti (proprietà, possesso, responsabilità) e non certo “soggetti”. Soltanto di recente queste macchine hanno cominciato ad avere forme proprie di intelligenza artificiale che iniziano a far dubitare che possano assumere una certa autonomia decisionale.
I robot cent’anni fa altro non erano che una invenzione letteraria di Karel Čapek, certamente affascinante considerato l’immediato sviluppo che i robot hanno avuto nella letteratura fantascientifica degli anni successivi, al punto da spingere un visionario come Asimov a stabilire le leggi della robotica. Era il 1942. Ma oggi siamo davvero arrivati al momento di dover scrivere queste leggi, proprio perché stanno iniziando a configurarsi diritti propri delle macchine.
I robot devono avere proprie leggi? Lo sviluppo della tecnologia sta rendendo reale la “predizione” fatta da Asimov nel 1942: dobbiamo porre regole per i robot, individuando anche forme di capacità giuridica, come se fossero veri e propri soggetti di diritti1. Tradizionalmente la regolazione giuridica ha considerato le macchine soltanto “oggetto” di diritti. Nel senso che leggi e regolamenti hanno disciplinato proprietà, possesso, responsabilità e cessioni delle macchine utilizzate quali utensili. Oggi le macchine sono diventate sempre più evolute. La disponibilità di quantità enormi di dati e di elaboratori sempre più veloci ha portato allo sviluppo di macchine dotate di nuove forme di intelligenza, non umane. Cioè dotate di algoritmi di “intelligenza artificiale”, che consentono una elaborazione di dati e un auto-apprendimento in qualche modo autonomi. Cos gli ordinamenti giuridici si cominciano a porre il problema di valutare se e come le macchine possano essere non più soltanto oggetto, ma anche soggetto di diritti. Forse nella summa divisio di Aristotele che distingueva gli strumenti a disposizione dell’uomo per amministrare il suo patrimonio in “strumenti inanimati” e “strumenti animati”, i robot non possono più essere classificati semplicemente tra i primi. Perché? Prendiamo il caso della auto a guida autonoma. In linea di principio, i veicoli a guida autonoma confliggono in maniera lampante con tutte le norme vigenti sulla circolazione, fondate sul principio per cui «Ogni veicolo in movimento o ogni complesso di veicoli in movimento deve avere un conducente» (cos art. 8 Convenzione di Vienna sulla Circolazione stradale dell’8 novembre 1968). Ma il problema non è certo questo, in quanto basterebbe una ridefinizione della categoria di veicolo. Il problema è soprattutto la responsabilità che le auto a guida autonoma possono generare. Tradizionalmente pensiamo che un incidente di una auto a guida autonoma possa essere disciplinato con le classiche categorie di responsabilità. Responsabilità di chi? Non certo del guidatore che non esiste. Ma del proprietario, dell’utilizzatore, del fabbricante o del programmatore? Allora forse è più semplice pensare a un sistema di assicurazione obbligatoria, da porre a carico del proprietario, dell’utilizzatore, del fabbricante o del programmatore; come del resto è previsto ora, ad esempio in Germania2. Ma pensiamo che a un certo punto dello sviluppo queste auto saranno sempre più autonome rispetto al proprietario (se ancora ce ne sarà uno), all’utilizzatore (potranno essere molteplici), al fabbricante (risponde anche per i danni dovuti alla circolazione?) o al programmatore (probabilmente non umano). Sarà sempre più complesso determinare qual è il soggetto cui incombe la responsabilità del risarcimento ed esigere da tale soggetto la riparazione dei danni causati Diventerà quindi complicato usare le categorie classiche del diritto e sarà più facile pensare che la polizza assicurativa sia da intestare alla stessa auto. Ma a quel punto la automobile avrebbe una propria soggettività giuridica. Cos l’auto autonoma potrebbe, anzi dovrebbe, avere anche un conto corrente bancario per pagare la polizza, ricevere i propri guadagni dal servizio e fare propri investimenti sul capitale3. Una volta riconosciuto alle macchine il diritto di proprietà e la relativa gestione autonoma del patrimonio, ne seguirebbero una serie di corollari giuridici (libertà personale, di circolazione, diritti politici legati alla sua appartenenza alla comunità), non ultimo il dovere di pagare le tasse, una sorta di robotax4, che configurerebbero una posizione di imputabilità autonoma del tutto analoga a una persona. Ecco che un robot avrebbe la sua soggettività giuridica. Autonoma, pur con tutti i dubbi e le perplessità del caso. Prima di cercare di affrontare la complessa questione, occorre una precisazione terminologica. Va chiarito che parleremo di robot, anche se potremmo parlare di automi, umanoidi o androidi, o più semplicemente macchine (potendo in questa sede ritenere che siano in buona sostanza tutti sinonimi). Usiamo robot ricordando che il primo utilizzo del termine risale (soltanto) al 1920, ad opera dello scrittore ceco Karel Capek, derivandolo dalla parola “robota” che significa “lavoro pesante”, pur potendosi far risalire i primi tentativi di immaginare la figura di un robot già a molti secoli prima di Cristo, per poi arrivare a Leonardo da Vinci fino a Frankenstein. Ad ogni modo, non è agevole per il diritto definire cosa sia un robot, in quanto si implicano nozioni di elettronica, meccanica e informatica, non sempre semplici5. Comunque, a livello tecnico per aversi un robot occorre – di base – la ricorrenza di due elementi: mobilità e programmabilità, cioè debbono essere macchine capaci di muoversi sulla base di programmazione autonoma. Tali caratteristiche rendono autonomo il robot e riducono, fino ad annullare, i limiti della imputabilità degli eventi a un possibile operatore umano.
Date queste premesse, il primo problema giuridico da affrontare per capire se i robot possano essere soggetto di diritti riguarda la titolarità giuridica a stabilire “chi” possa essere titolare di diritti. I diritti, come ogni altra posizione giuridica soggettiva, vengono attribuiti dagli ordinamenti giuridici. In altri termini, i diritti (soggettivi) sono attribuiti dal diritto (oggettivo). Con una precisazione importante. Il diritto oggettivo può attribuire diritti anche a non persone umane, come accade per le persone giuridiche e, in alcuni ordinamenti, agli animali. Negli Stati contemporanei, i titolari dei diritti sono, di regola, i cittadini per come identificati dai singoli ordinamenti, con precisazioni e limitazioni per gli stranieri e anche per alcune categorie di cittadini (come nel XX secolo la segregazione razziale negli USA, l’apartheid in Sudafrica, la questione aborigena in Australia). Partendo da tale base, saranno poi le singole norme ascrittive a riconoscere diritti a categorie di possibili titolari. Cos nel nostro ordinamento, sono titolari di diritti anche:
a) gli stranieri e gli apolidi (da ultimo C. cost., 25.7.2011, n. 245);
b) i cittadini dell’Unione europea (art. 20 TFUE);
c) le persone non ancora nate come l’embrione e il concepito (ad es. art. 462 c.c.);
d) le persone che non siano più in grado di intendere e di volere, assai rilevanti per la questione dei trattamenti di fine vita (si pensi ai casi Englaro e Welby);
e) le persone in stato di “soggezione speciale” (tipo i detenuti);
f) le persone giuridiche (salvo che per i diritti consustanziali alla corporeità umana);
g) gruppi e associazioni esponenziali (ad es. la tutela dell’ambiente: cfr. ora artt. 309 e 301 d.lg. 3.4.2006, n. 152);
h) gli animali (art. 13 TFUE).
Dal punto di vista giuridico, nulla osta che una forma di personalità giuridica possa essere riconosciuta anche a soggetti non umani, come possono essere robot e macchine. Infondo basta una riga di legge per ascrivere situazioni giuridiche soggettive a macchine, per quanto la questione sia ricca anche di implicazioni filosofiche. Automobili a guida autonoma, droni, sistemi di chirurgia robotica, robot domestici. E anche assistenti personali virtuali (che ci consiglieranno non solo il ristorante o la palestra, ma addirittura il partner, il lavoro e come votare alle elezioni), richiederanno sempre di più normative specifiche e adeguate. Per ora, in maniera più tradizionale e rassicurante, il diritto si è limitato a disciplinare i robot come “utensili”, utilizzando le tradizionali categorie dell’imputazione delle attività e delle responsabilità: chiunque sia fabbricante, proprietario, possessore o utilizzatore di un robot risponde delle attività. Si prendano ad esempio le Direttive UE 2001/95 e 2006/42 sulla sicurezza dei prodotti e le normative su diritti e garanzie dei consumatori.
Ma ora tutto ci sembra non bastare più. Ad oggi, il tentativo più avanzato di disciplinare in maniera organica il “fenomeno robot” è rappresentato dalla risoluzione del Parlamento europeo del 16 febbraio 2017, recante Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica – 2015/2103(INL) –, con cui si auspica di disciplinare in maniera omogenea per gli Stati europei gli aspetti civilistici della robotica, a partire dai profili di responsabilità. Partendo dall’assunto del progresso e della sempre maggiore autonomia dei robot (considerando Z, AA, AB), la risoluzione ritiene che «le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento n di esigere da tale soggetto la riparazione dei danni causati» (considerando AF). Ecco il punto. La risoluzione comprende che stiamo andando verso un modello in cui sarà sempre più difficoltoso legare l’attività delle macchine a quella di un singolo responsabile umano. Per cui va individuata una imputabilità autonoma. A livello di disciplina la risoluzione auspica una serie di cautele etiche, per assicurare che lo sviluppo e l’utilizzo dei robot avvenga in condizioni tali da preservare la dignità, l’autonomia e l’autodeterminazione degli individui e di garantire la tutela della privacy e che si presti attenzione «alla possibilità che nasca un attaccamento emotivo tra gli uomini e i robot, in particolare per i gruppi vulnerabili (bambini, anziani, disabili), per attenuare gli impatti emotivi e fisici» (punto 3). Cos , invita a affrontare la questione dei robot innanzitutto dal punto di vista della responsabilità, creando un sistema di registrazione dei robot, una assicurazione obbligatoria e un fondo di garanzia per i danni causato da robot non assicurati (punto 59) nonché forme di responsabilità oggettiva (punto 53 e 54)6. Fin qui siamo ancora nell’applicazione delle categorie tradizionali. Ma, infine auspica anche «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi» (punto 59, lett. h). Allora siamo pronti a creare una soggettività elettronica? Molto più cauto al riguardo è il parere del Comitato Economico e Sociale dell’Unione europea (CESE, INT/086 del 31 maggio 2017), che è contrario alla assunzione di forme di personalità giuridica per i robot, in quanto «comporterebbe un rischio inaccettabile di azzardo morale»7. Tornando alla risoluzione, il Parlamento europeo ipotizza anche una Carta della robotica, con una serie di principi etici e deontologici, rivolti innanzitutto ai ricercatori, in maniera da garantire una serie di principi fondamentali, che ricordano molto le leggi di Asimov: beneficenza, non-malvagità, autonomia, giustizia8. Nel complesso, si tratta, con evidenza, di una disciplina ancora malcerta, che cerca soprattutto di adattare le categorie tradizionali allo sviluppo della robotica, ma con la piena consapevolezza che nel giro di pochi decenni i robot potrebbero raggiungere livelli di progresso oggi impensabili (non dimentichiamo che 25 anni fa Internet non esisteva). Dal suo canto, il Parlamento italiano ha iniziato a prendere coscienza del tema soprattutto dal punto di vista conoscitivo, come emerge ad esempio dal dibattito che nella primavera del 2017 ha portato la Camera dei deputati all’esame di alcune mozioni sulla robotica e intelligenza artificiale9.
Ci troviamo davvero di fronte ad una grande rivoluzione dell’assetto sociale, prima ancora che normativo, con forti incidenze su tutti i modelli da noi conosciuti. Ad ogni modo, oggi siamo soltanto in una fase iniziale e di transizione: lo sviluppo della scienza e della tecnologia non farà che ampliare tali problematiche, estendendole anche ai profili di intersezione fra i diritti delle persone e i diritti degli automi. A partire dai diritti delle persone, il problema del futuro dei diritti nell’intreccio con l’intelligenza artificiale e lo sviluppo dei robot era già stato intuito da Bobbio, auspicando «che la storia conduca al Regno dei diritti dell’uomo anziché al Regno del Grande Fratello»10. I diritti umani devono cioè restare garanzia della persona umana contro ogni forma di potere e non certo diventare essi stessi strumento di esercizio di potere11. Il rischio è molto grande anche perché tutte le caratteristiche di ciascuna persona umana saranno concentrate in una serie di dati, spesso anche molto sensibili e dettagliati (abitudini, spostamenti, tipologia delle persone contattate, dati medici e biometrici, etc), in possesso di banche dati, siti, provider: in pratica, tutto di ciascuno di noi sarà nei propri dati. Dati in possesso di società private a fini commerciali. Il rischio non si protegge solo con una tutela sempre più rigorosa della privacy, come anche tenta di fare il nuovo regolamento UE (679/2016) ponendo regole per il diritto di rettifica, il diritto di oblio e il principio di conoscibilità e comprensibilità del trattamento automatizzato (cfr. artt. 16, 17 e 22).
Va affrontato anche il problema della concentrazione dei dati, configurando – probabilmente – meccanismi di separazione e decentralizzazione dei dati, per evitare che esista un solo possessore di tutti i dati di una persona e, in prospettiva, di tutte le persone. Paradossalmente, corsi e ricorsi storici confermano che l’unico modo per evitare il monopolio dei dati sarà quello di imporre meccanismi di decentralizzazione, un po’ come quando per combattere l’assolutismo si sono imposte forme di divisione dei poteri. Lo stesso accadrà per i dati e quindi i diritti dei robot. Possiamo pensare che tutti i robot saranno collegati in remoto con un solo cervello collegato in cloud che guiderà e gestirà tutte le azioni? Sembra pericoloso, per vari profili, quindi anche qui andranno adottati protocolli di separazione e decentralizzazione. Abbiamo poi il problema di quale sarà la fonte idonea a regolare tali diritti e situazioni giuridiche. Chi potrà farlo? È dubbio pensare che possano essere le Costituzioni e le leggi nazionali a disciplinare i fenomeni che discendono dallo sviluppo tecnologico, come i robot12. Tale superamento della sovranità normativa nazionale sui fenomeni tecnologici sembra muoversi in due direzioni: da un lato, verso l’esigenza di parametri costituzionali e regolativi globali; dall’altro, con spazi sempre maggiori per esigenze di autonomia dei sistemi stessi, visto che il legislatore farà sempre maggiore fatica a inseguire le continue innovazioni della tecnologia. Ecco che si aprono spazi verso teorie di ordine spontaneo alla Hayek, ma anche con auto regolazioni disposte dagli stessi “giganti” della rete, in quanto sempre più spesso saranno i singoli produttori a porre regole. Avremo sempre più normative non “eteronome”; nel senso che saranno poste dallo stesso soggetto fabbricante o gestore della nuova tecnologia, come già sta avvenendo con le “regole etiche” poste dalle singole grandi aziende13. Del resto le normative statali sono normalmente misoneiste e tardigrado. Ancor più in settori a rapidissima obsolescenza come la tecnologia. Casi emblematici possono essere la sigaretta elettronica, prodotto nuovo che ha stentato a essere riportato a categorie tradizionali come i prodotti da fumo o i dispositivi medici14. Nel senso che in nome del tradizionale principio di base “ubi societas, ibi ius”, il diritto degli Stati è sempre molto lento e si adatta con difficoltà alle novità. Ancor più quando sono novità che crescono e si sviluppano secondo il principio di singolarità tecnologica, cioè con una accelerazione oltre ogni capacità di comprensione previsione umana. Se ci sarà davvero questo sviluppo, in cui le forme di intelligenza artificiale e quindi le capacità dei robot raggiungeranno e supereranno quelle umane, dobbiamo chiederci se per i robot saranno da applicare le regole pensate da esseri umani, oppure se emergerà l’esigenza che siano gli stessi robot a fissare le regole applicabili per i robot. Nel rispetto di un principio di “autodichia”, quale forma di possibile pluralismo. Arriveremo a un diritto dei robot posto a livello più o meno globale dagli stessi robot? Ad ogni modo, la regolazione dei diritti dei robot implica tutta una serie di questioni, di cui al momento ancora non si intravede la possibile soluzione. Anche se, trattandosi di terreni cos innovativi, viene da pensare che probabilmente emergeranno anche questioni ulteriori, che oggi non riusciamo nemmeno ad immaginare. In fondo si tratta di una rivoluzione epocale, come quando emerse l’esigenza di regolare il diritto del mare e ci si rese conto che era impossibile farlo con il semplice nomos della terra15, come oggi non è certo pensabile di poter regolare la rete con i tradizionali strumenti legislativi16. Ad ogni modo, appare necessario un approccio globale e interdisciplinare, perché non basta certo la visione limitata a regolare fenomeni del tutto innovativi, specie nelle anguste categorie del diritto.
1 Tutti ricordano la formulazione da parte di Asimov, nei suoi racconti delle tre leggi della robotica, a cui aggiungerà poi la legge zero. «1) A robot may not injure a human being or, through inaction, allow a human being to come to harm. 2) A robot must obey any orders given to it by human beings, except where such orders would conflict with the First Law. 3) A robot must protect its own existence as long as such protection does not conflict with the First or Second Law».
2 È della scorsa primavera la legge tedesca sulle auto a guida autonoma, che comunque applica una regolazione di tipo tradizionale, richiedendo la presenza a bordo di un patentato, pronto a prendere la guida in caso di necessità. Lo stesso accade nella regolazione sperimentale di alcuni Stati USA (California, Florida, Nevada). Elementi in Palmerini, E., voce Robotica (parte giuridica), in Enciclopedia di bioetica e scienza giuridica, X, Napoli, 2016, 1104.
3 Cfr Tegmark, M., Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Milano, 2018, 147 s.
4 Tra i primi ne ha parlato Floridi, L., Robots, Jobs, Taxes, and Responsibilities. Philosophy & Technology, 30(1), 2017, in www.link.springer.com. In Italia, in tal senso il d.d.l. presentato nella XVII legislatura dall’on. Pastorelli, Agevolazioni fiscali per l’impiego di sistemi di intelligenza artificiale nella produzione di beni, (Atto Camera n. 4621 del 25 settembre 2017).
5 Per un tentativo di definizione, cfr. Palmerini, E., voce Robotica, cit., 1100 s. Sulla mancanza di una precisa terminologia anche Bassini, M.-Liguori, L.-Pollicino, O., Sistemi di intelligenza artificiale, responsabilità, accountability. Verso nuovi paradigmi?, in Intelligenza artificiale, protezione dei dati personali e regolazione, a cura di F. Pizzetti, Torino, 2018, 335.
6 Bassini, M.-Liguori, L.-Pollicino, O., Sistemi di intelligenza artificiale, cit., 345 s.
7 Punto 3.33. Sul dibattito cfr. Palmerini, E., op. cit., 1106 s.
8 Nello specifico si richiede: a) beneficenza: i robot devono agire nell’interesse degli esseri umani; b) non-malvagità: la dottrina del “primum, non nocere”, in virtù della quale i robot non devono fare del male a un essere umano; c) autonomia: la capacità di adottare una decisione informata e non imposta sulle condizioni di interazione con i robot; d) giustizia: un’equa ripartizione dei benefici associati alla robotica e l’accessibilità economica dei robot addetti all’assistenza a domicilio e, in particolare, a quelli addetti alle cure sanitarie.
9 Cfr. mozione Rosato ed altri n. 1-01508, nonché , nei testi rispettivamente riformulati, le mozioni Binetti ed altri n. 1-01558, Cominardi ed altri n. 1-01559, Rampelli ed altri n. 1-01561, Ricciatti ed altri n. 1-01562, Palese ed altri n. 101571, Allasia ed altri n. 1-01607, Catalano ed altri n. 101608, Civati ed altri n. 1-01619, Baldassarre ed altri n. 101622 e Palmieri e Occhiuto n. 1-01623 in materia di robotica ed intelligenza artificiale.
10 Bobbio, N., L’età dei diritti, Torino, 1990, 249.
11 Cfr. anche Cartabia, M., In tema di “nuovi” diritti, in Scritti in onore di F. Modugno, Napoli, 2011, I, 643.
12 Spunti ora in Bifulco, R., Intelligenza artificiale, internet e ordine spontaneo, in Pizzetti, F., Intelligenza artificiale, cit., Torino, 2018, 381 ss.
13 Si pensi non solo ai codici etici già assunti da singole aziende, come ad es. IBM e Volvo Google, ma anche dagli impegni congiunti per bandire in maniera assoluta i robot killer.
14 O, nel passato, la limitazione delle automobili mediante il Locomotives Act inglese del 1° agosto 1861, con limiti di velocità rigorosissimi. O quella delle tv libere in Italia ad opera del d.P.R. 29.3.1973, n. 156, che rinforz il monopolio della RAI, imponendo una autorizzazione statale a ogni forma di telecomunicazione.
15 Schmitt, C., Il nomos della terra nel diritto internazionale dello “jus publicum europaeum” (1950), ed. it., Milano, 1991.
16 Marongiu, D., Organizzazione e diritto di internet, Milano, 2013; e, da ultimo, Carotti, B., Il sistema di governo di internet, Milano, 2016.