AC Scuola Montessori APS

29 lug 20218 min

Il Parlamento Europeo ... 35 anni dopo "Blade Runner"

di Emilia Sanci

membro Consiglio Direttivo AC Scuola Montessori APS

docente di Economia e Diritto presso il Liceo Statale "Maria Montessori”

AI, Artificial Intelligence, Robot: si tratta del tema, di grande attualità, affrontato nel romanzo “Le api non vedono il rosso”, di Giorgio Scianna, Einaudi, pubblicato nel maggio scorso. Prima ancora, è del settembre 2019 il romanzo distopico “Macchine come me” di Ian McEwan, Einaudi, nel quale la medesima tematica si sviluppa sotto la guida di un Turing fatto rivivere negli anni ’80.

Storicamente, i Robot sono passati dall’essere concepiti come la realizzazione fantascientifica dei progetti di automi, passione per lettori o cinefili dalla fantasia più fervida, a qualcosa di più concreto e realistico, tanto da indurre lo stesso Asimov – padre della fantascienza – ad interrogarsi (per poi concepirle nel 1942) sulle c.d. leggi della robotica:

1) un robot non può recare danno a un essere umano;

2) un robot deve obbedire agli umani pur di non violare la regola precedente;

3) un robot deve proteggere la propria esistenza a patto di non infrangere le altre due leggi.

Ecco, dunque, gli esordi dell’idea di Robot posto in “relazione” con l’essere umano: certo, la strada era ancora lunga!

Oggi l’esigenza di disciplinare questo settore e, dunque, di prevedere nuove moderne “leggi della robotica” è più pressante, diventando sempre più attuale e preoccupante il problema connesso all’individuazione di norme che disciplinino l’attività e – in particolar modo – la responsabilità dei robot nel nostro ordinamento alla luce delle inevitabili conseguenze giuridiche del fenomeno della loro diffusione. Esigenza tanto più profonda se si considerano le nuove forme di intelligenza non umana, ossia dotata di algoritmi di “intelligenza artificiale” che consentono una elaborazione di dati e un autoapprendimento in qualche modo autonomi.

Così è accaduto in ambito europeo con la mozione del Parlamento europeo 2015/2103 e poi con la risoluzione del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.

Ci si pone, cioè, il problema se sia ormai necessario riconoscere ai robot una qualche nuova forma di soggettività: ma soprattutto, di che natura? Gli ordinamenti giuridici moderni riconoscono le figure delle persone fisiche, delle persone giuridiche e – in modo limitato – la soggettività degli animali. E dunque, dovendo collocare i robot nell’ambito delle tradizionali categorie della soggettività giuridica, quale spazio dovrebbero occupare? In altre parole, i robot possono essere considerati al pari delle persone fisiche? Sono persone giuridiche? Sono animali? Oppure si potrebbe pensare, così come il Parlamento europeo suggerisce a chiare lettere, ad un nuovo status, ossia quello di “PERSONALITA’ ELETTRONICA”, con specifici diritti e doveri?

(Al punto 59, lett. f della citata Risoluzione, infatti, il Parlamento invita la Commissione ad esplorare, esaminare e valutare, tra le altre cose, la percorribilità della introduzione, nei vari ordinamenti “[omissis] di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi”).

Dunque, è ancora così assurdo parlare dei diritti dei robot, se anche il mondo del diritto (che tradizionalmente arranca nel tentativo di stare al passo con l’evoluzione della realtà circostante) e le stesse Istituzioni già da tempo si interrogano sulla questione? La rivoluzione è vicina, se non già in atto: una rivoluzione fatta di piccoli ma decisivi passi.

Pensiamo, ad esempio, alla proprietà intellettuale di opere prodotte dalle intelligenze artificiali in maniera sostanzialmente autonoma, sulla base di pochi iniziali input forniti dai programmatori.

QUALCHE ESEMPIO

NELL’ARTE

Christie’s, la famosissima casa d’aste newyorkese, nell’ottobre 2018, ha battuto all’asta per la prima volta un’opera d’arte creata dall’intelligenza artificiale: il ritrattodi Edmond Belamy, membro di una famiglia immaginaria. Nato dall’idea del gruppo Obvious, formato da ricercatori e artisti francesi, interessati ad esplorare il potenziale artistico dell’AI, l’esperimento ha dato risultati ben superiori rispetto alle previsioni: da una base d’asta tra i 7 e i 10 mila dollari il quadro è stato aggiudicato al prezzo di 432.500 dollari, circa 380.200 euro.

NELLA MUSICA

Amper è un “musicista e compositore” emergente che, in collaborazione con la cantante Taryn Southern – famosa su Youtube con oltre 500 milioni di visualizzazioni - ha prodotto l’album “I AM AI”, il primo album interamente composto, suonato e prodotto dall’intelligenza artificiale: sì, perché Amper, lungi dall’essere la nuova stella del pop contemporaneo, è un sistema di Intelligenza Artificiale, frutto della collaborazione di un gruppo di ingegneri e musicisti (come lo stesso titolo non sembra voler nascondere). Amper ha studiato le caratteristiche dell’ “umana” con cui avrebbe collaborato (Taryn Southern, appunto), lavorando sulla base di pochi iniziali input forniti dagli artisti del Team, sullo stile o la ritmica, e trasformandoli in accordi e melodie, come un sarto che cuce su misura il vestito per il suo modello.

Puoi ascoltare il brano di Amper “I AM AI” al link https://www.focus.it/tecnologia/innovazione/il-primo-album-di-amper-lartista-digitale

DEI DIRITTI …

A questo punto è lecito chiedersi: a chi spettano i proventi, ad esempio, delle vendite delle opere di un Robot? O meglio: a seguito dell’ormai prossima rivoluzione degli ordinamenti giuridici tradizionali, a chi spetteranno? Del resto, se i robot sono persone (“…artificiali”) bisogna garantirne i diritti.

Secondo alcuni questo passaggio è ancora prematuro: occorre almeno attendere che gli androidi sviluppino una forma di autocoscienza, ossia che abbiano coscienza di sé.

Ma quando può affermarsi essere stata raggiunta tale condizione?

Si propone, da più parti, di ricorrere al c.d. “test di Turing”, presentato da Alan Turing, padre dell'informatica e grande matematico del XX secolo, nell'articolo “Computing machinery and intelligence”, apparso nel 1950 sulla rivista Mind. Si tratta di un modo per determinare se una macchina è capace di pensare, ossia di comportamenti intelligenti tanto da non essere distinguibile dall’essere umano: un test divenuto famoso tra i cinefili con “Blade runner”, film del 1982 di Ridley Scott, ambientato negli anni ’90 dello scorso secolo.

In tre stanze diverse vengono collocati, rispettivamente, un robot, un essere umano e un giudicante: quest’ultimo pone domande agli occupanti le altre due stanze e alla fine dell’esperimento dovrà individuare la stanza in cui si trova l’uomo: se la risposta è sbagliata vuol dire che la macchina si confonde con l’uomo (in questo senso, ad esempio, in “Macchine come me” si legge “… quando non fossimo più stati in grado di distinguere il comportamento di una macchina da quello di una persona, avremmo dovuto per forza riconoscere umanità alla macchina”, pag. 80).

I più critici contestano a questo test il fatto di essere idoneo a rivelare unicamente se una macchina sa simulare un comportamento intelligente, ma ciò non significa essere intelligente. Da ciò l’idea di “completare” il test di Turing con il c.d. test del “riconoscimento allo specchio”, ideato per comprendere se un bambino (ma vale anche per un robot!) riesce a riconoscersi allo specchio, dimostrando così di avere sviluppato il senso di sé.

In questi casi ai robot andrebbe attribuita soggettività e dunque garantita la tutela dei diritti.

Ma quali diritti?

Rispondono i più: “quelli fondamentali”, come il diritto alla vita, da tradursi in tutela del robot dallo “spegnimento” del sistema, il diritto d’espressione, il diritto alla partecipazione fino a pensare al diritto al voto (tale forma di riconoscimento, ove realizzata, porterebbe, inevitabilmente, ad immaginare sul lungo periodo un Parlamento rappresentativo anche della componente “artificiale” del popolo sovrano)!

… E DEI “DOVERI”

Ma esiste (e a dire il vero, tutto inizia proprio da lì) il problema della responsabilità per i danni cagionati dai robot, da quelli più sofisticati, le c.d. machine learning, ossia i robot capaci di apprendimento autonomo e automatico: maggiore è l’autonomia del robot, minore è il legame con l’uomo e dunque la possibilità di riversare la responsabilità su quest’ultimo.

Pensiamo alla realtà delle “self-drive cars”, al centro della trama de “Le api non vedono il rosso”, ma tutt’altro che romanzata.

E’ di qualche anno fa, infatti, la notizia di un reale incidente che ha visto coinvolta una macchina Google: il primo sinistro causato da una self-drive car che, individuato un ostacolo davanti a sé, ha “deciso” di spostarsi sull’altra carreggiata in cui sopraggiungeva un autobus: la macchina aveva “supposto” che l’autobus vedendola avrebbe rallentato evitando l’impatto. Ma così non è stato!

Ebbene, in un caso del genere, chi è il responsabile? Il nostro legislatore non ha ancora sciolto questo nodo, con una normativa ad hoc.

Alcuni Paesi hanno “risolto” il problema – almeno in questa prima fase di sperimentazione - prevedendo la presenza a bordo di un (“umano”) patentato, pronto a prendere i comandi in caso di necessità. Dunque, nel caso in esame la responsabilità per i danni cagionati ricadrebbe sull’essere umano, giuridicamente responsabile per non aver preso i comandi in tempo utile evitando l’incidente.

Ma in assenza di un simile escamotage giuridico, chi risponderebbe dei danni?

  • Il proprietario/utilizzatore? Ma la macchina procedeva da sé!

  • Il produttore/programmatore? Ma il robot ha assunto un comportamento frutto di apprendimento autonomo, dunque fuori dal controllo dei programmatori!

  • Si può pensare ad una imputabilità autonoma? Il Parlamento europeo, all’art.59 della citata risoluzione, prospetta l’istituzione di una RCA obbligatoria in capo al robot, unitamente ad un fondo di garanzia per i danni causati da robot non assicurati.

Considerata la difficoltà di adattare i tradizionali Istituti giuridici ad una realtà così nuova e specifica, si rende necessario integrare i codici civili dei Paesi membri prevedendo una nuova forma di responsabilità, ossia quella diretta delle AI. In attesa che le Istituzioni si adeguino alla nuova, ormai impellente, esigenza, c’è chi ha lavorato alla stesura di 19 articoli, confluiti in una vera e propria “Carta dei Diritti e dei Doveri dei robot”, nell’ambito del progetto “RobotLaw”, finanziato dall’UE, con il contributo decisivo della Scuola Superiore di Sant’Anna di Pisa.

Le considerazioni di natura giuridica sin qui accennate, sollecitate dai due racconti, afferiscono solo ad uno dei numerosi profili coinvolti nella tematica, tanto attuale quanto complessa, dell’intelligenza artificiale.

Invito, dunque, alla lettura dei due romanzi che, sono certa, sapranno suscitare innumerevoli interrogativi e riflessioni (di natura economica, filosofica, tecnologica, per fare solo qualche esempio), oltre che soddisfare il piacere di una lettura fluida e accattivante.

I 19 articoli

  • I robot servono per svolgere un servizio o un lavoro. Non può esistere robot se non c’è un lavoro o servizio da svolgere.

  • I servizi compiuti dai robot devono essere rilevanti per la società e/o l’ambiente (salute, inquinamento, disuguaglianze, catastrofi naturali, etc.).

  • Il robot deve essere sempre un mezzo e mai un fine.

  • I robot devono rispettare le regole degli esseri umani.

  • I robot non possono essere programmati per uccidere gli esseri viventi.

  • Il profitto non deve essere mai posto prima della rilevanza sociale e/o ambientale.

  • I servizi o lavori svolti dai robot non dovranno diminuire l’occupazione delle persone ma migliorarla.

  • Un robot deve essere sempre riconosciuto come tale. Non deve mai ingannare le persone, né per le sembianze fisiche, né per le capacità cognitive, né per i sentimenti che può comunicare.

  • Se un robot causa un danno per via di un errore, la colpa deve essere sempre riconducibile a una persona: progettista, costruttore, programmatore, assemblatore, manutentore, venditore, proprietario, utilizzatore (il problema sarà riuscire a capire chi).

  • I robot dovranno essere dotati di una scatola nera da cui sarà possibile risalire alle cause di un mal funzionamento.

  • Se non è possibile risalire a un colpevole, la decisione di utilizzare il robot deve essere condivisa e accettata da tutti.

  • L’impossibilità di risalire a uno o più colpevoli, non può essere motivo per evitare responsabilità civile o penale.

  • Gli esseri umani non potranno mai tramutarsi in robot, né totalmente né in parte. L’utilizzo di protesi robotiche dovrà essere consentito solo per scopi terapeutici.

  • I robot non dovranno essere progettati nell’aspetto e nelle funzioni per riproporre stereotipi sociali (razziali o di genere).

  • Le possibilità percettive e di accrescimento derivanti dall’utilizzo di sistemi robotici indossabili o collegabili al sistema nervoso, dovrà rispettare la dignità degli individui e comunque mai creare discriminazione o disparità tra gli esseri viventi.

  • Gli esseri umani non dovranno mai essere impiegati al servizio dei robot.

  • Per quanto intelligenti i robot non potranno mai dare ordini agli esseri umani, ma solo consigli.

  • I robot non potranno mai essere utilizzati per sostituire gli esseri viventi nei legami affettivi. Sono esclusi specifici casi patologici in cui è dimostrato che l’interazione con robot produce effetti benefici, come nel caso della demenza senile o dell’autismo.

  • La roboticizzazione di un compito comporta sempre una percentuale di imprevedibilità che determina un certo rischio. Il rischio deve essere sempre espressamente dichiarato e l’utilizzo del robot accettato solo dopo un’attenta valutazione dei costi, benefici e pericoli per gli esseri umani e l’ambiente.

150
0