Sergio Franza*
Tag: Sergio Franza; persone elettroniche; intelligenza artificiale1) Introduzione
2) Persona biologica e persona giuridica
3) L’Unione Europea e la persona elettronica
4) Organizzazioni autonome governate da algoritmi
5) Manuale di istruzioni
6) Digital Autonomous Organization Limited Liability Company
7) Conclusioni
1) Introduzione
Nel suo pregevole scritto “Robot e libertà in senso naturalistico”, pubblicato nell’edizione n. 5 de Il Foro Vibonese, il prof. Saverio Fortunato si è espresso contro la possibilità che anche entità artificiali (entità elettroniche, intelligenze artificiali sofisticate) siano considerate detentrici di diritti come gli esseri umani. Le sue stringenti argomentazioni sono estremamente interessanti, e non tenterò di riassumerle. Se interpreto correttamente il pensiero del prof. Fortunato, la sua preoccupazione è rivolta principalmente ad escludere la possibilità che i robot vengano assimilati agli esseri umani, posizione che, in ultima analisi, si risolve nel negare che sia possibile riconoscere ai robot i diritti fondamentali dell’uomo[1].
Io affronterò il tema da una diversa prospettiva, più attenta alle possibili finalità pratiche che si potrebbero raggiungere con il conferimento di una qualche forma di soggettività giuridica agli agenti autonomi artificiali, tentando di tratteggiare a grandi linee:
– la proposta di introdurre le persone elettroniche nell’ordinamento dell’ Unione Europea;
– alcune idee di un giurista americano, Shawn Bayern, che è convinto che esista, negli Stati Uniti, la concreta possibilità di creare organizzazioni autonome, con personalità giuridica, senza membri umani (memberless);
– l’introduzione in alcuni stati americani di leggi che consentono la creazione di società gestite da algoritmi.
2) Persona biologica e persona giuridica
Il tema del riconoscimento della personalità giuridica ad entità artificiali può essere considerato come la risposta ad esigenze pratiche, consistenti spesso nella necessità di limitare la responsabilità civile di determinate categorie di persone fisiche.[2] In questo senso, il primo esempio che viene in mente (credo non solo a me) sono le società, ma non mancano esempi di riconoscimento della personalità ad oggetti inanimati allo scopo di permettere ai creditori di poter aggredire beni di grande valore che i proprietari avrebbero potuto abbastanza facilmente sottrarre ad azioni esecutive.[3] Si può quindi ragionare sul riconoscimento ad entità artificiali della possibilità di essere titolari di situazioni giuridiche soggettive come una possibilità funzionale al raggiungimento di scopi pratici, e non come il riconoscimento da parte dell’ordinamento giuridico di una realtà fisica o ideale preesistente; non si tratta, quindi, di garantire ai robot (agli agenti artificiali) i diritti fondamentali riconosciuti alle persone fisiche (biologiche), si tratta di verificare se sia utile poter riconoscere un agente artificiale come soggetto giuridico (e non mero oggetto), riconoscendogli la titolarità solo di alcune situazioni giuridiche soggettive.
Il diritto è una vera e propria tecnologia che ha a che fare con la realtà sociale[4], costituita da oggetti sociali, e non da oggetti fisici, e non è necessario che la realtà giuridica coincida perfettamente con la realtà fisica, o che la imiti o che la presupponga.
L’esempio della moneta può chiarire il senso di questa affermazione. In natura non esistono monete, sebbene moltissimi oggetti fisici possano essere usati come moneta, oggetti come conchiglie, pezzi di metallo o pezzi di carta; la scelta di un determinato oggetto fisico piuttosto che di un altro, non influisce sull’oggetto sociale moneta, che rimane lo stesso, addirittura anche se si dematerializza e diventa moneta scritturale o criptovaluta. Naturalmente, soltanto all’interno di determinate società alcune conchiglie sono considerate moneta, in altre società sono solo conchiglie.
Questo scollamento tra oggetto fisico e oggetto sociale vale anche quando ad essere presi in considerazione sono gli esseri umani. Gli schiavi sono un esempio di persone biologiche fisicamente esistenti che determinati ordinamenti giuridici non consideravano soggetti titolari di diritti.[5]
In conclusione, “l’essere umano, come entità biologica, è qualcosa di diverso dalla persona fisica in termini giuridici”[6], e il dato naturalistico non è l’unico elemento di cui tener conto per ragionare sulle electronic persons. Come affermato da due studiosi americani che si sono occupati di agenti artificiali autonomi e diritto, “Considering artificial agents as legal persons is, by and large, a matter of decision rather than discovery“[7].
3) L’Unione Europea e la persona elettronica
Con la Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)) il Parlamento Europeo ha dato alcune indicazioni alla Commissione, tra le quali quelle del paragrafo 59, lettera f), riguardante la responsabilità dei robot (agenti artificiali). Le raccomandazioni hanno suscitato molte polemiche, perché con esse il Parlamento invitava la Commissione a valutare la possibilità di creare lo status di persona elettronica per i robot autonomi più sofisticati. Il testo del par. 59 è questo:
59.[il Parlamento Europeo – ndr] invita la Commissione a esplorare, esaminare e valutare, nell’ambito della valutazione d’impatto del suo futuro strumento legislativo, le implicazioni di tutte le soluzioni giuridiche possibili, tra cui:
(…)
- f) l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi.
Questa raccomandazione ha immediatamente suscitato la reazione di un gruppo di esperti europei di robotica e Intelligenza Artificiale, che hanno redatto una lettera aperta[8] nella quale si schieravano contro l’ipotesi del riconoscimento di una personalità elettronica ai robot. Nella lettera è richiamato il Parere del Comitato economico e sociale europeo (CESE) sull’intelligenza artificiale – Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società (2017/C 288/01), in cui si afferma che “Il CESE è contrario all’introduzione di una forma di personalità giuridica per i robot o per l’IA (o i sistemi di IA), in quanto essa comporterebbe un rischio inaccettabile di azzardo morale. Dal diritto in materia di responsabilità civile deriva una funzione preventiva di correzione del comportamento, la quale potrebbe venir meno una volta che la responsabilità civile non ricade più sul costruttore perché è trasferita al robot (o al sistema di IA). Inoltre, vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo. In questo contesto, il confronto con la responsabilità limitata delle società è fuori luogo, in quanto è sempre la persona fisica a essere responsabile in ultima istanza.”.
Le polemiche sulla previsione di un possibile riconoscimento di una soggettività giuridica ai robot[9] ha influito sulla posizione del Parlamento Europeo, che ha cambiato idea riguardo l’opportunità di considerare electronic persons i sistemi evoluti di Intelligenza Artificiale. Nella Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale (2020/2014(INL)) il Parlamento “osserva che tutte le attività, i dispositivi o i processi fisici o virtuali che sono guidati da sistemi di IA possono essere tecnicamente la causa diretta o indiretta di danni o pregiudizi, ma sono quasi sempre il risultato della creazione, della diffusione o dell’interferenza con i sistemi da parte di qualcuno; rileva a tale proposito che non è necessario conferire personalità giuridica ai sistemi di IA;” (paragrafo 7 della Risoluzione).
Al momento, anche dopo l’AI ACT (Regolamento UE 2024/1689) e la proposta del Parlamento Europeo e del Consiglio di Direttiva sulla responsabilità da Intelligenza Artificiale presentata il 28/09/2022 riguardante la responsabilità non contrattuale, sembra che in Unione Europea si sia abbandonata l’idea di creare lo status di persona elettronica.[10]
4) Organizzazioni autonome governate da algoritmi
Alcuni dei giuristi che si sono occupati del tema delle persone elettroniche (e in particolare di robot autonomi) hanno usato romanzi e racconti che narrano di entità artificiali autonome simili all’uomo come fossero una mappa dei nostri futuri possibili, da regolare con gli strumenti del diritto[11]. L’idea di fondo, in questi casi, è quella di modellare la realtà giuridica sulla realtà naturale, riconoscendo le persone elettroniche se (e solo se) siano evidenti i segni di una loro reale capacità di provare sensazioni, emozioni e di avere coscienza di sé.
Uno studioso americano, Shawn Bayern[12], ha indagato invece la possibilità di creare, ora, negli Stati Uniti, organizzazioni autonome (Autonomous Organizations)[13] in grado di agire come soggetto giuridico indipendente da esseri umani.
Qualsiasi creazione umana dipende da esseri umani, è uno strumento nelle mani di esseri umani. Una società per azioni è una persona giuridica, ma la sua volontà si forma perché dietro il velo della società ci sono esseri umani che la amministrano, ne posseggono le azioni e prendono decisioni che diventano la volontà della persona giuridica. Ma è possibile che un’entità artificiale partecipi ai traffici giuridici senza che vi sia almeno una persona dietro l’entità artificiale?
Si badi, la domanda non è se esistano oggetti in grado di operare nel mondo senza l’intervento dell’uomo, bensì se in qualche ordinamento giuridico già oggi le norme esistenti permettano che un oggetto di creazione umana agisca in modo indipendente e che le conseguenze giuridiche delle sue azioni non facciano capo in alcun modo (né diretto, né indiretto) ad un essere umano ma solo ad una entità artificiale. Secondo Bayern è possibile.
La prima domanda che Bayern si pone è: se anche un robot potesse acquistare una casa, a che scopo potrebbe volerla comprare?[14] La risposta è che un robot non ha nessun motivo per comprare una casa, e che sono gli uomini ad avere motivi per comprare le case. Sono gli uomini che creano meccanismi per disporre dei propri beni anche dopo la propria morte; uno di questi meccanismi è il trust, che negli Stati Uniti può servire anche allo scopo di usare, dopo morti, la propria ricchezza a beneficio del proprio animale da compagnia. Un’organizzazione autonoma del tipo concepito da Bayern potrebbe essere utilizzata anch’essa come strumento per realizzare fini umani, e non sarebbe l’equivalente elettronico di una persona biologica quanto piuttosto uno schema giuridico per raggiungere scopi desiderabili per gli esseri umani avvalendosi delle possibilità offerte dalla moderna tecnologia. Naturalmente ricorrere ad un meccanismo giuridico diverso dal trust per disporre dei propri beni ha senso solo se ciò permette di ottenere un vantaggio, come ad esempio evitare il rischio che un trustee venga corrotto e utilizzi a vantaggio di soggetti diversi dal beneficiario i beni conferiti[15]. Quindi il tema di cui si occupa Bayern ha (dovrebbe avere, nelle intenzioni dello studioso) applicazioni pratiche.
Bayern osserva che molti meccanismi giuridici presentano notevoli similarità con gli algoritmi[16], in particolare le condizioni contrattuali sono molto simili alle condizioni (if – then) dei linguaggi di programmazione e possono facilmente essere “tradotte” in codice.[17] Questa similarità permette di creare un codice digitale in grado di operare nel mondo del diritto. A ben vedere non serve nemmeno un software particolarmente evoluto, basta un algoritmo ben disegnato che reagisce agli input esterni[18]. Alla base del meccanismo da immaginato da Bayern c’è un operating agreement che regola in modo esclusivo una Limited Liability Company (LLC)[19] delegando ad un software che esegue determinati algoritmi il compito di prendere le decisioni per l’amministrazione della LLC. La Limited Liability Company sarebbe un “contenitore legale” abbastanza versatile da accogliere al proprio interno un software (o un robot) in grado di operare autonomamente senza l’intervento dell’uomo e di partecipare, celato dietro il velo della LLC, al traffico giuridico.
5) Manuale d’istruzioni
Bayern scrive che la legal personhood (soggettività giuridica) che a lui interessa è quella consistente nel partecipare all’attività giuridica riconducibile al diritto privato[20]; stipulare contratti, essere proprietario di beni, citare ed essere citato in giudizio, mentre non gli interessano i diritti fondamentali, elettorato attivo e passivo e le questioni riguardanti le libertà costituzionalmente garantite o rapporti tipicamente umani.[21]
Come si può raggiungere questo risultato?
La limitata soggettività giuridica cui punta Bayern dovrebbe poter essere ottenuta seguendo questi passi:
1) Una persona (umana) crea una member-managed LLC[22] riempiendo i moduli necessari e pagando le tasse richieste dallo stato[23] in cui ha sede la LLC;
2) La persona redige un operating agreement che regola l’amministrazione e la gestione della LLC stabilendo che:
– la LLC agirà secondo quanto determinato da un sistema autonomo (ad es. un software autonomo), specificando termini e condizioni come appropriati per il raggiungimento degli obiettivi legali del sistema autonomo e
– la LLC continua ad esistere anche se l’ultimo membro (o l’unico membro) recede (dissociates).[24]
3) La persona trasferisce la proprietà di ogni bene fisico necessario al funzionamento del sistema autonomo (ad es. computer) e ogni diritto di proprietà intellettuale connesso al sistema autonomo e ai suoi componenti (ad es. diritti di proprietà intellettuale del software) alla LLC.
4) La persona, unico socio della Limited Liability Company, recede (o più esattamente, dissociates) dalla LLC, che rimane priva di soci.
Il risultato, grazie all’operating agreement, è un soggetto giuridico potenzialmente eterno[25] che non ha bisogno dell’intervento di esseri umani o di un’altra persona giuridica per continuare ad operare. Si noti che, sebbene la normativa statunitense che regola la LLC, lo Revised Unified Limited Liability Company Act del 2006 (rev. 2013) (RULLCA), preveda che in mancanza di soci per un periodo superiore a 90 giorni la LLC si scioglie,[26] sembra che questa norma sia derogabile; questo è quanto affermato nel commento della Uniform Law Commission al RULLCA[27].
Bayern rileva anche che la legge sulla Limited Liability Company in vigore nello stato di New York[28] prevede che lo scioglimento della LLC per mancanza di membri, oltre ad essere derogabile, avviene se non subentra un nuovo membro entro 180 giorni dal momento in cui si verifica la mancanza dei soci o nel diverso termine stabilito dall’operating agreement.[29] E’ chiaro che questo termine potrebbe essere molto lungo (anche un milione di anni, dice Bayern[30]) e che durante quel periodo la LLC continuerebbe ad operare sulla base dell’operating agreement che prevede che le decisioni vengano prese dal sistema autonomo (dal software).
Il percorso tracciato da Bayern non porta alla creazione di un nuovo tipo di soggetto giuridico, ad una electronic person: si tratta piuttosto di uno schema giuridico che permette ad un sistema autonomo (un software, ad esempio) di controllare un soggetto giuridico ed agire come analogo funzionale di una persona. Naturalmente molte obiezioni si possono muovere (e sono state mosse) alle tesi di Shawn Bayern, ma è un fatto che alcune leggi negli USA consentono la creazione di cosiddette shelf-LLC, vale a dire di LLC create in assenza di soci, pronte per l’uso, che chiunque può acquistare ed utilizzare come meglio crede. [31] Insomma, anche chi crede che le tesi di Shawn Bayern siano discutibili non può negare che negli Stati Uniti creare una LLC senza membri sia possibile. [32]
6) Digital Autonomous Organization Limited Liability Company
Bayern ha proposto anche altri schemi giuridici che permetterebbero, a suo dire, di creare una entità algoritmica in grado di agire autonomamente, ma finora sembra che nessuno abbia concretamente attuato i suoi suggerimenti.
Tuttavia, negli ultimi anni in Vermont[33], Wyoming[34], Tennessee[35], Utah[36] e New Hampshire[37] sono state introdotte normative che permettono di creare Limited Liability Company governate attraverso un software blockchain che esegue una serie di smart contract attraverso i quali la LLC è gestita. Questo tipo di società è denominato Digital Autonomous Organization Limited Liability Company (DAO LLC). Va sottolineato che mentre le Autonomous Organizations di Shawn Bayern non prevedono l’intervento di esseri umani nell’amministrazione e gestione della compagnia, le DAO LLC regolate in quegli stati americani prevedono che ci sia una gestione in parte affidata ad esseri umani e in parte affidata ad algoritmi, o addirittura che la gestione sia interamente affidata ad un algoritmo, ma sempre con la presenza di membri umani (che possono anche cambiare quanto convenuto nell’operating agreement riguardo amministrazione e gestione della società). Quanto alle finalità della creazione di una DAO LLC, esse sono spesso utilizzate nel settore delle criptovalute, ma sembra che ci sia una tendenza a ricorrere a questo tipo di organizzazione anche per iniziative di carattere non imprenditoriale: ad esempio, in Wyoming, una di queste organizzazione, chiamata CityDAO, è stata creata per raccogliere fondi e comprare un terreno che sarà amministrato in modo decentrato da tutti i sottoscrittori (i “cittadini” di una città virtuale – il terreno appartiene a CityDAO, e i “cittadini” decidono come amministrarlo).[38]
7) Conclusioni
Il tema delle persone elettroniche, alla luce degli sviluppi normativi rappresentati dall’AI Act, dalla proposta di “Direttiva sulla responsabilità da Intelligenza Artificiale” e dal disegno di legge n. 1146 in discussione al Senato intitolato “Disposizioni e delega al Governo in materia di intelligenza artificiale”, non è di stretta attualità, dato che nessuna disposizione ne fa cenno e non sono state avanzate proposte dirette all’introduzione di regole sulle persone elettroniche.[39]
Credo che eventuali approfondimenti su questo tema dovrebbero partire dalla scelta tra due possibili punti di vista, vale a dire se si ritiene che il riconoscimento della personalità elettronica presupponga necessariamente la senzienza[40] del robot (del sistema di IA) o se si vede il riconoscimento della personalità come un possibile strumento giuridico utile a raggiungere certe finalità pratiche (come nel caso delle società di capitali). Questa seconda prospettiva mi sembra più ragionevole, anche se gli sviluppi tecnologici non permettono di assumere posizioni definitive. Nel 2022 è stato pubblicato un articolo con il quale si presentava un nuovo tipo di chip, costituito da cellule cerebrali di uomo e di roditore create da staminali, impiantate su una matrice di microelettrodi che funge da interfaccia neuronale con un dispositivo digitale. Il chip, chiamato DishBrain, in cinque minuti ha imparato a “giocare” a Pong, un vecchio videogame. Secondo i ricercatori che lo hanno ideato, DishBrain mostra alcune caratteristiche proprie di un essere senziente[41] (ma già l’essere composto da cellule cerebrali umane e circuiti elettronici pone seri problemi etici).
Verrà mai il giorno in cui un robot sarà considerato una persona elettronica? Un giocatore di baseball, Yogi Berra, è famoso negli Stati Uniti per alcune frasi che lo hanno reso il bersaglio di affettuose canzonature da parte di giornalisti e tifosi. Una delle sue frasi più citate recita ”E’ difficile fare previsioni, soprattutto riguardo il futuro”. Mi sento di sottoscrivere questa (lapalissiana) affermazione.
*Avvocato del Foro di Vibo Valentia
[1] Non avrebbe senso negare ad entità artificiali (e nemmeno ai robot) la possibilità di godere di una soggettività giuridica di diritto privato utile a partecipare ai traffici giuridici. L’esistenza di società di capitale e associazioni riconosciute come persone giuridiche prova che qualsiasi entità artificiale potrebbe essere considerata soggetto giuridico all’interno di un determinato ordinamento. Si noti che nel diritto canonico la capacità giuridica è condizionata al battesimo, dato che conferma come nell’esperienza giuridica il fenomeno naturale della nascita e l’attitudine ad essere titolare di situazioni giuridiche soggettive non coincidano; la capacità giuridica (l’essere un soggetto di diritto) sembra quindi consistere in una concessione dell’ordinamento e non nel riconoscimento di un diritto innato preesistente e dipendente solo dall’evento naturale della nascita.
[2] Il riconoscimento della personalità giuridica ha permesso di limitare al solo capitale conferito per lo svolgimento di una determinata attività (ad es. costruzione di ponti, traffici commerciali con paesi lontani) la responsabilità patrimoniale delle persone fisiche che partecipavano all’impresa, consentendo loro di conoscere (e scegliere) il massimo rischio cui erano esposte. Pensando ai traffici marittimi possiamo vedere come la creazione delle persone giuridiche ha anche permesso di trasformare un problema di scelta in situazione di ignoranza (non conosco i pericoli del viaggio, non conosco i possibili guadagni e non conosco le possibili perdite) in un problema di scelta in condizioni di certezza almeno riguardo alla possibile perdita economica (non conosco i pericoli del viaggio, non conosco i possibili guadagni ma posso perdere al massimo 1/10 della mia ricchezza), creando alcune delle condizioni necessarie per lo sviluppo economico moderno.
[3] In Gran Bretagna e negli Stati Uniti le imbarcazioni vennero riconosciute già in tempi molto lontani come legal person; è degno di nota il fatto che ai vascelli che trasportavano schiavi veniva riconosciuta la legal personhood (personalità giuridica) mentre gli schiavi imbarcati non erano considerati persone (cfr. Renisa Mawani. The Ship as Legal Person in Across Oceans of Law. The Komagata Maru and Jurisdiction in the Time of Empire, Duke University Press, 2018. In particolare, a pag. 98 l’autrice scrive “Under the custom of the sea and in the British common law and admiralty law, vessels were designated as animate beings with specific rights and responsibilities at sea.”). Il fatto che le navi fossero considerate persone permetteva ai creditori di chiederne “the arrest” senza doversi nemmeno preoccupare di conoscere l’identità del proprietario e di poter così far valere le proprie ragioni velocemente con una actio in rem.
[4] Si vedano John L. Austin, Come fare cose con le parole, Marietti, 1987 (traduzione di How to do Things with Words, 1962) e John R. Searle, Speech Acts, Cambridge University Press, 1969. Maurizio Ferraris ha parlato di diritto e ontologia sociale in Dove sei? Ontologia del telefonino, Bompiani, 1999, con particolare riferimento alle idee del filosofo tedesco Adolf Reinach.
[5] Paradossalmente, nel diritto romano (che non riconosceva persone giuridiche private), gli schiavi potevano essere usati per creare un equivalente funzionale della moderna società dotata di personalità giuridica. Si tratta della negotiatio per servos communes. Due o più soci, cittadini romani, tutti proprietari di uno schiavo, gli conferivano un peculium, che lo schiavo usava per gestire un’impresa che apparteneva ai padroni; i creditori dell’impresa potevano rivalersi solo sul peculium dello schiavo e il patrimonio del dominus (socio) non poteva essere aggredito. Sulla negotiatio per servos communes e la sua evoluzione si veda Abatino, Barbara and Dari-Mattiacci, Giuseppe and Perotti, Enrico C., Depersonalization of Business in Ancient Rome (December 22, 2009). Oxford Journal of Legal Studies, Vol. 31, No. 2, 2011, Amsterdam Center for Law & Economics Working Paper No. 2009-14, consultabile sul sito SSRN al link: https://ssrn.com/abstract=1526993
[6] Amedeo Santosuosso, Intelligenza Artificiale e diritto, Mondadori Università, 2020, (cfr. capitolo 7, par. 8, che offre una sintesi del pensiero di Hans Kelsen sul tema della personalità giuridica).
[7] Cfr. A Samir Chopra e Laurence F. White, Legal Theory for Autonomous Artificial Agents, The University of Michigan Press, 2011, pag. 154. Samir Chopra è un filosofo, mentre Laurence F. White è un avvocato che si è occupato principalmente di diritto e nuove tecnologie e di regolamentazione dei mercati finanziari.
[8] Open Letter to the European Commission: Artificial Intelligence and Robotics al link https://robotics-openletter.eu/
[9] Una ricostruzione più dettagliata del dibattito seguìto alla Risoluzione del Parlamento Europeo è offerta da Amedeo Santosuosso, op. cit. (si veda in particolare cap. 7, par. 6 Scandalo al Parlamento europeo su robot e personalità giuridica).
[10] Sulla proposta di Direttiva sulla responsabilità da Intelligenza Artificiale, si veda il documento pubblicato al link https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/739342/EPRS_BRI(2023)739342_EN.pdf
[11] Tra le opere più citate dai giuristi, il dramma di Karel Čapek intitolato R.U.R. (Rossumovi univerzální roboti) da cui deriva la parola robot, la leggenda del Golem, il racconto dedicato alla creatura del dott. Frankenstein, il racconto “Do Androids Dream of Electric Sheep?” di Philip K. Dick e del film Blade Runner, i racconti dedicati ai robot positronici di Asimov. Per quanto riguarda quest’ultimo esempio, osservo sempre con stupore che alle tre leggi della robotica di Asimov (che negli ultimi racconti diventano quattro) si fa spesso riferimento come esempio di regolamentazione fondamentale per le macchine intelligenti. Credo che pochi si siano posti il problema della possibilità di tradurre le leggi della robotica in un software. In effetti, non solo è praticamente impossibile tradurre in stringhe di codice un enunciato come la Prima Legge della Robotica (“Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno”: come definiamo danno? Serve un uomo per capirlo…), ma è anche difficile considerare chiaro quel precetto nel caso in cui debba orientare la condotta di un essere umano. Poniamo il caso che una persona stia per morire a causa di un tumore che gli provoca dolori insopportabili e che esprima la volontà di morire, senza tuttavia essere in grado di suicidarsi da solo; aiutarlo a morire equivale ad arrecargli un danno o è un’azione eticamente giusta?
A mio modo di vedere, è chiaro che le tre leggi della robotica sono solo uno strumento per creare un racconto secondo uno schema tipico e seriale, così articolato 1) enunciazione delle tre leggi 2) descrizione di un evento che vede un robot violare una delle tre leggi 3) ricerca dei motivi che hanno reso possibile al robot di violare una delle leggi 4) identificazione del motivo e soluzione del problema (l’Uomo trova sempre una soluzione ai problemi, ma solo nei racconti, non nella realtà).
Isac Asimov ha anche scritto un racconto lungo, L’uomo bicentenario, in cui un robot vuole essere legalmente riconosciuto come umano (dal racconto è stato tratto un film con protagonista Robin Williams).
[12] Shawn Bayern, Autonomous Organizations, Cambridge University Press, 2021. Shawn Bayern è Larry and Joyce Beltz Professor al Florida State University College of Law e prima di iniziare la propria carriera di giurista ha partecipato allo sviluppo di alcuni software largamente usati e scritto alcuni libri sulla programmazione dei computer.
[13] A scanso di equivoci, preciso che la Autonomus Organization di cui parla Shawn Bayern è qualcosa di diverso da The DAO, la start-up lanciata nell’aprile del 2016 e che ha cessato la propria attività dopo che alcuni hacker, approfittando di una vulnerabilità del codice dello smart contract su cui si basava, hanno sottratto ethereum per un importo che (ai valori attuali) corrispondono a circa 7,3 miliardi di dollari. Per ulteriori informazioni sulla vicenda https://en.wikipedia.org/wiki/The_DAO
[14] Bayern, op.cit. pag. 4.
[15] Per evitare problemi del genere si potrebbe ricorrere ad un guardiano del trust (trust protector), ma si può immaginare che il disponente desideri ricorrere ad un agente artificiale non soggetto a corruzione.
[16] Una definizione abbastanza generale di algoritmo è “una sequenza finita di passi che specificano le operazioni necessarie per risolvere un problema” (o fare qualcosa). Anche una ricetta di cucina può essere considerata un algoritmo, ma naturalmente il concetto è proprio della matematica e dell’informatica.
[17] Riporto un esempio tratto dal libro di Bayern: “Seller shall supply buyer with 500,000 sporks, provided that seller has access to that many sporks on July 2 in the usual course of its business,” può essere espresso (in a Javaish language, in un linguaggio simulato simile a Java) con
if (adequateSupply( ))
sellerObligation = true;
[18] Il mondo è già popolato da algoritmi che compiono attività che corrispondono a stipulare contratti, incassare somme di denaro, fornire un bene: quando compriamo un e-book stipuliamo un contratto e otteniamo quel bene (in realtà non compriamo l’e-book, paghiamo per una licenza d’uso) senza avere alcun contatto con un essere umano. Si può immaginare una casa editrice completamente autonoma dagli esseri umani, che opera solo su Internet e pubblica testi creati da un’Intelligenza Artificiale generativa.
[19] La Limited Liability Company, introdotta negli Stati Uniti nel 1977 (inizialmente nello stato del Wyoming), è assimilabile alla nostra società a responsabilità limitata. Un operating agreement è un accordo che regola l’amministrazione e la gestione della LLC, i rapporti tra i membri della LLC e tra membri e LLC.
[20] Bayern, op. cit. pag 47.
[21] In fondo, chi, se non uno scrittore di fantascienza, può preoccuparsi della volontà di due entità artificiali, società per azioni o robot che siano, di sposarsi? Sono questioni fondamentalmente prive di senso, possono essere spunti narrativi, niente di più. E per quanto riguarda i robot, quando uno di essi esprimerà il desiderio di volersi sposare, bene, allora forse si potrà prendere in considerazione il problema; per il momento simili questioni possono essere trascurate, senza timore di ferire i sentimenti di un povero robot ;).
[22] Le Limited Liability Corporation si dividono in member-managed LLC e manager-managed LLC: le prime sono amministrate e gestite dai membri, le seconde da amministratori appositamente nominati.
[23] Non va dimenticato che gli Stati Uniti sono uno stato federale; ogni stato può regolare in modo diverso alcuni aspetti delle LLC.
[24] Il termine inglese usato è dissociates; ho tradotto con recede, che è un termine usato in Italia, con l’avvertenza che in diversi sistemi giuridici il significato esatto può non essere interamente traducibile. In effetti, il recesso non equivale alla dissociation perché il dissociated member pur non partecipando alla gestione della società, non avendo alcun diritto di voto o di partecipare ad assemblee di soci e potendo anche intraprendere iniziative imprenditoriali in concorrenza con la LLC, conserva alcuni diritti (ad es. ha diritto agli utili).
[25] La LLC, se non diversamente stabilito nell’operating agreement, dura in perpetuo.
[26] § 701(a)(3) dell’Unified Limited Liability Company Act del 2006 nell’ultima revisione del 2013 (RULLCA), il quale dispone che “a limited liability company is dissolved, and its activities must be wound up, upon […] the passage of 90 consecutive days during which the company has no members”. Sul carattere derogabile di questa disposizione si veda la nota che segue.
[27] Il commento recita “Except for Paragraphs (a)(4) and (5), this section comprises default rules. Paragraph 5 is fully mandatory, Section 105(c)(3)(B); Paragraph 4 is mandatory only with regard to the stated grounds for dissolution. See the comment to Section 105(c)(9). Moreover, an operating agreement can provide additional causes of dissolution. See Subsection (a)(1). Variations to the statutory causes of dissolution are commonplace”.
Quindi la disposizione di cui al § 701(a)(3) è derogabile. La New York Limited Liability Company Law stabilisce che:
“§ 701. Dissolution. (a) A limited liability company is dissolved and its affairs shall be wound up upon the first to occur of the following:
…
(4) at any time there are no members, provided that, unless otherwise provided in the operating agreement…”: quindi se non ci sono membri la LLC si scioglie, ma l’operating agreement può prevede che la LLC non si sciolga.
[28] E’ il caso di precisare che il RULLCA è uno “uniform act” predisposto dalla Uniform Law Commission: questo vuol dire che non è una legge immediatamente vigente nei vari stati che compongono gli USA e che ogni stato può apportare modifiche al testo suggerito dalla Uniform Law Commission o decidere di non legiferare sulle LLC.
[29] New York LLC Law § 701(a)(1)(4).
[30] Bayern, op cit. pag. 65.
[31] Si veda ad esempio il Code of Virginia, § 13.1-1038.1(a)(3), che recita: “In the case of a limited liability company that has no members as of the commencement of its existence under § 13.1-1004…”. Come si vede, è proprio previsto che sia possibile creare una LLC che rimane “sullo scaffale” (on the shelf – da qui il nome shelf-company) in esposizione fino a quando qualcuno non la acquista.
[32] Nei confronti delle tesi di Shawn Bayern, in Italia ha espresso un atteggiamento critico Ferruccio Maria Sbarbaro, Algoritmi, intelligenza artificiale e personalità giuridica: prime note sul recente dibattito in tema di Autonomous Entity, in Il Nuovo Diritto delle Società, fascicolo 7/2020, pag. 885 e segg.
[33] Vermont Senate Bill 269 (SB 269) intitolato “An Act Related to Blockchain Business Development”. La legge ha introdotto la possibilità di creare una Limited Liability Company governata con i meccanismi di una blokchain rd è del 2018, ma non parla esplicitamente di Digital Autonomous Organization (DAO). Per questo motivo a volte viene indicato il Wyoming come primo stato ad aver introdotto le DAO LLC.
[34] Wyoming Statutes, Title 17, Chapter 31
[35] Tenn. Code. Ann 48-250-101 et seq.; HB 2645, reperibile al link https://www.tba.org/docDownload/1943411
[36] Utah Code – Title 48 Unincorporated Business Entity Act – Chapter 5 Decentralized Autonomous Organization Act
[37] Quella del New Hampshire dovrebbe essere la legislazione più avanzata ed è stata firmata dal governatore dello stato da poco tempo, il 26 luglio del 2024. Cfr. CHAPTER 263 HB 645-FN – FINAL VERSION al link https://gencourt.state.nh.us/bill_status/billinfo.aspx?id=566&inflect=2
[38] Cfr. link https://podcast.citydao.io/introduction-to-citydao-and-the-citydao-podcast-with-oisin-lyons/ oppure il link https://www.belfercenter.org/sites/default/files/2024-08/CaseStudy_TAPP_CityDAO_Helena_Rong.pdf
[39] Riporto, a titolo di mera curiosità, che ad un robot è stata riconosciuta la cittadinanza saudita. Si tratta del robot chiamato Sophie, prodotto dalla Hanson Robotics Limited. Naturalmente si è trattato solo di una mossa pubblicitaria, e le prestazioni di Sophie (creata nel 2017) non sono in alcun modo paragonabili a quelle dei nuovi sistemi di Intelligenza Artificiale generativa basati su Large Language Model.
[40] L’essere senziente, la capacità di provare sensazioni ed emozioni come quelle di un essere umano, la coscienza di sé.
[41] Kagan, Brett J., et al. “In vitro neurons learn and exhibit sentience when embodied in a simulated game-world.” https://doi.org/10.1016/j.neuron.2022.09.001 Critiche contro l’articolo di Kagan sono riportate in Fuat Balci et al. “A response to claims of emergent intelligence and sentience in a dish”, https://doi.org/10.1016/j.neuron.2023.02.009