La regolamentazione del settore dell’intelligenza artificiale nella prospettiva europea

999 views 6:39 pm 0 Comments Dicembre 28, 2024

Diego Brancia*

Alla fine del 2017 si è consumata una rivoluzione silenziosa[1].

Alpha Zero, un algoritmo di machine learning elaborato da Google DeepMind, ha sconfitto Stockfisch2, fino a quel momento il programma di scacchi più potente al mondo. Il successo di AlphaZero3 è stato schiacciante: ha vinto ventotto partite, ne ha pareggiate settantadue e non ne ha persa nemmeno una.

L’anno seguente ha confermato la propria supremazia: su mille partite contro Stockfisch, AlphaZero ne ha vinte centocinquantacinque e perse sei, mentre le restanti si sono concluse con un pareggio. Lo stile di gioco di AlphaZero era esclusivamente il frutto di un addestramento dell’intelligenza artificiale: i suoi creatori gli avevano fornito le regole degli scacchi impartendo l’istruzione di sviluppare una strategia per ottenere il massimo numero di vittorie e ridurre quello delle sconfitte.

Dopo appena quattro ore di allenamento in partite giocate contro se stesso, Alphazero si è imposto come il miglior programma di scacchi al mondo.

All’inizio del 2020 i ricercatori del Massachusetts Institute of Tecnology (MIT)[4] annunciarono la scoperta di un nuovo antibiotico capace di uccidere ceppi di batteri che, fino a quel momento, si erano dimostrati resistenti a qualsiasi antibiotico già noto. Il lavoro ordinario di ricerca e sviluppo di nuovi farmaci richiede anni di costoso e faticoso impegno: i ricercatori, di regola, iniziano con migliaia di possibili molecole e, attraverso esperimenti e ipotesi, riducono la lista a un esiguo numero di candidati efficaci. I ricercatori elaborano ipotesi tra migliaia di molecole o lavorano su molecole già note, sperando in un colpo di fortuna con l’introduzione di piccole modifiche nella struttura molecolare di un farmaco già esistente.
Il MIT decise di procedere diversamente: invitò l’intelligenza artificiale a partecipare al processo di sviluppo. Innanzitutto, i ricercatori elaborarono un “set di addestramento” formato da duemila molecole note, nel quale erano inseriti diversi dati su ciascuna di esse, che includevano il peso atomico, i tipi di legami contenuti e la capacità di inibire la crescita batterica. Da questo set l’intelligenza artificiale “apprese” le caratteristiche delle molecole ritenute capaci di avere funzioni antibatteriche. Curiosamente, l’IA individuò caratteristiche che non erano state specificamente inserite tra i dati; anzi, caratteristiche che erano sfuggite alla concettualizzazione e alla classificazione degli esseri umani.
Una volta completato l’addestramento, i ricercatori impartirono all’IA l’ordine di esaminare un corpus di 61mila molecole, farmaci approvati dalla Food and Drug Administration degli Stati Uniti[5]. Delle 61mila molecole, soltanto una risultò soddisfare i criteri previsti. I ricercatori la chiamarono “halicina”[6], alludendo al computer Hal del film 2001: Odissea nello spazio.

I direttori del progetto del MIT dissero chiaramente che arrivare all’halicina attraverso i tradizionali metodi di ricerca e sviluppo sarebbe stato “proibitivamente costoso”, vale a dire che non si sarebbe giunti affatto. L’halicina fu un trionfo. In confronto al gioco degli scacchi, il settore farmaceutico è estremamente più complesso. Negli scacchi ci sono soltanto sei tipi di pezzi – ognuno dei quali può muoversi solo in un determinato modo – e c’è un’unica possibilità di vittoria: abbattere il re avversario.
Al contrario, il campione di studio di un potenziale candidato per una medicina contiene centinaia di migliaia di molecole che possono interagire con le varie funzioni biologiche di virus e batteri in modi molteplici e spesso ignoti. Dopo avere studiato poche migliaia di casi con esito positivo, l’IA è riuscita a riportare un’inedita vittoria – un nuovo antibiotico – che nessun essere umano, almeno fino a quel momento, aveva saputo individuare.
La vittoria di AlphaZero, la scoperta dell’halicina e il testo simil-umano generato da GPT-3[7] sono i primi passi non soltanto per la elaborazione di nuove strategie, la scoperta di nuovi farmaci o la produzione di un nuovo testo (per quanto sensazionali possano essere queste imprese), ma anche per il disvelamento di aspetti della realtà precedentemente impercettibili, ma potenzialmente vitali.

In ciascun caso i ricercatori hanno creato un programma, gli hanno assegnato un obiettivo (vincere una partita, uccidere un batterio, scrivere un testo in risposta ad uno stimolo) e gli hanno concesso un lasso di tempo – breve in rapporto allo standard delle capacità umane di apprendimento – per addestrarsi.
Alla fine di questo periodo, ciascun programma aveva raggiunto una padronanza del proprio tema in modo diverso dagli esseri umani. In alcuni casi ha ottenuto risultati che oltrepassavano la capacità di calcolo della mente umana, almeno quella di una mente operante entro un inquadramento temporale prestabilito. In altri termini ha conseguito risultati utilizzando metodi che gli esseri umani possono, retrospettivamente, studiare e comprendere. In altri ancora, gli esseri umani rimangono fino a oggi incerti su come il programma abbia raggiunto il proprio obiettivo.

**********

Oggi, la fine parziale della presunta superiorità della ragione umana, insieme alla proliferazione delle macchine capaci di stare al passo con l’intelligenza umana, o addirittura di superarla, preannuncia trasformazioni potenzialmente più profonde di quelle promosse dall’illuminismo. Anche se i progressi nell’intelligenza artificiale non producono l’intelligenza artificiale generale (AGI) – vale a dire un software capace di svolgere, a un grado di livello umano, qualsiasi compito intellettuale e altresì capace di connettere compiti e concetti entro diverse discipline – l’avvento dell’intelligenza artificiale muterà la concezione che l’umanità ha della realtà quindi di se stessa.
Stiamo procedendo verso grandi imprese, ma tali imprese dovrebbero spingerci a una riflessione filosofica. Quattro secoli dopo la massima pronunciata da Cartesio, all’orizzonte si profila una nuova domanda: se l’intelligenza artificiale “pensa”, o si avvicina al pensiero, chi siamo noi?
L’intelligenza artificiale inaugurerà un mondo in cui le decisioni saranno prese in tre modi principali: dagli esseri umani (aspetto già familiare), dalle macchine (aspetto che sta diventando familiare), dalle macchine (aspetto che sta diventando familiare) e da una collaborazione tra esseri umani e macchine (aspetto non soltanto inconsueto, ma anche senza precedenti).

Nella vita quotidiana l’intelligenza artificiale è una compagna che ci aiuta a decidere cosa mangiare, cosa indossare, in cosa credere, dove andare e come arrivarci. Sebbene sia in grado di trarre conclusioni, fare previsioni e prendere decisioni, l’intelligenza artificiale non possiede la consapevolezza di se stessa ovvero, in altre parole, la capacità di riflettere sul proprio ruolo nel mondo. E’ priva di intenzioni, motivazioni, moralità o emozioni ma, anche senza queste qualità, è probabile che sviluppi mezzi diversi e inattesi di raggiungere gli obiettivi che le sono assegnati. Inevitabilmente, trasformerà gli esseri umani e l’ambiente in cui vivono. Ora, mentre crescono o si addestrano insieme a essa, gli individui potrebbero avere la tentazione, anche inconscia, di antropomorfizzarla e trattarla come un proprio simile.
Aiutata dai progressi e dal crescente uso dell’intelligenza artificiale, la mente umana sta aprendo il proprio sguardo su nuovi panorami, che rendono a portata di mano obiettivi precedentemente irraggiungibili. Tra questi figurano modelli per prevedere disastri naturali e mitigarne l’effetto, una più profonda conoscenza della matematica e una più completa comprensione dell’universo.
Tuttavia, queste e altre possibilità vengono acquisite – in larga misura senza squilli di tromba – alterando il rapporto degli esseri umani con la ragione e la realtà. Si tratta di una rivoluzione di fronte alla quale i nostri concetti filosofici e le nostre istituzioni sociali ci lasciano in gran parte impreparati.

L’intelligenza artificiale e l’identità umana

In un’epoca in cui le macchine svolgono, in misura sempre maggiore, compiti di cui un tempo soltanto gli esseri umani erano in grado di occuparsi, che cosa costituirà la nostra identità[8]?
L’intelligenza artificiale espanderà i confini di ciò che sappiamo della realtà. Cambierà il modo in cui comunichiamo, facciamo rete e condividiamo informazioni. Trasformerà le dottrine e le strategie che sviluppiamo e mettiamo in pratica. Ora che non esploriamo e plasmiamo più la realtà da soli, ma arruoliamo l’intelligenza artificiale come appendice aggiuntiva per le nostre percezioni e i nostri pensieri, come percepiremo noi stessi ed il nostro ruolo nel mondo? Come riconcilieremo l’IA con concetti quali l’autonomia e la dignità umana?
Nelle epoche precedenti gli esseri umani si sono collocati al centro della storia. Sebbene riconosca l’imperfezione umana, la maggior parte delle società ha ritenuto che le capacità e le esperienze umane rappresentino il culmine di ciò che gli esseri mortali possono aspirare a raggiungere nel mondo. Anzi, ha celebrato gli individui che hanno incarnato i vertici dello spirito umano, esemplificando il modo in cui desideriamo vederci. Questi eroi sono cambiati a seconda delle società e delle epoche – condottieri, esploratori, inventori, martiri – ma hanno tutti impersonato qualche aspetto delle realizzazioni umane e, in tal modo, della specificità umana. Nell’epoca moderna, la nostra venerazione degli eroi si è concentrata su pionieristici promotori della ragione – astronauti, inventori, imprenditori, leader politici – che esplorano e organizzano la nostra realtà.
Con l’affermazione dell’intelligenza artificiale, le definizioni del ruolo umano, dell’aspirazione umana e delle realizzazioni umane cambieranno. La ragione non ha soltanto rivoluzionato le scienze, ma anche mutato la nostra vita sociale, le nostre arti e la nostra fede.

Sottoposta al suo esame critico, la gerarchia del feudalesimo si frantumò e la democrazia, ossia l’idea che le persone capaci di ragionare dovevano assumere il controllo della propria forma di governo, si affermò. Ora l’intelligenza artificiale metterà ancora alla prova i principi su cui poggia la nostra comprensione di noi stessi. In un’epoca in cui la realtà può essere prevista, approssimata e simulata da un’intelligenza artificiale capace di valutare che cosa sia rilevante per la nostra vita, di prevedere cosa accadrà e di decidere cosa fare, il ruolo della ragione umana è destinato a cambiare. Insieme a esso, cambierà anche la nostra percezione degli obiettivi individuali e sociali. In alcuni settori, l’intelligenza artificiale può aumentare la forza della ragione umana.
Nell’era dell’intelligenza artificiale la ragione e la fede tradizionali continueranno ad esistere, ma la loro natura e la loro portata sono destinate ad essere profondamente influenzate dall’introduzione di una nuova, potente e meccanizzata forma di logica. L’identità umana può continuare a poggiare sul vertice di una intelligenza animata e vivente, ma la ragione umana cesserà di costituire l’intero ambito dell’intelligenza che lavora per comprendere la realtà.

L’evoluzione legislativa. Disposizioni e delega al Governo in materia di intelligenza artificiale.

Fino a pochi anni fa, l’espressione intelligenza artificiale[9] richiamava immagini spaventose, lontane nel tempo e confinate alle trame di film fantascientifici come Blade Runner di Scott o Odissea nello spazio di Kubrick, oggi non è più così. L’intelligenza artificiale – al centro di una rivoluzione unica nell’era moderna- è entrata in modo capillare nella vita di ciascuno di noi, arrivando ad incidere su quasi ogni aspetto del nostro vivere sociale.
La portata e la pervasività del fenomeno, unitamente ai rischi che lo stesso comporta – specie rispetto a determinati ambiti applicativi[10] – hanno indotto,nell’ultimo decennio, numerose organizzazioni, governative e non governative, ad adoperarsi per tracciare “coordinate” normative e para-normative in grado di disciplinare il comportamento degli sviluppatori nel campo dell’intelligenza artificiale.
La corsa alla regolamentazione è iniziata con l’individuazione – per mezzo di atti  di soft law – di principi etici e linee guida volti a fissare regole minime suscettibili di orientare il comportamento di sviluppatori, produttori e utenti ed accrescere il livello di fiducia dei cittadini verso le tecnologie di AI, ed è proseguita con la fissazione di veri e propri obblighi giuridicamente vincolanti.
In ordine cronologico, la prima iniziativa para-normativa in materia è probabilmente la Dichiarazione di Asilomar – redatta all’esito dell’omonima conferenza sui benefici dell’AI, organizzata dal Future of Life Institute e tenutasi dal 5 all’8 gennaio 2017 – alla cui redazione hanno partecipato ricercatori in materia di AI e robotica, nonché esperti di tecnologia e studiosi di diritto, provenienti da università e organizzazioni internazionali[11]. La dichiarazione si compone di 23 raccomandazioni, divise in tre settori: ricerca; etica e valori; problemi a lungo termine.
Tra i principi cristallizzati nel documento, spiccano, tra gli altri, quello di trasparenza per i sistemi algoritmici impiegati nell’assunzione di una decisione giudiziaria e quello di compatibilità dei sistemi di AI con i diritti fondamentali: principi che numerose iniziative regolatorie successive hanno ripreso ed approfondito.
Tra gli atti di soft-law intervenuti negli ultimi anni non si contano, poi, le linee guida in materia di AI adottate, a livello nazionale e non, da Stati ed organizzazioni sovranazionali.
Tra le molteplici iniziative para-normative, promosse nel corso di questi anni, quella che ha avuto maggior risonanza ed impatto, a livello europeo ed internazionale, è senza dubbio la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, redatta dalla Commissione Europea per l’Efficienza della Giustizia (CEPEJ) e approvata dal Consiglio d’Europa il 3 dicembre 2018[12]. L’atto ha il dichiarato obiettivo “di incoraggiare l’impiego delle AI nel settore giustizia per migliorane la qualità e l’efficienza e sottolineare il ‘ruolo essenziale che i diritti fondamentali, già elaborati all’interno del Consiglio d’Europa devono giocare, come cornice imprescindibile nell’incontro tra i due mondi, delle scienze dure e delle scienze sociali, apparentemente inconciliabili’.  

Rivolgendosi agli ‘attori pubblici e privati incaricati di creare e lanciare strumenti e servizi di intelligenza artificiale relativi al trattamento di decisioni e dati giudiziari’ ed ai legislatori chiamati a delineare la cornice normativa entro la quale sviluppare ed utilizzare tali strumenti”, la Carta propone cinque principi etici destinati a fungere da paradigma per la produzione e l’implementazione dei tools algoritmici, oltreché per la futura attività di regolamentazione del settore.
Nella sua seconda Appendice – incentrata sulla valutazione dei possibili impieghi dell’AI nei sistemi giudiziari europei – il documento incentiva, inoltre, in misura variabile l’applicazione dei diversi applicativi algoritmici in base al loro livello di aderenza ai cinque principi etici sanciti. La carta distingue, in particolare, tra: utilizzi che devono essere incoraggiati, quali, ad esempio, la valorizzazione del patrimonio giurisprudenziale; utilizzi possibili che esigono però notevoli precauzioni metodologiche, come gli strumenti di supporto alle misure di risoluzione alternativa delle controversie in materia civile; utilizzi da esaminare al termine di supplementari studi scientifici. tra cui sono incluse la profilazione dei magistrati e la giustizia predittiva; e utilizzi da esaminare con le più estreme riserve, come, ad esempio, l’utilizzo in materia penale di algoritmi per la profilazione degli individui.
Pur trattandosi di un tipico atto di soft law, sprovvisto di efficacia vincolante e con un ambito applicativo circoscritto agli strumenti di AI utilizzati (melius utilizzabili) nei sistemi giudiziari, la Carta etica ha avuto un effetto pervasivo a livello globale. I principi sanciti dalla CEPEJ e, più in generale, l’invito contenuto nel documento a fare dei diritti fondamentali la cornice entro cui sviluppare la regolamentazione del settore dell’AI sono stati ripresi da più parti. Oltreoceano, la Carta etica del 2018 ha contribuito all’adozione dell’AI Bill of Rights statunitense – documento non vincolante che indica i principi cui dovrebbero essere orientati lo sviluppo e l’utilizzo dei sistemi algoritmici, affinché possa essere assicurata la protezione dei cittadini americani[13].

A livello europeo, la Carta ha ispirato due importantissimi documenti: la Convenzione quadro sull’Intelligenza Artificiale e i diritti umani, la democrazia e lo stato di diritto, adottata sempre dal Consiglio d’Europa il 17 maggio 2024, il cui scopo è garantire che, nel contesto internazionale, le attività ricomprese nell’intero ciclo di vita dei sistemi di AI siano rispettose dei suddetti valori, e Il recentissimo Reg. UE 2024/1689 del 13 giugno 2024 in materia di intelligenza artificiale, anche noto come AI Act. Quest’ultimo – punto di arrivo di una serie di precedenti iniziative di soft law promosse dall’Unione Europea – rappresenta il primo atto legislativo al mondo che disciplina il settore dell’AI, promuovendo lo sviluppo e l’utilizzo di tools algoritmici sicuri ed affidabili all’interno del mercato unico europeo.
Il Regolamento classifica i sistemi di AI in base al rischio di impatto “negativo” sui diritti fondamentali. In particolare, l’atto distingue tra: prodotti a rischio basso o minimo; prodotti a rischio alto; prodotti a rischio inaccettabile, il cui uso è dunque vietato; e prodotti che presentano un rischio specifico in punto di trasparenza. L’inquadramento nell’una o nell’altra classe di rischio dipende dalla funzione e dallo scopo specifico del tool, nonché dalle sue modalità di utilizzo.
Dall’inserimento in una categoria o in un’altra consegue una regolamentazione differenziata, con obblighi e/o divieti specifici in capo a produttori e sviluppatori, specie in punto di qualità dei dati, trasparenza, e gestione del rischio.
In estrema sintesi, l’atto euro-unitario mira a prevenire la lesione dei diritti fondamentali da parte degli applicativi di AI, responsabilizzando gli operatori del settore ed imponendo loro standard di trasparenza, qualità, affidabilità e sicurezza, modulati a seconda della categoria di rischio cui il tool appartiene.
Pertanto, secondo tale impostazione, la classificazione in termini di sistema ad alto rischio assicura livelli di accuratezza, affidabilità e trasparenza tali da incrementare la fiducia dei cittadini.
In questa cornice, gli Stati membri stanno iniziando ad adoperarsi per dare attuazione alle disposizioni programmatiche dell’AI Act e, più in generale, per adeguare la loro legislazione a tutti quegli adempimenti che il Regolamento richiede ai singoli Stati[14].

L’Italia è stata uno dei primi paesi europei ad attivarsi in questo senso ed il 20 maggio 2024 ha sottoposto all’iter di approvazione parlamentare il disegno di legge (di seguito anche d.d.l.) n. 1146 rubricato “Disposizioni e delega al Governo in materia di intelligenza artificiale”, il cui obiettivo è “di operare un bilanciamento tra le opportunità e i rischi” insiti nella moderna era dell’intelligenza artificiale, accompagnando “il quadro regolatorio [europeo] in quegli spazi propri del diritto interno[15]”.
Il disegno di legge recentemente presentato al Senato – composto da ventisei articoli, suddivisi in sei capi – promuove un utilizzo responsabile dell’intelligenza artificiale ponendo, in linea con le iniziative europee, l’uomo ed il rispetto dei diritti fondamentali al centro del sistema, e caldeggiando il controllo sui rischi economici e, soprattutto, sociali posti dall’avvento dell’AI.
Dopo aver fornito le definizioni dei principali termini utilizzati nel testo, il disegno di legge declina i principi generali che – come si legge nella relazione di accompagnamento – costituiscono il “fondamento delle ulteriori disposizioni di dettaglio”. Con l’individuazione di tali “capisaldi” il testo normativo, in particolare, assicura: l’impiego equo e corretto degli algoritmi; la qualità, la sicurezza e la protezione dei dati utilizzati e dei processi con cui gli stessi vengono trattati ed elaborati dai sistemi di AI; la sostenibilità digitale. A questi fini, il disegno di legge prescrive che:
la ricerca, lo sviluppo, la sperimentazione, l’adozione e l’applicazione dei tools algoritmici avvengano nel rispetto dei diritti e delle libertà fondamentali della persona riconosciuti dalla Costituzione e dall’Unione Europea, nonché dei principi di “trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità” (art. 3, comma 1);
“Lo sviluppo di sistemi e di modelli di intelligenza artificiale [si articola] su dati e tramite processi di cui deve essere garantita e vigilata la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il principio di proporzionalità in relazione ai settori nei quali sono utilizzati” (art. 3, comma 2); lo sviluppo e l’applicazione dei sistemi di AI siano rispettosi “dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità e dei principi di cui al comma 1” (art. 3, comma 3), senza pregiudizio per la vita democratica del Paese e delle istituzioni (art. 3, comma 4).
Nel prosieguo, il testo declina i suddetti principi generali con riguardo agli ambiti applicativi che, in base alla valutazione governativa, risultano maggiormente esposti alle opportunità ed ai pericoli derivati dallo sviluppo dell’AI, quali: le comunicazioni (art. 4); il settore produttivo (art. 5); la sicurezza e la difesa nazionali (art. 6).
I principi individuati dal disegno di legge presentato in Parlamento ripropongono l’impianto del già citato Reg. UE 2024/1689, il quale richiede il rispetto dei diritti e delle libertà fondamentali, nonché dei principi di sicurezza, trasparenza e spiegabilità dei dati e dei sistemi di AI.

Le disposizioni di settore

Il Capo II del disegno di legge (artt. 7 – 16) regolamenta, invece, lo sviluppo e l’impiego di tecnologie algoritmiche nei c.d. settori strategici, ovvero: ambito sanitario e delle disabilità (artt. 7, 8 e 9); lavoro (artt. 10, 11 e 12); pubblica amministrazione (art. 13); attività giudiziaria (artt. 14 e 15); cybersicurezza nazionale (art. 16).
Dalle disposizioni che compongono questo secondo capo emerge marcatamente l’approccio antropocentrico all’AI seguito dal disegno di legge e condiviso sia a livello europeo che internazionale. Con riferimento a ciascun settore strategico, in particolare, è previsto che il potere decisionale deve rimanere in capo all’uomo (medico, datore di lavoro o funzionario pubblico che sia) e così la responsabilità per le decisioni assunte: si parla in questi casi di human in command.
Rispetto all’ambito medico-sanitario il disegno di legge riconosce il diritto dell’interessato ad essere informato in merito al ricorso a strumenti di AI da parte degli operatori sanitari, prescrivendo altresì che il ricorso alle tecnologie algoritmiche, oltre a non dover determinare discriminazioni o restringimenti all’accesso alle cure, debba essere orientato al miglioramento delle condizioni di vita dei pazienti affetti da disabilità.
Sul fronte della ricerca e della sanità digitale si prevede, rispettivamente, la semplificazione degli adempimenti relativi alla protezione dei dati personali in punto di consenso ed informativa, strumentali a favorire la sperimentazione e l’implementazione di una piattaforma di intelligenza artificiale in grado di supportare le finalità di cura e, in particolare, l’assistenza territoriale.
Con riferimento al settore del lavoro, il disegno di legge richiede che gli algoritmi siano impiegati per migliorare le condizioni di lavoro, nel rispetto della dignità umana e dei principi di riservatezza, equità e non discriminazione. Analogamente, laddove nello svolgimento delle professioni intellettuali siano impiegati strumenti di intelligenza artificiale, il testo precisa che il pensiero critico umano dovrà sempre “avere la meglio” sulla macchina, che potrà dunque essere utilizzata solo a supporto dell’attività intellettuale.
Il disegno di legge promuove il ricorso agli strumenti di AI che possano favorire il buon andamento e l’efficienza dell’attività della pubblica amministrazione, ribadendo che dirigenti e funzionari amministrativi restano, in ogni caso, liberi di autodeterminarsi e, quindi, di discostarsi dai “suggerimenti” provenienti dalla macchina, e sono responsabili delle decisioni di volta in volta assunte nel rispetto del principio di autodeterminazione e della responsabilità dell’attore umano.
In senso non dissimile, nel settore della giustizia, il testo sottoposto all’iter di approvazione parlamentare ammette l’impiego di sistemi algoritmici esclusivamente per semplificare ed organizzare il lavoro giudiziario e per attività di supporto all’esercizio del potere giurisdizionale come, ad esempio, la ricerca giurisprudenziale.

Inoltre, considerate le peculiarità delle controversie connesse ai sistemi di intelligenza artificiale, l’art. 15 d.d.l. propone di devolvere alla competenza esclusiva del tribunale civile “le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale”. Infine, il disegno di legge stabilisce che la relativa Autorità nazionale sarà chiamata a promuovere iniziative volte a valorizzare l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale.

Il Capo III (artt. 17 – 22) del disegno di legge, – dedicato agli aspetti economico-istituzionali – dopo aver introdotto la “strategia nazionale per l’intelligenza artificiale”, ossia il documento che garantisce la collaborazione pubblico-privata in materia di AI ed averne chiarito le modalità di approvazione[16], individua le Autorità nazionali di settore. Contrariamente a quanto avvenuto in altri ordinamenti[17], il testo attualmente sottoposto all’iter di approvazione parlamentare non prevede la creazione di una o più agenzie ad hoc, ma affida a due preesistenti agenzie, l’AgID (Agenzia per l’Italia digitale) e l’ACN (Agenzia per la cybersicurezza nazionale), il compito di vigilare sull’attuazione della normativa italiana ed europea in materia di AI.

La scelta – seppur discutibile, considerata l’elevata specializzazione del settore – è coerente con la clausola di invarianza finanziaria di cui all’art. 26 d.d.l. (Capo VI) del disegno di legge, ai sensi del quale dall’attuazione della (futura) legge “non devono derivare nuovi o maggiori oneri a carico della finanza pubblica”, sicché le amministrazioni dovranno operare “con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente”.

 Sul fronte economico, il disegno di legge prevede uno stanziamento di 300.000 euro annui per il 2025 ed il 2026, da destinare a progetti sperimentali volti ad implementare l’uso di strumenti algoritmici nell’ambito dei servizi forniti a cittadini e imprese.  Il testo dispone anche l’adozione di un regime agevolato per favorire il rientro di lavoratori esperti nel campo delle tecnologie di intelligenza artificiale, predispone un piano didattico teso a promuovere la formazione di giovani meritevoli in tali materie e stabilisce una serie di investimenti nei settori dell’AI, della cybersicurezza e del calcolo quantistico, per un ammontare complessivo di un miliardo di euro, con l’obiettivo di favorire lo sviluppo ed il consolidamento di imprese di settore con sede legale ed operativa in Italia.

Infine, l’art. 22 del disegno di legge contiene una delega al Governo per adeguare la normativa nazionale al Regolamento euro-unitario 2024/1689 e a definire “organicamente la disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite”.

In base ai criteri di delega, in caso di approvazione senza modifiche del testo, il Governo sarà chiamato a:

– introdurre strumenti idonei ad inibire la diffusione e ad eliminare contenuti generati dall’AI in modo illecito e con essi un adeguato sistema di sanzioni;

– prevedere fattispecie di reato che puniscano, a titolo di dolo o di colpa, l’omessa adozione e il mancato adeguamento alle misure di sicurezza introdotte in materia di produzione, messa in circolazione ed utilizzo professionale dei tools algoritmici, nonché delitti tesi a tutelare quei beni giuridici che – in base alla valutazione del legislatore delegato – risultino particolarmente esposti al rischio di compromissione in ragione dell’utilizzo di sistemi di AI, laddove gli stessi non siano altrimenti tutelabili;

– inserire una circostanza aggravante speciale per i delitti puniti con una pena diversa dall’ergastolo, rispetto ai quali l’utilizzo di strumenti di AI incida “in termini di rilevante gravità sull’offesa al bene giuridico tutelato, includendovi i casi di offesa ai beni attinenti alla persona e allo Stato”;- revisionare la normativa sostanziale e processuale penale al fine di razionalizzare il sistema nel suo complesso.

Ad una prima lettura, il secondo ed il terzo criterio di delega appaiono vaghi ed indeterminati, lasciando al legislatore delegato ampio margine per l’individuazione rispettivamente dei beni giuridici particolarmente esposti al rischio di compromissione per via dell’impiego di tools algoritmici e delle fattispecie per cui introdurre la predetta circostanza aggravante speciale.

Il successivo Capo V del d.d.l., all’art. 25, contiene poi un diretto intervento in materia penale, mediante una serie di modifiche al codice e ad alcune leggi speciali. In particolare, il disegno di legge prevede l’introduzione di una nuova circostanza aggravante comune all’art. 61 c.p., ai sensi della quale l’aumento di pena dovrebbe operare per “avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”.

È poi contemplato l’inserimento di un nuovo art. 612-quater c.p., volto a sanzionare la condotta di diffusione, senza il consenso dell’interessato, di contenuti generati o manipolati artificialmente ove ciò arrechi un danno ingiusto alla persona.

Infine, il Capo IV del disegno detta disposizioni in materia di diritto d’autore, che promuovono l’introduzione di misure atte a favorire l’identificazione ed il riconoscimento dei tools algoritmici utilizzati nella creazione di contenuti testuali, audiovisivi, radiofonici e fotografici, a tutela degli utenti (i c.d. deepfake) e sollecitano le modifiche da apportare alla legge sul diritto d’autore con riferimento alle opere dell’ingegno create con il supporto di sistemi di AI.

Queste ultime disposizioni, che, allo stato, tutelano le forme dell’ingegno umano “anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell’autore”, sono già ora il frutto di un faticoso compromesso e, molto probabilmente saranno oggetto di modifiche in sede di discussione parlamentare.

Occorre ora soffermarsi sul disposto del citato art. 14 d.d.l., che regola l’uso dell’intelligenza artificiale nell’ambito dell’amministrazione della giustizia, settore come noto assai delicato e rispetto al quale le “nuove” tecnologie, oltre ad offrire grandi opportunità, pongono anche enormi rischi[18].

Sebbene, nel settore giustizia, l’art. 14, comma 1, d.d.l. circoscriva l’utilizzo dell’intelligenza artificiale a finalità di ricerca e semplificazione ed organizzazione del lavoro giudiziario, le potenzialità di impiego di queste nuove tecnologie restano piuttosto ampie.

Al fine di meglio inquadrare il rapporto tra intelligenza artificiale e amministrazione della giustizia delineato dal d.d.l. A.S. n. 1146, deve ora approfondirsi la relazione che intercorre tra i due commi dell’art. 14 d.d.l., in precedenza solo tratteggiata: più precisamente, ci si deve interrogare sulla portata della previsione secondo cui sono riservate al giudice-uomo le decisioni “sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e [più in generale] sulla adozione di ogni provvedimento”.

Ad una prima lettura, la norma sembra essere solo una precisazione di quanto disposto dal comma precedente. Se – come chiarito dall’art. 14, comma 1, d.d.l. – l’intelligenza artificiale può essere utilizzata “esclusivamente” per organizzare e semplificare il lavoro all’interno degli uffici giudiziari e per la ricerca giurisprudenziale e dottrinale, è gioco forza che sia rimessa al magistrato qualsivoglia decisione afferente al contenuto e all’adozione del provvedimento penale. In altri termini, se ai sensi del primo comma i tools algoritmici possono essere utilizzati “solo” per offrire al giudice un supporto nello svolgimento di attività materiali, precisare che spetti al magistrato decidere in ordine all’interpretazione della legge, alla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti giurisdizionali risulta del tutto superfluo.

Poiché tale interpretazione svuoterebbe di ogni significato l’art. 14, comma 2, d.d.l. ci si deve allora chiedere se la scelta di introdurre quella che potremmo definire come una riserva di “giurisdizione umana” non celi, in realtà, un significato più profondo. La previsione di cui all’art. 14, comma 2, d.d.l. si spiega solo ammettendo che all’autorità giudiziaria sia consentito avvalersi dell’ausilio di strumenti di intelligenza artificiale anche nello svolgimento dell’attività di ius dicere, a patto di lasciare al magistrato ogni decisione sull’adozione e sul contenuto dei provvedimenti giurisdizionali.

Questa interpretazione dell’art. 14, comma 2, d.d.l. potrebbe aprire ad un più largo impiego di tecnologie algoritmiche in ambito processuale. Si considerino, ad esempio, i risk assessment tools – ossia gli strumenti in grado di coadiuvare il giudice nella valutazione di pericolosità sociale del reo mediante la formulazione di una prognosi sul comportamento futuro del soggetto, al fine di individuare, a seconda della fase procedimentale, la misura (cautelare, di sicurezza o sanzionatoria) più adeguata. Si pensi ancora ai sistemi di predictive justice, che, attraverso l’analisi computazionale di decisioni giudiziarie passate, formulano previsioni sul possibile esito della causa.

Il tema, ampio e dibattuto, sull’utilizzo, e, soprattutto, sull’utilizzabilità, di tali strumenti di AI nel processo richiederebbe un approfondimento che trascende dalle finalità del presente contributo. In questa sede è sufficiente evidenziare come un impiego di tali sistemi algoritmici nel rispetto della riserva di “giurisdizione umana”, così come attualmente cristallizzata nell’art. 14, comma 2, d.d.l. è possibile.

Gli outputs resi, a seconda dei casi, dal risk assessment tool o dal predictive justice tool, infatti, potrebbero essere considerati dal giudice quali elementi ulteriori da prendere in considerazione al fine di decidere sulla pericolosità del reo o sulla questione sub iudice. Il prodotto algoritmico andrebbe cioè ad arricchire il patrimonio conoscitivo del magistrato, lasciandolo comunque nella posizione di human in command .

Una ricostruzione dell’art. 14, comma 2, d.d.l. nei termini anzidetti non sembra smentita, sul piano sistematico, dalla previsione di cui all’art. 12 d.d.l. che, pur circoscrivendo, nello svolgimento delle professioni intellettuali, il ricorso all’intelligenza artificiale ad “attività strumentali e di supporto”, richiedendo la “prevalenza del lavoro intellettuale”, non impone di relegare la macchina all’adempimento di soli compiti materiali.

Tale lettura risulterebbe inoltre coerente con l’impostazione adottata dai due principali provvedimenti europei in materia di intelligenza artificiale: la Carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti  connessi e il Reg. UE 2024/1689, il cui quadro regolatorio il disegno di legge intende accompagnare.

Come si è già avuto modo di osservare nel primo paragrafo, infatti, l’AI Act e la Carta etica europea mantengono un atteggiamento aperto e possibilista verso il ricorso all’intelligenza artificiale nel settore giustizia.

Nel caldeggiare, in misura differente, l’utilizzo dei diversi tools algoritmici nei sistemi giudiziari, infatti, la Carta adottata dal Consiglio d’Europa non chiude ad impieghi dell’AI che trascendono dal mero supporto ad attività di natura materiale, ma semplicemente li subordina ad ulteriori studi ed approfondimenti.

Infine, il d.d.l. contiene una regolamentazione dei rapporti tra amministrazione della giustizia e intelligenza artificiale non aderente al dettato euro-unitario e all’approccio seguito a livello internazionale, riflesso della paura e della diffidenza che il Governo – e così anche una buona parte della cittadinanza – ancora nutre nei confronti delle tecnologie algoritmiche.

In mancanza di modifiche sostanziali nel corso dell’iter di approvazione parlamentare, il rischio, per l’Italia, è quello di dotarsi di una legge inadeguata e anacronistica già al momento della sua entrata in vigore, potenzialmente in grado di aggravare il livello di arretratezza tecnologica della nazione.

*Avvocato del Foro di Vibo Valentia, redattore de Il Foro Vibonese

 

[1] L’era dell’intelligenza artificiale. Il futuro dell’identita umana (capitolo I – Dove siamo) Kissinger, Schimdt,

Huttenlocher – Mondadori Editore 2023

[2] AlphaZero è una generalizzazione di AlphaGo Zero, algoritmo per il gioco del go evoluzione di AlphaGo. Può essere applicato a una varietà di giochi da tavolo, ed è stato testato dagli autori nel gioco dello shōgi, degli scacchi e del go. Le principali differenze di AlphaZero rispetto al suo predecessore sono:

  • AlphaGo Zero usa tecniche di ottimizzazione bayesiana per il tuning dei parametri di ricerca in ogni singola partita, mentre AlphaZero usa parametri costanti nel corso di tutte le partite.
  • Nel training, le partite di AlphaGo Zero sono generate dalla migliore istanza (best player) ottenuta nel corso delle precedenti iterazioni, e dopo ogni iterazione la performance della nuova istanza e misurata contro il best player, sostituendolo se riesce a batterlo con un margine di almeno il 55%. AlphaZero usa invece una singola rete neurale che viene continuamente aggiornata, senza aspettare il termine di ogni iterazione.
  • Il go (a differerenza degli scacchi e dello shogi) è simmetrico per determinate riflessioni e rotazioni; AlphaGo Zero sfrutta le simmetrie sia in fase di training (eseguendo data augmentation tramite otto possibili rotazioni e riflessioni per ciascuna posizione), sia in fase di valutazione (applicando una simmetria casuale all’input prima di sottoporlo alla rete neurale, per cancellare in media il bias dovuto alla rotazione o riflessione). AlphaZero non può invece trarre vantaggio di tali soluzioni tecniche.
  • Una partita a scacchi (a diRerenza del go) può finire in parità (patta); mentre AlphaGo stima ed ottimizza la probabilità di vittoria, AlphaZero stima ed ottimizza il risultato atteso della partita (espresso in forma numerica).

[3] Stockfish è un motore scacchistico potente e ampiamente riconosciuto. Nel mondo degli scacchi, un motore si riferisce a un programma per computer che utilizza algoritmi e calcoli per analizzare e fare mosse su una scacchiera virtuale. Stockfish è rinomato per la sua eccezionale forza e le sue capacita strategiche, che lo rendono una delle scelte più popolari tra i giocatori di scacchi, sia dilettanti che professionisti.

[4] Il Massachusetts Institute of Technology (MIT) è una delle più importanti università di ricerca del mondo con sede a Cambridge, nel Massachusetts

[5] La Food and Drug Administration (“Agenzia per gli alimenti e i medicinali”, abbreviato in FDA) è l’agenzia federale statunitense che si occupa della regolamentazione dei prodotti alimentari e farmaceutici, dipendente dal Dipartimento della salute e dei servizi umani degli Stati Uniti d’America.

[6] È il primo antibiotico scoperto dall’AI all’inizio del decennio corrente e il cui nome e stato scelto in onore dell’elaboratore di “2001 Odissea nello Spazio” HAL 9000. Senza l’utilizzo di modelli umani infatti, gli studiosi hanno ricercato e identificato nuove molecole efficaci contro ceppi batterici che mostravano resistenza ai consueti antibiotici. Il motivo risiede nella loro particolare struttura chimica, assente nei precedenti farmaci. Gli scienziati hanno isolato nove composti, ma procedendo lo studio e stato incentrato unicamente sull’Halicina, poiche l’unica in grado di inibire, oltre alla proliferazione di Escherichia Coli e Clostridioides difficile, anche Mycobacterium tubercolosis e Acinetobacter baumannii (specie batteriche che, secondo la World Health Organization, necessitano maggiormente di terapie efficaci). L’Halicina presenta singolari gruppi funzionali per i quali la consideriamo un inibitore della chinasi c- Jun Nterminale “SU3327” (primo nome attribuito all’antibiotico in questione). Oltre ad aggredire gli agenti patogeni, impedisce loro i vari tentativi di polimorfismo quando questi, per difendersi, modificano le loro caratteristiche di membrana. “Il potere del machine learning nella chimica farmaceutica” – E.Guadalupi da Microbiologiaitalia.it

[7] GPT-3 è un modello di apprendimento automatico pre-addestrato sviluppato da OpenAI. È una rete neurale profonda che è stata addestrata su un enorme corpus di testo per prevedere la parola successiva in una frase. GPT-3 è stato sviluppato per sostituire i modelli di linguaggio precedenti, come GPT-2, che erano limitati nella loro capacita di comprendere il contesto. GPT-3 è un modello di apprendimento automatico che può essere utilizzato per compiti di elaborazione del linguaggio naturale, come la traduzione, la comprensione del testo, la generazione di testo e la classificazione del testo. GPT-3 è stato addestrato su un corpus di testo di oltre 45 miliardi di parole, il che lo rende uno dei modelli di apprendimento automatico più grandi e più accurati mai sviluppati. I suoi successori, GPT-3.5 e GPT-4, sono diventati i primi LLM (Large Language Model)che sono stati usati da grandi masse di utenti.

[8] L’era dell’intelligenza artificiale. Il futuro dell’identità umana (capitolo VI – L’intelligenza artificiale e l’identità umana) Kissinger, Schimdt, Huttenlocher – Mondadori Editore 2023

[9] L’espressione “intelligenza artificiale” e stata utilizzata per la prima volta nel corso del Convegno del 1956, organizzato presso il Darmounth College in New Hampshire, intitolato allo sviluppo delle c.d. macchine intelligenti e al quale presero parte nomi di primario rilievo nel neonato campo delle scienze computazionali, tra cui Minsky, Rochester, Shannon e lo stesso McCarthy.

[10] Tra i settori particolarmente esposti, solo per citarne alcuni, possono menzionarsi la sanita (su cui si rimanda, ex multis, a F. Lagioria, L’intelligenza artificiale in sanità: un’analisi giuridica, Torino, 2020; C. Mannelli, Etica e Intelligenza Artificiale. Il caso sanitario, Roma, 2022), il mercato del lavoro (su cui si vedano, tra gli altri, A. Aloisi – V. De Stefano, Your boss is an algorithm. Artificial Intelligence, Platform work and Labor, Londra, 2022; F.V. Ponte, Intelligenza Artificiale e lavoro, Torino, 2024), la pubblica amministrazione (in argomento si rimanda, tra gli altri, AA.VV., L’amministrazione pubblica nell’era digitale, a cura di A. Lalli, Torino, 2022; E. Belisario – G. Cassano, Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, 2023) o, ancora, l’amministrazione della giustizia (su cui si vedano, tra gli altri, AA.VV., La trasformazione digitale della giustizia nel dialogo tra discipline, a cura di M. Palmirani – S. Sapienza, Milano, 2023; AA.VV., Is law computable? Critical Perspectives on law and artificial intelligence, a cura di S. Deakin – C. Markou, Londra, 2022; AA.VV., Intelligenza artificiale e diritto: una rivoluzione?, a cura di A. Pajno – F. Donati – A. Perrucci, Vol. I, II, III, Bologna, 2022; AA.VV., XXVI lezioni di diritto dell’Intelligenza Artificiale, a cura di U. Ruffolo, Torino, 2021).

[11] Il documento è consultabile sul sito dell’istituto Future of Life, futureoflife.org.

[12] Il documento èconsultabile sul sito istituzionale del Consiglio d’Europa (coe.int). Per un commento della Carta si rimanda a S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta Etica Europea, gli spunti per un’urgente discussione tra scienze penali ed informatiche, in Legislazione Penale Web, 18 dicembre 2018.

[13] L’AI Bill of Rights è consultabile sul sito www.whitehouse.gov; per un primo commento si veda, tra gli altri, M.

Heikkila, The White House just unveiled a new AI Bill of Rights, in MIT Tech. rev., 4 ottobre 2022.

[14] L’atto legislativo che stabilisce regole armonizzate sull’intelligenza artificiale e modifica alcuni dei provvedimenti europei vigenti in materia, è stato pubblicato sulla Gazzetta Ufficiale dell’Unione Europea del 12 luglio 2024 ed è rintracciabile all’indirizzo eur-lex.europa.eu. Per un primo commento, volendo, si veda Barone G., Artificial Intelligence Act: un primo sguardo al Regolamento che verrà, in Cass. pen., 2024, fasc. 4, 1047-1062.

[15]La regolamentazione dell’intelligenza artificiale: è corsa agli armamenti. Giulia Barone – Diritto Penale e Processo 8/2024. WKI Editore

[16] Il riferimento è all’art. 17 del d.d.l. La strategia nazionale per l’intelligenza artificiale 2024-2026 è stata pubblicata lo scorso 22 luglio 2024 ed è consultabile sul sito istituzionale del Dipartimento per la trasformazione digitale al seguente link innovazione.gov.it

[17] Si pensi in particolare alla Spagna, che per prima in Europa (prima ancora dell’approvazione dell’AI Act) ha istituito un’agenzia per la governance dell’intelligenza artificiale; in argomento si veda A. Lombardi, La Spagna vara l’Agenzia per la supervisione dell’IA: poteri e obiettivi, in Agenda digitale, 5 settembre 2023.

[18] Sulle opportunità, le sfide, le problematiche e i dubbi che l’intelligenza artificiale applicata al settore giustizia pone, la letteratura è assai vasta; in argomento si vedano, ex multis, AA.VV., Intelligenza artificiale e processo penale. Indagini, prove, giudizio, a cura di G. Di Paolo – L. Pressacco, Napoli, 2022; AA.VV., Diritto penale e intelligenza artificiale. “Nuovi scenari”, a cura di G. Balbi – F. De Simone – A. Esposito – S. Manacorda, Torino, 2022; L. Di Matteo – C. Poncibo, The Cambridge handbook of Artificial Intelligence: global perspectives on law and ethics, Cambridge, 2022; F. Donati, Impieghi dell’Intelligenza Artificiale al servizio della giustizia. Tra rischi e opportunità, in AI Anthology. Profili giuridici, economici e sociali dell’intelligenza artificiale, a cura di G. Cerrina-Feroni – C. Fontana – E. RaRiotta, Bologna, 2022, 179 ss.; B. Indovina, Informatica, diritto, Intelligenza Artificiale, Milano, 2024

Tag: , ,

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *