Potenzialità e rischi dell’IA in relazione ai diritti della persona

41 views 3:50 pm 0 Comments Gennaio 1, 2026

 

Alberto Scerbo*

 

(Relazione tenuta nel corso del simposio ‘Le giornate della storia’, 5 dicembre 2025, Pizzo, Istituto Nautico)

 

Lo straordinario sviluppo della scienza, soprattutto nel corso del Novecento, ha conosciuto un’accelerazione che ha prodotto un’immediata ricaduta sul piano applicativo. In un testo di filosofia del diritto di Sergio Cotta, verso il 1968, viene messo in evidenza come questo tipo di sviluppo abbia determinato un impatto immediato: si è resa di fatto inscindibile la funzione tra scienza, tecnica e produzione, ossia attività produttiva e capacità di incidere anche sul piano economico.

Che cosa è cambiato, soprattutto negli ultimi anni? L’impatto delle nuove tecnologie è divenuto sempre più invasivo nella quotidianità e nell’esistenza umana, perché finisce per toccare in modo radicale e fondamentale tutti gli aspetti della vita. Viviamo immersi in una rete continua di connessioni tra oggetti di uso comune: il telefono, il computer, gli elettrodomestici. Qualsiasi strumento è ormai in connessione con altri strumenti, e il risultato è un flusso ininterrotto di dati che vengono raccolti, trasmessi, elaborati e implementati.

Si è così creato un fenomeno di “identificazione generale”, in cui i dati personali rappresentano ormai un numero sterminato di elementi che descrivono, in modo sempre più preciso, i comportamenti degli individui. A ciò si aggiungono le potenzialità oggi esistenti in altri campi, come l’intelligenza “simbiotica”: la capacità di interazione diretta tra uomo e macchina. Questa potrà avere un grande impatto nel migliorare la qualità della vita, ad esempio nei rapporti con persone affette da malattia o con problemi di mobilità, offrendo strumenti di ausilio e di compensazione. Ma, accanto ai vantaggi, emergono anche problemi, inclusi problemi di natura giuridica.

Pensiamo, ad esempio, alla costruzione del cosiddetto “metaverso”: una realtà virtuale, uno spazio cibernetico che amplifica l’esperienza digitale e che pretende di duplicare il mondo fisico, di creare avatar e “gemelli digitali” della persona. Qui i problemi sono già attuali sul piano giuridico. Ha ragione chi afferma che, in ultima analisi, tutti questi problemi “passano attraverso il diritto”, perché è il diritto che stabilisce le regole e deve disciplinare anche queste nuove fattispecie.

Si comincia a discutere, per esempio, se ciò che accade nello “spazio digitale” faccia o meno capo alla persona fisica: ciò che fa il gemello digitale è imputabile a noi? Qual è il rapporto tra identità reale e identità digitale ai fini della responsabilità? Sono questioni che si innestano quasi spontaneamente, mano a mano che le tecnologie si sviluppano.

L’intelligenza artificiale è ormai in grado di intervenire nella gestione ordinaria delle attività umane: nell’amministrazione, nel controllo del mondo del lavoro, nella selezione del personale, nell’uso di dati biometrici per assumere, licenziare o monitorare i lavoratori. Il cambiamento incide sulle fonti, sull’assetto dei poteri, sulle dinamiche processuali. Si discute da tempo di “giustizia predittiva”, cioè della possibilità che l’intelligenza artificiale contribuisca – o addirittura si sostituisca – alla decisione giudiziaria. Forse, per attività ripetitive e meramente automatizzabili, un certo uso potrà essere tollerato; ma immaginare un processo penale in cui sia un algoritmo a “pronunciare” la sentenza è prospettiva che suscita, giustamente, grandissime perplessità.

Tutto ciò ci impone di abbandonare la logica manichea dell’essere “pro” o “contro” l’innovazione. Si è creata una sorta di scontro “apocalittico” tra chi è favorevole alle novità senza misure e chi, al contrario, tende a respingerle in blocco. Questa impostazione è sterile: l’intelligenza artificiale e la rivoluzione digitale hanno portato e porteranno ulteriori miglioramenti, ma comportano anche rischi e pericoli. Non dobbiamo essere entusiasti senza limiti, né frenare in modo cieco.

Ne deriva una prima conclusione: i problemi posti dall’intelligenza artificiale non possono essere affrontati soltanto da un punto di vista tecnico. L’IA non è questione appannaggio esclusivo di tecnici e informatici. Incontri recenti con ingegneri e specialisti mostrano che sono spesso loro stessi a chiedere che vengano posti dei limiti, affermando: “ci rendiamo conto che c’è qualcosa che ci sfugge, siete voi giuristi e filosofi che dovete dirci quali confini non dobbiamo oltrepassare”. Lo sviluppo tecnico, dunque, va accompagnato e controllato.

Qui emerge l’importanza dell’approccio filosofico: si tratta di interrogarsi sul fondamento delle cose, sullo scopo, sul fine degli sviluppi scientifici e tecnologici. Molti tecnici si domandano oggi quale sia il fine ultimo di ciò che costruiscono. È precisamente su questa domanda – sul “perché” e sul “per chi” – che il diritto e la filosofia devono intervenire, per stabilire che cosa si può e che cosa non si deve fare.

Un altro mito da infrangere è quello della neutralità della scienza e della tecnica. Non esiste una scienza neutrale, come non esiste un diritto neutrale. Il diritto è sempre espressione di potere; lo stesso vale per le tecnologie digitali. La realtà digitale ha consolidato l’idea, illusoria, di una neutralità della tecnica e degli algoritmi, presentati come strumenti oggettivi di regolazione sociale.

Ma già nella fase di costruzione degli algoritmi si annida l’opacità: la programmazione è opera di soggetti che operano scelte, selezionano dati, definiscono parametri. L’attività di controllo sull’algoritmo, quando c’è, è per lo più successiva, non preventiva. Ancora più oscura è la dimensione dei dati: raccolta, mercato, circolazione. Sappiamo che i nostri dati sono ovunque, ma non sappiamo davvero chi li detiene, come vengono usati, per quali finalità. L’oscurità riguarda la produzione, la raccolta e la commercializzazione dei dati: è un’area in cui la trasparenza è estremamente ridotta.

L’Europa ha tentato di porre qualche rimedio, elaborando regolamenti che hanno innegabilmente favorito la costruzione di un mercato digitale regolato. Tuttavia, questa regolazione si è concentrata prevalentemente sull’aspetto economico, disinteressandosi in larga misura delle ricadute sui diritti fondamentali. La disciplina del digitale è stata pensata più in funzione dell’efficienza del mercato che della tutela effettiva dei diritti della persona.

Su tutto questo si innesta il mito della neutralità del linguaggio tecnico. Il linguaggio dei “big data”, della blockchain, degli smart contract – termini spesso mutuati dall’inglese – ha un significato tecnico preciso, ma diventa opaco quando viene importato nel dibattito giuridico e politico. Si tratta, per usare un’espressione felice, di “parole di plastica”: espressioni che, invece di chiarire i fenomeni, rischiano di nasconderli. Così accade, ad esempio, con il termine governance, preso in prestito dal linguaggio economico e usato in modo indistinto per descrivere qualsiasi assetto decisionale, spesso senza che sia chiaro chi decida davvero. Si perde la responsabilità decisionale dietro formule vaghe.

L’oscurità è diventata una componente strutturale: black box algoritmiche, segreti industriali, opacità mediatica. Più un sistema è opaco, più viene talvolta ritenuto “efficiente”, salvo poi rivelarsi incontrollabile dal punto di vista democratico e giuridico.

A ciò si aggiunge un ulteriore problema: il mercato dei dati e dell’economia digitale appartiene, di fatto, al mondo privato più che a quello pubblico. Il soggetto pubblico, nazionale o sovranazionale, ha oggi una capacità limitata di controllare il processo di “datificazione” globale. I principali protagonisti sono grandi soggetti privati, mossi da logiche economiche proprie e non, per definizione, dall’interesse generale. Ne è esempio il ruolo delle piattaforme digitali nella diffusione delle informazioni e delle fake news: spesso si chiede loro di autoregolarsi, ma tale autoregolazione risponde primariamente a interessi economici, non a finalità di tutela della collettività.

Si è così passati, per le grandi multinazionali del digitale, dalla richiesta di “deregolamentazione” (meno regole possibili) all’idea di co-regulation: il soggetto privato pretende di sedersi al tavolo da pari a pari con il soggetto pubblico per scrivere le regole. Questo sposta l’asse del potere normativo e rende più complesso il ruolo del diritto, che dovrebbe porre limiti chiari, ma si trova invece a inseguire dinamiche economiche sovranazionali.

Questa intreccio tra pubblico e privato contribuisce a estremizzare gli effetti della globalizzazione: si allarga la distanza tra popoli ricchi e popoli poveri, tra Stati forti e Stati deboli, tra chi ha accesso agli strumenti digitali e chi ne è escluso. Chi è debole diventa più debole, chi è forte diventa più forte. Non stupisce che alcuni soggetti, pubblici o privati, finiscano di fatto per decidere per tutti gli altri, imponendo scelte anche su temi che non sembrano direttamente connessi alla rivoluzione digitale, ma che ne sono comunque condizionati.

Questo scenario deve farci riflettere su due profili fondamentali:

L’incidenza sui diritti della persona (individuali e collettivi).

L’impatto sulla qualità e sulla tenuta della democrazia, in un contesto in cui è sempre più difficile comprendere chi detenga realmente il potere decisionale.

Un tempo si parlava di un potere “sopra di noi”; oggi vi sono poteri di cui non conosciamo né la sede né il volto, che incidono non solo su di noi, ma anche su chi formalmente esercita il potere politico. Siamo sicuri che le decisioni che ci riguardano siano effettivamente assunte secondo procedure democratiche? O vi sono soggetti, o sistemi, che decidono anche per coloro che dovrebbero rappresentarci?

Se ci limitiamo a considerare la rivoluzione digitale come un fenomeno puramente tecnico-operativo, non ci rendiamo conto che essa produce effetti molto più profondi sul piano del potere, delle relazioni sociali e della stessa idea di umanità.

C’è poi un ulteriore aspetto, che riguarda la dimensione relazionale. La rivoluzione digitale è in grado di incidere sul concreto, sull’operativo, sull’organizzazione formale delle attività; ma ciò che rischia di essere svalutato è il principio di relazionalità. La relazione autentica, infatti, non può ridursi al rapporto uomo-macchina. La macchina non si relaziona davvero: può simulare emozioni, ma non provarle. Anche quando i sistemi dichiarano: “non provo emozioni, ma posso imitarle”, è evidente che manca la dimensione affettiva, il cuore, l’anima, la capacità di empatia che caratterizza la giustizia e la convivenza umana.

L’intelligenza artificiale può certamente offrire un ausilio all’essere umano, anche nell’attività giurisdizionale o amministrativa, ma deve restare strumento e non sostituto della decisione umana. Gli algoritmi lavorano sui dati esistenti, producono esiti su base statistica e probabilistica, non creano valori nuovi, non fondano scelte di giustizia; riproducono tendenze, non giudizi morali.

Non possiamo accettare l’idea che l’innovazione tecnologica sia “inarrestabile” e per definizione incontrollabile, come già si è detto per la globalizzazione. Si può, e si deve, porre limiti. Lo dimostra l’esperienza della bioetica: quando si è compreso che alcune possibilità tecniche (ad esempio in tema di clonazione) ponevano problemi radicali, lo scienziato ha chiamato il filosofo e il giurista, chiedendo di indicare i confini del lecito. Anche qui la tecnica ha chiesto al pensiero critico di indicare ciò che non deve essere fatto, pur potendo essere tecnicamente realizzato.

Io ritengo che qualcosa di analogo dovrà accadere per la rivoluzione digitale, a condizione che ci rendiamo conto dei rischi, delle ricadute sui diritti e, soprattutto, dei mutamenti nelle forme del potere. Le forme di gestione del potere sono cambiate e continuano a cambiare: capire “chi decide davvero” è sempre più difficile.

Il diritto, la politica e la filosofia sono chiamati a porre dei limiti, per mantenere intatto il senso alto dell’umanità, la capacità di disciplinare e regolare i rapporti interpersonali e collettivi. Sono questi gli elementi fondativi della nostra esistenza, della politica e del diritto. Se dovessimo affidarci all’algoritmo per sostituire questi elementi, allora preferirei che l’algoritmo restasse nel nulla, o fosse comunque tenuto entro confini molto stretti.

* Ordinario di Filosofia del Diritto all’Università Magna Graecia di Catanzaro

Tag: , ,

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *