Intelligenza artificiale e diritto: un matrimonio difficile

I possibili impieghi nella pratica giudiziaria e il tema della responsabilità

di Giacomo Oberto, ottobre 2023

Né pericolo assoluto né soluzione di tutti i problemi, l’utilizzo in ambito giudiziario dell’intelligenza artificiale offre sicuramente numerose opportunità.


L'autore: Giacomo Oberto, Magistrato a R., è stato Giudice del Tribunale di Torino ed è esperto di informatica giuridica, nonché Professore a contratto nell’Università di Bologna.

 

1. Intelligenza artificiale o intelligenza artificiosa? Pro e contro l’uso “giuridico” dell’intelligenza artificiale

Nel celebre film del 1968 “2001: Odissea nello spazio” il grande regista Stanley Kubrik presenta la prima visione moderna dell’intelligenza artificiale, immaginando che sia un supercomputer, chiamato HAL 9000, installato a bordo di una navicella spaziale, a guidare una missione su Giove, proteggendo l’integrità fisica e il benessere degli astronauti. Durante il viaggio, però, qualcosa va storto: il computer commette un errore e si rende conto di aver sbagliato. Ma HAL 9000 ha anche acquisito due singolari caratteristiche umane: egli è dotato di un fortissimo istinto di sopravvivenza, oltre che di uno smisurato senso di orgoglio. Poiché ha capito che gli astronauti non si fidano più di lui e vogliono sopprimerlo, li attira in una trappola per ucciderli uno ad uno. Solo uno di loro si salverà e riuscirà, dopo un’epica lotta (intelligenza umana contro intelligenza artificiale), a disattivarlo.


Nel 2001 un altro grande regista, Steven Spielberg, realizza uno spettacolare film (proprio sulla base di una serie di idee e progetti di Kubrik, nel frattempo scomparso) dal titolo “A.I. – Intelligenza artificiale”. Qui la logica risulta completamente rovesciata. Per la prima volta in un’opera cinematografica si sostiene che il “cattivo”, il “mostro”, il responsabile di ogni male non è il robot, bensì proprio l’uomo. Sono gli uomini e solo gli uomini a non farsi alcuno scrupolo a creare replicanti dotati di sensibilità, solo per soddisfare i propri piaceri più bassi, o per compiere lavori sporchi, o per sfogare la loro crudeltà, divertendosi a torturarli, o addirittura per usarli come “sostituti affettivi” di figli morti o malati, pronti peraltro a sbarazzarsene al primo capriccio, senza alcun senso di colpa e senza comprendere le sofferenze che così infliggono a “creature” inoffensive e comunque dotate di grande sensibilità.


Questo atteggiamento “bipolare” verso l’intelligenza artificiale si può trovare anche nel campo del diritto. Per molti giuristi si tratta di un male assoluto, di uno strumento pericoloso, che un giorno si rivolterà contro gli umani, rendendo la vita sociale impossibile; per altri il “difetto sta nel manico”: tutto dipende da come gli uomini sapranno (e vorranno!) configurare e controllare questo tipo di programmi e di attività, che, se utilmente gestite, potranno portare benefici.


Con il concetto di intelligenza artificiale (abbreviata in I.A. o, dall’inglese Artificial Intelligence, A.I.) si indica la possibilità che le macchine, in una certa misura, “pensino”, o piuttosto imitino il pensiero umano, basato sull’apprendimento e sull’utilizzazione di generalizzazioni che le persone usano per prendere le decisioni quotidiane, secondo la visione fantascientifica dello scrittore Isaac Asimov. In altre parole, l’intelligenza artificiale può essere definita come la capacità di un sistema tecnologico (hardware e software) di fornire prestazioni assimilabili a quelle dell’intelligenza umana e, cioè, l’abilità di risolvere problemi o svolgere compiti e attività tipici della mente e del comportamento umano.


Ma quali sono i principali settori del diritto e dell’amministrazione della giustizia in relazione ai quali si discute già seriamente di possibili applicazioni dell’intelligenza artificiale?


Va detto in primis che l’uso dell’intelligenza artificiale come strumento di supporto del lavoro degli operatori del diritto e dei tribunali è, oggi come oggi, ancora un fenomeno piuttosto embrionale. Tra le diverse soluzioni proposte si segnalano quelle riguardanti l’analisi e il trattamento delle raccolte di casistica giurisprudenziale, per ridurre l’alea del giudizio e garantire una maggiore prevedibilità delle decisioni giudiziarie. È necessario, tuttavia, interrogarsi sull’effettività di queste applicazioni, impropriamente qualificate di “giustizia predittiva”.


La Commissione europea sull’efficacia della giustizia (Cepej) del Consiglio d’Europa ha condotto uno studio approfondito su questi temi e ha redatto una Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari, adottata alla sessione plenaria della Cepej del 3-4 dicembre 2018. Primo strumento europeo in materia, la Carta etica enuncia principi sostanziali e metodologici applicabili all’analisi e al trattamento delle decisioni giudiziarie e intende essere un punto di riferimento per l’attività di soggetti privati e pubblici attivi in questo settore.


 

2. I limiti della “giustizia predittiva” e i suoi (modesti) possibili effetti positivi

Con l’espressione “giustizia predittiva” si fa riferimento all’utilizzo di strumenti basati sull’intelligenza artificiale capaci di supportare la funzione legale e giurisdizionale mediante la capacità di analizzare in tempi brevi una grande quantità di informazioni (tendenzialmente: raccolte di giurisprudenza su di un caso specifico), al fine di prevedere il possibile esito di un giudizio. Quanto sopra dovrebbe avere la funzione di assistere sia gli avvocati nella costruzione della strategia difensiva, sia gli inquirenti per elaborare un’accusa che potrebbe condurre con maggiore probabilità a una condanna, sia i giudici per fornire una definizione della causa il più possibile vicina al concetto di giustizia.

A un approccio più serio e approfondito emergono immediatamente i limiti di questa impostazione. Le controversie giudiziarie, infatti, dipendono dall’accertamento di elementi di fatto e di diritto che nessun algoritmo può programmare. Si pensi al caso dell’incidente stradale, dove è dirimente sapere se Tizio è passato in un incrocio con il semaforo rosso o con il verde. Nessun sistema potrà mai “predire” che i testimoni riferiranno se il semaforo proiettava luce di un certo colore o di un altro. Se cito in giudizio il mio vicino del piano di sopra perché mi ha macchiato il soffitto d’acqua, nessun software potrà dire in anticipo se veramente l’acqua viene dal vicino del piano di sopra o non piuttosto da una tubatura condominiale rotta (con conseguente responsabilità del condominio, certo non del vicino!). Solo una consulenza tecnica d’ufficio (c.t.u.) potrà risolvere l’arcano, previa demolizione del muro o di parti di esso… (e questo l’intelligenza artificiale non può certo farlo).

Idem per le complesse e raffinate questioni giuridiche sovente sottese alle nostre liti giudiziali. Così, se marito e moglie in comunione legale dei beni litigano sulla titolarità di un investimento obbligazionario, non sarà certo l’intelligenza artificiale (bensì solo la cultura e l’esperienza del magistrato) a dire se il giudice deve seguire (o meno) la tesi per cui anche i rapporti obbligatori (e non solo i diritti reali) cadono in comunione.

Ancora, il fatto che, ad esempio, un giudice renda statisticamente decisioni di affidamento dei figli a favore delle madri non riflette necessariamente un pregiudizio nei confronti dei padri, ma piuttosto l’esistenza di fattori psicosociali, economici o addirittura culturali specifici della giurisdizione in cui esercita, come la presenza o meno di servizi sociali, il fatto che il bambino vada a scuola oppure no, l’orario di lavoro di ciascun genitore, o anche semplicemente la mancanza di interesse da parte di uno dei due genitori a farsi carico del figlio piccolo. Il tutto, sempre, in relazione a ogni singolo caso concreto. Sarebbe quindi errato anche in questo caso voler desumere dalla frequenza di certe decisioni la previsione della sorte di analoghe, future, controversie.

Ciò che l’intelligenza artificiale può fare è, semmai, “preparare” il lavoro del giudice: una sorta di assistente virtuale, che, nel mare magnum dei precedenti riccamente offerti dal nostro quanto mai litigioso Paese, scremerà solo quelli che presentano il maggior numero di analogie con il caso concreto. Tra l’altro, quest’opera di certosino triage è già oggi compiuta dal giudice stesso o dai suoi assistenti (ove esistenti e in grado di farlo) e, naturalmente, da ogni avvocato (ancorché, chiaramente, in un’ottica pro domo sua…). La prospettiva che qui si immagina è però quella di avere un’analisi “a tappeto”, svolta automaticamente, in modo completo e “razionale”, cosicché il quadro dei precedenti sia chiaro. Ciò posto, starà sempre al giudice, solo ed esclusivamente al giudice, trarre il dado e risolvere il caso secondo la sua lettura delle risultanze probatorie e l’idea che si è fatto dei principi di diritto ivi applicabili.

L’utilizzo nel campo processuale di tecniche di intelligenza artificiale offre, potenzialmente, alcuni vantaggi, i cui risvolti si scopriranno appieno solo in futuro.

Pensiamo al c.d. case weighting (letteralmente: pesatura delle cause). Ci si riferisce con questo termine a tutte quelle tecniche che, allorquando un procedimento inizia in un certo ufficio giudiziario, dovrebbero consentire di capire se si tratta di un caso che impegnerà giudici e ufficio giudiziario per molto o poco tempo; in altre parole: se si tratta di un procedimento difficile e complesso (e, se sì, quanto rispetto ad altri), oppure no.

La conoscenza di questi elementi è fondamentale per una corretta impostazione del lavoro in ogni ufficio giudiziario. Il “vecchio” metodo, consistente nell’assegnare ad ognuno dei giudici di quell’ufficio le cause man mano che arrivano in ordine cronologico (causa n. 1/2024 al giudice A; causa n. 2/2024 a B; causa n. 3/2024 a C ecc.) può portare a distorsioni. Così non è raro che un giudice particolarmente sfortunato si veda assegnare solo cause difficili e il collega della porta accanto un egual numero di cause, ma di “peso” ben inferiore.

Anche qui, dunque, l’intelligenza artificiale dovrebbe aiutare il capo dell’ufficio, sulla base di un numero di elementi automaticamente computati e ponderati dal sistema (ad esempio: numero di parti nel processo, numero delle domande proposte, presenza o meno di domande “riconvenzionali”, numero delle eventuali chiamate di terzo, numero dei testi da escutere, lunghezza e numero dei capi di prova orale dedotti, necessità o meno di una o più consulenze tecniche, valore della causa, numero di pagine degli scritti difensivi ecc.) ad assegnare un “valore” o un “peso” su di una scala prefissata, tenendo conto di tale elemento allorquando sarà di nuovo il turno di quel giudice cui quella causa è stata assegnata, ai fini dell’assegnazione di una causa più o meno “complessa”, in modo da equilibrare il carico di ogni magistrato di quell’ufficio.

Ancora, l’uso dell’intelligenza artificiale per la lettura rapida, la classificazione e l’attribuzione di atti, ricorsi e documenti alle sezioni pertinenti (laddove, come sovente accade, l’ufficio giudizio è diviso in sezioni specializzate per materia) è un altro possibile utilizzo. Nel merito di alcuni tipi di controversie, poi, si può pensare ai metodi di calcolo del risarcimento del danno in materia civile (ad esempio, il risarcimento per danni fisici o l’indennità di licenziamento), che potrebbero essere notevolmente migliorati, con un accesso a una più ampia base di decisioni di quella attuale e a un’elaborazione automatica di indicazioni sugli importi concretamente erogati in passato.

Con riferimento in particolare alle applicazioni che si fondano sul trattamento delle decisioni dei tribunali a fini di ricerca giuridica, esistono già, allo stato attuale, motori di ricerca “intelligenti”, che permettono di analizzare fonti e materiali diversi (leggi, regolamenti, giurisprudenza, dottrina). L’intelligenza artificiale può permettere un accesso all’informazione non solo più largo e diversificato, ma anche più interattivo: i giudici, gli avvocati e altri professionisti potrebbero “navigare” tra le diverse informazioni e trovare più rapidamente le soluzioni ricercate. L’intelligenza artificiale potrebbe essere anche usata per proporre modelli o estratti di una decisione che siano in correlazione coi risultati della ricerca, rendendo così più rapida la redazione da parte del giudice.

Infine, una maggiore diffusione (in modo razionale e ragionato) delle decisioni in materie che formano oggetto di elevato numero di controversie potrebbe essere utile per indirizzare le parti in causa verso metodi alternativi di risoluzione delle controversie, specie nelle cause di modesto valore economico.

 

3. Possibili derive dell’utilizzo dell’intelligenza artificiale nei settori processuali

Oltre a quanto detto, occorre tenere conto dei rischi di “derive” cui un uso senza controlli dell’intelligenza artificiale potrebbe esporci.

Giustamente si è messo in guardia, ad esempio, dall’utilizzo di tale strumento nella preparazione delle investigazioni penali o, peggio ancora, nella determinazione della responsabilità penale e nella quantificazione della pena. Così, si è posto in luce come vi sia il rischio di avere sistemi che portino ad attribuire la responsabilità di certi tipi di crimini a determinati gruppi sociali piuttosto che ad altri. In altre parole, il pericolo è che pubblici ministeri o giudici penali “automatici” seguano determinati stereotipi, emettendo decisioni basate non su di un’analisi del caso concreto, ma su un’impostazione di preconcetta avversione (se non addirittura di razzismo) verso determinate categorie di soggetti.

Celebre, al riguardo, il c.d. caso Loomis, in cui negli USA un cittadino afroamericano alcuni anni fa venne condannato a una pena determinata sulla base del punteggio assegnato dall’intelligenza artificiale. Si trattava di un uomo di colore accusato di essere alla guida di un’auto usata durante una sparatoria e di non essersi fermato al controllo di polizia. Il giudice, nello stabilire la pena, aveva applicato una sanzione particolarmente severa di sei anni di reclusione, utilizzando i risultati di un algoritmo. Il software predittivo funzionava analizzando le risposte date a un questionario di 137 domande riguardanti età, lavoro, vita sociale e relazionale, grado di istruzione, uso di droga, opinioni personali e percorso criminale, indicando anche il livello di un presunto rischio di recidiva. Nel caso di specie, Loomis era stato qualificato dal software come soggetto ad alto rischio e per questo era stato condannato, non solo per ciò che aveva fatto, ma anche per ciò che avrebbe potuto fare in futuro in base al risultato del questionario elaborato dall’algoritmo. Ora, l’elemento maggiormente problematico era che il software non prevedeva il rischio di recidiva individuale dell’imputato, ma realizzava una previsione comparando le informazioni ottenute dal singolo con quelle relative a un gruppo di individui con caratteristiche assimilabili. Nel caso di specie, la comunità afroamericana.

Questo scenario evoca naturalmente il tema di un altro affascinante film, Minority report, sempre del regista Steven Spielberg (2002), in cui si ipotizza un futuro in cui il crimine sia stato radicalmente debellato attraverso un sistema di predizione della commissione dei futuri reati, chiamato “Precrimine”. Basandosi sulle premonizioni di tre individui dotati di poteri extrasensoriali di precognizione amplificati, detti “Precog”, la polizia riesce a impedire gli omicidi prima che essi avvengano e ad arrestare i potenziali “colpevoli”. In questo modo non viene punito il fatto (che non avviene), bensì l’intenzione di compierlo e che porterebbe a concretizzarlo. Il risultato finale ci lascia l’immagine di una giustizia guidata non più dalla valutazione ex post dell’illecito commesso, ma dalla sua predizione ex ante, frutto di una visione (che, ovviamente, nessuno può garantire risponda a quella che sarebbe la realtà dei fatti, se l’azione non venisse impedita). Così, come compare nel film, il ruolo del giudice viene ridotto a quello di un mero ratificatore formale della previsione effettuata dai “Precog”.

Si tratta di un modo di gestire la giustizia ben lontano da quello che conosciamo (oggi la giustizia entra in gioco solo se e dopo che il fatto è stato commesso) e che, oltretutto, cozza con principi fondamentali e costituzionalmente garantiti, come quello della certezza del diritto e quello di legalità. Quanto sopra consente di comprendere le ragioni di chi vuole evitare che venga attribuito troppo spazio alle decisioni assunte dall’intelligenza artificiale.

Al fine di arginare siffatte possibili “derive”, l’Unione Europea sta cercando di intervenire con un apposito Regolamento europeo in materia di intelligenza artificiale. Il nuovo strumento normativo, quando definitivamente adottato, stabilirà il divieto assoluto per le tecnologie di “punteggio sociale” come l’algoritmo del caso Loomis o le macchine utilizzate in ambito creditizio, che porterebbero ad escludere, ad esempio, la concessione di mutui, da parte delle banche, a soggetti ritenuti aprioristicamente “a rischio”, perché appartenenti a determinate categorie sociali. Non solo. I parlamentari europei hanno già votato contro l’utilizzo di sistemi di identificazione biometrica in tempo reale negli spazi pubblici (per esempio il riconoscimento facciale). Quanto sopra dovrebbe tenere l’Europa al sicuro dall’utilizzo massiccio di questo tipo di algoritmi.

 

4. Cenni sulla responsabilità civile per l’uso dell’intelligenza artificiale

Per concludere, si dovrà aggiungere qualche rapida informazione anche sul tema della responsabilità civile per l’utilizzo delle tecnologie legate all’intelligenza artificiale.


Sul punto si rileva giustamente che la disciplina italiana vigente in tema di responsabilità civile (artt. 2043 ss. c.c., ma lo stesso vale, naturalmente, per ogni altro ordinamento giuridico) nasce per regolamentare le conseguenze del comportamento degli esseri umani: di soggetti, cioè, senzienti e capaci di prendere decisioni totalmente autonome. L’intelligenza artificiale è invece un oggetto, certamente molto avanzato, ma comunque uno strumento il cui funzionamento si basa sull’elaborazione di quantità più o meno grandi di dati immessi dall’esterno. L’intelligenza artificiale non possiede capacità giuridica e tanto meno capacità di agire, nel senso tecnico/civilistico della parola. Risulta quindi difficile imputare all’intelligenza artificiale, come tale, una responsabilità giuridica per danni, dovendosi invece risalire sempre al soggetto/ai soggetti che hanno creato, programmato, azionato il “meccanismo” di intelligenza artificiale che ha causato danni.


Un primo approccio in tal senso è arrivato dal Parlamento Europeo con la Risoluzione del 20 ottobre 2020, con la quale è stata prospettata la possibilità di ricorrere alla responsabilità oggettiva del produttore regolata dalla Direttiva 85/374/CEE. Questa sussiste anche in assenza di colpa, qualora il danneggiato riesca a provare la difettosità del prodotto, il danno e il nesso di causalità tra quest’ultimo ed il difetto. A titolo di prova liberatoria, il produttore deve invece dimostrare, in base al c.d. rischio di sviluppo, l’imprevedibilità del difetto al momento della messa in circolazione o la sua sopravvenienza. Ma appare evidente come sia sommamente difficile che il danneggiato riesca a dimostrare il difetto, il danno subito e il nesso di causalità in relazione a dispositivi altamente tecnologici.


Anche sul punto l’Unione Europea ha in cantiere un nuovo atto normativo (una Direttiva sulla responsabilità da utilizzo dell’intelligenza artificiale), che dovrebbe portare più certezza e uniformità nel nostro Continente su di una materia tanto complessa. La proposta di Direttiva ha infatti l’obiettivo di intervenire per alleggerire, da un punto di vista processuale, l’onere della prova per il soggetto danneggiato, introducendo, in presenza di determinate condizioni, una presunzione di colpevolezza del danneggiante produttore (cioè, del soggetto che ha utilizzato sistemi di intelligenza artificiale). In altri termini, si realizzerebbe un’inversione dell’onere della prova, per cui spetterebbe al produttore dimostrare di aver fatto tutto ciò che era esigibile al fine di evitare il danno realizzatosi a danno del consumatore, diversamente da quanto previsto, come appena detto, dalla Direttiva 85/374/CEE, che prevede invece la responsabilità oggettiva del produttore condizionata dall’adempimento di un complicato onere della prova a carico del consumatore.