Riflessioni sull’evoluzione della giustizia: la giustizia predittiva e le sfide (costituzionali) dell’Intelligenza Artificiale.

Abstract: L’espressione “giustizia predittiva” non ha ancora assunto un significato tecnico consolidato. Essa è generalmente utilizzata per descrivere l’impiego delle tecnologie predittive nell’ambito delle decisioni giurisdizionali. In dottrina, questo fenomeno viene distinto in due tipologie di giustizia predittiva: (i) la giustizia “sostitutiva”, rappresentata da algoritmi capaci di sostituire completamente la figura del giudice; e (ii) la giustizia “ausiliaria”, composta da tecnologie che supportano il giudice nell’esercizio delle sue funzioni.

Mentre la prima rappresenta un’ipotesi assolutamente futuristica, la seconda è già una realtà in atto, specialmente con l’emergere di nuovi sistemi di intelligenza artificiale generativa, capaci di analizzare dati e generare contenuti, inclusi testi di decisioni giuridiche.

Queste innovazioni non solo offrono prospettive inedite per la giustizia predittiva, ma sollevano anche interrogativi di carattere costituzionale e procedurale, in particolare in relazione al diritto di difesa e alla necessità di garantire che le decisioni siano comprensibili e verificabili.

Il presente contributo si propone di mettere in luce l’impatto significativo di queste tecnologie sulla giustizia, sottolineando l’importanza di un utilizzo prudente.

Solo attraverso una gestione oculata di tali strumenti, infatti, sarà possibile sfruttare appieno il potenziale delle tecnologie predittive e generative, evitando il rischio di regressioni, soprattutto in materia di garanzie costituzionali.

L’espressione “giustizia predittiva” non è ancora entrata nell’uso comune degli addetti ai lavori e manca pure di un significato tecnicizzato consolidato, ma genericamente con tale formulazione si intende l’insieme delle tecnologie predittive utilizzate nell’attività decisoria da parte dell’autorità giurisdizionale.

In dottrina tale definizione ha assunto sfumature diverse.

In particolare, si distingue tra giustizia predittiva “sostitutiva” e “ausiliare”.

La prima consiste sostanzialmente nella decisione giudiziaria assunta da un robot e quindi da una macchina che prende integralmente il posto del giudice, mentre la seconda coincide con tutti quegli strumenti digitali ed informatici che non consentono al giudice di declinare la propria attività decisionale, ma gli offrono un aiuto concreto, fornendogli elementi utili a deliberare.

Ad oggi il primo fenomeno appare più che altro un curioso esercizio di fantasia, mentre la seconda rappresenta una prospettiva concreta, basata su strumenti e tecnologie in uso e già oggetto di plurimi studi, dunque destinati ad uno sviluppo sempre più rapido.

A quest’ultima categoria appartengono i c.d. “algoritmi predittivi”, e cioè quegli strumenti in grado di analizzare dati esistenti, riconoscere concetti ricorrenti ed effettuare previsioni.

In primis, si fa riferimento agli algoritmi che possono essere utilizzati allo scopo di predire la decisione di un giudice, prima che questi si pronunci, sulla base dei suoi stessi precedenti. Questi sistemi cercano di prevedere l’esito di future decisioni, calcolando probabilità sulla base di correlazioni statistiche, ma non sono in grado di svolgere un vero e proprio ragionamento giuridico.

Detti algoritmi sono stati impiegati soprattutto agli albori della “giustizia predittiva”. Si pensi, ad esempio, allo studio condotto dall’University College of London per la previsione delle decisioni della Corte Europea dei Diritti dell’Uomo (CEDU) utilizzando tecniche di machine learning. Gli autori di tale studio hanno analizzato un totale di 584 sentenze della Corte Europea dei Diritti dell’Uomo, con l’obiettivo di verificare se fosse possibile prevedere, basandosi solo sul testo delle sentenze, e sulla normativa europea, cosa la Corte avrebbe deciso nei singoli casi. Il modello ha dimostrato un’accuratezza di circa il 79% e ha consentito di comprendere come i “fatti” rappresentino l’elemento più importante per determinare l’esito dei giudizi della Corte, suggerendo che i giudici tendono a basare le loro decisioni soprattutto sulle circostanze presentate piuttosto che sulle argomentazioni legali. Peraltro, è chiaro che quanto più rilevano gli elementi fattuali e la loro qualificazione, tanto più la percentuale di errore può aumentare. Al contrario, quanto più i giudizi sono “tipizzati” o seriali, tanto più queste predizioni saranno precise.

In alternativa, gli algoritmi predittivi possono essere impiegati dai giudici come ausilio per l’esecuzione di alcune fasi della propria attività decisionale. Un esempio emblematico riguarda un giudice statunitense del Wisconsin, il quale, in un processo penale, ha fatto uso di un programma di intelligenza artificiale per valutare la probabilità di recidiva di un imputato.

Tale scenario, tuttavia, si trova oggi in una vero e proprio “stadio evolutivo”, visto il rapidissimo progresso delle tecnologie di “AI generativa” e la loro incontenibile diffusione, e ciò, ovviamente, impone un ampliamento della nozione di “giustizia predittiva”.

Queste ultime tecnologie, infatti, aprono un panorama del tutto inedito. Invero, tali algoritmi sono capaci di creare dati totalmente nuovi, come immagini, video, suoni, modelli 3D e testi e un conto è che un giudice chieda ad un software di scovare tutti i possibili precedenti rilevanti e/o di individuare le massime giurisprudenziali attinenti al caso concreto, tutt’altro scenario è quello in cui il giudice inserisca in una chat i fatti di causa e chieda all’algoritmo, addestrato sulla base dei testi delle precedenti decisioni e delle normative vigenti, di generare il testo della decisione.

D’altra parte, è importante chiarire che in questo scenario il giudice non sta delegando all’intelligenza artificiale il compito di decidere per lui, poiché l’algoritmo non ha la capacità di simulare il processo cognitivo e volitivo umano; piuttosto, richiede al software di scrivere il testo della sentenza (motivazione e dispositivo) sulla base della mole di testi (potenzialmente infinita) sulla cui base l’algoritmo è stato addestrato.

Di recente, in Colombia, un giudice civile ha utilizzato ChatGpt per la risoluzione di un caso, giungendo a redigere una sentenza che risultava effettivamente in linea con le indicazioni fornite dall’AI. La soluzione dell’AI, peraltro, è stata richiamata dal giudice nella sentenza, ma come una sorta di “argomento ad abundantiam” rispetto alle conclusioni cui era già pervenuto autonomamente in altro modo.

Lo prospettiva, quindi, è del tutto diversa da quella del “giudice robot” che è in grado di fare tutto da sé. Quest’ultima, infatti, allo stato resta una soluzione assolutamente utopica.

Pertanto, oggi il terreno conosciuto della giustizia predittiva è in evoluzione, grazie alle tecniche di “AI generativa”. Abbandonata definitivamente la pretesa deduttivistica di un “cervello elettronico giudiziario”, creato inserendo al suo interno tutte le possibili norme generali e astratte e capace di giudicare “sussumendo” le fattispecie concrete, appare sulla scena una ben più pragmatica “intelligenza artificiale giudiziaria”, addestrata induttivamente sulla base di milioni di testi di decisioni già prese e capace di rispondere alle domande che le sottoponiamo sulla base statistica delle connessioni sintattiche dei testi e da utilizzare, se non per prendere la decisione, quantomeno per scriverla.

In altri termini, il giudice continuerà a prendere la propria decisione sulla base degli atti del processo, mentre all’Intelligenza Artificiale verrà chiesto di redigere il dispositivo della sentenza ovvero la motivazione.

Ebbene, è evidente che allo stato tali scenari impongono numerose riflessioni in punto di diritto processuale, e ancor più di diritto costituzionale.

Ad esempio, come si coordina l’uso degli strumenti di AI generativa con l’art. 24 della Costituzione, che riconosce a tutti il diritto di “agire in giudizio per la tutela dei propri diritti e interessi legittimi” e garantisce il diritto di difesa come inviolabile?

Se, infatti, l’art. 24 Cost. implicitamente afferma il principio della necessaria “comprensibilità” delle decisioni al fine di un loro possibile controllo di legittimità, una lettura non riduttiva di tale norma impone sul piano costituzionale l’obbligo inderogabile da parte di chiunque utilizzi tecnologie decisorie capaci di incidere nell’area dei diritti e delle libertà, non solo di renderlo noto, ma anche di utilizzare linguaggi umanamente comprensibili e di conoscere le ragioni poste a fondamento della decisione.

I software di AI generativa, infatti, sono in grado di processare in maniera automatica enormi quantità di dati e ad una velocità disarmante, individuando schemi e correlazioni spesso invisibili all’occhio umano. Così, tali tecnologie sono capaci di prevedere con precisione statistica la probabilità del verificarsi di un evento, senza però essere in grado di spiegare le motivazioni alla base delle loro previsioni.

Riprendendo l’esempio del giudice del Wisconsin, l’algoritmo utilizzato per calcolare la probabilità di recidiva, secondo studi successivi si è rivelato estremamente accurato nelle previsioni, ma incapace di offrire una spiegazione causale delle previsioni. Ne consegue che, utilizzare un software del genere per valutare, ad esempio, la probabilità di recidiva, pone l’imputato nell’impossibilità di poter verificare o contestare le ragioni che hanno condotto a giudicarlo in un certo modo.

Il rischio, dunque, è che dinanzi alla crescente tendenza ad affidare a sistemi di AI le decisioni, si possano creare “zone grigie” in cui apparati algoritmi complessi e sostanzialmente incomprensibili alla mente umana, finiscono per sostituire ovvero per essere assorbiti nelle decisioni, rendendo poi estremamente difficile – se non del tutto impossibile – verificarne l’opportunità, la liceità ovvero la legittimità.

In effetti, se il principio generale di tutela dei diritti implica anche il diritto di esaminare e contestare gli atti che li violano, l’utilizzo di sistemi di decisione sostanzialmente incomprensibili impedisce tale sindacato.

Sotto questo profilo, quindi, è da ritenere che il sistema costituzionale italiano debba imporre all’autorità giurisdizionale l’obbligo di motivare le decisioni, specificando se – anche solo ai fini della scrittura della sentenza – sia stata impiegata una qualche tecnologia predittiva o generativa e quali effettivamente siano le ragioni – in fatto e in diritto – sottese alla decisione e dunque garantendo quelli che potremmo indicare come i principi della trasparenza e della comprensibilità delle decisioni.

In conclusione, sebbene vi siano molti altri aspetti che meriterebbero un’analisi più approfondita, questo sintetico contributo non si propone di esaminarli nel dettaglio. L’intento è piuttosto quello di evidenziare come l’evoluzione tecnologica, e in particolare i sistemi di intelligenza artificiale generativa, stiano avendo un impatto rilevante anche nel settore della giustizia. È però essenziale affrontare con cautela questa trasformazione, affinché le nuove tecnologie si affermino come strumenti di progresso utili ed efficaci, evitando al contempo il rischio di involuzioni, soprattutto in tema di garanzie costituzionali.

Avv. Benedetta Pellizzoni

saranda apartments for sale Tour albania thethi albania