LA GIUSTIZIA PREDITTIVA NEL PROCESSO CIVILE

Home 9 News 9 LA GIUSTIZIA PREDITTIVA NEL PROCESSO CIVILE
Share

Silvia Vitrò

1) L’intelligenza artificiale e le sue possibili applicazioni nel processo civile

La tecnologia può essere applicata al processo civile in modo più pervasivo di quanto fin qui sperimentato, appunto attraverso l’uso dell’intelligenza artificiale.

a) Il concetto di intelligenza artificiale si è evoluto nel cosiddetto “machine learning” (o “apprendimento automatico”).    Esso utilizza i dati per impararne la struttura e ottenere un modello matematico descritto da un certo numero di parametri numerici; tale modello può essere utilizzato per effettuare delle predizioni e prendere delle decisioni. Di fatto il modello non è nient’altro che una funzione matematica, anche molto complessa, il cui “input” è rappresentato dai dati da analizzare e il cui “output” sono le risposte cercate.

Più specificamente, la definizione di intelligenza artificiale non è semplice ed è un tema molto dibattuto anche a livello europeo, in occasione della proposta di Regolamento UE sull’AI che la Commissione Europea sta elaborando.

E’ di aiuto in questo campo la recente sentenza del Consiglio di Stato n. 7891 del 25/1172021, che distingue tra algoritmo basico e intelligenza artificiale. In particolare, si parte da una definizione di algoritmo come una sequenza definita di azioni.

Dunque un algoritmo “basico” può essere definito come un viaggio tra un input definito e un output definito, riproducendo capacità di calcolo dietro un processo decisionale basato su una formula matematica.

In altre parole, il misteriosissimo algoritmo non è altro che un set di istruzioni, piuttosto rigido, che entra in funzione quando incontra un innesco.

Il Consiglio di Stato, sulla base di queste premesse, pur abbracciando la definizione prospettata in prima battuta dal Tar, se ne discosta, osservando che tale «nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano».

La nozione tradizionale di algoritmo assume una nuova luce all’interno dell’evoluzione tecnica, assurgendo al compito di agevolatore dell’analisi umana, capace di processare con accuratezza sistemi complessi, anche tramite impulsi automatizzati.

Ad ogni buon conto, tutt’altra cosa è l’intelligenza artificiale, ove i meccanismi di machine learning creano un sistema che non si limita ad applicare e replicare serie di comandi o impulsi.

Difatti, nella lettura del Consiglio di Stato, l’intelligenza artificiale va oltre la mera riproduzione di un compito delegato dall’essere umano, essendo capace, sulla base delle regole definite dal proprio programmatore, di elaborare in modo autonomo criteri di inferenza tra i dati forniti, secondo procedimenti di apprendimento sia assistititi – è il caso del supervised machine learning – sia autonomi – ed è il caso del unsupervised machine learning.

b) Uno dei temi sicuramente destinati ad avere un notevole sviluppo nel corso dei prossimi anni è quello relativo all’utilizzo dell’intelligenza artificiale nell’ambito delle professioni legali (Per es.: software che sono in grado analizzare ed estrapolare concetti legali e finanziari indipendentemente dal vocabolario utilizzato consentendo, in questo modo, risparmi di tempo nell’analisi dei contratti,  sistemi di monitoraggio delle comunicazioni, ad es. via email, ecc.). Un diverso piano della relazione tra intelligenza artificiale e diritto è quello relativo al modo con cui l’intelligenza artificiale può impattare l’attività del giurista nel fornire uno strumento di supporto per l’esercizio e la gestione del materiale da utilizzarsi nell’attività o nel fornire un supporto per l’adozione di una decisione o la valutazione del possibile esito di una controversia, parlandosi, a tale ultimo proposito di “giustizia predittiva”.

In Europa il tema non è ancora così diffuso nella quotidiana pratica degli operatori, ma è di sicuro interesse per le sue potenzialità di sviluppo e sicuramente assai delicato ed espone una serie di problematiche che non sono rimaste ignorate da parte degli organismi internazionali, i quali hanno dettato alcuni principi che dovrebbero ispirare l’utilizzo di tali sistemi.

Il riferimento è, in particolare alla Carta etica europea del 2018, emanato dalla Commissione europea per l’efficacia della giustizia (CEPEJ), che consente l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e non solo.

Vengono specificamente indicati i seguenti 5 principi fondamentali:

-il principio del rispetto dei diritti fondamentali: è essenziale assicurare che i sistemi di AI non minino le garanzie del diritto di accesso a un giudice e del diritto a un equo processo;

-il principio di non discriminazione: viene sottolineata la necessità che gli attori pubblici e privati assicurino che le metodologie non riproducano e non aggravino le discriminazioni esistenti relative a persone o gruppi di persone e che non conducano ad analisi o usi deterministici;

-il principio di qualità e sicurezza: i creatori di modelli di apprendimento automatico dovrebbero poter fare ampio ricorso alla competenza dei pertinenti professionisti del sistema della giustizia e i dati derivanti da decisioni giudiziarie inseriti in un software che esegue un algoritmo di apprendimento automatico devono provenire da fonti certificate e non essere modificati;

-il principio di trasparenza, imparzialità ed equità: necessità di un equilibrio, da applicarsi all’intero processo creativo, tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza;

-il principio di controllo da parte dell’utilizzatore: necessità che l’utilizzatore venga informato con un linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse possibilità disponibili, e del suo diritto di ricevere assistenza legale e di accedere a un tribunale.

Anche il Consiglio di Stato (da ultimo: 25/11/2021 n. 7891) arriva (sia pure nell’ambito del giudizio amministrativo) ad enunciare tre principi che debbono essere di riferimento nell’esame e nell’utilizzo degli strumenti informatici:

-il principio di conoscibilità, per cui ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata;

-il principio di non esclusività della decisione algoritmica per cui nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato;

-il principio della non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori.

È bene, in ogni caso rilevare, che, come evidenziato nella stessa Carta del 2018, i sistemi di intelligenza artificiale per loro stessa natura non possono rispecchiare per intero il ragionamento del giudice, che è composto in realtà da una moltitudine di fattori decisionali, non può essere formalizzato a priori, ed è talvolta fondato sul suo potere discrezionale.      Tale attività di interpretazione non viene svolta dai software in questione, i quali effettuano elaborazioni automatizzate basate sulla correlazione di grandi volumi di informazioni sulla base di modelli che possono prevedere le probabili decisioni di un giudice in situazioni analoghe.

Per tali ragioni ad oggi è impossibile immaginare che questi sistemi possano sostituirsi alla figura del giudice nella decisione di una controversia, cosa che sarebbe, peraltro, contraria agli stessi principi di cui all’art. 101 della Costituzione che vede il giudice soggetto soltanto alla legge, ma certamente possono costituire un valido strumento, ad esempio, per consentire una più completa valutazione dei precedenti o per la valutazione di possibili soluzioni transattive nell’ambito delle Alternative Dispute Resolutions.

c) Tralasciando quindi una serie di possibili applicazioni dei sistemi di I.A. incompatibili con il sistema costituzionale come la redazione automatica delle decisioni, l’intelligenza artificiale può essere utilmente sperimentata in una serie di attività, di seguito elencate:

a) come strumento di  “anonimizzazione” dei dati sensibili;

b) come strumento di catalogazione dei documenti;

c) come strumento di gestione ed esecuzione di attività semplici e preliminari;

d) come strumento di creazione delle massime;

e) come strumento di previsione dell’esito di una futura lite.

Si riportano esperienze già sperimentate, in Italia o altrove:

a) l’eliminazione dei dati sensibili dalle decisioni è oggetto di un avanzato progetto coordinato dal Ministero della Giustizia finlandese (ANOPPI);

b) sempre in Finlandia alla catalogazione dei documenti (che è qualcosa di più della mera attività di raccolta di contenuti simili) è già operativo il sistema TUOMAS, che consente alle parti di trasmettere i propri documenti mediante una piattaforma (SANTRA), lasciando poi che il sistema si occupi della catalogazione, della gestione dei termini di decadenza e dell’elaborazione della ricostruzione del fatto, in modo da consentire al giudice una più veloce stesura del provvedimento finale;

c) per la gestione informatizzata delle informazioni giudiziarie è stato sperimentato in Estonia il sistema KIS (Court Information System), che consente l’assegnazione ottimale delle cause ai giudici (in relazione al carico già sopportato dal singolo decidente e all’importanza assegnata dall’algoritmo alla controversia); il trattamento automatico delle e-mail; la generazione automatica di documenti modificabili da parte dell’utente (trattasi di veri e propri modelli di atti processuali);

d) per la massimizzazione dei provvedimenti giudiziari, in Italia già da decenni esiste il Centro elettronico di documentazione (CED) della Corte suprema di Cassazione, che offre archivi di giurisprudenza e di legislazione: proprio a partire dall’organizzazione automatizzata delle massime della Cassazione – e avvalendosi delle tecnologie di information retrieval – il CED ha realizzato il sistema Italgiure-Find che attualmente gestisce una raccolta di oltre 35 milioni di documenti costantemente aggiornati, tra cui testi legislativi, sentenze e Gazzette Ufficiali reperibili dal 1860 in poi. Italgiure è un esempio di sistema di Intelligenza Artificiale per la ricerca di informazioni giuridiche di contenuto concettuale e non meramente semantico.

2) La Giustizia Predittiva

La giustizia predittiva è un sistema che consente di prevedere il possibile esito di una controversia sulla base delle precedenti soluzioni date a casi analoghi o simili.

a) Timori

Si tratta di un’opzione che indubbiamente suscita il timore di ritorno ad una visione meccanicistica del ruolo del giudice, mascherata e innovata dall’utilizzo delle tecnologie, quando non la prospettiva di decisioni automatizzate, neutre e indifferenti alle realtà umane.

Alcune perplessità nascono da esperienze di altri paesi.

Il sito Justice predictive nato in ambito forense in Francia dava agli avvocati la possibilità, con accesso a pagamento, di sapere gli orientamenti dei diversi Tribunali con una stima delle probabilità di successo di una causa avanzata davanti a quel Foro. Questa ottica probabilistica delle decisioni potrebbe portare ad abnormità quali verificare le percentuali degli esiti di un procedimento in cui vi sia il binomio tra un certo magistrato ed un certo avvocato, classificare il magistrato, puntare sull’avvocato che con quel magistrato ha vinto più cause. Tutti dati che potrebbero alterare e condizionare sia la scelta del difensore che le stesse decisioni e incidevano sull’immagine dei diversi attori del processo, sulla professionalità degli avvocati e sull’indipendenza del giudicante. Tant’è che in Francia, dove le sperimentazioni sono più avanzate, la profilazione di magistrati e avvocati è stata vietata con una norma munita di sanzione penale.

E’ vero che l’umanità della decisione e quindi la sua inevitabile discrezionalità importa il tener conto non solo di elementi interni al processo e alla stretta valutazione degli atti del procedimento (il complesso della vicenda, le prove raccolte, le condizioni personali e sociali delle parti e, nel settore penale, i precedenti penali e l’indole ed il comportamento dell’imputato), ma anche del condizionamento derivante da elementi del tutto estranei al processo, relativi alla persona del giudice e agli accadimenti della sua vita come il coinvolgimento emotivo, particolari esperienze esterne del giudice, evenienze contingenti relative alla sua vita. E tali riflessioni hanno portato alla valorizzazione dei «vantaggi dell’affidarsi a regole, formule e algoritmi piuttosto che agli esseri umani quando si tratta di fare previsioni ed alcuni sembrano favorevoli alle decisioni automatizzate perchè il pregio di essere oggettive, non influenzate da elementi esterni e adottate in tempi ragionevolmente brevi.

Tuttavia, le conseguenze di una tale scelta sarebbero gravi.

Innanzitutto la decisione da parte di una macchina deriva dai dati che sono stati introdotti, dalla loro integrità e completezza, sia per quanto riguarda gli elementi processuali, sia per quanto concerne i precedenti giurisprudenziali. Non solo, ma modalità, integrità e completezza dovrebbero essere agevolmente controllabili. Inoltre, inevitabilmente la decisione adottata da una macchina sarebbe definitiva e inappellabile, non potendosi nemmeno pensare ad una macchina “superiore”. Infine, l’elaborazione di una macchina deriva e parte dalle pronunce e dai precedenti di Tribunali e Corti composti da esseri umani. Milioni di precedenti, che vengono immagazzinati e rilavorati per trovare la soluzione al caso specifico. Precedenti che rispecchiano un’evoluzione degli orientamenti giurisprudenziali, ma che sono a loro volta espressione e portato dei cambiamenti sociali e di costume di una società e non solo delle modifiche normative. Affidarsi alle decisioni di una macchina significa fermare questa benefica osmosi tra realtà sociale, diritto e giurisprudenza, cristallizzando le decisioni odierne e future. Anche perché una volta che le decisioni sono automatizzate non c’è più il precedente umano, ma solo un precedente meccanizzato che non fa altro che ripetersi e confermarsi. Sempre guardando ad esperienze straniere, in Cina si sta lavorando per introdurre un magistrato software che regga l’accusa e si rivendica con orgoglio di poter vantare il 97 % di precisione. A parte che occorrerebbe sapere e capire metodo e contenuto con cui viene individuato il tasso di precisione, la prima domanda che ci si pone è la sorte di quel 3% di errore evidentemente accettato.

b) Predittività e Prevedibilità

Ma i timori suddetti possono essere agevolmente superati, perché la giustizia predittiva deve essere intesa, nella sua applicazione costituzionale e ragionata, non nel senso di aprire la strada a decisioni automatizzate e alla sostituzione dell’intervento umano (che sarebbe appunto contrario ai principi costituzionali e ai principi  etici stabiliti dalla Carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari del Cepej, il cd. “Principio del controllo da parte dell’utilizzatore”, su riportato), ma nella prospettiva di un contributo che può esserci dato dall’intelligenza artificiale e dalla sua capacità di immagazzinare ed elaborare milioni di dati, per giungere ad una più alta qualità e a tempi celeri.

Ed infatti, la prevedibilità è un enorme valore e la predittività non è che lo sviluppo della prevedibilità delle decisioni. Prevedibilità significa certezza del diritto, essendo rilevanti le interpretazioni delle norme, che le trasformano in diritto vivente. Calcolabilità e affidamento vanno di pari passo: il diritto calcolabile è un diritto su cui fare affidamento, su cui riporre aspettative: la fiducia nella legge è attesa di rigorosa applicazione, di stabilità nel tempo, di continuità interpretativa.                La prevedibilità si scontra con una legge spesso ambigua e caratterizzata da incerta tecnica legislativa, in cui la mediazione politica affida all’interprete il compito di sciogliere contrasti, e con la discrezionalità lasciata all’interprete. Le diverse interpretazioni non dipendono solo e fondamentalmente da opzioni valoriali diverse, ma dalla realtà multi fonte in rapida evoluzione che impone la ricostruzione dell’ordinamento e della gerarchia delle fonti.

E se, da un lato, la prevedibilità può essere vista come un portato del conformismo e come un ostacolo al naturale e benefico adeguarsi della giurisprudenza alla realtà sociale e ai suoi mutamenti, dall’altro lato bisogna osservare che la giurisprudenza soffre molto di più di anarchia che di conformismo e che la disparità delle decisioni giurisprudenziali su casi analoghi comporta costi notevoli, sia al livello di incertezza dei cittadini circa i propri diritti e quindi circa l’esito che una eventuale causa può avere, sia al livello di incremento della domanda di giustizia. A fronte di giurisprudenze diverse, è inevitabile che il cittadino prima e l’avvocato poi provino la strada giudiziaria nella speranza di qualche possibilità di successo. La prevedibilità di un orientamento, specie quando questo è il frutto di un serio confronto e di successivi assestamenti giurisprudenziali, dà certezza al diritto, scoraggia azioni temerarie e solidifica il diritto. Per questo quanto è stato proposto ed auspicato è un modello bifasico. Estremamente elastico ed aperto nel momento di elaborazione e costruzione di un orientamento a seguito di modifiche normative, di cambiamenti sociali e della creazione e realizzazione di nuovi diritti. Fondato sul consolidamento e lo stare decisis quando vi è una giurisprudenza stabile (laddove comunque il giudice può comunque innovare, a seguito di adeguata motivazione).

c) La situazione attuale e le prospettive

La prevedibilità comporta come precondizione la conoscibilità della giurisprudenza, condizione che è ancora lontana dall’essere compiutamente realizzata.

Per esempio, la Cassazione non è attualmente in grado di realizzare la conoscibilità e armonizzazione dei vari orientamenti, a causa dell’enorme mole ingestibile di procedimenti che si trova ad affrontare ogni anno e per il numero spaventoso di decisioni che è chiamata ad adottare. Al di là della preziosissima banca dati dei provvedimenti, basti pensare che il numero di decisioni delle Sezioni Unite è pari al complesso di provvedimenti di altre Corti Supreme.

Prevedibilità significa in primo luogo consapevolezza: quanto si vuole evitare anzitutto sono i contrasti inconsapevoli. La fortissima domanda di giustizia e l’enorme produzione giurisprudenziale ha come inevitabile portato la varietà delle decisioni e la difficoltà di conoscere l’intero spettro degli orientamenti giurisprudenziali anche su di una singola materia.

A ciò contribuisce l’assenza di banche dati ragionate della giurisprudenza locale e settoriale che non consente un agevole e costante confronto.   Il risultato è che normalmente il giudice non sa orientamenti e decisioni adottate, magari su questioni simili, dagli atri magistrati. Si è certato di porre rimedio con l’art. 47-quater Ordinamento giudiziario, che tra i vari compiti del presidente di sezione delinea quello di curare lo scambio di informazioni sulle esperienze giurisprudenziali all’interno della sezione. Ma tale disposizione, pur di grande rilevanza, è insufficiente in quanto il confronto giurisprudenziale che può essere condotto nelle diverse riunioni mensili è inevitabilmente limitato, essendovi all’interno della stessa sezione vi sarebbero moltissime questioni da affrontare.

Ed allora una giustizia predittiva funzionante può comportare un salto di qualità sia per gli agenti economici che per la giustizia, creando una rete virtuosa. La finalità esterna del progetto è quella di fornire a utenti e agenti economici (si pensi anche allo scopo di attrarre gli investimenti stranieri, ostacolati non soltanto dall’irragionevole durata dei giudizi, quanto dalla loro tendenziale imprevedibilità) dei dati di certezza e di prevedibilità e nel contempo di contenere la domanda, disincentivando le cause temerarie e incoraggiando in modo indiretto le parti che non abbiano possibilità di successo a livello giudiziario di seguire altre strade (conciliative, transattive).

Come realizzare le finalità positive della giustizia predittiva?

Mi ricollego a quanto dicevo all’inizio, circa i mezzi forniti dal Governo per la diminuzione dell’arretrato e la velocizzazione dei procedimenti: la costituzione dell’Ufficio del Processo, attraverso l’assunzione dei c.d. addetti e l’inserimento nell’Ufficio anche degli stagisti e dei GOP.

I finanziamenti del PNRR servono ad alimentare il processo di transizione digitale, cioè un processo che, come lo stesso termine “transizione” indica, è per definizione temporaneo. Ciò che davvero importa è cosa resterà alla fine della transizione, dal momento che l’abbattimento dell’arretrato ultratrienneale è un obiettivo di medio periodo che merita di essere perseguito e che però appare necessario creare delle infrastrutture per rendere anche in futuro più fluida la gestione del traffico giudiziario.

Un ruolo, dunque, che può essere svolto dagli addetti all’UPP è quello collegato alla presenza sempre più estesa dell’intelligenza artificiale nel sistema giudiziario. Si pensi, da un lato al supporto ai processi di digitalizzazione e di innovazione organizzativa dell’ufficio e al  monitoraggio dei risultati. Dall’altro lato, l’Ufficio del processo – in sinergia con la consulenza preliminare delle Università, a loro volta riccamente finanziate – può infatti contribuire alla realizzazione delle banche dati, procedendo all’opera di immissione massiva degli input nel sistema (cioè di dati scomposti in modo così da tendere all’aderenza più precisa tra il caso nuovo e il caso già deciso), e di controllo successivo della rispondenza degli output.

Si osserva, più specificamente, che, per costruire banche dati, supportate dagli algoritmi, realmente utili ed efficienti, occorre educare la macchina a educarsi, fino a farla procedere in sempre più totale autonomia. La prima cosa da fare è immettere i dati giusti nel sistema. Per confidare nelle capacità dell’intelligenza artificiale, occorre anzitutto l’intelligenza umana. Per raggiungere lo scopo della predittività, bisogna ragionare in modo diverso dal passato. Chiunque abbia esperienza del giudizio, sa che la massima non correlata al fatto concreto dice assai poco. Per costruire un sistema di giustizia predittiva occorre prima costruire un giacimento di fatti concreti, più che di massime. Un sistema utile non dovrebbe ammassare le massime, ma classificarle logicamente, evidenziando le peculiarità delle fattispecie concrete.

Siccome le massime sono tratte per definizione da casi l’uno diverso dall’altro, un sistema intelligente di classificazione dovrebbe censire i precedenti in ragione non tanto del principio di diritto, che spesso si risolve in una norma giurisprudenziale non meno generale e astratta di quella interpretata e comunque suscettiva a sua volta di interpretazione, ma in ragione degli elementi di fatto del caso oggetto di giudizio.

Perché la macchina restituisca massime (o interi provvedimenti) puntuali, che possano adattarsi al caso che sollecita l’interrogazione, occorre dunque una particolare intelligenza, che consenta di cogliere le peculiarità del caso concreto e “taggarle” in modo corretto. A quel punto si può cominciare a istruire il sistema, affinché questo, munito della sua “intelligenza”, proceda da sé a “taggare” correttamente le decisioni, ancorandole ai casi concreti. La necessaria, almeno all’inizio, correzione è un’attività anzitutto umana, non soltanto complessa ma specialistica, nel senso che dev’essere compiuta da esperti del settore (i giuristi). E poichè i sistemi di intelligenza artificiale sono muniti di capacità di autoapprendimento, nel corso del tempo, le attività di correzione umana potranno diradarsi. Tali attività, se ben compiute nella fase iniziale, daranno frutti negli anni e nei decenni a venire, perché, adeguatamente istruita e corretta, la macchina un giorno saprà camminare senza conducente.

Non sembra utopistico immaginare che allo sviluppo di sistemi “driverless possa condurre la sinergica attività di Università e addetti all’Ufficio del Processo.

Quando sarà raggiunto quello stadio, si potrà immaginare non solo un uso dell’intelligenza artificiale per definire alcune eccezioni processuali (come l’incapacità di agire di un minore o di un interdetto o del rappresentante di società, associazioni, fondazioni, etc., quando tale qualità risulti direttamente da pubblici registri), ma anche che un robot predittivo possa avere un ruolo fattivo nelle decisioni di inammissibilità in appello, ex art. 348-bis, c. 1, c.p.c., e in Cassazione, ex art. 360-bis, n. 1, c.p.c., poiché in entrambi i casi (e con particolare evidenza nel secondo) l’inammissibilità è una conseguenza della coerenza del provvedimento impugnato con la «giurisprudenza della Corte». Si potrà pure immaginare un uso dell’intelligenza artificiale nelle controversie che implicano quantificazioni, come quelle in materia di risarcimento del danno o di quantificazione degli assegni di mantenimento per la prole. In futuro, non è difficile immaginare software che restituiscano quantificazioni più attendibili, perché alimentati da un maggior numero di informazioni, di cui sia trasparente la c.d. black box, cioè il meccanismo che governa l’algoritmo che opera il calcolo, e che facciano riferimento ad analoghi precedenti.

BIBLIOGRAFIA

-Roberti Natoli e Pierluigi Vigneri, “La tecnologia amica del processo: dall’eredità dell’emergenza pandemica ai sistemi di giustizia predittiva”, 16/3/2022, in https://www.giustiziainsieme.it;

-Claudio Castelli, “Giustizia predittiva”, 8/2/2022, in https://www.questionegiustizia.it;

-Claudio Castelli, “Prevedibilità e predittività”, in giudicednna.it, n. 3.4/2021;

-Alberto La Manna, Enrico Magli e Luciano Bosotti, “L’intelligenza artificiale e le nuove frontiere del diritto”, in “La tutela giuridica del software”, Key Ed., maggio 2022;

-Federica Paolucci, «Algoritmi e intelligenza artificiale alla ricerca di una definizione: l’esegesi del Consiglio di Stato, alla luce dell’AI Act», 8/4/2022, in https://www.giustiziainsieme.it

Silvia Vitrò

Foto: https://it.freepik.com/home

Newsletter