Il saggio, tenendo conto dei diversi approcci proposti a livello internazionale rispetto all’impiego di strumenti di giustizia predittiva, illustra le principali esperienze nazionali riguardanti progetti orientati a sviluppare sistemi di intelligenza artificiale che possano fornire un importante ausilio ai giudici. In tale contesto, l’autore riconosce le opportunità offerte dall’IA ed accoglie positivamente che se ne faccia ricorso nel settore esaminato; al contempo, però, ne evidenzia i rischi e segnala i limiti da porre all’utilizzo degli algoritmi anche alla luce del dettato costituzionale.

Taking into account the different approaches proposed at the international level about the use of predictive justice tools, the paper shows the main national experiences concerning projects aimed at providing artificial intelligence systems that can be useful to judges. In this framework, the author acknowledges the opportunities offered by AI and welcomes its use in the examined field; however, he highlights its risks and points out the limits to be placed on the use of algorithms also in the light of constitutional rules.

Sommario: – 1. Giustizia predittiva ad alto rischio. – 2. Formante giurisprudenziale: i cases studies pilota. –  3. A.I. e legal sistem. – 4. Iurisdictio e predittivività: nel labirinto degli imprevisti e delle probabilità. –  5. Esperienze nazionali e progetti di prevedibilità della giurisprudenza: l’intelligenza artificiale del prossimo venturo. –  6. Le iniziative del Ministero di Giustizia: Pnrr -Pon Governance. – 7. Conclusioni a dimensione umana

1. – Con il regolamento della Commissione Europea per la disciplina delle applicazioni di Intelligenza Artificiale COM(2021) 206 final, approvato il 21 aprile 2022, l’intero settore Giustizia dovrà confrontarsi con i diversi adempimenti previsti dal primo quadro normativo di settore. Figurano, infatti, tra le applicazioni di AI qualificate ad alto rischio anche quelle relative all’amministrazione della giustizia, così individuate dall’Annesso III del Regolamento: “Amministrazione della giustizia e processi democratici: a) sistemi di IA destinati ad assistere un’autorità giudiziaria nella ricerca e interpretare i fatti e la legge e applicare la legge a un insieme concreto di fatti[1].

La Proposta manifesta la piena consapevolezza della elevata rischiosità del ricorso ai sistemi di AI nel settore della giustizia, espressamente osservandosi in un Considerando che «Alcuni sistemi di IA destinati all’amministrazione della giustizia e dei processi democratici devono essere classificati come ad alto rischio, considerando il loro impatto potenzialmente significativo su democrazia, Stato di diritto, libertà individuali e diritto a un ricorso effettivo e ad un giusto processo. In particolare, per affrontare i rischi di potenziali pregiudizi, errori e opacità, è opportuno qualificare come sistemi di IA ad alto rischio quelli destinati all’assistenza nella autorità giudiziaria nella ricerca e interpretazione dei fatti e della legge e nell’applicazione della legge ad un insieme concreto di fatti», sebbene con l’eccezione dei sistemi di AI relativi a «attività amministrative puramente accessorie che non incidono sull’effettiva amministrazione della giustizia in casi individuali, come l’anonimizzazione o pseudonimizzazione di decisioni giudiziarie, documenti o dati, comunicazione tra personale, compiti amministrativi o allocazione di risorse».

Il regolamento prescrive una serie di obblighi di accountability sia per i provider di applicazioni di AI sia per gli utenti. Gli obblighi riguardano tutto il ciclo di vita dell’applicazione di AI, a partire dalla configurazione dei data set, elemento strategico in ogni settore ma soprattutto in quello della giustizia predittiva. Ciò che mette conto segnalare, come rilevato in uno dei primi commenti[2], è, in particolar modo, l’art. 29 del Regolamento – Obblighi degli utenti dei sistemi di IA ad alto rischio – che introduce alcuni obblighi orizzontali per gli utenti delle applicazioni di AI ad alto rischio, valevole anche per tutti gli operatori giudiziari che intenderanno avvalersi di questi strumenti.

La nuova proposta di Regolamento impone che i giuristi si interroghino sulle prospettive offerte dalla cd. giustizia algoritmica.

2. – Così come la dottrina è stata investita da inediti problemi giuridici e questioni di inquadramento sistematico[3], analogamente il formante giurisprudenziale – tanto a livello nazionale[4] che internazionale[5] – ha dovuto confrontarsi con l’avanzare inesorabile delle applicazioni di AI e il ricorso sempre più significativo nella pratica sociale (e, soprattutto, pubblica) di algoritmi, con la peculiarità e il limite di dovere ricorrere al diritto positivo e allo strumentario dommatico e interpretativo attuale, nonché con l’ulteriore caratteristica del confronto con un  singolo caso concreto e specifico sottoposto all’attenzione dell’autorità giudicante.

Quanto alla giurisprudenza nazionale, va segnalata, in primo luogo, Corte di Cassazione, sez. I Civ. – 25/05/2021, n. 14381[6] che – con riferimento ad una vicenda antecedente all’entrata in vigore del GDPR[7] –  ha affermato il principio per cui, in tema di trattamento di dati personali, il consenso è validamente prestato solo se espresso liberamente e specificamente in riferimento a un trattamento chiaramente individuato; ne segue che, nel caso di una piattaforma web (con annesso archivio informatico) preordinata all’elaborazione di profili reputazionali di singole persone fisiche o giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire i punteggi di affidabilità, il requisito di consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati[8]. Nell’annullare, dunque, la sentenza del Tribunale di Roma, la Corte ha avuto modo di chiarire le caratteristiche che devono connotare un consenso al trattamento validamente espresso che deve essere «chiaramente individuato» e «ben definito nei suoi elementi essenziali»[9] con la fondamentale precisazione che si debba trattare di «informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento». In tal senso, l’ordinanza ha colto la necessità di declinare, nell’ottica della riconduzione dell’opacità algoritmica nell’alveo della giustiziabilità e del dovere motivazionale, il diritto alla conoscibilità dell’algoritmo nella direzione del diritto alla spiegabilità dello stesso ovvero alla sua piena comprensibilità[10].

Senza dubbio, oggi la giurisdizione che risulta essere stata più significativamente investita dalle questioni relative alla giustiziabilità dell’algoritmo è la giurisdizione amministrativa, a dimostrazione di quanto sia già in uno stadio significativo il processo di progressiva algoritmizzazione del procedimento amministrativo (ovvero il ricorso in modo sempre più significativo, se non addirittura sistematico, da parte delle pubbliche amministrazioni[11] a sistemi di intelligenza artificiale per l’adozione di atti amministrativi, sia di natura vincolata, ma anche di natura discrezionale)[12]. Non è un caso, in tal senso, che tutti i dubbi di natura dommatica e sistematica di qualificazione giuridica dell’algoritmo e della decisione algoritmica – come fatto ovvero come atto giuridico (in ultima analisi ponendosi la questione della sussistenza o meno di un’intermediazione della volontà umana che, in qualche modo, possa e riesca ad interpolare la fredda operatività matematica dell’algoritmo) sorgano proprio in occasione delle controversie amministrative nelle quali si è affrontata  la questione della nozione di atto amministrativo informatico, dell’applicabilità conseguente, o meno, della relativa disciplina prevista dalla L. 241\1990 e successive integrazioni[13].

3. – Attualmente in campo giudiziario sono adottate solo alcune tecniche di AI, riconducibili ai sistemi di machine learning (in casi avanzati non italiani anche deep learning) e di natural language processing, ovvero le tecniche definite intelligenze artificiali “deboli”, che sono capaci di apprendere da grandi volumi di dati in maniera efficiente e con i maggiori livelli teorici di precisione predittiva.

Lo studioso e avvocato Roland Volg, Executive Director of the Stanford Program in Law, presso la Stanford Law School, identifica sei aree di maggiore crescita di tecnologia nella pratica forense[14]:  ricerca legale, tecniche di recupero delle informazioni legali e giuridiche per fornire elementi utili ai fini della decisione[15]; big data law, varie tecniche di elaborazione di NLP[16] e machine learning che permettono di prevedere risultati e creare modelli di casi, contratti e documenti legali; contract automation, tecniche di ‘automazione del contratto’ con l’utilizzo dell’IA in materia contrattuale[17];  ODR (Online Dispute Resolution), sistemi che permettono di risolvere le controversie online; giustizia “predittiva”, sistemi e tecniche probabilistici che utilizzano algoritmi operanti su base logico-statistica, in grado di determinare l’esito di un processo[18].

A livello internazionale ed europeo, in questi ultimi decenni, l’impiego di tecniche di intelligenza artificiale, soprattutto dei sistemi di machine learning, ha conosciuto un aumento esponenziale di sperimentazioni di natura ausiliaria o addirittura predittiva rispetto al settore degli affari legali e dell’assistenza legale. Solo a titolo esemplificativo, e senza alcuna pretesa di esaustività, si possono citare diverse esperienze.  Kyra Systems, ad esempio, è un sistema integrato di software e IA mirato proprio sulla necessità seriale di due diligence e, attraverso una scansione continua degli aspetti contrattuali, mette in luce le eventuali criticità e i punti di forza estraendo contenuti di particolare rilievo da sottoporre a specifica analisi. Specializzato in compravendite immobiliari, e progettato dall’Istituto tedesco per la IA, Leverton è, invece, un sistema capace di leggere ad altissima velocità i contratti, estraendone i contenuti basici e ricomponendoli per creare nuovi contratti. Negli Stati Uniti, una delle più celebri IA utilizzate in ambito legale è senza dubbio ROSS della IBM, la quale cura, oltre agli aspetti tipicamente forensi di analisi, studio e redazione di atti, anche gli aspetti organizzativi della firm.

Sul versante giurisdizionale, gli impieghi delle IA sono stati indirizzati a sollevare i giudici da incombenze ripetitive o da calcoli mentalmente troppo onerosi. Ad esempio, la Public Safety Assestment (PSA) è una IA progettata e finanziata da una fondazione privata, e cioè Laura and John Arnold Foundation, il cui compito è stabilire l’ammontare, in termini di custodia cautelare o di cauzione, della misura nei confronti dell’imputato.  O, ancora, pensiamo al Legal Analytics di Lex Machina, disegnato per orientare l’azione e le strategie dei difensori effettuando previsioni sulle decisioni dei giudici; ulteriore esempio è il software francese Prédictice, grazie al quale avvocati, consulenti o compagnie assicurative sono in grado di conoscere le chances di successo di una causa, prevedendo le probabilità di successo di un procedimento giudiziario e indicando agli avvocati in che modo è possibile ottimizzare la loro strategia processuale. Ancora, l’Università di Edimburgo ha elaborato e reso applicativo un sistema denominato ADVOKATE (acronimo delle otto domande utilizzate con input per la valutazione della competenza ed affidabilità dei testimoni – tempo, distanza, visibilità, ostacoli, pregressa conoscenza con l’oggetto della testimonianza, particolari ragioni per cui il ricordo possa essersi fissato nella mente, tempo trascorso dal fatto, errori o discrepanze). In Austria, l’IA è utilizzata nei tribunali per effettuare una lettura rapida, per la classificazione e l’attribuzione degli atti, ricorsi e documenti e per effettuare un monitoraggio sull’attività dei tribunali. In Olanda, paese di tradizione di civil law, è stato elaborato un dispositivo telematico per la gestione on line dei casi di mediazione e di soluzione extragiudiziale delle controversie di carattere civile. La piattaforma, elaborata dall’Università di Twente e dallo Hague Institute for the Internationalisation of the Law, crea un’interazione tra utenti e assistenti legali in modo totalmente digitalizzato e dematerializzato. La piattaforma costa 90 euro per l’accesso, 360 per la mediazione, 240 per la soluzione della controversia, 300 per la revisione delle decisioni assunte in sede giudiziale[19].Vi è, poi, il caso dell’Estonia[20], paese nel quale il Ministero della Giustizia alla fine del 2019 ha avviato un progetto pilota per l’impiego di IA per risolvere controversie di modesta entità (fino a 7.000 euro): il progetto prevede che le decisioni robotiche siano appellabili davanti ad un giudice-persona. Anche la Repubblica cinese si è mossa nella medesima direzione attraverso un progetto elaborato dalla Corte di Internet di Pechino[21].

Prima di passare in rassegna i progetti esistenti a livello nazionale, è opportuno interrogarsi ancora su pregi e difetti del ricorso ai sistemi di AI in ambito legale e, specificamente, giudiziario.

4. – L’algocrazia scuote le mura del diritto, già fessurate dalla globalizzazione economica, investendo la teoria generale del diritto con una disruption antropologica, forse, senza precedenti. Se l’avvento di strumenti automatizzati, insieme alla enorme capacità computazionale, immuta la natura stessa dello strumento, trasformandolo da mero veicolo connettivo e comunicativo tra soggetti umani in un vero e proprio strumento conoscitivo e decisionale[22], caratterizzato sempre più da un elevato grado di autonomia rispetto al suo stesso creatore e se, poi, questo nuovo agente opera, revocando in dubbio la centralità epistemologica del principio di causalità scientifica (in pro della mera correlazione statistica), allora al giurista si pongono dinnanzi esiziali domande di sistema: se debba o possa predicarsi una soggettività giuridica delle macchine automatizzate[23]; quale sia ancora il ruolo e la funzione della volontà negoziale[24] e se, rispetto a questa nuova entità, nell’ambito della responsabilità[25], abbiamo ancora un senso (e una funzione) concetti come il dolo e la colpa[26]. Il sisma algoritmico mette anche in crisi la distinzione (e la separazione) tra sfera\diritto pubblico e sfere\diritto dei privati: la natura proprietaria dei sistemi algoritmici offre soluzioni economiche e veloci al settore pubblico, determinando una vera e propria dipendenza tecnologica – ed ancor prima culturale – da parte delle amministrazioni pubbliche nei confronti delle imprese fornitrici[27].

I rischi e le opportunità, segnalate dalla pubblicistica (e qui sommariamente richiamate), si replicano con ulteriori profili – sia critici che positivi – anche allorquando si volga l’attenzione al rilievo che l’I.A. può assumere nell’ambito strettamente giudiziario e giurisdizionale.

Giudicare non è sumere calamos e abacos, come pensava Leibtniz (nella “Dissertatio de arte combinatoria”). I giudici non sono semplici calculatores sillogistici. Là dove c’è diritto e domanda di giustizia non può aprioristicamente predicarsi l’applicazione di una semplice regola logico-matematica automatizzata[28] (salvo che si tratti di attività effettivamente vincolate[29] e, forse, seriali). In più, il riferimento continuo alla predittività giudiziaria rischia di ingenerare un pericoloso equivoco[30], evocando la possibilità di una giustizia quasi anticipata; quasi che il giudizio[31] e il progredire di atti, comportamenti, acquisizioni e finali riflessioni (senza dimenticare la dimensione spazio-temporale-umana[32] che lo caratterizza e vivifica) sia un orpello destinato ad essere superato – o quanto meno fortemente ridimensionato – grazie all’oracolo del nuovo mondo[33].

Se in altri paesi si sperimentano soluzioni giurisdizionali automatizzate, delle due possibili diverse prospettive, e cioè quella di una decisione robotica e quella di un ruolo di mero ausiliare giudiziario (ovvero il ricorso ai sistemi di A.I. di una funzione complementare della macchina predittiva di mero ausilio alla decisione), non si potrebbe che parteggiare per questa seconda soluzione, ponendo comunque alcuni fondamentali distinguo.

Ma, prima di provare ad individuare i pro e i contra[34] rilevanti per la terza via costituzionalmente orientata del massimo (possibile e ragionevole) impiego degli strumenti di A.I. in ambito giudiziario, vanno individuati di quale ausilii si discute in ottica combinatoria di contaminazione tra l’uomo e la macchina in fase sia pregiudiziale che propriamente giudiziale. Diversi sono gli ambiti e i settori individuabili: il legal aid e l’attività di ricerca dei precedenti significativi, l’ausilio preliminare all’avvio del procedimento giurisdizionale per individuare il probabile esito dell’instaurando giudizio con possibilità di valorizzazione della successiva responsabilità processuale in caso di soccombenza[35]; la possibilità di una trattazione accelerata e automatizzata di casi seriali o a discrezionalità ridotta (small claims); la creazione di sistemi esperti di segnalazione di allert su vincoli procedurali e\o organizzativi; la facilitazione dello spoglio funzionale al filtro in Cassazione e in appello; il supporto a valutazioni tecniche di rilievo economico-monetario (indennità di licenziamento, assegno divorzile, invalidità civile, rischio insolvenza debitore, percentuali soddisfacimento dei creditore in ambito esecutivo\fallimentare); il supporto esperto alla decisione vera propria con strumenti di coordinamento delle fonti nazionali\sovranazionali, di individuazione della normativa rilevante, dei precedenti giudiziari significativi, di simulazione di soluzioni alternative e di predisposizione della bozza di decisione[36][37].

Il consolidamento del processo civile telematico e la migrazione in digitale del processo sono ormai in uno stadio molto avanzato, sicché, considerando anche la professionalità e l’interesse mostrati dal ceto forense, dai funzionari e dai magistrati italiani, si è in presenza di una significativa quantità di dati giudiziari, di natura sia prettamente statistico-organizzativa che giurisdizionale. La possibilità di una fruizione e rielaborazione di questa mole di dati offre prospettive molto positive sotto diversi profili[38]: piena conoscibilità e trasparenza delle norme[39] e della giurisprudenza relativa; eliminazione delle asimmetrie informative\relazionali; forte impatto di democratizzazione sociale tramite la disintermediazione legale[40]; elisione del contrasto giurisprudenziale inconsapevole in funzione della certezza del diritto e della parità di trattamento; conseguente potenziale effetto deflattivo dell’arretrato giudiziario; realizzazione di risparmi economici ed economie di scala; riduzione complessiva della durata dei processi; rinnovata capacità di programmazione giudiziaria e di valutazione delle performances[41]. Se così è, allora, ci si trova di fronte ad indubitabili benefici attesi, i quali non possono che consigliare l’adozione di sistemi esperti anche in ambito giudiziario, sebbene – eletta la via del ricorso ai sistemi di AI – si imponga un’attenta e rigorosa disamina delle criticità che il ricorso ai sistemi esperti determina, atteso i valori costituzionali coinvolti in sede giurisdizionale.

Molteplici parametri di costituzionalità legano la iurisdictio alla persona umana e conclamano, in netta contrapposizione alla prospettiva del giudice-robot, la direttrice della possibile fruizione dell’AI nel settore giudiziario solo in funzione servente e consulenziale: l’art. 102 Cost.  fa chiaramente riferimento al giudice persona fisica (quale giudice naturale precostituito per legge) e richiede che la funzione giurisdizionale sia affidata a magistrati; l’art. 111 Cost. per inverare il giusto processo fa riferimento ad un giudice terzo e imparziale, così come l’art. 101 Cost. vuole che i giudici siano soggetti solo alla legge, escludendo che il giudice possa essere vincolato all’esito dell’algoritmo predittivo; l’art. 24 Cost. postula il pieno dispiegamento del diritto di difesa tra esseri umani che sarebbe di fatto schiacciato (o quanto meno, compresso) di fronte all’enorme potenza computazionale di un algoritmo capace di processare decenni e decenni di pronunce giurisprudenziali. Non senza dimenticare, come è stato efficacemente osservato, che “vi è anche un argomento giuridico di rango costituzionale, che fa capo al principio di indipendenza del potere giudiziario dal potere politico, presente negli ordinamenti di democrazia liberale. Principio che non sarebbe più garantito nel momento in cui la decisione giudiziaria fosse interamente determinata da processi di AI impostati secondo scelte del potere politico[42]. La dottrina che ha affrontato questi temi ha sapientemente illustrato i contra che ancora presidiano lo scranno umano del giudicare[43].

Ma, al di là dei limiti costituzionali alla cd. Giustizia predittiva di fonte algoritmica, è bene soffermarsi sui limiti intrinseci e ontologici che porta seco il ricorso alle tecnologie algoritmiche nel settore giuridico e, specificamente, in quello giurisdizionale. Pensiamo, in primo luogo, alla disumanità del programma a confronto della centralità dell’umano, quale perno e dato antropologicamente complesso, storicamente individuato, spazialmente e temporalmente collocato, fortemente intriso e caratterizzato anche da una, ineludibile, dimensione simbolica; alla natura proprietaria, elitaria, muta e oscura della scrittura digitale, negata alla voce, alla emozione, al contesto; al tramonto dell’interpretazione a favore dell’induzione probabilistica[44], alla reductio della decisione giudiziaria a fatto numerabile a codice binario, deprivato della sua storicità, riaggregabile e correlabile senza limite; al potenziale normativizzante dell’algoritmo predittivo, destinato a divenire fonte alternativa di normatività giuridica per la sua formidabile capacità di autoimporsi sulla scorta del precedente alimentato (tramite un’infinità serie giurisprudenziale assunta come mero dato fattuale finale decontestualizzato, ma statisticamente rilevante sulla base di mere correlazioni induttive); alla deriva prescrittiva del responso algoritimico per il timore reverenziale del giudice-uomo posto dinanzi alla potenza calcolatoria del sistema e alla verosimile, conseguente,cd. Cattura del decisore ovvero alla possibilità di un giudice, piegato dalla propria pigrizia mentale, che si sottragga all’onere rinforzato di motivazione dissenziente rispetto al responso algoritmico[45]. Pensiamo, ancora, alla possibile, progressiva, cristallizzazione della giurisprudenza, soggetta ad un sistema che strutturalmente per sua programmazione valorizza – alla ponderazione del caso singolo, storicamente connotato e, in ultima analisi, alla qualità della decisione – una deriva deterministico\quantitativa[46]. In questo scenario, per certi versi, distopico (ma non troppo), si assisterebbe ad uno dei tanti paradossi dell’innovazione tecnologica, la quale – consacrando che la legge si fonda ormai più sulla quantitas anteatta, piuttosto che sull’auctoritas – diverrebbe un formidabile araldo della conservazione e del rafforzamento delle tendenze maggioritarie. Si realizzerebbe per tale via una sorta di pietrificazione del tempo attraverso l’affermazione di un tempo virtuale che, per predire il futuro possibile, nel presente valorizza il passato, rafforzando l’ideologia a scapito della utopia, ovvero del futuro stesso[47] [48].

Lo sviluppo dell’AI ha, per citare Umberto Eco, creato due fazioni distinte: gli apocalittici e gli integrati[49]. Gli apocalittici sono coloro che vedono nell’Intelligenza Artificiale un demone pronto a prendere il sopravvento sulle persone e sull’umano; un nuovo Moloch destinato a privare l’umanità della capacità di volere e decidere, sottraendo il lavoro alle persone, violando la loro privacy e controllando impercettibilmente la loro vita; di contro, gli integrati aspirano e sognano un nuovo mondo dove macchine guidate da strumenti di AI siano veicoli di amplificazione delle qualità umane [50].

Anche in questo caso, occorre razionalizzare e individuare il passaggio a nord-ovest, stretto e periglioso e, per certi versi, ancora a venire[51], che consenta di progredire lungo una strada che valorizzi, senza snaturare, l’integrazione tra uomo e macchina[52] e individui il valore aggiunto dell’immensa capacità di calcolo e analisi che è oggi a portata di mano. In questo campo l’AI, ed in particolare le tecniche di ML e di NLP, potranno essere di grande aiuto all’organo giudicante: la carta vincente è un’interazione uomo-macchina consapevole (sin dal primo momento della programmazione), vigilata e mite[53]. L’AI può supportare[54]  in modo concreto il giudice fornendogli informazioni utili al suo ragionamento[55], ma solo come ipotesi astratte,[56] fondate su output probabilistici degli orientamenti della giurisprudenza, confronti e correlazioni di informazioni, ricostruzioni e collegamenti tra norme e fatti non correlati[57]. Tale apertura dovrà sempre considerare un rischio immanente, già più volte richiamato, ovvero la consapevolezza della forza bruta di auto-imposizione che la tecnica esprime anche rispetto al diritto e alla giustizia. Ci si riferisce a quella che efficacemente è stata definita la travolgente forza pratica dell’algoritmo[58], ovvero il pericolo della cd. cattura del decisore (tanto più, sia consentito osservare, ove il decisore sia attinto da carichi di lavoro non suscettibili di una adeguata trattazione significativa).

Occorre che il sistema istituzionale – e quello giudiziario in particolare – sappia sviluppare competenze e anticorpi culturali idonei a fugare dubbi ed evitare questi rischi: la risposta per un utilizzo consapevole e costituzionalmente rispettoso dei sistemi di AI non può che passare da una risposta sistemica di tipo cooperativo dei vari attori istituzionali, pubblici e privati che siano: come è stato osservato, occorre raccogliere «la sfida di un insieme di strumenti legal tech al servizio dei diversi formanti giuridici. Collegare simili iniziative al processo telematico e alla dematerializzazione della pubblica amministrazione potrebbe soddisfare una pluralità di esigenze in uno “spazio comune” del materiale giurisprudenziale per ciascun ordinamento, basandosi sulla logica Open Data. Il che renderebbe, di fatto, accessibile a tutti un profilo del tutto quotidiano della società, quale è quello del contenzioso civile rispetto alle relazioni fra consociati» [59]. Qualunque sia la strada da intraprendere, non v’è dubbio che dovrà tenersi conto dei principi ineludibili emersi dalla presente riflessione: in aggiunta ai cinque principi individuati dalla Carta etica della Cepej[60], dovranno essere attentamente considerati il principio della conoscibilità e, soprattutto, di conseguente comprensibilità (della logica) della decisione fondata su sistemi automatizzati, il principio di non esclusività[61], il principio di precauzione costituzionale per cui«deve esistere una regolazione effettiva, di livello sovra-nazionale e sovra-legislativo, riguardante le tecnologie, vòlta ad evitare il verificarsi di violazioni delle libertà fondamentali non più (o molto difficilmente) rimediabili una volta che esse sono state diffuse» [62].

5. – In ambito giudiziario vanno segnalate le esperienze di Brescia[63] e dei Tribunali di Pisa e di Genova[64], oltre i progetti di Bari[65] e di Venezia[66], progetti tutti orientati all’obiettivo di restituire, se non rendere prevedibile o, addirittura, di prevedere, la possibile soluzione giuridica di singole questioni in punto di diritto o di casi. In linea generale, tutte le ricerche sperimentali ad oggi puntano su una attività di massimazione/creazione di schede di analisi delle sentenze con livelli di automazione diversificati[67]. A livello progettuale, tutte le esperienze mirano alla pubblicazione del dataset di sentenze massimate su cui si costruirà in una fase successiva un motore di ricerca più o meno avanzato. Tutti i progetti vogliono sostanzialmente fornire la base dati giurisprudenziali a fini teoricamente deflattivi del contenzioso ovvero a derivare con statistica avanzata tendenze giurisprudenziali.

Ai progetti elencati è doveroso aggiungere il progetto dell’Università di Bologna EU4JUSTICE – AI4JUSTICE[68]: il progetto punta ad analizzare l’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, applicata anche agli strumenti di giustizia predittiva e alle aspettative di prevenzione della criminalità e del rischio per le persone e gli spazi (predictive, data analytics, legal design). Si prevede che il gruppo di lavoro opererà su casi pilota focalizzati in particolare sulla creazione di documenti giuridici annotati e validati attraverso i linguaggi XML Akoma Ntoso e LegalRuleML e sulla possibilità di analizzare la pluralità delle fonti, ottenendo così maggiori elementi di significato giuridico attraverso la connessione tra documenti legislativi e documenti giurisprudenziali.

Più precisamente, la sperimentazione, avviata dal 2018, tra la Corte di Appello, il Tribunale e l’Università di Brescia intende fornire a utenti e avvocati due dati fondamentali per garantire una certezza non solo del diritto ma anche delle relazioni industriali e sociali, ovvero la possibilità di sapere quanto può durare un procedimento su una data materia e la possibilità di conoscere gli orientamenti esistenti nei diversi uffici a partire dal Tribunale e dalla Corte di Appello di Brescia.  Segnatamente, i lavori prevedono l’individuazione delle materie da esaminare (diritto societario e industriale, contratti bancari, licenziamenti, diritto contributivo, infortunistica sul lavoro e appalti), la creazione di una banca dati per ogni materia, la circolarità della giurisprudenza tra I e II grado, la creazione di gruppi di lavoro dell’Università insieme a Corte di Appello e Tribunale per ogni branca di materie che prendano in carico i provvedimenti emessi e ne estraggano orientamenti e casistiche, l’estrazione dei dati sui tempi medi di durata dei procedimenti materia per materia depurati dall’arretrato in modo da poter dare una previsione sul tempo di durata e, infine, la pubblicizzazione dei dati su tempi e orientamenti, in forma anonima, sul sito giustizia Brescia e su altri siti affini[69]. Come è dato vedere, non si tratta di un progetto di giustizia predittiva, allo stato della sua evoluzione, indirizzato all’utilizzo di sistemi di AI, piuttosto essendosi preferito fornire immediate utilità conoscitive agli stakeholders sugli orientamenti giurisprudenziali e sui tempi di definizione delle controversie.

Il progetto di giustizia predittiva della terza sezione civile presso la Corte di appello di Bari prevede che l’elaborazione della casistica e la redazione delle schede sarà curata dai tirocinanti e dagli specializzandi della sezione, sotto la supervisione dei consiglieri affidatari o di altro consigliere designato dal Presidente di Sezione; i temi saranno assegnati ai tirocinanti e specializzandi dal Presidente di Sezione, sentiti il consigliere affidatario ed il tirocinante/specializzando; i lavori saranno coordinati dal Presidente di sezione e le schede saranno approvate dai consiglieri della sezione nel corso delle riunioni ex art. 47 quater Ord. Giud.; il Presidente di sezione è delegato ad avviare ogni interlocuzione necessaria con gli Ordini forensi ed il mondo accademico, per garantire la pubblicità dell’iniziativa, l’eventuale collaborazione degli stessi alla attività di approfondimento scientifico, la diffusione dei risultati raggiunti, anche attraverso la pubblicazione su siti istituzionali, associativi o di categoria[70].

Analisi del linguaggio naturale (NLP) e apprendimento automatico rappresentano la base del progetto con l’Università S. Anna di Pisa. Più precisamente, il progetto intende realizzare un sistema di lettura e classificazione automatica delle sentenze estratte dalla banca dati PCT dei Tribunali di Pisa e Genova grazie all’addestramento di un algoritmo: l’obiettivo è quello di realizzare una white box che permetta di spiegare il perché il sistema offra determinate risposte. Il risultato previsto è la creazione di un DATA LAKE[71], nell’ambito del quale, attraverso un annotatore giuridico-semantico, si sviluppa una etichettatura semantica dei processi e, quindi, si perviene alla creazione del NLP-Model, tramite cui vengono poi lette e classificate automaticamente tutte le sentenze immesse nel sistema.  Si intende addestrare l’algoritmo in modo che sia in grado di proporre casi simili a quello di volta in volta proposto, quanto a decisioni simili, prove simili, ragionamenti simili, regole giuridiche applicate. Il percorso sperimentale prevede l’identificazione delle tipologie di frasi estratte dai provvedimenti giudiziari, previa classificazione dei provvedimenti, con successiva modellizzazione dei dati. Gli output del progetto previsti sono l’inserimento di caso legale nel sistema e la estrapolazione di una risposta, quale suggerimento di casi simili (decisioni simili, prove simili, ragionamenti simili e regole giuridiche).

Particolarmente significativa è, in prospettiva, anche la convenzione siglata il 29 settembre 2021 tra la Corte di Cassazione e la Scuola universitaria superiore IUSS di Pavia[72]: l’“Accordo Quadro” intende avviare una collaborazione strategica tra la stessa Scuola e il Centro Elettronico di Documentazione (C.E.D.) della Corte per lo sviluppo di ricerca avanzata nel settore degli strumenti tecnici per la raccolta e l’organizzazione del materiale giuridico digitale. L’obiettivo dichiarato è la valorizzazione del patrimonio conoscitivo costituito dal corpus della giurisprudenza e della legislazione italiana e europea, attraverso l’uso degli strumenti di legal analytics e di intelligenza artificiale con il fine di estrarre e rappresentare conoscenza giuridica, rinvenire correlazioni implicite, individuare tendenze circa gli  orientamenti giurisprudenziali e/o legislativi in modo che sia meglio consultabile ed elaborabile in sede di attività giudiziaria e di ricerca scientifica[73].

6. – Il Ministero della Giustizia ha recentemente avviato progetti di ricerca applicata, con lo scopo di estrarre la conoscenza contenuta nel patrimonio documentale, per la realizzazione di sistemi di: anonimizzazione delle sentenze; automazione nella individuazione del rapporto vittima-autore nei provvedimenti giurisdizionali; gestione e analisi della conoscenza del processo; sistema di controllo di gestione del processo; rilevazione statistica avanzata sui procedimenti civili e penali. 

Le cinque linee direttive rientrano in un approccio datalake: rispetto ai tradizionali sistemi di Big Data Analytics e Data Warehouse, questo sistema non necessita di una strutturazione ex ante del dato e, anzi, trova proprio nella capacità di accogliere dati strutturati, semi-strutturati e destrutturati il suo punto di forza.  Data Lake consente di acquisire dati nel formato nativo e ogni elemento riceve un identificatore e un insieme di metadati a corredo e la ricerca accede a tutte le informazioni disponibili, indipendentemente dalla sorgente che le ha generate.

Grazie a finanziamenti supplementari a valere sul Recovery Fund il dipartimento dei sistemi informativi automatizzati del Ministero – DGSIA – investirà su: – prototipo di Sistema di Controllo di Gestione del processo civile, supportato con le tecnologie di intelligenza artificiale, opera sulle basi di dati e sui flussi di lavoro del processo civile telematico  e permette l’elaborazione di un vasto insieme di indicatori di performance, che danno la possibilità di effettuare benchmarking (valutazioni) comparativi tra Tribunali e unità operative di Tribunali e benchmarking temporali.  Il sistema permetterà di individuare aree di inefficienza e, tramite analisi sulle sequenze temporali di attività e sui flussi di lavoro, consentirà ai Dirigenti Giudiziari, ai Dirigenti Amministrativi, al Consiglio Superiore della Magistratura, al Ministero e al Parlamento, secondo le rispettive competenze, di elaborare nuovi e più efficienti modelli organizzativi, o di gestione del processo giurisdizionale.

In parallelo, il Ministero della Giustizia ha, di recente, pubblicato l’Avviso per il finanziamento degli interventi a regia in attuazione del Progetto complesso “Progetto unitario su diffusione dell’Ufficio del Processo e per l’implementazione di modelli operativi innovativi negli Uffici giudiziari per lo smaltimento dell’arretrato[74]. All’avviso hanno aderito 57 atenei pubblici statali dislocati su tutto il territorio nazionale, raggruppati in 6 macro-progetti per un totale di oltre 51 milioni di euro. Le linee di intervento sottoposte alle Università nel bando sono quattro: linea 1 – definizione di moduli operativi per la costituzione e l’implementazione dell’Ufficio per il Processo; linea 2 – individuazione di modelli per la gestione dei flussi in ingresso e degli arretrati presso gli Uffici Giudiziari; linea 3 – attivazione e sperimentazione dei modelli e dei piani relativi alle azioni precedenti; linea 4 – ridefinizione dei modelli formativi e consolidamento dei rapporti tra gli stakeholders. Secondo una prima sintesi, le proposte avanzate in tema di digitalizzazione dell’attività del giudicare vanno dalla messa  a punto di software di supporto alla scrittura della motivazione, alla creazione di un file di modello concettuale di sentenza di primo grado, che possa fungere sia da strumento formativo per i tirocinanti che come passaggio intermedio per ottenere cosiddetti modelli di nuova generazione, per alimentare una library nella consolle del magistrato  e per contribuire a superare le criticità attuali del processo telematico (allegati voluminosi, assenza di sistemi di archiviazione per file diversi da quelli di scrittura); sistemi di document builder, sistemi di anonimizzazione semi automatica; strumenti di analisi semantica delle sentenze; la prototipizzazione di ricerca semantica evoluta (non solo per keywords), intelligenza artificiale per la gestione dei precedenti (come impone Il piano d’azione 2019-2023 Action Plan European e-Justice), valorizzazione della esistente digitale ( creazione di data base di giurisprudenza  (come data lake) con integrazione fra i dati messi a disposizione dai sistemi del Ministero e la mole di dati molto eterogenei presenti nella singola corte. progettazione di una chatbot per la interazione delle utenze. Le propose relative alla individuazione di modelli per la gestione di flussi di ingresso  e gestione dell’arretrato riguarderanno la implementazione di tecniche quali il Business process management, il process mining (intersezione tra data e modellizzazione di processi), il monitoraggio predittivo dei processi, la formulazione standardizzata degli atti introduttivi del giudizio[75]. Com’è dato vedere, riveste un ruolo centrale, ai fini individuati dal Governo italiano di realizzazione degli obiettivi di performance quantitativa e qualitativa per il settore giudiziario nell’ambito del PNRR, l’adozione di strumenti tecnologici avanzati e di intelligenza artificiale per la configurazione di un nuovo ufficio per il processo moderno quale strumento per aumentare l’efficienza negli uffici giudiziari e diminuire i tempi di definizione dei procedimenti civili[76]. Lo stretto collegamento gli strumenti di intelligenza artificiale e gli obiettivi di ottimizzazione delle performance giudiziarie attraverso l’implementazione dell’ufficio per il processo in tutti gli uffici giudiziari italiani costituirà, in tal senso, il privilegiato campo di riflessione dei prossimi anni[77]; riflessione che dovrà necessariamente essere caratterizzata da un approccio misto che sappia sapientemente coordinare le politiche programmatorie ministeriali con le più avanzate sperimentazioni locali in modo da testare in concreto le prospettive di ottimizzazione della funzione giudiziaria attraverso il ricorso agli strumenti di intelligenza artificiale[78].

7. – In un saggio del 1967, il filoso Pietro Piovani raccoglieva la sfida che si è tentato sommariamente di descrivere e concludeva con una speranza: «L’involontaria pedagogia della macchina esorta alla radicalizzazione elementare del principio della vita: alla fine (letteralmente alla fine) può essere la macchina a rimettere in moto, con la sua semplificazione radicale, il congegno della coscienza. La sua potenzialità distruttiva è forse la più valida potenza soterica per l’umanità novecentesca. Se, grazie alla macchina scatenata, l’uomo imparerà di nuovo a tremare (nel senso, come a me piace intendere, di ragionare, ripensare…), sarà salvo»[79].


[1] Così C. Morelli, Nuove regole europee per l’AI: impatto su giuristi e legal tech, consultabile online su https://www.altalex.com/documents/news/2021/05/10/intelligenza-artificiale-legal-tech-impatto-su-giuristi-e-users.

[2] C. Morelli, op. loc. ult. cit.

[3] Si rinvia a M. Sciacca, Algocrazia e sistema democratico. Alla ricerca di una mite soluzione antropocentrica, Contratto e Impresa, 4/2022, 1173.

[4] Si veda A. Pajno – M. Bassini – G. De Gregorio – M. Macchia – F.P. Patti – O. Pollicino, S. Quattrocolo – D. Simeoli – P. Sirena, AI: profili giuridici Intelligenza artificiale: criticità emergenti e sfide per il giurista, in BioLaw Journal – Rivista di BioDiritto, 2019, 213: «Alcune delle pronunce si sono focalizzate sull’esistenza di un nesso di causalità che rendessero addebitabili all’utilizzatore ovvero al produttore le conseguenze dannose degli incidenti. In tale prospettiva era analizzato il contributo causale offerto da eventuali comportamenti negligenti da parte delle vittime. Altri precedenti in questa direzione hanno affrontato il tema della separabilità tra le componenti difettose e i macchinari nei quali queste ultime venivano incorporate. Indicazioni di significativa importanza si sono intraviste anche nella giurisprudenza della Corte di giustizia dell’Unione europea, che si è confrontata con l’applicazione di sistemi di filtraggio automatici sui flussi di comunicazione da parte delle piattaforme digitali e sull’esistenza di una responsabilità di questi operatori per eventuali illeciti commessi dagli utenti terzi a mezzo dei servizi (specialmente nelle cause C-70/10, Scarlet c. Sabam e C-360/10, Sabam c. Netlog; oltre che in cause riunite C-236, 237 e 238/08, Google France). A differenza delle decisioni incentrate sulla robotica, che hanno spesso fatto ricorso alle categorie della responsabilità da prodotto difettoso in relazione a eventi dannosi, un filone giurisprudenziale più recente cerca di conciliare l’utilizzo di sistemi algoritmici con, da un lato, l’amministrazione della giustizia e, dall’altro, gli eventuali provvedimenti della pubblica amministrazione. Le pronunce paradigmatiche in questo ambito risalgono, per un verso, al Consiglio di Stato italiano (sez. VI, 8 aprile 2019, n. 2270) e al Conseil Constitutionnel francese (sentenza n. 2018-765 DC del 12 giugno 2018) e, per altro, alla Corte Suprema del Wisconsin (Loomis v. Wysconsin, 881 N.W.2d 749 (Wis. 2016), certiorari negato con sentenza 137 S.Ct. 2290, 2017)».

[5] Si veda A. Pajno e al., op. ult. cit., 214: «In Francia, una decisione del Conseil Constitutionnel del 2018 si è pronunciata sulla legittimità di una norma che ampliava la possibilità per la pubblica amministrazione di ricorrere (seppure a titolo di eccezione) a decisioni in grado di produrre effetti giuridici sugli individui fondate su un trattamento automatico di dati personali. La stessa disposizione legittimava decisioni automatizzate nel caso in cui (i) l’attività algoritmica non riguardasse dati sensibili, (ii) fosse possibile una via di ricorso amministrativa e (iii) fossero fornite adeguate informazioni in relazione all’utilizzo di algoritmi. Di tale norma veniva dedotto un possibile conflitto con la distribuzione dei poteri esecutivi prevista dall’art. 21 della Costituzione, soprattutto in relazione alle capacità di autoapprendimento degli algoritmi che avrebbero potuto determinare l’applicazione di regole differenti da quelle pre-impostate. Il Conseil ha per escluso l’esistenza di profili di incostituzionalità, ritenendo che fossero state osservate tutte le garanzie necessarie alla salvaguardia dei diritti e delle libertà degli individui. Tra queste, rientravano fattori come: la limitazione dell’utilizzo a specifiche tipologie di decisioni, la previsione delle ricordate condizioni legittimanti e la possibilità per l’individuo destinatario ultimo di una decisione di ottenere una spiegazione in modalità intellegibili e dettagliate del funzionamento del processo algoritmico».

[6] Si rinvia a G. Scorza, L’algoritmo deve essere trasparente, la Cassazione rilancia il GDPR, consultabile online su https://www.agendadigitale.eu/sicurezza/privacy/lalgoritmo-deve-essere-trasparente-la-cassazione-rilancia-il-gdpr/.

[7] M. Bassini – O. Pollicino, «La Cassazione sul «consenso algoritmico. Ancora un tassello nella costruzione di uno statuto giuridico composito, in Giustizia insieme, 21 giugno 2021, nel commentare l’ordinanza di legittimità, osservano: «il GDPR sembrerebbe dettare tre principi: il principio di conoscibilità, che si rafforza in principio di comprensibilità quanto si tratti di decisioni automatizzate adottate da soggetti pubblici; il principio di non esclusività della decisione algoritmica, che assicura un contributo umano in grado di controllare, validare o smentire la decisione automatica; il principio di non discriminazione algoritmica, che impegna il titolare dei trattamenti a mettere in atto quanto necessario a rettificare i fattori che comportano inesattezze, per minimizzare gli errori e impedire effetti discriminatori».

[8] F. Paolucci, «Consenso, intelligenza artificiale e privacy. Commento a: Corte di Cassazione, sez. I Civ. – 25/05/2021, n. 14381», in MediaLaws, 16 giugno 2021.

[9] Corte di Cassazione, sez. I Civ. – 25/05/2021, n. 1438: «La scarsa trasparenza dell’algoritmo impiegato allo specifico fine non è stata ben vero disconosciuta dall’impugnata sentenza la quale ha semplicemente ritenuto non decisivi i dubbi relativi al sistema automatizzato di calcolo per la definizione del rating reputazionale, sul rilievo che la validità della formula riguarderebbe ‘il momento valutativo del procedimento’, a fronte del quale spetterebbe invece al mercato ‘stabilire l’efficacia e la bontà del risultato ovvero del servizio prestato dalla piattaforma’. Questa motivazione non può essere condivisa giuridicamente, in quanto il problema non era (e non è) confinabile nel perimetro della risposta del mercato – sintesi metaforica per indicare il luogo e il momento in cui vengono svolti gli scambi commerciali ai più vari livelli – rispetto alla predisposizione dei rating attribuiti ai diversi operatori. Il problema, per la liceità del trattamento, era invece (ed è) costituito dalla validità – per l’appunto – del consenso che si assume prestato al momento dell’adesione. E non può logicamente affermarsi che l’adesione a una piattaforma da parte dei consociati comprenda anche l’accettazione di un sistema automatizzato, che si avvale di un algoritmo, per la valutazione oggettiva di dati personali, laddove non siano resi riconoscibili lo schema esecutivo in cui l’algoritmo si esprime e gli elementi all’uopo considerati».

[10] M. Palmirani, Big data e conoscenza, in Rivista di filosofia del diritto, 2020, 73 ss.: l’A. si interroga – in un’ottica di effettività dell’applicazione dei diritti previsti dal GDPR, quali il diritto di rettifica e il diritto di accesso –  sul contenuto del diritto alla spiegabilità, estendendolo anche alla conoscibilità dei dati che hanno dato origine alla decisione automatizzata, nel senso che «si vuole dimostrare che la spiegabilità non è limitata alle <sole informazioni significative sulla logica utilizzata dall’algoritmo> ma che per realizzarsi nella sua pienezza devi includere anche i big data su cui questi processi di intelligenza artificiale fondano l’esito finale… « in modo da «introdurre accanto al diritto alla spiegabili dell’algoritmo e della decisione automatica finale anche il principio della conoscibilità dei dati non tanto e non solo quelli che sono stati contribuiti osservati dall’utente, ma anche quelli che hanno contribuito al processo decisionale quindi quelli inseriti, derivati, collettivi, statistici, anche se anonimi».

[11] V. Neri, Diritto amministrativo  e intelligenza artificiale:  un amore possibile, in Appalti e lavori pubblici, 5\2021: «L’art. 3-bis, L. 7 agosto 1990, n. 241, nella formulazione risultante dalle modifiche introdotte dal D.L. 16 luglio 2020, n. 76, si limita infatti a disporre che «[p]er conseguire maggiore efficienza nella loro attività, le Amministrazioni pubbliche agiscono mediante strumenti informatici e telematici, nei rapporti interni, tra le diverse amministrazioni e tra queste e i privati«. Parimenti, l’art. 50-ter, D.Lgs. n. 82 del 2005, nel prescrivere l’istituzione di una Piattaforma digitale nazionale dati (PDND), disciplina l’utilizzo delle tecnologie informatiche esclusiva-mente sotto il profilo della interconnessione dei sistemi informativi delle pubbliche Amministrazioni».

[12] Si richiama, anche per una bibliografia completa, V. Neri, op. cit.

[13] Si rinvia a V. Neri, op. cit., per la disamina delle questioni affrontate quanto all’utilizzabilità di sistemi algoritmici con riferimento tanto all’attività amministrativa vincolata e a quella contenuto discrezionale, all’imputazione organica dell’atto, al regime di responsabilità per i danni cagionati dalla decisione automatizzata.

[14] Secondo R. Vogl le cinque aree di maggiore crescita di tecnologia nella pratica forense riguardano: ricerca legale: tecniche di recupero delle informazioni legali e giuridiche per fornire elementi ai fini della decisione; big data law: tecniche di elaborazione di NLP e Machine Learning DI migliaia di casi/contratti/doc legali per identificare modelli e fare previsioni sui risultati; diritto computazionale: utilizzo di IA basata su regole giuridiche o su dati giuridici per automatizzare il processo decisionale; infrastruttura legale: NLP al fine di realizzare l’incontro di domanda e offerta legale; ODR: sistemi online di dispute resolution: https://www.ai4business.it/intelligenza-artificiale/intelligenza-artificiale-giustizia.

[15] Di queste banche dati in Italia quella più famosa è curata dalla Corte di Cassazione.

[16] Per una breve sintesi dell’impatto e diffusività degli strumenti di AI che ricorrono alla comprensione ed elaborazione del linguaggio naturale si rinvia a M. Esposito, Linguaggio naturale e intelligenza artificiale: a che punto siamo, consultabile online su https://www.agendadigitale.eu/cultura-digitale/linguaggio-naturale-e-intelligenza-artificiale-a-che-punto-siamo/.

[17] Questo settore a sua volta comprende i vari ambiti di drafting (‘redazione’,  cioè la redazione automatizzata di contratti standard contract management (‘gestione del contratto’), che permette di avere sotto controllo tutti i contratti attivi con scadenze, adempimenti e pagamenti; contract review (‘revisione del contratto), la revisione automatizzata dei contratti;  extraction (‘estrazione’), la possibile estrazione di informazioni mirate nei documenti contrattuali; due diligence, comprensiva di software in grado di rilevare anomalie o previsioni specifiche in una determinata mole di contratti; expertise Automation, tecniche che aiutano l’esperto di diritto (ad esempio l’avvocato) nello svolgimento della propria professione.

[18] A tale ambito vanno ascritti diversi settori. Il primo è la prevenzione della criminalità, perché, attraverso l’analisi di dati estrapolati da denunce presentate alla Polizia, relativi per esempio a rapine o furti che si sono verificati ripetutamente in zone specifiche con modalità analoghe, determinati sistemi di intelligenza artificiale sono in grado di prevedere luoghi e orari in cui, verosimilmente, potranno verificarsi altri reati dello stesso tipo. Il secondo è uno strumento integrativo dell’attività giudiziaria sia per quanto riguarda l’interpretazione della legge che dell’eventuale individuazione degli argomenti per avvalorare la tesi che si intende sostenere in giudizio. Infine, ci sono strumenti di inferenza statistica per prevedere l’esito di un giudizio.

[19] G. Zaccaria, Figure del giudicare: calcolabilita`, precedenti, decisione robotica, inRivista di diritto civile, 2020, 290.

[20] M. Libertini – M.R. Maugeri – E. Vincenti, «Intelligenza artificiale e giurisdizione ordinaria. Una ricognizione delle esperienze in corso», in Astrid Rassegna, 16/2021, 4 ss.

[21] V.https://english.bjinternetcourt.gov.cn/2019-07/01/c_190.htm.

[22] Così N. Abriani, Diritto delle imprese e intelligenza artificiale Dalla Fintech alla Corptech, Bologna, 2021, …, il quale rileva come «la distinzione tra soggetto agente e mezzo è alla base di tutti i concetti giuridici generali, quali il dolo, la colpa nel diritto civile e penale, le dottrine sulla discrezionalità nel diritto amministrativo ovvero della ragionevolezza e proporzionalità nel diritto costituzionale».

[23] A. D’Aloia, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal – Rivista di BioDiritto, 1/2019, 24, parla di interrogativo intrattabile.

[24] Si rinvia, per un approfondimento dei settori maggiormente investiti dall’intelligenza artificiale nel settore della contrattualistica (con particolare riferimento ai fenomeni dei Distributed Ledger Technologies, delle Blockchains e degli Smart Contracts), a M.R. Maugeri, Smart Contracts e disciplina dei contratti – Smart Contracts and Contract Law, Bologna, 2021.

[25] Per una riflessione relativa al settore della responsabilità, ex plurimis, si rinvia a U. Salanitro, «Intelligenza artificiale responsabilità: la strategia della Commissione Europea», in Rivista diritto civile, 2020, 1246 ss.

[26] In ordine alle questioni giuridiche poste dall’interrogativo posto dalla personificazione dell’entità robotica e delle sue conseguenze sul versante delle responsabilità, contrattuale ed extracontrattuale si v. G. Di Rosa, Quali regole per i sistemi automatizzati intelligenti?, in Rivista di diritto civile, 2021, 823 ss.

[27] N. Abriani, op.c cit., si interroga, dopo avere affrontato la questione della soggettività e della capacità giuridica dei sistemi l’intelligenza artificiale, sui profili oggettivi relativi agli esiti della elaborazione algoritmica e al se, sempre in materia di teoria generale del diritto, le decisioni che conseguono a un’indicazione dell’intelligenza artificiale siano da qualificarsi quali atti o fatti giuridici; valutazione tanto più importante e significativa nell’ambito del diritto pubblico, come denunciato dalle ormai ricorrenti controversie in sede amministrativa nelle quali i giudici amministrativi, con esiti, a volte, non convergenti, sono stati chiamati a valutare se sia possibile qualificare direttamente la decisione automatizzata come atto giuridico e quindi come vero e proprio atto amministrativo informatico, dovendo valutare se e in quale misura l’adozione dell’algoritmo nell’ambito di un procedimento amministrativo abbia rilievo ausiliare o di vera e propria interposizione sostituzione alla volontà umana. Nell’ambito di questa riflessione, l’A. conclude, osservando come si sia in presenza di un vero e proprio ruolo «sovversivo dell’intelligenza artificiale rispetto alle nozioni tradizionali e agli assunti del nostro sistema giuridico tradizionale, riproponendo in termini inediti, e il larga misura attenuando, la distinzione tra sfera pubblica e sfera privata di mercato quali distinti terreni di regolazione e di diritto», sicché il denominatore comune dell’utilizzo nel settore pubblico di strumenti di intelligenze artificiali sviluppate da imprese private – e quindi la dipendenza tecnologica dal privato -, in uno alla mancanza di strutturale trasparenza dei software e all’essere i programmi oggetto di privativa industriale, determini un vero e proprio lock-in tecnologico di dipendenza che potrebbe determinare, ovvero sta già determinando, un processo di progressiva infiltrazione di logiche di mercato nella determinazione di azioni e decisioni pubbliche, dando così vita alla cosiddetta societarizzazione della cosa pubblica. Conclusione questa, così preoccupante da rendere «evidente .. in ambito pubblico sia opportuno spostare il baricentro normativo nel terreno del diritto delle imprese che direttamente controllano i sistemi intelligenti nel duplice senso di individuazione di norme poste a disciplina della progettazione, costruzione e monitoraggio degli strumenti di intelligenza artificiale da parte delle imprese che gli sviluppano, nonché nella previsione di sistemi di responsabilità sociale delle imprese per gli effetti sociali connessi alle modalità in cui le stesse imprese governano i dati e le risultanti tecnologie».

[28]  A. Andronico, Giustizia digitale e forme di vita. Alcune riflessioni sul nostro nuovo mondo, in Teoria e critica della regolazione sociale, 2/2021, 9-10: «L’assenza di criteri costituisce, insomma, condizione di possibilità del giudizio. Lo so, può sembrare paradossale, ma non lo è. Difficile negare, infatti, che dove c’è calcolo non c’è decisione, e dunque neanche giudizio, né libertà e neanche responsabilità. Per la semplice ragione che non si “decide” che due più due fa quattro. Certo, si dirà, non c’è da stupirsi, è proprio questo l’obiettivo della giustizia predittiva: ridurre, appunto, l’incertezza strutturalmente legata al giudizio degli uomini. Ma può essere comunque utile sottolineare che, quando si parla di “giustizia predittiva”, si parla (nel migliore dei casi) di una giustizia senza giudizio. Cosa che può sollevare, se non proprio qualche dubbio, almeno qualche curiosità».

[29] A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, n. 1/2019, 81-82, correttamente, ricorda che «la giurisprudenza della Corte costituzionale italiana ha dichiarato incostituzionali gli automatismi decisionali in materia di tutela giurisdizionale dei diritti (dagli automatismi connessi “alla recidiva reiterata, le misura di sicurezza detentive, l’applicazione obbligatoria della custodia cautelare, la fase dinamica dell’esecuzione penale, il diritto di polizia dell’immigrazione”), così come agli automatismi in materia di risarcimento del danno – si pensi al danno morale, esistenziale e ai cosiddetti risarcimenti tabellari – o al caso dei software elaborati per calcolare l’assegno divorzile; si pensi, infine, al vasto campo delle presunzioni nel diritto tributario (dal cosiddetto “redditometro” agli “studi di settore” ovvero agli automatismi in materia di accertamento fiscale)».

[30] F. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Foro it., 2018, V, 385, parla di formula ambigua, attraverso la quale si pretenderebbe «un’attitudine una capacità dell’ordinamento superiore alla prevedibilità perché maggiormente in grado di assicurare la certezza del diritto. Pre-dire starebbe a significare qualcosa di più di pre-vedere. Come se “il dire prima” comportasse una preventiva acquisizione del risultato, mentre il “vedere prima” ne consentisse soltanto una ragionevole aspettativa di acquisizione».

[31] A. Caratta, Decisione robotica e valori del processo, in Revista Eletrônica de Direito Processual, REDP, 2/2021, 99, avvisa sul rischio di decidere senza giudicare, segnalando la centralità della prospettiva processuale del diritto per la quale «il diritto positivo nasce dall’interpretazione applicazione della singola disposizione, volta volta compiuta dal giudice alla luce dei principi generali (voi ordinari, costituzionali e sovranazionali) o, addirittura, di generici “valori” estrapolabili dal sistema», in particolar modo, dovendosi obiettare alla calcolabilità e prevedibilità della decisione tanto l’essere, molto spesso, il giudice chiamato a decidere facendo applicazione di concetti elastici o clausole le generali (dolo, colpa, giusta causa, buonafede, periculum in mora, fumus boni iuris, ragionevole probabilità e via dicendo), quanto essere lo stesso giudicante chiamato ad un giudizio di fatto – da compiersi ancor prima di individuare e interpretare la norma generale astratta da applicare – che implica un’attività di ricostruzione della fattispecie storica e della selezione dei fatti rilevanti ai fini della successiva sussunzione di tale fattispecie nella norma generale astratta. Ricostruzione della fattispecie storica per nulla neutrale e «che non costituisce una mera operazione aritmetica di sommatoria dei diversi fatti, ma presuppone la convinzione che quella fattispecie storica, per come ricostruita dalla parte, possa o non possa conformarsi ad una determinata fattispecie giuridica; senzaomettere di sottolineare sempre sul versante del cosiddetto giudizio di fatto, l’ulteriore fattore di imprevedibilità costituito dalla acquisizione e valutazione delle risultanze probatorie dei fatti di causa.

[32] F. Dalfino, Stupidità (non solo) artificiale, predittività e processo, in Questione Giustizia, 3 luglio 2019, sottolinea efficacemente: «Invero, non si deve mai dimenticare che il processo è uno strumento per l’attuazione dei diritti; che dietro la richiesta di tutela giurisdizionale si cela un affanno; che la decisione, poiché separa, genera ulteriore affanno. La logica e la statistica aiutano, ma si rivelano inadeguati rispetto alla vicenda umana sottesa. Per questo occorre la valutazione e il controllo di un essere umano. È una questione di piani e prospettive se si vuole: come soltanto la macchina può esaustivamente recepire e rielaborare l’informazione acquisita da un’altra macchina, così soltanto l’uomo può fino in fondo ascoltare e comprendere l’istanza di un altro uomo.

[33] A. Andronico, op.cit., 8, parla, significativamente, di predizione del passato, osservando «Non riesco a togliermi dalla testa, infatti, il sospetto che questa espressione porti con sé un insidioso equivoco, anzi due. Quali siano è presto detto. Il primo è che si tratti ancora di una forma di giustizia. Il secondo che, trattandosi di predizioni, abbia qualcosa a che fare con il futuro».

[34] Per l’individuazione tanto dei benefici del ricorso alla macchina (promozione della trasparenza ed individuazione delle responsabilità, uguaglianza di trattamento, benefici in termini di efficienza, efficacia e celerità, deflazione del contenzioso), quanto dei pericoli (bias, effetti discriminatori, possibilità di profilazione dei contendenti), delle illusioni (ovvero l’illusorietà che possa profetizzare l’esito del processo attraverso una più o meno complessa formula matematica applicata dell’interpretazione della legge, laddove il processo ad oggetto casi concreti e vicende umane irripetibili, nonché richiede analisi, ricostruzione e valutazione dei fatti) e, infine, degli ostacoli si rinvia alla puntuale disamina di F. Dalfino, Creatività e creazionismo, prevedibilità e predittività, cit., 385.

[35]  M.R. Maugeri, I robot e la possibile «prognosi» delle decisioni giudiziali, in A. Carleo (a cura di), Decisione robotica, Bologna, 2019.

[36] M. Libertini – M.R. Maugeri – E. Vincenti, op. cit., rispetto all’ipotesi del mero supporto ausiliare dell’AI, evidenziano che «Un’idea più avanzata può essere quella di costruire il «progetto di decisione« della giustizia predittiva come uno strumento di formulazione di un’ipotesi non vincolante di soluzione della controversia (sul tipo delle decisioni dell’ABF), che potrebbe essere accettata dalle parti, a meno che alla proposta di decisione del giudice artificiale segua un ricorso motivato di una, o di ambedue le parti, al giudice umano«; soluzione questa ritenuta preferibile in quanto «Da un lato, il sistema avrebbe un concreto effetto deflattivo sulla quantità di decisioni richieste agli uffici giudiziari. Dall’altro fornirebbe un incentivo agli avvocati e ai giudici per approfondire e andare oltre il progetto di decisione dell’agente artificiale, mediante l’utilizzo di argomenti razionali. Tutte le decisioni del giudice umano assumerebbero così una funzione tendenzialmente “nomofilattica”: sarebbero pertanto ridondanti tre gradi di giudizio (anche se, in teoria, una Corte Suprema competente a giudicare in ultima istanza i casi ritenuti più importanti, potrebbe continuare ad avere una sua funzione). In una prospettiva ideale, questo sistema creerebbe una base ideale per l’evoluzione democraticamente controllata del diritto».

[37] M. Libertini – M.R. Maugeri – E. Vincenti, op. cit.,: «…la giustizia predittiva sembra essere uno strumento appropriato per la rapida soluzione di questioni altamente standardizzate nella prassi giurisprudenziale (p.e. emissione di decreti ingiuntivi e loro esecutorietà, determinazione dell’ammontare dell’assegno di mantenimento in una separazione coniugale, liquidazione del danno sulla base di criteri tabellari ecc.) …. Un altro filone applicativo, tutto interno alla professione forense, è quello relativo alla valutazione della probabilità di successo di una certa causa e alla selezione in concreto degli argomenti preferiti da un certo giudice, ecc..».

[38] Per una completa analisi dell’impatto della digitalizzazione giudiziaria e sulle prospettive che offre si rinvia all’acuto intervento di D. Piana, Costo, ritualità, valore. Le qualità della giustizia nell’era digitale, in Giustizia insieme, 16 settembre 2021.

[39] M. Libertini – M.R. Maugeri – E. Vincenti, op. cit., osservano «Il punto critico non è solo quello della congestione crescente e ineluttabile dei sistemi giudiziari. C’è un problema di gravità, in certo senso, maggiore. Si deve infatti considerare che oggi, nell’affrontare in modo esauriente un singolo caso, che non sia già perfettamente tipizzato e di routine, la quantità di dati potenzialmente influenti sulla decisione [princìpi di rango costituzionale (che devono tenere conto di una prospettiva di costituzionalità «multilivello«), fonti formali di varia provenienza, precedenti giurisprudenziali, strumenti di soft law, proposte dottrinali, dati comparatistici (comprensivi dei precedenti stranieri)] è così ampia che l’acquisizione completa della relativa informazione trascende le possibilità di qualsiasi agente umano».

[40] Per l’impatto dell’IA sul settore legale si rinvia a «Innovazione, intelligenza artificiale e giustizia», Quaderno dell’Ordine degli avvocati di  Milano, Luglio 2021, consultabile online su https://www.ordineavvocatimilano.it/media/allegati/consiglio-dell-ordine/PUBBLICAZIONI/Quaderno%20Intelligenza%20artificiale%20WEB.pdf; v. pure Y. Pecoraro, L’intelligenza artificiale nel settore legale: stato dell’arte e scenari futuri, consultabile online su https://www.agendadigitale.eu/documenti/lintelligenza-artificiale-applicata-al-diritto-stato-dellarte-e-scenari-futuri/

[41] Quanto ai benefici della prevedibilità, D. Piana – C. Castelli, Giustizia predittiva. La qualità della giustizia in due tempi, in Questione Giustizia, 15 maggio 2018, osservano «La consapevolezza che deve esserci è che la prevedibilità ha due ulteriori formidabili conseguenze: da un lato contiene la domanda e dall’altro è un fondamentale messaggio sociale. Contiene la domanda perché ogni mutamento o incertezza sulla giurisprudenza stimola nuove domande, altrimenti viste senza speranza. Lancia un messaggio sociale perché la prevedibilità di tempi e orientamenti dà certezza alla collettività sulla giustizia e sul diritto vivente».

[42] Così M. Libertini – M.R. Maugeri – E. Vincenti, op. cit.

[43] Fondamentale per chiarezza e nettezza M. Luciani,  La decisione giudiziaria robotica, in  A. Carleo (a cura di), Decisione robotica, cit., dove affronta sub par. 4 la questione de «La decisione robotica e i suoi nemici, ovvero gli ostacoli di diritto positivo, al di là di quelli logico-matematici, che si frappongono alla decisione robotica: l’A. richiama i fatti rilevantila parte preponderante dell’attività del giudice è ancora la sussunzione del fatto nella norma, o se si preferisce la riconduzione della fattispecie concreta alla fattispecie astratta, assumono un’importanza cruciale i fatti che al giudice (umano) sono «rappresentati». Come è evidente, questi fatti sono l’inevitabile risultato di una selezione, essendo impossibile rappresentare al giudice (o che il giudice acquisisca) l’intero universo dei fatti connessi alla regiudicanda»), l’errore robotico,  la dottrina giuridica del robot, il robot e i precedenti, il giudice-robot e il raffronto tra norme, la sorte della difesa tecnica, dell’appello, del ricorso per Cassazione e della motivazione, la discrezionalità del giudice-robot, il robot pronuncia davvero l’ultima parola? e, infine, dal giudice-robot al robot-legislatore e mediatore.

[44] L. De Renzis, Primi passi nel mondo della giustizia «high tech»: la decisione in un corpo a corpo virtuale fra tecnologia e umanità, in A. Carleo (a cura di), Decisione robotica, cit.: «Se l’attività interpretativa venisse ridotta secondo modelli automatizzati- matematici secondo un utilizzo improprio dell’art 12 delle preleggi, si incorrerebbe nelle seguenti gravi conseguenze:  – Vittoria del canone interpretativo letterale;  – Marginalizzazione dell’analogia;  – Fine di una giurisprudenza evolutiva dovuta all’utilizzo di un diritto fissato secondo schemi modellizzati e non si potrà più parlare di un diritto vivente;  – Verrebbe introdotto un ‘pre-giudizio’ da parte di chi decide quali dati immettere nel sistema e quali tenere fuori».

[45] Per una approfondita disamina dei profili richiamati si rinvia all’opera di A. Garapon – J. Lassègue, La giustizia digitale. Determinismo tecnologico e libertà, Bologna, 2021.

[46] D. Amram, Algoritmi, danno alla persona e nuove soluzioni legal tech, Ciberspazio e Diritto, Vol. 22, n. 67 (1 – 2021) osserva «In primo luogo, la necessità che sia mantenuto il valore democratico della discrezionalità del giudice, quale bouche de la loi. Lo strumento automatizzato, infatti, non deve sostituire l’uomo ma, al più, fornire uno strumento di supporto al processo decisionale. Il che porta a dover affrontare una duplice criticità: da un lato, superare la riluttanza verso le nuove tecnologie che potrebbero emergere per il timore del c.d. “replacement effect”. Dall’altro lato, occorre evitare l’effetto opposto, ovvero quello di “overconfidence” nello strumento automatizzato che porterebbe ad una eccessiva standardizzazione del ragionamento giuridico, creando – di fatto – dei cortocircuiti nel sistema democratico».

[47] A. Andronico, op. cit., 11, ove si richiama G. Zaccaria, Mutazioni del diritto: innovazione tecnologica e applicazioni predittive, in Ars Interpretandi, 2021, 41. «L’IA decide non più̀ con regole predefinite, ma con grandi masse di dati, all’interno delle quali la legge è tutt’al più̀ una tra le molte fonti. Si assiste ad uno sconvolgimento dell’ordine temporale del diritto: per l’IA il presente è sempre reminiscenza di un passato, cosicché́ la fattispecie anziché́ anticipazione schematica del futuro diviene memoria del passato da inserire nel sistema».

[48] In termini G. Zaccaria, Mutazioni del diritto: innovazione tecnologica e applicazioni predittive, cit., osserva «insomma, aumentando il presente e considerando il futuro come già presente, l’IA (che paradossalmente non ha memoria) omogeneizza arbitrariamente futuro e passato virgola che non sono dimensioni omogenee e abolisce la consistenza del tempo, dal momento che fa divenire il futuro tanto conosciuto quanto il passato; e dunque, paradossalmente, svaluta il futuro a vantaggio del passato e di un eterno presente, cristallizzati e sacralizzati come immutabili in una ripetizione senza fine».

[49] U. Eco, Apocalittici e integrati, Bompiani, 1964.

[50] A. Punzi, Judge in the machine. e se fossero le macchine a restituirci  l’umanità del giudicare?, in A. Carleo (a cura di), Decisione robotica, cit., …, nell’affrontare il nuovo spettro che si aggira per l’Europa, rileva «Superati, a ragione o a torto, sia il rifiuto tecnofobico e passatista della decisione robotica sia il sogno che questa possa immunizzare l’era della complessità dal morbo dell’incertezza, va infine avvicinata, senza alcuna pretesa di sintesi hegeliana, una terza via, ispirata all’idea dell’interazione feconda tra l’uomo e il robot. Per tracciare tale via bisogna anzitutto cogliere i segni del tempo. Un tempo nel quale l’uomo ormai pensa e decide attraverso una costante interazione con le macchine. L’odierna, crescente simbiosi tra uomo e macchina esige di ripensare l’intero processo di acquisizione delle competenze dell’animale razionale e di formazione dei suoi processi decisionali. D’altronde siamo appena entrati in una nuova fase del processo di civilizzazione, legata al connubio tra linguaggio ed elettricità. Di qui l’esigenza, per dir così, di un tecnoumanesimo e di una nuova declinazione delle facoltà cognitive e decisionali proprie dell’uomo. C’è bisogno di un nuovo illuminismo, di una nuova risposta alla domanda fondante la nostra civiltà dei diritti».

[51] M. Libertini – M.R. Maugeri – E. Vincenti, op. cit., rilevano come «Si deve ribadire che l’attuale livello di esperienza è lontanissimo da quest’ultimo risultato. Lo è perfino nella costruzione e configurazione delle banche-dati su cui dovrebbe esercitarsi l’azione dell’agente intelligente. Lo è ancor più sulla configurazione di programmi intelligenti che non mirino solo a raccogliere precedenti, ma siano incentrati sulla individuazione delle rationes decidendi sottostanti alle decisioni giudiziarie, su un piano non solo retrospettivo ma anche potenziale. Siamo oggi lontanissimi da programmi intelligenti che siano in grado di analizzare i diversi formanti dell’esperienza giuridica e, su questa base, formulare ipotesi di decisione di casi concreti, con relativa individuazione della ratio decidendi».

[52] A. Punzi, op. cit.: «Bisogna piuttosto pensare a una contaminazione tra l’uomo e la macchina, nella quale le prestazioni cognitive dell’uomo vengano potenziate e al contempo sorvegliate dalla capacità della macchina, da un lato di raccogliere e processare dati e di prospettare soluzioni, dall’altro di monitorare il percorso decisionale e motivazionale condotto dall’uomo per segnalarne lacune, incongruenze, contrasti rispetto a decisioni assunte in casi simili, ecc. In tal senso la decisione non sarà né solo dell’uomo né solo della macchina, ponendosi piuttosto, i due termini, in rapporto di determinazione reciproca. Certo, in ultima istanza l’ultima parola dovrà essere quella del giudicante che controlla l’intero procedimento, ne valuta il risultato e le conseguenze, su di esso imprime il proprio segno, assumendone la responsabilità… Va però osservato come in un simile modello di interazione uomo-macchina, una funzione di controllo dovrà necessariamente essere esercitata dalla stessa macchina: ad esempio segnalando vincoli logici e/o procedurali da rispettare, rilevando vizi nell’iter motivazionale, prospettando soluzioni alternative, avvertendo dell’esistenza di precedenti in senso contrario, ecc. Certo dovrà ammettersi che alcuni di tali vincoli possano essere forzati dal giudicante, ma in ogni caso di una tale «forzatura» il giudicante sarebbe comunque chiamato a rendere conto sul piano motivazionale».

[53] F. Dalfino, op. cit., parla di predittività mite, ovvero  «affidare alla macchina il risultato automatizzato quando si tratti di verificare la sussistenza di requisiti e presupposti formali (ad esempio, rispetto delle regole formali prescritte dalle specifiche tecniche del processo civile telematico, come informato PDF immagine e non pdf/a – dell’atto da depositare, le dimensioni della busta virgola e così via) o basati su un calcolo aritmetico (applicazione di tabelle per il risarcimento dei danni, calcolo dei termini di prescrizione, calcolo dei termini di impugnazione della sentenza)», nonché M. Ancona, Verso una giustizia predittiva mite, in https://tecnojustitaly.wordpress.com/2018/04/26/verso-una-giustizia-predittiva-mite/

[54] Si veda M. Libertini – M.R. Maugeri – E. Vincenti, op. cit., riconoscono lo sviluppo di tali strumenti in funzione solo ausiliaria rispetto alla giurisdizione statale. Nello stesso senso, v. A. Caratta, op. cit.

[55] M.R. Covelli, Dall’informatizzazione della giustizia alla «decisione robotica?, in «Decisione robotica» a cura di A. Carleo, Il Mulino, 2019, osserva «conclusivamente, l’intelligenza artificiale può certamente apportare benefici al «sistema giustizia», ma va regolamentata nel rispetto di tutti i diritti e interessi coinvolti e in base ai principi insopprimibili in più ambiti affermati. Può agevolare, integrare, supportare, sul piano istruttorio o comunque endoprocessuale, alcune attività del giudice nei limiti e alle condizioni di cui si è detto, ma la decisione finale, e la connessa responsabilità non possono che essere del giudice».

[56] F. Dalfino, Stupidità (non solo) artificiale, predittività e processo, cit., osserva che invero, «la “positivizzazione” della norma reca inevitabilmente in sé equivocità e relatività. Univoca, infatti, è solo l’interpretazione data, in quanto presuppone l’esercizio di una precisa scelta; tuttavia, l’univocità della norma che scaturisce dalla interpretazione si perde nel momento in cui essa, “positivizzandosi”, diventa nuovamente testo. Relativa è la «norma «che nasce e vive con riferimento a un caso concreto. La sua universalizzazione necessita che la valutazione effettuata con riferimento a un determinato caso sia esportabile a casi simili, attraverso un riscontro di somiglianza, rimesso ai giudici dei successivi processi, del caso nuovo con quello già deciso. Tutto ciò può esprimersi dicendo che la giurisprudenza è «fonte« in un senso molto diverso dalla legge. Il diritto da essa prodotto, infatti, non è generale e astratto, bensì particolare e concreto… Certezza e prevedibilità non significano, però, aritmetica calcolabilità. Il giudizio non si compie soltanto attraverso la fredda applicazione della legge al caso concreto ed il giudice non è puro strumento di applicazione meccanica del contenuto della legge. «Interpretare significa esplicare, adattare, completare», esercitare un’opzione valutativa. E poiché i fatti da accertare sono incalcolabili, gli esiti istruttori non sempre prevedibili e i valori o la loro percezione suscettibili di mutare nel tempo e nello spazio, nessuna precisa calcolabilità è predicabile. Ciò è vero per un sistema tutto umano, non meno che per uno robotico.  Se poi pensiamo a clausole generali, norme elastiche, concetti indeterminati, aspettarsi dalla macchina una prevedibile applicazione è alquanto illusorio. Quali algoritmi potrebbero mai essere elaborati? Discorso non dissimile potrebbe farsi con riferimento alla qualificazione della natura costitutiva o impeditiva di un fatto ai fini della distribuzione dell’onere probatorio o per l’individuazione dei contenuti di una equità robotica.

[57] F. Dalfino, Stupidità (non solo) artificiale, predittività e processo, cit., avverte, infatti, «Così, non è sempre agevole applicare il metodo statistico alla valutazione del periculum in mora (insolvenza, rischio di distruzione delle prove, rischio di fuga); alla ammissione e valutazione della prova costituenda (circostanze ambientali; parametri; formulazione delle domande; applicazione delle neuroscienze), della prova documentale, della prova peritale; alla motivazione della sentenza. E anche quando è possibile, il risultato sarà sempre e solo esprimibile in termini di probabilità, più o meno alta. Anche l’uso di parametri comparativi può rivelare la sua fallacia, poiché un caso non è mai perfettamente uguale all’altro e anche quando presenta caratteristiche in tutto omogenee ad un precedente, la decisione sarà inevitabilmente sempre misurata sulla specifica situazione sostanziale dedotta in giudizio».

[58] A. Simoncini, «L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà», BioLaw Journal – Rivista di BioDiritto, n. 1/2019, nel richiamare il caso Loomis, cassato dalla Corte Suprema grazie al principio di non esclusività del ricorso al sistema Compas, osserva «In realtà, questo principio – codificato nella normativa europeo-nazionale – è del tutto inefficace difronte a quella che potremmo definire la travolgente forza pratica dell’algoritmo. Formulerei così l’azione di questa forza: una volta introdotto un sistema automatico di decisione all’interno di un processo decisionale umano, il sistema automatico tende, nel tempo, a catturare la decisione stessa. Questo accade, si badi, non per ragioni di valore scientifico, di accuratezza predittiva o di affidabilità tecnica dell’automatismo, ma eminentemente per ragioni di convenienza pratica. Innanzitutto: per chi vede violato un suo diritto o una sua libertà, dimostrare che la decisione lesiva sia stata presa unicamente sulla base di un algoritmo è molto spesso una probatio diabolica; chi ha preso la decisione, infatti, avrà sempre la possibilità di sostenere che nella decisione si è solo avvalso dell’algoritmo, ma non è stato «sostituito« da esso, avendo autonomamente … aderito alla valutazione effettuata dall’algoritmo. Occorrerà certamente attendere la giurisprudenza della Corte di giustizia sul punto, ma quantomeno si dovrebbe ritenere rispettato il principio di non esclusività solo quando il decisore umano è in grado comunque di esprimere una propria motivazione che giustifichi l’adesione alla valutazione effettuata dall’algoritmo o quantomeno di dare informazioni sulla logica utilizzata. In secondo luogo, però, il principio di non esclusività sembra non riconoscere l’evidente forza «pratica« di qualsiasi automatismo valutativo che, da un lato, solleva il decisore dal burden of motivation, dal peso dell’esame e della motivazione; dall’altro, gli consente di «qualificare« la propria decisione con un crisma di «scientificità« ovvero «neutralità« che oggi circonda la valutazione algoritmica e le conferisce una peculiare – quanto infondata – autorità».

[59] Così D. Amram, Algoritmi, danno alla persona e nuove soluzioni legal tech, in Ciberspazio e Diritto, Vol. 22, n. 67 (1 – 2021), il quale osserva: «Con riferimento al formante legislativo, lo sviluppo di piattaforme di interrogazione intelligente può individuare lacune normative e sovrapposizioni tra fonti di rango diverso in modo da rendere più efficace la  ricerca – in termini quasi anacronistici – «ipertestuale« delle disposizioni che incidono su determinate materie. La giurisprudenza, come osservato, potrebbe sfruttare il sistema di interrogazione per rendere più efficaci i modelli degli Osservatori della giustizia che si formano su iniziativa degli uffici giudiziari, al fine di consentire una armonizzazione linguistica, semantica e concettuale rispetto all’interpretazione della norma. Di conseguenza, alcune ricadute potrebbero emergere anche su forma e sintassi degli atti processuali, andando a minare quel latinorum da Azzeccagarbugli con cui sono classificati i giuristi. La dottrina, già fortemente influenzata dalla digitalizzazione dell’accesso alle risorse, andrebbe a sviluppare nuovi percorsi evolutivi e di sistematizzazione nel dialogo con il legislatore e la giurisprudenza, elaborando nuove categorie e sviscerando nuove problematiche per ricondurre ai valori fondamentali della persona quei cortocircuiti/bias emergenti come tendenze nei rapporti contrattuali, familiari, ovvero con terzi dall’analisi automatizzata e valorizzando al contempo quelle voci fuori coro capaci di cogliere l’essenza interpretativa della norma».

[60] V. https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348 ove si richiamano i seguenti principi: «Principio del rispetto dei diritti fondamentali: assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali. Principio di non discriminazione: prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone. Principio di qualità e sicurezza: in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro. Principio di trasparenza, imparzialità ed equità: rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne. Principio del controllo da parte dell’utilizzatore: precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte».

[61] Art. 22, GDPR «1. L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona. 2. Il paragrafo 1 non si applica nel caso in cui la decisione: a) sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento; b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato; c) si basi sul consenso esplicito dell’interessato. 3. Nei casi di cui al paragrafo 2, lettere a) e c), il titolare del trattamento attua misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione. 4. Le decisioni di cui al paragrafo 2 non si basano sulle categorie particolari di dati personali di cui all’articolo 9, paragrafo 1, a meno che non sia d’applicazione l’articolo 9, paragrafo 2, lettere a) o g), e non siano in vigore misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato».

[62] A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, n. 1/2019.

[63]La documentazione del progetto è rinvenibile sul sito https://giustiziapredittiva.unibs.it/.

[64] La documentazione del progetto è rinvenibile sul sito https://www.predictivejurisprudence.eu/.

[65] La documentazione del progetto è rinvenibile sul sito https://www.giustizia.bari.it/buone_prassi_4.aspx.

[66] La documentazione del progetto è rinvenibile sul sito https://www.corteappello.venezia.it/index.php/giurisprudenza-predittiva-per_198.html con una partizione degli orientamenti giurisprudenziali relativi alle aree  del diritto di impresa e industriale, diritto del lavoro, diritto in materia bancaria e diritto societario.

[67] D. Piana – C. Castelli, op. cit., sottopongono la seguente idea progettuale: «I passaggi progettuali che possono essere proposti sono graduali proprio per evitare che l’analisi della giurisprudenza possa diventare un momento di censura ed anzi possa costituire arricchimento per tutti. La prima mossa è consentire al singolo giudice di avere conoscenza dell’esito delle impugnazioni sui propri provvedimenti. Questo riguarda ovviamente le sentenze e le ordinanze definitorie, ma anche un terreno delicatissimo, su cui è bene estendere questo servizio, quale quello delle misure cautelari personali. Far sì che il giudice delle indagini preliminari possa sapere non solo l’esito dell’impugnazione del suo provvedimento avanti al Tribunale del riesame o alla Cassazione, ma anche la decisione assunta nel processo di primo grado e secondo grado. Identica sorte quanto al Tribunale del riesame.  Ciò può aiutare a verificare quali sono tipologie e problematiche che richiedono maggiore attenzione e migliorare complessivamente la nostra attività.  Il secondo passaggio riguarda l’estrazione di dati, ovvero individuare tipologie di materie e di affari, verificare gli esiti decisori, seguire l’andamento degli stessi in secondo grado e in Cassazione. Identica estrazione dovrebbe essere svolta per quanto concerne sia il tasso di accoglimento delle richieste di emissioni misura cautelare, sia il tasso di loro conferma da parte di Tribunale del riesame e di Cassazione, sia l’esito dei processi in cui una persona soggette le indagini sia stata colpita da una misura cautelare. Tali dati, superando le polemiche strumentali su ingiusta detenzione ed errori giudiziari, ci darebbero preziose indicazioni su come possiamo, pur nell’ambito delle inevitabili diverse interpretazioni e prospettazioni, migliorare la nostra attività. Il terzo passaggio sarebbe la realizzazione di un massimario ragionato, come tale preziosissimo per orientare, consolidare, mutare giurisprudenza».

[68] Si rinvia a https://magazine.unibo.it/archivio/2021/05/20/nasce-ai4justice-lab-un-nuovo-laboratorio-per-l2019intelligenza-artificiale-applicata-al-sistema-giudiziario.

[69] C. Castelli, La giustizia predittiva, 11 novembre 2021, consultabile online su https://lamagistratura.it/attualita/la-giustizia-predittiva/.

[70] Così nella presentazione del progetto Giustizia predittiva presso la terza sezione civile della Corte di Appello di Bari, reperibile su https://www.giustizia.bari.it/allegati_sito/progetto_prevedibilita_decisioni.pdf sono illustrati gli obiettivi perseguiti: «… la prevedibilità delle decisioni costituisce un valore ormai riconosciuto nel nostro ordinamento, in quanto: a. Espressione e presupposto del principio di uguaglianza tra i cittadini e di giustizia del processo (in materia processuale, vedi Cass. S.U. Ordinanza n. 23675 del 06.11.2014); b. Rende la motivazione del provvedimento più aderente al dettato normativo art. 118 disp. Att. c.p.c. (succinta esposizione delle ragioni giuridiche della decisione, anche con riferimento a precedenti conformi – occorre che i precedenti siano conoscibili); c. Rende possibile la motivazione semplificata per questioni seriali, mediante elaborazione di provvedimenti-manifesto, contenenti i principi consolidati; d. Aumenta le probabilità di successo della proposta conciliativa o transattiva ex art. 185 bis c.p.c., in considerazione dei precedenti e dell’indirizzo giurisprudenziale riguardo all’oggetto della controversia (prevedibilità rapportata al Distretto, al Circondario, alla Sezione); e. Offre un ausilio ai giudici di primo grado per la conoscenza degli orientamenti della Corte in talune materie, cui potersi adeguare o da cui motivatamente discostarsi; f. Consente un migliore orientamento da parte dei difensori sulle scelte processuali da coltivare (costituirsi in giudizio, appellare, transigere, ecc.); g. Consente un migliore e più efficace orientamento pre-contenzioso per i difensori, sulla scelta se iniziare il giudizio; h. Rende noti alla collettività gli orientamenti degli uffici giudiziari e, per ciò, possibile, auspicabile, un decremento del contenzioso, con contestuale aumento delle conciliazioni».

[71] Per una sintesi si rinvia a «Data Lake: cos’è e quali vantaggi rispetto al Data Warehouse», https://atlantic-technologies.com/it/blog/che-cose-un-data-lake/: «si tratta di un  repository centralizzato che consente di archiviare grandi quantità di dati nel loro formato nativo, provenienti da molte fonti diversificate e disomogenee, ovvero un luogo destinato all’archiviazione, analisi e correlazione di dati strutturati e non strutturati (da quelli del CRM ai post dei social media, dai dati ERP alle info delle macchine di produzione), in formato nativo. La sua peculiarità è di consentire il recupero e l’organizzazione del dato secondo il tipo di analisi che si intende effettuare. Questa novità, rispetto ai tradizionali sistemi di Big Data Analytics, rappresenta una semplificazione e un notevole potenziamento dello strumento. Il Data Warehouse infatti è un metodo che esige il modellamento dei dati prima che possano essere immagazzinati, non consentendo quindi di sfruttarne a pieno il valore. Uno sguardo nel dettaglio alle differenze nelle funzionalità del Data Lake vs. Data Warehouse non può che aiutarci a comprendere meglio la natura del cosiddetto «Lago di dati«: 1. Raccolta dei dati. A differenza del Data Warehouse, il Data Lake non necessita di una strutturazione ex ante del dato. Anzi, trova proprio nella capacità di accogliere dati strutturati, semi-strutturati e destrutturati il suo punto di forza. 2. Elaborazione dei dati. Nel Data Warehouse viene definita a priori la struttura del database, i dati vengono scritti nella struttura predefinita e poi letti nel formato desiderato (Schema-on-write). Nel Data Lake, invece, sono acquisiti nel formato nativo e ogni elemento riceve un identificatore e un insieme di metadati a corredo (Schema-on-read). 3. Agilità e flessibilità. Essendo un repository altamente strutturato, cambiare la struttura di un Data Warehouse può risultare molto dispendioso in termini di tempo. Un Data Lake, all’opposto, consente di configurare e riconfigurare facilmente modelli, query e app live e di procedere al Data Analytics in modo più flessibile. L’adozione di un sistema di Data Lake rappresenta una svolta per l’azienda in termini di: 1. Notevole ampliamento delle informazioni alle quali si ha accesso Questo ovviamente grazie a un set potenzialmente infinito di tipologie di dati. Di fatto, essendo il quesito di analisi a determinare la selezione dei dati dai quali attingere informazioni, nel Data Lake la ricerca accede a tutte le informazioni disponibili, indipendentemente dalla sorgente che le ha generate.  2. Illimitati modi di interrogare i dati e possibilità di applicare a essi una grande varietà di tool differenti… 3. Riduzione dei costi di archiviazione e spazio infinito. Con un sistema tradizionale, è necessario prevedere in anticipo tutti gli usi dei dati di cui si avrà bisogno. Ma, con il mutare delle esigenze di business, cambiano anche i requisiti di analisi. In aggiunta, professionisti diversi in azienda hanno bisogno di diversi set di dati. Nei sistemi Data Warehouse, aumentare il volume e la struttura del database ha dei costi notevoli e porta via molto tempo. Con il Data Lake, evitiamo il problema della struttura del database per sua natura e abbiamo a disposizione spazio infinito grazie a metodi di conservazione dei dati su file system distribuiti (HDFS in cloud). 4. Riduzione dei costi di consolidamento dei dati. I file system distribuiti portano il Data Lake a sistema di scale-out storage potenzialmente infinito per il consolidamento dei dati.  5. Riduzione del Time-to-market. Non dovendo affrontare progetti di ampliamento e consolidamento dei dati, l’accesso alle informazioni è sempre immediato e real-time.  6. Condivisione e democratizzazione dell’accesso alle informazioni. Il Data Lake mette a disposizione di tutti gli insight ottenuti. Li rende accessibili a chiunque abbia i permessi tramite una vista unificata dei dati all’interno dell’organizzazione».

[72] V. http://www.iusspavia.it/-/accordo-quadro-con-la-corte-suprema-di-cassazione.

[73] Art. 3 dell’Accordo quadro: – Obiettivi IUSS e C.E.D. condividono l’obiettivo di sviluppare insieme attività di ricerca sui temi indicati all’articolo 2 al fine di perseguire tre obiettivi principali: a) predizione dell’esito dei processi decisionali giudiziari, amministrativi e politici (prediction), b) estrazione di argomenti giuridici dal corpus delle sentenze e decisioni di Italgiure (argument mining), c)  creazione automatica di massime (summarization), c) strumenti di creazione automatica di documenti (document builder), nonché altre possibilità di valorizzazione del patrimonio documentario di Italgiure.

[74] V. http://www.pongovernance1420.gov.it/it/progetto/ufficio-per-il-processo/.

[75] V. C. Morelli, L’Ufficio del Processo fa il pieno di innovazione e tecnologiahttps://www.altalex.com/documents/news/2022/01/17/ufficio-del-processo-fa-il-pieno-di-innovazione-e-tecnologia.

[76] Si rinvia a M. Sciacca, P.N.R.R. e prime ipotesi di modellizzazione dell’ufficio per il processo, in Foro it., 2022, 1, V.

[77] Si rinvia alle riflessioni di D. Piana, op.cit.

[78] B. Caravita, Uno staff di laureati per costruire una macchina di intelligenza artificiale che collabori alle funzioni di giustizia, in Federalismi.it, 30 giugno 2021, consultabile online su https://www.federalismi.it/nv14/articolo-documento.cfm?Artid=45630.

[79] P. Piovani, Salus a machina, in Ethica. Rassegna di filosofia morale, 1967, 1.

[*] L’articolo è stato pubblicato sulla rivista Persona e Mercato, fasc.1 /2023

Scarica il pdf

Condividi