Essere giudicati da un algoritmo? Contro la Giustizia dei robot

Il futuro è segnato, ma la disumanizzazione è un rischio da combattere. Le promesse mirabolanti dell’intelligenza artificiale si stanno prepotentemente affacciando nelle aule dei tribunali, lasciando profilare all’orizzonte una autentica rivoluzione, se non persino una imminente “apocalissi giuridica”

Le promesse mirabolanti dell’intelligenza artificiale si stanno prepotentemente affacciando sullo scenario della giustizia e nelle aule dei tribunali. Anzi, vi hanno già preso posto, lasciando profilare all’orizzonte una autentica rivoluzione, se non persino una imminente “apocalissi giuridica”.

Nel febbraio 2023 un giudice colombiano – il giudice Padilla di Cartagena – ha confessato di aver pronunciato la prima decisione elaborata, di fatto, da un noto programma di AI, il chatbot GPT: lo ha interrogato su una questione in materia di detrazioni fiscali per le cure mediche sostenute da un portatore di handicap, ricevendo una risposta giudicata convincente, poi tradotta in sentenza. Parallelamente, negli Stati Uniti è stato elaborato un programma in grado di sostituire integralmente un avvocato in giudizio, a costo zero (un software dal nome accattivante: Do Not Pay): sarà connesso all’udienza tramite auricolari, ascolterà le domande alle parti, suggerirà strategie e risposte. In campo penale, come ormai noto, diversi tribunali e corti – non solo nell’esperienza statunitense – da tempo usano software per condurre le prognosi di pericolosità, concernenti, ad esempio, le esigenze cautelari, il rilascio su cauzione, la sospensione condizionale o le misure alternative alla detenzione. Più di recente, in Argentina è stata creata ed introdotta una Unità di Intelligenza Artificiale Applicata, nell’ambito del Ministero della Sicurezza Nazionale: struttura finalizzata, tra l’altro, ad introdurre l’utilizzo di programmi di AI in chiave predittiva, per preconizzare e quindi prevenire la commissione di crimini. Ma le sperimentazioni non si fermano certo ai programmi di “polizia predittiva”, peraltro sperimentati – e già da tempo – anche in diverse questure italiane. In Cina, infatti, un team di ricercatori ha realizzato una sorta di “pubblico ministero cibernetico”, che – analizzando la descrizione verbale di un caso – sarebbe in grado di formulare un’accusa nei settori concernenti i reati più comuni, dalle frodi con carte di credito, al gioco d’azzardo, sino alle guide pericolose, alle lesioni e ai furti: un software addestrato con più di 17 mila casi giudiziari, utilizzabile con un normale pc, prontamente testato dalla procura di Shanghai Pudong, essendo capace di garantire – si afferma – un’accuratezza “superiore al 97%”; e che promette, analisi dopo analisi, di migliorare costantemente le proprie prestazioni, e soprattutto di abbattere il carico di fascicoli che grava sugli uffici inquirenti. Sono solo alcuni rapsodici esempi di evoluzioni – o rivoluzioni – che evocano una improvvisa, ed a tratti inquietante, “presentificazione del futuro”, capace di superare persino la fantasia più immaginifica dei racconti distopici à la Minority Report.

Insomma, l’impressione è che l’amministrazione della giustizia sarà presto chiamata a decidere – un po’ ovunque – se preferire alle valutazioni e alle decisioni dell’uomo quelle della tecnologia informatica “intelligente”, senza emozioni o segni di stanchezza. Ed anche in materia penale – ben oltre l’utilizzo degli algoritmi per le prognosi di pericolosità e per il “rischio recidiva” – si fa strada l’idea che fatti, responsabilità, delitti e castighi, possano essere indagati, accertati e persino giudicati mediante algoritmi, da “giudici-macchina”, con i quali sarebbero chiamati ad interloquire, un domani che è già oggi, “avvocati artificiali”. E’ una strada, del resto, lastricata dalle migliori intenzioni: la “scorciatoia” dell’intelligenza artificiale promette infatti miglioramento dell’efficienza e dei tempi, maggiore neutralità del giudizio, innalzamento degli standard di “calcolabilità” del diritto e delle sentenze, più eguaglianza davanti alla legge. Tutti obiettivi certamente attingibili – si assicura – se a decidere fosse un “judge-bot”. Da questa angolatura, verrebbe quasi da credere che Cesare Beccaria sia sul punto di prendersi la sua rivincita sul corso della storia, perché la figura di giudice “macchina per sillogismi” utopizzata – con falsa ingenuità – dall’illuminismo giuridico sembra ormai dietro l’angolo, promettendo – o minacciando – di spodestare i tradizionali attori della giustizia anche in campo penale: prefigurando non solo magistrati artificiali ma anche – parallelamente – avvocati digitali, a cui del resto ci si potrebbe rivolgere con una sensibile riduzione di costi. Quasi un “ritorno al futuro”, dunque, se non fosse che la “frattura antropologica” e la “disumanizzazione della giustizia” sottese al nuovo scenario della “società algoritmica” implicano una evidente rivoluzione sul piano epistemologico ed assiologico.

Sarebbe del resto ingenuo pensare che la sostituzione della macchina all’uomo nel campo della giurisdizione – se mai davvero dovesse accadere – possa essere frutto solo di una adesione fideistica alle lusinghe della tecnologia, ed appare urgente, piuttosto, farsi alcune domande: su quale “crisi di fiducia” abbia consentito che attecchisse anche solo l’idea di una amministrazione della giustizia “artificiale”; su quali benefici e quali costi siano sottesi alla rivoluzione prossima futura; soprattutto, sul se tutto questo sia accettabile anche in campo penale, quel settore del diritto dove il “fattore umano” – pur con tutto il suo corredo di limiti cognitivi e distorsioni valutative, e con il suo gravoso fardello di bias e di errori giudiziari – appare ancora, per varie ragioni, imprescindibile. D’altronde, capacità creativa, immaginazione ed emotività, tensione critica, pensiero problematico e “dialettica del dubbio”, appaiono caratteristiche fondanti della valutazione giudiziale, presupposti con-costitutivi dello ius dicere, e requisiti non surrogabili da un qualche software intelligente anche e soprattutto quando si discute di responsabilità e pene. Ed allora, siamo davvero pronti a farci giudicare da macchine, anche quando si decide della nostra libertà personale? E a quale costo, in termini di diritti e garanzie? Quali, insomma, i rischi da esorcizzare, affinché la tecnologia non si trasformi in cieca tecnocrazia proprio quando le sfere di libertà e i diritti fondamentali sono primariamente in gioco? 4. Un profilo di indubbio interesse attiene all’utilizzo dell’AI funzionale alla razionalizzazione della decisione giudiziale ed alla sua prevedibilità, anche in ordine alla pena concretamente irrogata da giudici diversi per “fatti” che presentano evidenti analogie. Gli scenari di una giustizia diseguale, che dipende dal “se il giudice abbia fatto una buona colazione” (il c.d. breakfast sentencing), le mille trappole cognitive e la “razionalità limitata” che caratterizza la decisione umana, l’incidenza del “rumore” – ci ricorda Kahneman – su ogni decisione che quotidianamente compiamo, sono lì ad ammonirci ed a sollecitare la ricerca verso dei correttivi artificiali che consentano di migliorare l’affidabilità della decisione giudiziale. Così, ad esempio, l’utilizzo di algoritmi potrebbe consentire di costruire e prevedere, quanto meno a grandi linee, la pena “equa” nel caso concreto. Ma, ancora prima, un software potrebbe già consentire di elaborare la stessa prognosi di “ragionevole previsione di condanna”, oggi richiesta in diverse sedi e fasi del procedimento: dall’archiviazione all’udienza preliminare, sino all’udienza predibattimentale. Sennonché, la razionalità di questo possibile impiego, ed a monte l’anelito di equità che lo muove, dipendono ovviamente dalla equità, dalla trasparenza, e quindi dalla “controllabilità” dell’algoritmo: con tutto il carico di possibili diseguaglianze che i dati somministrati per la costruzione del software si trascinano dietro.

Ognuno vede, già da questa angolatura, quanto l’arbitrio giudiziale e l’imprevedibilità della decisione rischino di essere sostituiti dall’arbitrio di un programma informatico, e dalla strutturale vocazione antiegualitaria che ogni generalizzazione statistica, come ogni correlazione costruita su dati previamente raccolti e selezionati, reca con sé: una “selettività diseguale” che rischia persino di replicarsi e consolidarsi nei programmi autogenerativi, visto che in questi l’algoritmo finisce col duplicare e reiterare se stesso. Del resto, l’esperienza americana dell’algoritmo COMPAS – uno dei sistemi di AI finalizzati a rilevare il rischio di recidiva di persone sottoposte a procedimento penale – ha fatto emergere, sin dal celebre caso Loomis, la significatività di questi rischi: prospettando scenari che, nella prospettiva penalistica, possono riportare alla mente persino le inquietanti esperienze di “etichettamento” alla base del “tipo criminologico di autore”, ossia di un diritto penale non più orientato al fatto, bensì, appunto, all’autore. E i rischi di selettività pregiudiziale o arbitraria – è appena il caso di notarlo – possono emergere anche quando si affidi ad un software nulla più che una ricerca giurisprudenziale su “precedenti” utili ad orientare la decisione nel caso concreto. Se a ciò si aggiunge che nemmeno gli sviluppatori di programmi di Ai generativa sono in grado di comprendere come e perché gli algoritmi pervengono a determinati output, si comprende come la diseguaglianza “congenita” rischi persino di moltiplicarsi e degenerare in diseguaglianza “distribuita secondo il caso”: sino ad una decisione giudiziale che rischierebbe di ridursi…alla lotteria di Babilonia immaginata dalla fiammeggiante fantasia di Borges. 5. Più in radice, però, vi sono questioni persino più vertiginose, per la “democraticità” e l’“umanità” della decisione in campo penale, che concernono la struttura di talune valutazioni, e la possibilità di affidarle a un “giudice senza emozioni”, o all’ausilio di una longa manus offerta da un qualche programma algoritmico. Basti un esempio, tra i molti possibili. Il “ragionevole dubbio” il cui superamento è imposto – come si sa – per la decisione di condanna, oltre che “regola di giudizio” è un “metodo” che impone al giudice penale di iscrivere la propria valutazione nella “dialettica del dubbio”: ed appare francamente difficile ritenere che un software sia in grado non già di “censire” una situazione di dubbio, bensì di valutare se il dubbio sia, o meno, nel caso concreto, “ragionevole”. Lo iato con il necessario coefficiente umanistico richiesto per decidere sembra amplificarsi, naturalmente, quando in gioco vi sia la concreta irrogazione di una pena carceraria: ma in ogni caso prospetta un problema di frizione con garanzie fondamentali, lasciando intravedere, nella sottoposizione di un imputato ad una decisione elaborata mediante algoritmi, una “esperienza di cosificazione” non distante da un trattamento “inumano” o “degradante”. La “mediazione tecnica”, del resto, nasconde sempre il rischio di una disumanizzazione del giudizio, come ha testimoniato – mutatis mutandis – l’esperienza inglese del processo da remoto, durante l’emergenza Covid, tradottasi in un numero percentualmente crescente di condanne, e di un innalzamento del livello di severità delle pene irrogate da un giudice che non aveva l’imputato “davanti agli occhi”.

L’ostacolo, dunque, non è solo epistemologico, ma muove sul piano dei valori: giacché ognuno vorrebbe essere giudicato con un metodo ed un metro che rispetti il coefficiente umanistico che contrassegna la dignità dell’“in-dividuo” come “persona”, e che garantisca la sua pretesa di essere “trattata” come tale. Sappiamo che la regolamentazione, almeno in sede europea, sta cercando di correre ai ripari, ponendo argini ad un impiego indiscriminato dell’AI nel settore della giustizia ed affrettandosi ad affermare garanzie che apparivano, sino a ieri, persino inimmaginabili. Così, si è recentemente introdotto il divieto di immettere sul mercato sistemi di risk assessment per la prognosi sul rischio che una persona fisica commetta un reato, se basati esclusivamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche della personalità. Ancora, si è da tempo previsto il “divieto di una decisione basata unicamente su trattamenti automatizzati”: un divieto che – a ben vedere – dovrebbe evolvere ed implicare anche il diritto fondamentale a che la decisione sulla responsabilità penale, nei suoi aspetti essenziali, sia affidata all’intelligenza umana – o a una human driven activity – e non all’intelligenza artificiale. Indubbiamente, questi ed altri divieti testimoniano una crescente consapevolezza in ordine ai pericoli sopra accennati: ma risultano tradotti in formule compromissorie, ed inframmezzati da deroghe ambigue, cosicché non si può essere altrettanto sicuri che gli stessi possano rivelarsi solidi presidi, in un settore – come appunto l’“amministrazione della giustizia” – dove l’impiego degli algoritmi è qualificato “ad alto rischio”. E dove resta sempre preferibile, rispetto all’illusorio El Dorado di una “giustizia esatta”, il doveroso impegno verso una “giustizia giusta”.

Vincenzo Manes è professore ordinario di Diritto penale – Università di Bologna)

Di più su questi argomenti:

Leave a comment

Your email address will not be published.