Se a Garlasco l’AI avesse indagato con noi. Il garantismo moderno

Il caso Garlasco evidenzia limiti investigativi superabili con l’intelligenza artificiale, che mappa scene e analizza dati. Serve un cambiamento culturale per un garantismo moderno

Se oggi si dovesse riaprire il caso Garlasco, probabilmente la scena del crimine non verrebbe chiusa dopo qualche ora, ma mappata centimetro per centimetro da scanner 3D. I tabulati telefonici non sarebbero solo dati da conservare, ma materiale vivo, confrontato in tempo reale con orari, spostamenti, telecamere e cronologie digitali. Le testimonianze non resterebbero parole su verbali, ma diventerebbero oggetto di analisi semantica, alla ricerca di incongruenze, slittamenti, omissioni. E la domanda di fondo, la stessa da due decenni – Alberto Stasi ha ucciso Chiara Poggi? – avrebbe forse, grazie alla tecnologia, una risposta più fondata.

Il caso di Garlasco, per chi ha seguito anche solo distrattamente la cronaca giudiziaria italiana, è il simbolo di tutto ciò che può andare storto in un’indagine: scena del crimine contaminata, perizie che si contraddicono, sentenze che si annullano a vicenda, fino alla condanna definitiva arrivata dopo due assoluzioni. Eppure, è anche il paradigma perfetto per spiegare perché l’innovazione investigativa – se presa sul serio – può rappresentare la svolta più importante della giustizia contemporanea.

In molte parti del mondo, l’intelligenza artificiale è già entrata nella cassetta degli attrezzi degli inquirenti. Negli Stati Uniti, software come HunchLab o PredPol sono utilizzati per prevedere zone a rischio crimine (con limiti evidenti, certo, ma anche potenzialità notevoli). In Francia e Germania si sperimenta l’uso dell’AI per analizzare in modo incrociato le testimonianze, individuando divergenze temporali e contraddizioni logiche. In Israele e nei Paesi Bassi si lavora su ricostruzioni tridimensionali dinamiche delle scene del crimine, che permettono di “rigiocare” quanto accaduto, testando ipotesi diverse.

Ma è soprattutto nella fase preliminare – quella che in Italia spesso soffre di fragilità strutturali – che l’AI può fare la differenza. A cominciare dalla gestione della scena del crimine. Un algoritmo addestrato con migliaia di casi può aiutare gli inquirenti a stabilire cosa fotografare, dove cercare tracce, come valutare l’importanza relativa degli elementi presenti. In casi come Garlasco, dove un’impronta sul pavimento o la dinamica dell’ingresso potevano cambiare tutto, la tecnologia avrebbe potuto evitare errori irreversibili.

Un altro campo promettente è l’analisi semantica delle dichiarazioni. Le testimonianze non sono solo questione di memoria, ma anche di linguaggio. L’AI oggi è in grado di individuare pattern ricorrenti, incongruenze, variazioni sintattiche sospette. Non per sostituirsi all’intuito umano, ma per rafforzarlo. Immaginiamo di sottoporre tutte le dichiarazioni rilasciate da Stasi, dai testimoni, dai familiari, a un sistema capace di leggere i testi e confrontarli con gli atti, con i tempi, con i luoghi. Sarebbe emerso qualcosa di più? Forse no. Ma di certo sarebbe stato più difficile perdersi nei dettagli sbagliati.

Poi ci sono gli alibi. Nel 2007 bastava dire “ero al computer” o “sono uscito in bici”. Oggi la presenza online, la geolocalizzazione, gli orari di accesso e le tracce lasciate su server e dispositivi possono essere incrociati con precisione. Non servono neppure nuove leggi, solo maggiore competenza. L’AI può integrare dati da telefoni, Gps, smart device, social network. E restituire un quadro coerente – o contraddittorio. Il punto è che tutto questo può essere fatto già adesso. Manca solo la volontà.

Ovviamente, non tutto è oro. L’uso dell’AI in ambito investigativo apre dilemmi etici, problemi di privacy, rischi di bias algoritmico. Ma il punto centrale è un altro: l’alternativa all’uso intelligente della tecnologia è l’errore. Errori come quelli di Garlasco. Come quelli che si ripetono in casi simili, dove la verità non viene cercata con gli strumenti migliori, ma con quelli disponibili.

Il vero progresso, allora, non è solo tecnico, ma culturale. Riconoscere che la tecnologia può aiutare non significa delegare a un robot la responsabilità di giudicare. Significa avere l’umiltà di dire che la verità, nel Ventunesimo secolo, si costruisce anche con strumenti nuovi. E che il garantismo moderno – quello vero – passa anche per questo: fare di tutto per sapere davvero cosa è accaduto. Non dieci anni dopo. Ma subito. Quando serve.

Leave a comment

Your email address will not be published.