Lo ammetto: tra le questioni che più mi affascinano c’è quella in cui la tecnologia corre talmente veloce da arrivare a bussare alle porte del diritto penale.
Può sembrare fantascienza, ma l’idea che un algoritmo possa influenzare o addirittura determinare la pena inflitta a un imputato non è più solo materia da serie TV distopiche. In alcune giurisdizioni, è già realtà.
Cos’è la giustizia predittiva

La cosiddetta giustizia predittiva nasce con l’obiettivo di rendere i tribunali più efficienti e imparziali, affidando all’intelligenza artificiale una parte del processo decisionale. In concreto, significa sistemi in grado di analizzare grandi moli di dati giurisprudenziali, sociali, personali per “prevedere” la recidiva di un imputato o suggerire la pena statisticamente più adeguata.
Negli Stati Uniti, ad esempio, il software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) è stato utilizzato per fornire ai giudici valutazioni sul rischio di recidiva, influenzando la concessione della libertà vigilata o la misura della pena. Ma, studi indipendenti come quello condotto da ProPublica, hanno dimostrato che COMPAS non è neutrale, bensì tende ad attribuire un rischio di recidiva più alto a imputati afroamericani, a parità di condizioni.
La “black box” degli algoritmi
Il problema è la c.d. black box; infatti, non sappiamo esattamente come vengano pesati i fattori, né in che modo i dati vengano elaborati. E se l’algoritmo incorpora i pregiudizi storici presenti nei dataset, finisce per amplificarli. Un cortocircuito che entra in conflitto con i principi di uguaglianza, imparzialità e personalizzazione della pena, sanciti tanto dalle Costituzioni democratiche quanto dall’art. 6 della Convenzione europea dei diritti dell’uomo (CEDU).
In Italia, l’uso di strumenti predittivi in ambito penale è escluso. L’AI Act europeo classifica questi sistemi come ad alto rischio, ponendo limiti stringenti al loro impiego. Lo stesso GDPR, all’art. 22, vieta decisioni basate unicamente su processi automatizzati con effetti giuridici significativi, senza che vi sia un intervento umano reale, trasparenza e possibilità di contestazione.
Perché la pena non può essere un calcolo aritmetico
La pena non è (e non può essere) un mero calcolo aritmetico. È una decisione che racchiude valutazioni giuridiche e sociali. Ha un fine rieducativo e non soltanto punitivo. Delegarla a un algoritmo significherebbe ridurre il processo penale a una somma di variabili, cancellando la centralità della valutazione del giudice.
Questo non vuol dire che l’AI non possa avere un ruolo ed anzi: il suo potenziale sta nel supportare il magistrato, ad esempio analizzando migliaia di precedenti, segnalando incongruenze, suggerendo schemi argomentativi e rendendo in tal modo la giustizia più rapida e coerente. Ma la decisione deve restare umana e motivata secondo diritto.
Il rischio del giustizialismo automatizzato
Un algoritmo non conosce la dignità, il pentimento, le motivazioni. Non può percepire le circostanze di una storia personale. Senza regole chiare, controlli, trasparenza e garanzie difensive, la giustizia predittiva rischia di trasformarsi in un giustizialismo automatizzato, dove le persone diventano numeri, come in un capitolo di 1984.
Il diritto deve quindi ribadire un punto semplice ma fondamentale (e centrale), ovvero che l’algoritmo non è e non deve mai diventare il giudice.
Come co-fondatore di GiurisApp, una piattaforma nata proprio per avvicinare il mondo del diritto alla tecnologia e all’innovazione, credo sia fondamentale continuare a tradurre le sfide giuridiche in spunti di riflessione comprensibili, concreti e accessibili. Il futuro dell’intelligenza artificiale non è solo una questione tecnica o legale, ma è anche una questione di cultura, consapevolezza e responsabilità, individuale e condivisa.









