
di Fabrizio Costarella* e Ottavio Porto**
Nel contemporaneo scenario giuridico, l’espansione del paradigma preventivo rappresenta un mutamento strutturale delle forme di repressione penale. Non si tratta più soltanto di un aumento quantitativo delle misure di prevenzione, ma di una progressiva sostituzione funzionale del processo penale con strumenti alternativi, nei quali le garanzie costituzionali risultano ridimensionate o, talora, del tutto elise.
In tale contesto, si profila il rischio che il principio della responsabilità personale accertata venga progressivamente sostituito da valutazioni di pericolosità basate su elementi indiziari, prognostici, e talvolta statistici, privi di un reale contraddittorio. Questo scenario prefigura una vera e propria inversione metodologica, dove la “certezza della pena” diventa, paradossalmente, espressione di una incertezza del diritto, frammentato da prassi giurisprudenziali, estensioni interpretative e criteri probatori informali.
In tale deriva trova attualità la massima pitagorica secondo cui “tutto è numero”. Se, per il filosofo di Crotone, il numero era la chiave dell’ordine cosmico, nella declinazione tecnologica contemporanea esso diventa invece strumento di previsione e categorizzazione sociale. Gli algoritmi, utilizzati in funzione preventiva, si ergono a nuovi criteri di giudizio, riducendo la complessità del comportamento umano a variabili computabili.
A ciò si accompagna la trasformazione del linguaggio giuridico, sempre più assorbito dal lessico tecnico e predittivo dell’intelligenza artificiale. Come ricordava Wittgenstein, “i limiti del mio linguaggio significano i limiti del mio mondo“: quando la lingua del diritto viene riscritta in codice computazionale, cambia anche la nostra concezione di colpa, responsabilità, libertà.
L’introduzione di strumenti informatici come il Sistema Giove, fondato su logiche di polizia predittiva, segna una soglia epistemologica critica. Si tratta di una piattaforma che consente l’incrocio automatizzato di banche dati di diversa natura – giudiziaria, amministrativa, anagrafica – con l’obiettivo di identificare pattern ricorrenti associabili a fenomeni criminali ad alto impatto sociale. Il principio è quello della previsione del rischio: identificare soggetti potenzialmente pericolosi prima che compiano reati, così da attivare misure di prevenzione personale o patrimoniale.
In tale modello investigativo, l’indagine si sposta dal fatto alla probabilità, dalla responsabilità accertata alla pericolosità supposta. La razionalità garantista, fondata sulla verifica rigorosa delle prove e sul contraddittorio, viene progressivamente erosa dalla logica predittiva e dalla statistica induttiva.
Questa tecnica stocastica si inserisce in una più ampia tendenza, comune a diversi ordinamenti, che fa ricorso a tecnologie basate su machine learning, profilazione automatica e analisi comportamentale predittiva. Tali strumenti – se non rigorosamente regolati – rischiano di introdurre nel procedimento di prevenzione elementi discriminatori, amplificando bias preesistenti nei dati di addestramento: etnia, orientamento sessuale, contesto socioeconomico.
Il cuore del problema è epistemologico: chi programma l’algoritmo determina il diritto implicito che esso codifica. Eppure, il controllo giudiziale su questi strumenti è spesso ostacolato dalla loro opacità, dall’assenza di accesso ai dati, e dalla mancanza di supervisione esperta. In questo scenario, la giustizia si espone al rischio di automazione non controllata della discrezionalità.
Da questa prospettiva, risulta illuminante la riflessione sulla dimensione mistica e simbolica del potere punitivo pubblico. In epoca medievale, il potere giudiziario del sovrano si configurava come espressione di un ordine trascendente e non riducibile alla razionalità amministrativa.
Per Kantorowicz, ad esempio, il sovrano incarnava due nature: un corpo fisico, destinato a morire, e un corpo politico immortale, simbolo della continuità e infallibilità dell’autorità statale. In tale dualismo, la giustizia non era semplicemente esercitata, ma incarnata: il giudice sovrano non agiva come la legge, ma era la legge, in una sovrapposizione tra diritto umano e ordine cosmico.
Come la figura del re taumaturgo di Bloch, che si fondava sulla credenza collettiva che il sovrano fosse dotato di un potere miracoloso, capace di guarire per sola imposizione delle mani, non per abilità medica, ma per una legittimazione trascendente, collettivamente condivisa. Anche in quel contesto, il potere pubblico si fondava su una narrazione mistica di giustizia e ordine, accettata perché sentita come parte di un disegno superiore.
Tale convinzione conferiva al potere una legittimazione carismatica e quasi liturgica, che legava l’autorità politica al destino spirituale della comunità.
L’intelligenza artificiale – nella sua radicale opacità e nella sua pretesa di oggettività neutrale – spezza questo legame simbolico tra autorità e comunità. Non solo rimuove il volto del giudice, ma lo sostituisce con un’entità che non può essere né creduta né contestata sul piano del senso, perché priva di un’origine simbolica condivisa. Così facendo, si introduce una nuova mitologia impersonale, in cui il calcolo prende il posto della fede, e il rischio non è più il sopruso umano, ma l’arbitrio meccanico della macchina.
La giustizia viene svincolata da ogni elemento simbolico e umano, recedendo il vincolo collettivo di senso tra governanti e governati e sublimando d’altro canto la dimensione misterica dell’auctoritas, il cui esercizio diviene nuovamente incomprensibile al volgo, smaterializzando la sua secolarizzazione illuministica.
In tale modello, l’eccezione si fa norma e il sospetto diventa criterio di azione. La grammatica stessa del diritto moderno, fondata sulla responsabilità personale e sul principio di legalità, risulta sovvertita. Non è più necessario un atto, ma una correlazione statistica; non una colpa, ma un rischio.
In chiave politico-filosofica contemporanea, questa trasformazione può essere letta alla luce della riflessione di Giorgio Agamben sul paradigma del “governo attraverso la sicurezza”: una logica in cui il diritto viene progressivamente svuotato, sostituito da pratiche amministrative orientate alla gestione dei rischi e dei comportamenti. La prevenzione algoritmica – fondata su una razionalità tecnico-statistica – si configura come uno stato di eccezione permanente, dove la sospensione delle garanzie è normalizzata, invisibile, addirittura automatica.
Qui si innesta una riflessione centrale sul rapporto tra dittatura e stato di eccezione, così come tematizzato da Carl Schmitt e Ernst Fraenkel. Per Schmitt, il sovrano è “colui che decide sullo stato di eccezione”: il momento fondativo del potere politico si manifesta quando, in nome dell’emergenza, si sospende l’ordine normativo per salvaguardarlo. In questo senso, la prevenzione algoritmica si pone come una forma tecnicizzata e automatizzata della decisione sovrana, dove l’eccezione non è più pronunciata da un soggetto politico, ma è incorporata nel funzionamento stesso del sistema.
Fraenkel, nel suo celebre Il doppio Stato, aveva mostrato come, nella Germania nazista, convivessero due ordini giuridici: uno normativo e garantista, riservato all’apparato amministrativo ordinario; l’altro discrezionale e repressivo, fondato su criteri extralegali e prerogative eccezionali. Questo dualismo giuridico, oggi apparentemente superato, riemerge nella coesistenza tra diritto formale e diritto algoritmico: da un lato il codice penale, dall’altro le piattaforme predittive che operano secondo logiche opache e prive di controllo democratico. È una nuova forma di “Stato duale” digitale, dove l’algoritmo agisce come una dittatura senza volto, sottraendo alla deliberazione politica e giuridica la responsabilità della decisione.
Ciò sovverte la grammatica stessa del diritto moderno, basato su responsabilità personale, proporzionalità e certezza delle garanzie. La dittatura computazionale non ha bisogno di proclami o decreti: basta una soglia di rischio, una correlazione statistica, un pattern anomalo, per sospendere il principio di non colpevolezza e attivare misure invasive.
Il Regolamento Europeo sull’Intelligenza Artificiale (AI Act) tenta di offrire una risposta sistemica a tali rischi, classificando l’utilizzo dell’IA in ambito giudiziario tra le attività ad alto rischio. I principi cardine che emergono dal Regolamento – trasparenza, tracciabilità, sicurezza, supervisione umana, rispetto dei diritti fondamentali – costituiscono linee guida imprescindibili per ogni utilizzo dell’IA nella sfera giuridica.
Tuttavia, la normativa, per quanto avanzata, non può sostituire la cultura giuridica del limite. Il giurista non deve cedere alla tentazione di una giustizia “senza attrito”, dove la complessità dell’accertamento è sacrificata sull’altare dell’efficienza predittiva.
L’intelligenza artificiale, dunque, deve essere considerata uno strumento e non un soggetto decisionale. La sua efficacia dipende dalla consapevolezza professionale di chi la utilizza. In mani esperte, può coadiuvare l’indagine; in mani impreparate o ideologicamente orientate, può diventare uno strumento di repressione sommaria.
Per questo motivo, la deontologia giuridica assume oggi un valore ancor più centrale. Essa non è mera tecnica regolativa, ma espressione di un’etica della responsabilità. L’avvocato, il giudice, il pubblico ministero sono chiamati a mantenere la propria funzione di interpreti attivi e coscienti, capaci di guidare l’uso delle nuove tecnologie secondo i principi costituzionali.
Se il futuro della giustizia sarà anche digitale, non potrà essere spogliato della sua dimensione umana e garantista. L’algoritmo potrà suggerire, mai decidere. Solo il diritto, nella sua forma consapevole, può preservare l’equilibrio tra prevenzione e libertà, sicurezza e dignità.
“La tecnica non pensa. È compito dell’uomo pensare cosa vuole fare con la tecnica.”
– Martin Heidegger
* Responsabile Osservatorio Nazionale Misure Patrimoniali e di Prevenzione
** Componente Osservatorio Scienza processo e intelligenza artificiale
