L’INTELLIGENZA ARTIFICIALE NELLE PROCURE DELLA REPUBBLICA: UNA NECESSITÀ DI COMPRENSIONE E DI REGOLAMENTAZIONE. L’IMPEGNO DELL’UNIONE DELLE CAMERE PENALI ITALIANE PER “LA GIUSTIZIA CHE SARÀ”.

di Andrea Cavaliere*– 

L’introduzione dell’intelligenza artificiale nei sistemi giudiziari rappresenta una delle trasformazioni più significative del panorama giuridico contemporaneo. Mentre la Corte di Cassazione ha avviato progetti pionieristici per l’implementazione di sistemi di IA, emerge con urgenza la necessità di estendere questa riflessione alle Procure della Repubblica, uffici cruciali nell’amministrazione della giustizia penale.

Il presente articolo analizza i progetti in corso, i principi etici internazionali e le sfide specifiche che l’avvocatura deve affrontare nell’era dell’intelligenza artificiale, sottolineando come la comprensione approfondita di questi sistemi sia necessaria per vigilare sull’uso che ne faranno le Procure e per rivendicare una effettiva parità delle armi tra accusa e difesa nell’impiego della tecnologia nella giustizia.

 

L’avvento dell’intelligenza artificiale nel sistema giudiziario italiano segna un momento di svolta epocale nell’amministrazione della giustizia.

L’intelligenza artificiale può essere un prezioso strumento a supporto dell’attività del giudice, ma non deve mai diventare un suo sostituto. Questa affermazione racchiude la complessità della sfida che il sistema giudiziario italiano si trova ad affrontare: come integrare le potenzialità rivoluzionarie dell’IA mantenendo al contempo i principi fondamentali di umanità, trasparenza e responsabilità che caratterizzano l’amministrazione della giustizia.

Il progetto di collaborazione tra il CED della Corte di Cassazione e la Scuola universitaria superiore di Pavia (IUSS), siglato dal Presidente Pietro Curzio e dal Rettore Riccardo Pietrabissa, rappresenta il primo passo concreto verso questa integrazione [1]. Tuttavia, mentre l’attenzione si concentra sulla Suprema Corte, emerge con urgenza la necessità di estendere questa riflessione alle Procure della Repubblica, uffici che svolgono un ruolo cruciale nell’amministrazione della giustizia penale e che potrebbero beneficiare enormemente dall’implementazione responsabile di sistemi di intelligenza artificiale.

Le Procure della Repubblica, infatti, si trovano quotidianamente a gestire volumi enormi di dati, documenti e procedimenti che richiedono analisi approfondite e tempestive. L’introduzione di sistemi di IA potrebbe rivoluzionare l’efficienza di questi uffici, ma richiede una comprensione approfondita delle implicazioni tecniche, etiche e giuridiche che tale implementazione comporta. La mancanza di una preparazione adeguata in questo ambito potrebbe portare a implementazioni superficiali o, peggio ancora, a resistenze che impedirebbero di cogliere le opportunità offerte da queste tecnologie innovative.

In questo contesto assume particolare rilevanza la ricerca sistematica condotta dall’Unione delle Camere Penali Italiane attraverso i suoi osservatori “Scienza, Processo e Intelligenza Artificiale” e “Acquisizione Dati Giudiziari”. Questa iniziativa rappresenta la prima mappatura organica e strutturata dell’utilizzo dei sistemi di intelligenza artificiale presso tutte le Procure della Repubblica del territorio nazionale, condotta attraverso il contatto diretto con tutti i procuratori della repubblica ai quali viene somministrato un questionario dettagliato e compilato in presenza.

L’approccio metodologico adottato dall’Unione delle Camere Penali riflette la consapevolezza che una comprensione efficace dell’implementazione dell’IA nelle Procure richiede un’analisi empirica diretta e personalizzata. La compilazione in presenza del questionario garantisce non solo l’accuratezza dei dati raccolti, ma consente anche di acquisire informazioni qualitative sulle esperienze, le sfide e le prospettive dei magistrati requirenti. I dati raccolti attraverso questa ricerca andranno a costituire l’ossatura di un’analisi comprensiva che potrà fornire indicazioni preziose per lo sviluppo di politiche nazionali sull’implementazione responsabile dell’IA nel sistema giudiziario.

L’importanza di questa ricerca è amplificata dal fatto che proviene dal mondo dell’avvocatura penale, che rappresenta un osservatorio privilegiato sull’impatto dell’IA sui diritti processuali e sulla qualità della giustizia. La prospettiva della difesa è essenziale per identificare potenziali criticità nell’utilizzo dell’IA che potrebbero non essere immediatamente evidenti dal punto di vista dell’accusa, contribuendo così a creare un quadro più equilibrato e completo delle implicazioni dell’IA per il sistema di giustizia penale.

Il tema è estremamente attuale anche alla luce del disegno di legge S. 1146-B, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, approvato dal Senato il 20 marzo 2025 e modificato dalla Camera il 25 giugno 2025 con approvazione definitiva prevista per settembre 2025 e che promuove l’utilizzo corretto, trasparente e responsabile dei sistemi di intelligenza artificiale, con particolare attenzione alla tutela dei diritti fondamentali, all’autonomia e al potere decisionale dell’uomo, alla sicurezza e alla protezione dei dati personali.

In particolare sono due gli articoli del disegno di legge sui quali prestare attenzione: la disposizione di cui all’art. 24, comma 5, lett. e), stabilisce che occorre una “regolazione dell’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari nel rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza”.

Ora, se da un lato è indubbio il valore di un intervento normativo volto a disciplinare l’impiego dell’I.A. nella fase delle indagini preliminari, con particolare attenzione alle garanzie difensive e alle modalità di conduzione delle attività investigative, dall’altro permane il rischio che la regolamentazione si traduca in mere procedure formali. Tali schemi, invece di assicurare effettiva trasparenza, potrebbero finire per produrre risultati opachi, assimilabili a “scatole nere”, privi cioè di un fondamento metodologico scientificamente spiegabile e quindi sottratti a qualsiasi possibilità di verifica e confutazione.

E l’art. 15 – Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria che al comma 3 inserisce, in caso di sperimentazione e impiego di sistemi di IA negli uffici giudiziari ordinari e, comunque, in attesa che il Regolamento Europeo venga applicato compiutamente, l’obbligo di ottenere una autorizzazione da parte del Ministero della Giustizia, sentite le autorità di cui all’art. 20 (AGiD e ACN). Si precisa che l’entrata in vigore del Regolamento Europeo si completerà con riferimento a tutte le previsioni (in particolare con riferimento ai sistemi ad alto rischio) entro il 2 agosto 2027. In tal modo si finisce di fatto per legittimare l’utilizzo e la sperimentazione dei sistemi di intelligenza artificiale, con la conseguente necessità, per l’avvocatura, di attivare tutti gli strumenti di controllo, come ad esempio la mappatura già in corso

Anche in considerazione della necessità di esplorare, comprendere e anticipare la direzione verso cui si muove la giustizia penale italiana e ciò che dobbiamo attenderci dalla giustizia del futuro – “la Giustizia che sarà” -, diventa indispensabile avere una visione chiara dei progetti già avviati

 

Il Panorama Attuale: Progetti Pionieristici nel Sistema Giudiziario Italiano
Il Progetto CED-IUSS: Un Modello per il Futuro

Il progetto di ricerca su sistemi di intelligenza artificiale sviluppato attraverso la collaborazione tra il CED della Corte di Cassazione e la Scuola universitaria superiore di Pavia rappresenta un punto di riferimento fondamentale per comprendere le potenzialità dell’IA nel sistema giudiziario italiano [1]. Questo progetto quinquennale, con possibilità di estensione per ulteriori cinque anni, si articola attorno a quattro obiettivi principali che delineano il futuro dell’applicazione dell’IA nella giustizia.

Il primo obiettivo, la “predizione” (prediction), mira a sviluppare sistemi capaci di prevedere gli esiti di un giudizio attraverso l’analisi del corpus giurisprudenziale esistente. Questa funzionalità, se applicata alle Procure, potrebbe rivoluzionare la strategia processuale, consentendo ai magistrati requirenti di valutare con maggiore precisione le probabilità di successo di un’azione penale e di ottimizzare l’allocazione delle risorse investigative.

Il secondo obiettivo, l'”estrazione di argomenti giuridici” (argument mining), rappresenta forse l’applicazione più promettente per le Procure della Repubblica. Questa tecnologia consentirebbe di identificare automaticamente le argomentazioni più convincenti all’interno di un vasto corpus di documenti giuridici, supportando i magistrati nella costruzione di imputazioni più solide e nella preparazione di atti processuali più efficaci. L’importanza di questa funzionalità diventa evidente quando si considera il volume di documentazione che una Procura deve analizzare quotidianamente, dalle denunce alle perizie tecniche, dalle intercettazioni ai rapporti investigativi.

La “massimizzazione automatica” (summarization) costituisce il terzo pilastro del progetto e potrebbe trasformare radicalmente il modo in cui le Procure gestiscono la documentazione processuale. La capacità di generare automaticamente riassunti accurati e comprensivi di documenti complessi non solo accelererebbe i tempi di analisi, ma garantirebbe anche una maggiore uniformità nella valutazione dei casi, riducendo il rischio di omissioni o interpretazioni soggettive.

Infine, la “creazione automatizzata di documenti” (document builder) rappresenta l’evoluzione naturale dell’automazione processuale. Questa funzionalità potrebbe supportare le Procure nella redazione di atti standardizzati, dalla richiesta di misure cautelari alla formulazione di capi di imputazione, garantendo al contempo la coerenza terminologica e la completezza delle argomentazioni giuridiche.

 

Esperienze Concrete: I Progetti di Torino e Perugia

Mentre il progetto della Corte di Cassazione delinea il quadro teorico e metodologico, le esperienze concrete delle procure di Torino e Perugia offrono una prospettiva pratica sull’implementazione dell’IA negli uffici requirenti. Il “Progetto Seneca” della Procura della Repubblica di Torino, sviluppato in collaborazione con il Politecnico di Torino e il CINI (Consorzio Interuniversitario Nazionale per l’Informatica), rappresenta un laboratorio di sperimentazione per l’utilizzo intelligente della tecnologia in ambito legale [2].

Sotto la direzione del Procuratore Giovanni Bombardieri, il “Progetto Seneca” si propone di modernizzare il sistema giudiziario attraverso un uso strategico della tecnologia, con l’obiettivo primario di migliorare l’efficienza complessiva. In quest’ottica, il progetto mira a sviluppare soluzioni innovative per accelerare e ottimizzare i processi legali. L’idea è quella di fornire a magistrati e personale amministrativo strumenti avanzati che possano aiutarli a gestire i carichi di lavoro, spesso molto pesanti, in modo più rapido ed efficace. Parallelamente, un altro pilastro del progetto è il potenziamento della sicurezza. Questo non si limita alla protezione fisica, ma si estende all’introduzione di strumenti tecnologici avanzati per perfezionare i sistemi di analisi e controllo all’interno degli uffici giudiziari. A questo si affianca un forte impulso verso la digitalizzazione, che parte dalla gestione informatizzata dei flussi documentali e dalla protezione dei dati sensibili.

Infine, il progetto sfrutta le potenzialità dell’intelligenza artificiale per supportare le attività di analisi. Nello specifico, vengono sviluppati sistemi capaci di raccogliere e analizzare informazioni provenienti da fonti aperte (come il web e i social media), garantendo agli operatori un accesso più rapido e sicuro a dati rilevanti per le indagini.

Parallelamente, l’esperienza della Procura della Repubblica di Perugia offre un esempio concreto di applicazione dell’IA a specifiche attività processuali. Il progetto perugino, focalizzato sulla redazione automatizzata di mandati di arresto europei, dimostra come l’intelligenza artificiale possa essere utilizzata per automatizzare processi ripetitivi senza compromettere la qualità dell’output giuridico [3].

Come spiegato dal Procuratore Generale di Perugia, Sergio Sottani, l’obiettivo non è sostituire il ragionamento giuridico del magistrato, ma fornire un supporto tecnologico per la gestione di attività che, pur essendo fondamentali, richiedono principalmente l’elaborazione di informazioni standardizzate [3]. La sperimentazione perugina ha dimostrato che l’IA può essere particolarmente efficace nel supportare la lettura veloce di fascicoli voluminosi e nella sintesi di informazioni complesse, liberando tempo prezioso che i magistrati possono dedicare all’analisi giuridica più sofisticata.

 

Il Progetto Ministeriale: Big Data e Data Lake

Parallelamente ai progetti locali, il Ministero della Giustizia ha avviato un’iniziativa di portata nazionale denominata “Big data e Data lake”, sviluppata in collaborazione con la Conferenza dei Rettori e definita come “l’italian way all’utilizzo della AI” [1]. Questo progetto ministeriale si propone di creare un ecosistema informativo integrato che possa supportare l’attività decisionale dei magistrati attraverso l’analisi sistematica di grandi volumi di dati giuridici.

Gli obiettivi del progetto ministeriale includono l’individuazione di strumenti razionali di classificazione e organizzazione dei dati rilevanti per la decisione giudiziaria, l’identificazione di bias cognitivi che altrimenti non emergerebbero, e la creazione di un quadro completo della giurisprudenza che prescinda dalle attuali qualificazioni formali per evitare conflitti giurisdizionali inconsapevoli [1].

Questa iniziativa rappresenta un approccio sistemico all’implementazione dell’IA nel sistema giudiziario, riconoscendo che l’efficacia di questi strumenti dipende non solo dalla qualità degli algoritmi, ma anche dalla disponibilità di dati strutturati e dalla capacità di integrazione tra diversi uffici giudiziari. Per le procure della repubblica, questo significa la possibilità di accedere a un patrimonio informativo condiviso che potrebbe migliorare significativamente la qualità delle indagini e la coerenza delle decisioni processuali.

L’introduzione di sistemi di intelligenza artificiale a supporto delle Procure, come nei progetti pilota di Torino e Perugia, solleva l’imprescindibile esigenza di un attento e costante controllo da parte dell’avvocatura, per garantire che l’efficienza tecnologica non comprometta mai i diritti della difesa e il principio del contraddittorio.

 

I Principi Etici Fondamentali: Il Quadro Normativo Europeo
La Carta Etica CEPEJ: Cinque Pilastri per l’IA nella Giustizia

L’implementazione dell’intelligenza artificiale nei sistemi giudiziari non può prescindere da un solido quadro etico che garantisca il rispetto dei diritti fondamentali e la preservazione dei principi democratici. La Commissione Europea per l’Efficienza della Giustizia (CEPEJ) ha elaborato la prima Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, adottata formalmente nel dicembre 2018 [4]. Questa carta stabilisce cinque principi fondamentali che devono guidare ogni implementazione di IA nel settore giudiziario, incluse le Procure della Repubblica.

Il “principio del rispetto dei diritti fondamentali” costituisce il fondamento di ogni applicazione dell’IA nella giustizia. Questo principio richiede che l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano sempre compatibili con i diritti fondamentali riconosciuti dalle costituzioni nazionali e dalle convenzioni internazionali [4]. Per le Procure, questo significa che ogni sistema di IA deve essere progettato e implementato in modo da garantire il rispetto del diritto alla difesa, del principio del contraddittorio e della presunzione di innocenza.

L’applicazione pratica di questo principio richiede una valutazione continua dell’impatto dei sistemi di IA sui diritti processuali. Ad esempio, l’utilizzo di algoritmi per l’analisi delle comunicazioni intercettate deve garantire che non vengano violati i diritti alla privacy e alla riservatezza delle comunicazioni non rilevanti per l’indagine. Allo stesso modo, i sistemi di predizione degli esiti processuali non devono influenzare impropriamente le decisioni dei magistrati, che devono mantenere la loro piena autonomia decisionale.

Il “principio di non-discriminazione” assume particolare rilevanza nell’ambito delle Procure, dove le decisioni investigative e processuali possono avere impatti significativi sui diritti individuali. Questo principio richiede di prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone [4]. L’implementazione di sistemi di IA nelle Procure deve quindi includere meccanismi di controllo che impediscano la perpetuazione di bias esistenti o la creazione di nuove forme di discriminazione.

La sfida della non-discriminazione è particolarmente complessa quando si considerano i dati storici su cui vengono addestrati gli algoritmi di IA. Se questi dati riflettono discriminazioni passate del sistema giudiziario, esiste il rischio che l’IA amplifichi questi bias. Le Procure devono quindi implementare procedure di audit continuo dei loro sistemi di IA per identificare e correggere eventuali tendenze discriminatorie.

Il “principio di qualità e sicurezza” stabilisce che, per il trattamento di decisioni e dati giudiziari, devono essere utilizzate fonti certificate e dati intangibili, con modelli elaborati interdisciplinarmente in un ambiente tecnologico sicuro [4]. Questo principio è fondamentale per le Procure, che gestiscono informazioni sensibili e riservate che richiedono i più alti standard di protezione.

L’implementazione di questo principio richiede investimenti significativi in infrastrutture tecnologiche sicure e in procedure di validazione dei dati. Le Procure devono garantire che i sistemi di IA utilizzino solo dati verificati e che i modelli algoritmici siano sviluppati secondo standard scientifici rigorosi. Inoltre, è necessario implementare sistemi di backup e recovery che garantiscano la continuità operativa anche in caso di malfunzionamenti tecnici.

 

Trasparenza e Controllo: Pilastri della fiducia pubblica

Il “principio di trasparenza, imparzialità e equità” richiede di rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzando verifiche esterne [4]. Per le Procure, questo principio presenta sfide particolari, poiché la natura riservata delle indagini penali può entrare in conflitto con i requisiti di trasparenza. Tuttavia, è possibile sviluppare approcci che garantiscano la trasparenza dei processi algoritmici senza compromettere la riservatezza delle indagini.

La trasparenza algoritmica può essere implementata attraverso la pubblicazione di linee guida dettagliate sui criteri utilizzati dai sistemi di IA, la documentazione dei processi decisionali automatizzati e la creazione di meccanismi di audit indipendenti. Le Procure dovrebbero inoltre sviluppare protocolli per spiegare ai cittadini e agli avvocati come l’IA viene utilizzata nei procedimenti che li riguardano, garantendo così il rispetto del diritto all’informazione.

Il “principio “del controllo da parte dell’utilizzatore” preclude un approccio prescrittivo e assicura che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte [4]. Questo principio è particolarmente importante per i magistrati delle Procure, che devono mantenere la piena responsabilità delle loro decisioni anche quando utilizzano strumenti di IA.

L’implementazione di questo principio richiede che i sistemi di IA siano progettati come strumenti di supporto decisionale piuttosto che come sistemi di decisione automatica. I magistrati devono essere formati per comprendere le capacità e i limiti degli strumenti di IA a loro disposizione, e devono avere sempre la possibilità di ignorare o modificare le raccomandazioni algoritmiche. Inoltre, è fondamentale che i sistemi di IA forniscano spiegazioni comprensibili delle loro raccomandazioni, consentendo ai magistrati di valutare criticamente l’output algoritmico.

 

L’Approccio Italiano: Bilanciare innovazione e tradizione giuridica

L’approccio italiano all’implementazione dell’IA nel sistema giudiziario riflette una particolare attenzione al bilanciamento tra innovazione tecnologica e preservazione dei valori tradizionali della giustizia.

Questa filosofia si traduce in un approccio che privilegia l’IA come strumento di supporto nella fase del “conoscere” – che richiede lo studio dei fatti, delle norme e della giurisprudenza applicabili alla controversia – mentre riserva esclusivamente all’essere umano la fase del “decidere” [1]. Per le Procure, questo significa che l’IA può essere utilizzata per analizzare grandi volumi di dati, identificare pattern investigativi e supportare la ricerca giurisprudenziale, ma le decisioni finali su imputazioni, richieste di misure cautelari e strategie processuali devono rimanere prerogativa esclusiva dei magistrati.

Questo approccio richiede una formazione specifica dei magistrati delle Procure, che devono sviluppare competenze sia tecniche che critiche per utilizzare efficacemente gli strumenti di IA. La formazione deve includere non solo l’aspetto operativo dell’utilizzo dei sistemi, ma anche la comprensione dei principi algoritmici sottostanti e delle implicazioni etiche dell’uso dell’IA nella giustizia penale.

 

Le Sfide Specifiche delle Procure della Repubblica
La Complessità dell’indagine penale nell’era digitale

Le Procure della Repubblica si trovano ad affrontare sfide uniche nell’implementazione dell’intelligenza artificiale, derivanti dalla natura specifica del loro ruolo nell’amministrazione della giustizia penale. A differenza dei tribunali civili, dove l’IA può essere utilizzata principalmente per l’analisi di precedenti giurisprudenziali e la predizione di esiti processuali, le Procure devono gestire l’intera fase investigativa, caratterizzata da incertezza, complessità fattuale e necessità di tempestività decisionale.

La moderna criminalità, sempre più sofisticata e digitalizzata, genera volumi di dati che superano le capacità di analisi umana tradizionale. Le indagini su reati informatici, frodi finanziarie complesse, criminalità organizzata e terrorismo producono terabyte di dati digitali che richiedono analisi approfondite per identificare pattern criminali, collegamenti tra soggetti e prove rilevanti. In questo contesto, l’IA non rappresenta solo un’opportunità di efficientamento, ma una necessità operativa per mantenere l’efficacia dell’azione penale.

L’analisi delle comunicazioni intercettate costituisce un esempio paradigmatico di questa sfida. Una singola indagine può generare migliaia di ore di registrazioni audio, milioni di messaggi di testo e una quantità enorme di metadati. L’analisi manuale di questo materiale richiede mesi di lavoro specializzato e comporta il rischio di omissioni significative. L’implementazione di sistemi di IA per il riconoscimento vocale automatico, l’analisi semantica dei testi e l’identificazione di pattern comunicativi potrebbe rivoluzionare l’efficacia investigativa, consentendo di identificare rapidamente le comunicazioni rilevanti e di concentrare l’attenzione umana sui contenuti più significativi.

Tuttavia, l’utilizzo dell’IA nell’analisi delle intercettazioni solleva questioni etiche e giuridiche complesse. È fondamentale garantire che i sistemi automatizzati non violino il principio di proporzionalità, analizzando solo le comunicazioni strettamente necessarie per l’indagine. Inoltre, è necessario sviluppare protocolli che garantiscano la verificabilità e la contestabilità delle analisi automatizzate, consentendo alla difesa di comprendere e contestare i metodi utilizzati per l’analisi delle prove digitali.

 

Gestione delle prove digitali e analisi forense

L’esplosione della criminalità digitale ha trasformato radicalmente la natura delle prove penali. Le Procure si trovano sempre più spesso a dover analizzare dispositivi elettronici, server, database e sistemi informatici complessi per ricostruire i fatti di reato. L’IA può fornire strumenti potenti per l’analisi forense digitale, ma richiede competenze specifiche e protocolli rigorosi per garantire l’ammissibilità processuale delle prove così ottenute.

I sistemi di IA possono essere utilizzati per automatizzare l’analisi di grandi volumi di dati digitali, identificando file cancellati, ricostruendo cronologie di eventi e individuando tentativi di occultamento di prove. Algoritmi di machine learning possono essere addestrati per riconoscere pattern tipici di specifici reati, come la pedopornografia online, il riciclaggio di denaro attraverso criptovalute o le frodi informatiche. Tuttavia, l’utilizzo di questi strumenti richiede una comprensione approfondita dei loro meccanismi di funzionamento per garantire che le prove così ottenute soddisfino i requisiti di genuinità e non contestabilità richiesti dal processo penale.

La formazione del personale delle Procure diventa quindi cruciale. I magistrati e il personale tecnico devono sviluppare competenze che vanno oltre la tradizionale formazione giuridica, includendo nozioni di informatica forense, crittografia, analisi dei dati e comprensione degli algoritmi di IA. Questa formazione multidisciplinare è essenziale per garantire che l’utilizzo dell’IA nelle indagini penali sia non solo efficace, ma anche giuridicamente solido e processualmente corretto.

 

Automazione documentale e standardizzazione processuale

L’attività delle Procure genera un volume enorme di documentazione processuale, dalla redazione di decreti di perquisizione alla formulazione di capi di imputazione, dalle richieste di misure cautelari alla preparazione di atti per il dibattimento. L’IA può fornire strumenti potenti per l’automazione di molti di questi processi, migliorando l’efficienza operativa e riducendo il rischio di errori formali.

I sistemi di document generation basati su IA possono supportare la redazione di atti processuali standardizzati, garantendo la coerenza terminologica e la completezza delle argomentazioni giuridiche. Questi strumenti possono essere particolarmente utili per la gestione di procedimenti di massa, come quelli derivanti da indagini su grandi frodi o su reati seriali, dove la standardizzazione degli atti può significativamente accelerare i tempi processuali.

Tuttavia, l’automazione documentale deve essere implementata con particolare attenzione alla specificità di ogni caso. Mentre alcuni aspetti della documentazione processuale possono essere standardizzati, è fondamentale preservare la capacità di personalizzazione e adattamento alle circostanze specifiche di ogni procedimento. I magistrati devono mantenere il controllo finale sulla documentazione prodotta, con la possibilità di modificare e integrare gli output automatizzati secondo le necessità del caso specifico.

L’implementazione di sistemi di automazione documentale richiede inoltre lo sviluppo di template e modelli che riflettano le migliori pratiche processuali e che siano costantemente aggiornati in base all’evoluzione della giurisprudenza e della normativa. Questo processo richiede una collaborazione stretta tra esperti legali, informatici e linguisti computazionali per garantire che i sistemi automatizzati producano documenti di alta qualità giuridica e linguistica.

 

La necessità urgente di formazione e competenze specialistiche
Il gap formativo: una sfida sistemica

L’implementazione efficace dell’intelligenza artificiale nelle Procure della Repubblica richiede una trasformazione radicale delle competenze professionali dei magistrati e del personale amministrativo. Il gap formativo attuale rappresenta uno dei principali ostacoli all’adozione responsabile e efficace di queste tecnologie. La formazione giuridica tradizionale, pur eccellente nella preparazione alle competenze interpretative e argomentative, non fornisce gli strumenti necessari per comprendere e utilizzare criticamente i sistemi di IA.

La complessità degli algoritmi di machine learning, le implicazioni dei bias algoritmici, i principi della statistica applicata all’analisi dei dati giuridici e le questioni etiche dell’automazione decisionale rappresentano aree di conoscenza che devono essere integrate nella formazione dei magistrati. Questa integrazione non può essere superficiale o limitata a corsi introduttivi, ma deve costituire una componente strutturale della formazione continua del personale delle Procure.

L’esperienza internazionale dimostra che i sistemi giudiziari che hanno implementato con successo l’IA hanno investito significativamente nella formazione del personale. Paesi come l’Estonia, che ha sviluppato sistemi avanzati di IA per la giustizia civile, hanno creato programmi formativi specifici che combinano competenze giuridiche, tecniche e etiche. Questi programmi non si limitano a insegnare l’utilizzo operativo dei sistemi, ma sviluppano una comprensione critica che consente ai magistrati di valutare l’affidabilità e l’appropriatezza delle raccomandazioni algoritmiche.

La formazione deve inoltre essere differenziata in base ai ruoli specifici all’interno delle Procure. I magistrati requirenti necessitano di competenze diverse rispetto al personale amministrativo o agli esperti tecnici. È necessario sviluppare percorsi formativi modulari che possano essere adattati alle specifiche esigenze professionali, garantendo al contempo una base comune di comprensione dei principi fondamentali dell’IA applicata alla giustizia.

 

Strutture Organizzative per la Gestione dell’IA

L’implementazione efficace dell’IA nelle Procure richiede lo sviluppo di nuove strutture organizzative che possano gestire la complessità tecnica e operativa di questi sistemi. È necessario creare team multidisciplinari che includano magistrati, esperti informatici, data scientist e specialisti in etica dell’IA.

Questi team devono avere la responsabilità di valutare nuovi strumenti di IA, sviluppare protocolli per il loro utilizzo, monitorare le performance dei sistemi implementati e gestire gli aggiornamenti e le manutenzioni necessarie. La creazione di queste strutture richiede investimenti significativi in risorse umane specializzate e in formazione continua.

È inoltre necessario sviluppare meccanismi di “governance dell’IA” che garantiscano la supervisione strategica dell’implementazione di questi sistemi. Questi meccanismi devono includere comitati etici che possano valutare l’appropriatezza di nuove applicazioni dell’IA, procedure di audit per verificare il funzionamento corretto dei sistemi implementati, e protocolli per la gestione di malfunzionamenti o errori algoritmici.

La governance dell’IA deve inoltre prevedere meccanismi di coordinamento tra diverse Procure per garantire l’uniformità degli standard e la condivisione delle migliori pratiche. L’esperienza acquisita da singole procure nell’implementazione di specifici strumenti di IA deve essere sistematizzata e condivisa per accelerare il processo di adozione a livello nazionale.

 

Raccomandazioni per l’implementazione responsabile
Un approccio graduale e sperimentale

L’implementazione dell’intelligenza artificiale nelle Procure della Repubblica deve seguire un approccio graduale e sperimentale che consenta di valutare l’efficacia e l’impatto di ogni innovazione prima di procedere a implementazioni su larga scala. Questa metodologia, già adottata con successo nei progetti pilota di Torino e Perugia, permette di identificare e risolvere problemi tecnici e operativi in un ambiente controllato, minimizzando i rischi per l’amministrazione della giustizia.

La prima fase di implementazione dovrebbe concentrarsi su applicazioni a basso rischio che possano dimostrare il valore dell’IA senza compromettere aspetti critici del processo penale. L’automazione della gestione documentale, l’analisi di grandi volumi di dati non sensibili e il supporto alla ricerca giurisprudenziale rappresentano aree ideali per iniziare questa sperimentazione. Queste applicazioni permettono di sviluppare competenze interne e di testare l’integrazione tecnologica senza impattare direttamente sulle decisioni processuali più delicate.

È fondamentale che ogni fase di implementazione sia accompagnata da una valutazione rigorosa dei risultati, includendo metriche quantitative di performance e valutazioni qualitative dell’impatto sui processi lavorativi. Questa valutazione deve coinvolgere tutti gli stakeholder, dai magistrati al personale amministrativo, per garantire che l’implementazione dell’IA migliori effettivamente l’efficacia operativa senza creare nuovi problemi o inefficienze.

 

Sviluppo di Standard Nazionali e Protocolli Operativi

L’implementazione dell’IA nelle procure richiede lo sviluppo di standard nazionali che garantiscano l’uniformità degli approcci e la compatibilità tra diversi sistemi. Questi standard devono coprire aspetti tecnici, come i formati dei dati e i protocolli di comunicazione, ma anche aspetti procedurali, come i criteri per la validazione degli algoritmi e le procedure per la gestione degli errori.

Lo sviluppo di questi standard deve essere coordinato a livello ministeriale, coinvolgendo rappresentanti delle procure, esperti tecnici e accademici. È importante che gli standard siano sufficientemente flessibili da permettere l’innovazione e l’adattamento alle specificità locali, ma abbastanza rigorosi da garantire la qualità e l’affidabilità dei sistemi implementati.

I protocolli operativi devono definire chiaramente le responsabilità di ogni figura professionale nell’utilizzo dei sistemi di IA, stabilendo procedure per la supervisione umana, la validazione dei risultati e la gestione delle eccezioni. Questi protocolli devono inoltre prevedere meccanismi di escalation per situazioni problematiche e procedure per la documentazione delle decisioni prese con il supporto dell’IA.

È essenziale che i protocolli operativi includano procedure specifiche per garantire la trasparenza verso le parti processuali. Gli avvocati difensori devono essere informati quando l’IA è stata utilizzata nell’analisi delle prove o nella formulazione delle accuse, e devono avere accesso alle informazioni necessarie per contestare l’affidabilità o l’appropriatezza dell’utilizzo di questi strumenti.

 

Coordinamento internazionale e condivisione delle migliori pratiche

L’implementazione dell’IA nella giustizia è una sfida globale che richiede coordinamento internazionale e condivisione delle migliori pratiche. L’Italia deve partecipare attivamente ai forum internazionali che si occupano di IA nella giustizia, contribuendo con la propria esperienza e apprendendo dalle esperienze di altri paesi.

La partecipazione a progetti di ricerca europei e internazionali può accelerare lo sviluppo di soluzioni innovative e ridurre i costi di implementazione attraverso la condivisione di risorse e competenze. È importante che questa collaborazione avvenga nel rispetto della sovranità nazionale e delle specificità del sistema giuridico italiano.

La condivisione delle migliori pratiche deve avvenire anche a livello nazionale, tra diverse procure e con altri uffici giudiziari. Lo sviluppo di una rete di competenze e di una comunità di pratica può accelerare significativamente il processo di adozione dell’IA e migliorare la qualità delle implementazioni.

 

Conclusioni: Verso una giustizia penale potenziata dall’IA

L’integrazione dell’intelligenza artificiale nelle Procure della Repubblica rappresenta una delle sfide più significative e promettenti per il futuro dell’amministrazione della giustizia penale in Italia. Come dimostrato dai progetti pionieristici della Corte di Cassazione, di Torino e di Perugia, l’IA offre opportunità straordinarie per migliorare l’efficienza, l’accuratezza e la tempestività dell’azione penale.

Tuttavia, la realizzazione di queste opportunità richiede un approccio sistematico e responsabile che metta al centro la comprensione approfondita di questi sistemi da parte di tutti gli operatori della giustizia. La necessità di formazione specialistica, lo sviluppo di competenze multidisciplinari e l’implementazione di rigorosi meccanismi di controllo non sono opzioni accessorie, ma requisiti fondamentali per un’implementazione di successo.

L’esperienza internazionale e i principi etici elaborati dalla CEPEJ forniscono una guida preziosa per questo percorso, ma ogni sistema giudiziario deve sviluppare il proprio approccio specifico, rispettando le tradizioni giuridiche nazionali e le esigenze operative locali. L’Italia ha l’opportunità di diventare un leader mondiale nell’implementazione responsabile dell’IA nella giustizia, combinando l’eccellenza della propria tradizione giuridica con l’innovazione tecnologica più avanzata.

Il successo di questa trasformazione dipenderà dalla capacità del sistema giudiziario di investire nelle competenze umane necessarie, di sviluppare infrastrutture tecnologiche adeguate e di mantenere sempre al centro i principi fondamentali di giustizia, equità e rispetto dei diritti umani. Solo attraverso questo approccio equilibrato sarà possibile realizzare il potenziale dell’IA per una giustizia penale più efficace, più equa e più vicina ai cittadini.

In questo contesto, lo si ribadisce, assume particolare rilevanza la ricerca sistematica condotta dall’Unione delle Camere Penali Italiane attraverso i suoi osservatori “Scienza, Processo e Intelligenza Artificiale” e “Acquisizione Dati Giudiziari”.

La strada verso l’integrazione dell’IA nelle Procure, come anche in tutti gli altri Uffici Giudiziari, è complessa ma ineludibile e inarrestabile, e richiederà tempo, risorse e dedizione. Tuttavia, i benefici potenziali per l’amministrazione della giustizia e per la società nel suo complesso giustificano pienamente questo investimento. È tempo di iniziare questo percorso con determinazione, saggezza e la consapevolezza che stiamo costruendo il futuro della giustizia per le prossime generazioni.

*Componente di Giunta e delegato per gli Osservatori: “Scienza, processo e intelligenza artificiale” e “Acquisizione Dati giudiziari”

 

Bibliografia e Riferimenti
[1] Altalex. (2021, 18 ottobre). L’Intelligenza artificiale entra in Corte di Cassazione. Predizione e redazione automatica di massime: gli obiettivi. https://www.altalex.com/documents/news/2021/10/18/intelligenza-artificiale-entra-in-corte-di-cassazione / Giustizia predittiva: prevedere l’esito di sentenze attraverso algoritmi e database (27 aprile 2021 DirittoConsenso) / Il “metodo Osservatorio” per gestire le sfide dell’Intelligenza Artificiale (3 maggio 2024 Giustizia Insieme)
[2] Torino Cronaca. (2025, 24 maggio). Torino sperimenta la giustizia del futuro: l’IA entra in Procura. https://torinocronaca.it/news/torino/514409/torino-sperimenta-la-giustizia-del-futuro-lia-entra-in-procura.html
[3] Procura Generale di Perugia. (2024, 28 ottobre). A Perugia un progetto per redigere con l’IA i mandati di arresto Ue. Il Sole 24 Ore. https://pg-perugia.giustizia.it/cmsresources/cms/documents/Il%20sole%2024%20ore%20.pdf
[4] Consiglio d’Europa – CEPEJ. (2018, 3 dicembre). Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi. CEPEJ(2018)14. https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348 – Cepej, adottata la prima Carta etica europea sull’uso dell’intelligenza artificiale (AI) nei sistemi giudiziari (Questione Giustizia)

Torna in alto