Con la sentenza 33481/2025, la Corte di Cassazione si è pronunciata sul ricorso con cui A.A. e Suite Immobiliare Srl chiedevano l’annullamento dell’ordinanza del Tribunale di Lucca che aveva rigettato la richiesta di riesame del decreto del Giudice per le Indagini Preliminari del medesimo Tribunale che aveva ordinato il sequestro preventivo finalizzato alla confisca diretta del profitto dei reati di cui all’articolo 2 del D.Lgs. 74/2000 (sui reati in materia di imposte sui redditi e sul valore aggiunto) e all’articolo 640-bis del codice penale (che punisce il reato di truffa aggravata per il conseguimento di erogazioni pubbliche), in esecuzione del quale erano state sequestrate disponibilità finanziarie e immobili della società[1].
Al di là dei profili penalistici, la sentenza è di interesse in quanto la Cassazione si pronuncia per la prima volta in maniera esplicita sull’impiego dell’intelligenza artificiale (IA) nella redazione dei provvedimenti giurisdizionali a seguito dell’entrata in vigore della Legge 132/2025[2], che introduce taluni principi fondamentali in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di IA e che, tra le altre cose, ne disciplina l’utilizzo in ambito giudiziario. Più particolarmente, l’articolo 15[3] prevede che, in materia, spetta comunque al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove nonché sull’adozione dei provvedimenti.
La Legge 132/2025 integra il Regolamento UE 2024/1689 sull’IA[4] che, in considerazione del suo impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale, qualifica come “ad alto rischio”, tra gli altri, i sistemi di IA destinati a venire utilizzati da un’autorità giudiziaria o per suo conto nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge ad una serie concreta di fatti, o ad un analogo utilizzo nella risoluzione alternativa delle controversie[5]. Benché possa fornire sostegno all’esercizio della giurisdizione, l’IA non può sostituirsi al giudice, in quanto il processo decisionale finale deve rimanere a guida umana. Il sistema di IA, pertanto, non sarà considerato ad alto rischio solo se destinato ad eseguire un compito circoscritto, a migliorare il risultato di un’attività umana precedentemente completata, a rilevare schemi decisionali o deviazioni da schemi precedenti e purché non sia inteso a rimpiazzare o influenzare una valutazione umana precedente senza adeguata revisione umana.
Tanto premesso, mentre con la di poco precedente sentenza 25455/2025 la Cassazione si era limitata ad annullare la decisione di secondo grado in quanto la motivazione era carente ed erronea nella parte in cui richiamava principi giuridici non affermati dalla Cassazione stessa, e quindi, verosimilmente, generati dall’IA[6], nel caso poi deciso con la sentenza 34481/2025 è stato statuito che benché la redazione dei provvedimenti giudiziari possa essere agevolata dall’uso degli strumenti informatici, l’IA ha seriamente aumentato il rischio che il giudice attinga aliunde gli argomenti su cui si fonda la sua decisione, delegando la valutazione alla macchina senza riguardo ai requisiti di terzietà e imparzialità. Più particolarmente, nonostante, ad esempio, la tecnica del c.d. “copia-incolla” abbia il pregio di rendere incisivo e diretto il rapporto tra la fonte di prova e il fatto storico, fissandone la realtà nel provvedimento e così riducendo i rischi di travisamento, ciò può risultare inadeguato, e finanche rischioso, nelle attività di ricostruzione e, soprattutto, di valutazione giuridica.
La sentenza della Cassazione in commento si pone nel solco delle Raccomandazioni sull’uso dell’IA nell’amministrazione della giustizia pubblicate dal Consiglio Superiore della Magistratura (CSM) in data 8 ottobre 2025[7], che trovano la loro ratio nel fatto che l’introduzione di sistemi di IA in ambito giudiziario può essere compatibile con la funzione giurisdizionale soltanto nella misura in cui essi siano integrati nel rispetto dei principi fondamentali del diritto processuale, garantendo la trasparenza dell’elaborazione algoritmica, la possibilità di verifica e contestazione degli output, la subordinazione all’autonomia valutativa del giudice e la parità informativa tra le parti. Di conseguenza, fino all’introduzione di sistemi comprovatamente conformi al Regolamento UE 2024/1689 è da escludersi l’utilizzo non autorizzato di sistemi di IA nell’attività giudiziaria in senso stretto, ferma restando la possibilità, da un lato, di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero della Giustizia e del CSM, applicazioni anche in ambiti giudiziari previa anonimizzazione e tracciabilità dei dati e, dall’altro, di utilizzare tali sistemi per attività amministrative ed organizzative strumentali all’attività giudiziaria, attraverso strumenti forniti dal Ministero che garantiscano la riservatezza e la non utilizzazione dei dati del singolo magistrato per l’addestramento dei sistemi.
In questo contesto, si ravvisano almeno tre criticità.
Primo, negli Stati Uniti, dove la sperimentazione e la riflessione sono più avanti di diversi anni, già si contano casi di condanna della parte che si è avvalsa con imprudenza delle ricerche generate dall’IA con tempi e costi irrisori, a scapito dell’accuratezza e della verifica umana dei risultati. Al riguardo, anche i difensori sarebbero stati riconosciuti responsabili, anche sul piano disciplinare. È ben noto, in questa prospettiva, l’effetto c.d. “bias” (pregiudizio favorevole), per quanto consta non controllabile, dell’IA nei confronti del prompter (l’operatore umano che formula la richiesta), in taluni casi giungendo ad “inventare” dei precedenti favorevoli inesistenti pur di non “deludere” le aspettative dell’umano. Senza trarre le necessarie conseguenze di questo caveat, la maggiore efficienza dell’IA evidentemente non bilancia il deficit di affidabilità.
Secondo, vi è un rischio sistemico che l’indebita delega di fatto all’IA dei processi del convincimento del giudice introduca nell’iter logico-decisionale l’apporto (non visibile e non misurabile) del prompter nel formulare le interrogazioni e quindi condurre il dialogo con la macchina, laddove il prompter potrebbe non possedere le necessarie competenze tecniche e, soprattutto, i requisiti di terzietà e imparzialità.
Terzo, in una prospettiva più ampia, l’impiego dell’IA nella funzione giurisdizionale rappresenta un cospicuo esempio dei rischi che la continua disintermediazione dei corpi intermedi e dei processi intermedi pone ad una società sempre più complessa, più veloce e meno comprensibile nel suo funzionamento dalla maggior parte della popolazione, sotto il profilo della salvaguardia delle libertà democratiche e dei principi fondamentali. Si potrebbe così profilare un futuro, anche non immediato, ma non necessariamente fantascientifico, in cui le figure del difensore e dello studioso sarebbero destinate a scomparire in quanto per definizione meno efficienti e meno rapide della macchina. L’amministrazione della giustizia si ridurrebbe così a tre fasi, quella dell’enforcement di polizia senza controllo giurisdizionale, quella della decisione demandata alla macchina, e quella di esecuzione, ancora una volta senza controllo giurisdizionale.
Nell’augurarci che questi scenari rimangano nel mondo della fiction (si pensi al celeberrimo Matrix), sembra imperativo che, dalla quanto mai opportuna qualificazione “ad alto rischio” dell’impiego dell’IA nella funzione giurisdizionale, si traggano delle conseguenze sul piano delle regole, con norme primarie specifiche e/o norme secondarie e/o misure di soft law (linee guida, codici di condotta, etc) per conservare i benefici dell’innovazione e dell’efficienza, prevenendo le possibili, anche involontarie, derive.
[1] Cassazione 22.10.2025, sentenza n. 34481.
[2] Legge 23 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale, GU n. 223 del 25.09.2025.
[3] L’articolo 15 della Lege 132/2005, intitolato “Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria”, dispone: “… Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti.
Il Ministero della giustizia disciplina gli impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie.
Fino alla compiuta attuazione del regolamento (UE) 2024/1689, la sperimentazione e l’impiego dei sistemi di intelligenza artificiale negli uffici giudiziari ordinari sono autorizzati dal Ministero della giustizia, sentite le Autorità nazionali di cui all’articolo 20.
Il Ministro della giustizia, nell’elaborazione delle linee programmatiche sulla formazione dei magistrati di cui all’articolo 12, comma 1, lettera a), del decreto legislativo 30 gennaio 2006, n. 26, promuove attività didattiche sul tema dell’intelligenza artificiale e sugli impieghi dei sistemi di intelligenza artificiale nell’attività giudiziaria, finalizzate alla formazione digitale di base e avanzata, all’acquisizione e alla condivisione di competenze digitali, nonché alla sensibilizzazione sui benefici e rischi, anche nel quadro regolatorio di cui ai commi 2 e 3 del presente articolo.
Per le medesime finalità di cui al primo periodo, il Ministro cura altresì la formazione del personale amministrativo…”.
[4] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828, GUUE L 2024/1689 del 12.07.2024.
[5] Si veda l’Allegato III del Regolamento.
[6] Cassazione 10.07.2025, sentenza n. 25455.

