ACCEDI
Giovedì, 30 ottobre 2025 - Aggiornato alle 6.00

PROFESSIONI

Vietato l’uso acritico dell’intelligenza artificiale per la redazione delle sentenze

Il giudice deve verificare i risultati della ricerca giurisprudenziale condotta con il supporto dell’IA

/ Carmela NOVELLA

Giovedì, 30 ottobre 2025

x
STAMPA

download PDF download PDF

La Cassazione, con la sentenza n. 34481 del 22 ottobre 2025, ha affrontato, sia pure per inciso, il problema dell’utilizzo acritico degli output ottenuti tramite l’interrogazione dei sistemi di IA da parte dei magistrati, ai fini della redazione della motivazione sottesa ai provvedimenti decisori.

Nello specifico, la pronuncia ha avuto modo di affermare – nell’ambito di una più ampia indagine sulla legittimità della motivazione dei provvedimenti giudiziari per relationem, ovvero mediante la tecnica del copia-incolla – che, sebbene l’uso dei sistemi informatici nella redazione dei predetti provvedimenti possa essere guardato con favore per le sue potenzialità facilitanti, occorre prestare estrema attenzione al rischio “(oggi esponenzialmente incrementato dall’irrompere sulla scena della intelligenza artificiale) che il giudice attinga aliunde gli argomenti del suo decidere, abdicando al dovere di apportare il suo ineliminabile ed insostituibile momento valutativo e facendo venir meno l’in sé del suo essere terzo ed imparziale”. Si osserva, peraltro, che la decisione in discorso si inserisce nel contesto normativo anteriore all’entrata in vigore della L. 132/2025 e, segnatamente, delle prescrizioni di cui all’art. 15 della medesima legge in tema di impiego dei sistemi di IA in ambito giudiziario.

Sempre la Cassazione, nella sentenza n. 25455 del 10 luglio 2025, ha cassato con rinvio l’impugnata statuizione della Corte d’appello, in quanto sorretta da motivazione carente ed erronea per richiamo a precedenti giurisprudenziali inesistesti e falsamente imputati ai giudici di legittimità. A rigore, questa seconda pronuncia della Suprema Corte non riconduce espressamente la citazione dei precedenti inesistenti (o inesatti nel numero riportato) all’improprio uso dei sistemi di IA da parte della Corte territoriale. Tuttavia, è verosimile che i vizi di motivazione sopra evidenziati siano frutto dell’acritico recepimento dei risultati delle ricerche condotte attraverso il ricorso a sistemi di IA.

Il contegno già disapprovato dalle due sentenze in analisi nell’ambito di controversie non ancora rientranti nel perimetro applicativo dell’art. 15 della L. 132/2025 (entrata in vigore il 10 ottobre 2025) appare, oggi, in contrasto con il divieto, posto a carico dei magistrati dalla norma citata, di ricorrere ai sistemi di IA per l’assolvimento delle funzioni che costituiscono il nucleo fondamentale e più sensibile dell’attività giudiziaria propriamente detta, vale a dire per le decisioni inerenti a: interpretazione e applicazione della legge; valutazione dei fatti e delle prove; adozione dei provvedimenti.
Come già osservato su Eutekne.info (si veda “Nell’attività giudiziaria vietati sistemi di IA riconducibili alla giustizia predittiva” del 3 ottobre 2025), il divieto in questione è indicativo della volontà di far sì che lo svolgimento dell’attività giudiziaria in senso stretto sia governato solo ed esclusivamente dall’intelligenza umana del giudice, senza possibilità di interferenze da parte dell’IA. Il possibile impiego dei sistemi di IA in ambito giudiziario (da disciplinarsi a cura del Ministero della Giustizia) viene, invece, relegato dall’art. 15 comma 2 della L. 132/2025 nel terreno delle attività amministrative accessorie, ovvero dell’organizzazione dei servizi relativi alla giustizia e della semplificazione del lavoro giudiziario.

Sebbene nel dossier di accompagnamento alla legge nazionale sull’IA del 27 giugno 2025 si ipotizzi che l’apertura possibilista di cui all’art. 15 comma 2 sopra citato coinvolga anche l’utilizzo dell’IA per le attività di “ricerca giurisprudenziale e dottrinale”, non si può ragionevolmente ammettere una sottrazione degli output così ottenuti alla valutazione e verifica autonoma da parte del magistrato, quale titolare esclusivo della funzione giurisdizionale.

Anche il CSM, nell’ambito delle “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia” dell’8 ottobre 2025, ha affermato (tre le altre cose) che l’uso dell’IA da parte del magistrato con finalità di ricerca sulle banche dati giurisprudenziali “può presentare profili di rischio elevati qualora l’output generato venga utilizzato come base esclusiva o prevalente nella formazione del convincimento del giudice”. Per un uso corretto e costituzionalmente compatibile dell’intelligenza artificiale in ambito giudiziario è, quindi, necessario: da un lato, che i risultati ottenuti siano sempre sottoposti al vaglio critico del magistrato; dall’altro, che le banche dati giurisprudenziali messe a disposizione del giudice garantiscano una base dati completa, non discriminatoria e aggiornata, ovvero prevedano forme di controllo e supervisione da parte della magistratura nella fase della selezione, classificazione e aggiornamento delle sentenze.

A fronte dello scenario tracciato sinora, non è da escludere che l’illegittimo impiego, da parte del giudice, di sistemi di IA capaci di orientare e condizionare l’attività decisoria a lui riservata, nonché l’omessa valutazione e contestualizzazione di precedenti giurisprudenziali rintracciati per il tramite dell’IA e posti acriticamente a fondamento della decisione, possano costituire fonte di responsabilità disciplinare per negligenza grave.

TORNA SU