ACCEDI
Martedì, 23 settembre 2025 - Aggiornato alle 6.00

PROFESSIONI

Responsabilità aggravata per l’uso passivo dell’intelligenza artificiale

Il Tribunale di Torino censura un ricorso predisposto con l’intelligenza artificiale costituito da citazioni astratte e inconferenti

/ Maurizio MEOLI

Martedì, 23 settembre 2025

x
STAMPA

download PDF download PDF

In una sentenza dello scorso 16 settembre una giudice del Tribunale di Torino, sezione lavoro, si è soffermata sui profili di responsabilità dell’uso inappropriato dell’intelligenza artificiale da parte di un professionista (nella specie, un avvocato).
L’intervento ha avuto una certa risonanza mediatica e a chi reputa il controverso passaggio motivazionale prevalentemente connotato da un’ottica moralizzatrice si contrappone chi ritiene corretta la precisazione inserita nella sentenza.

Nel caso in questione, la ricorrente proponeva opposizione nei confronti di una ingiunzione di pagamento e di numerosi avvisi di addebito che le erano stati notificati da una pluralità di soggetti. La ricorrente, infatti, si dichiarava non debitrice delle somme richieste per diverse ragioni; tra le altre, l’incompetenza territoriale, l’inesistenza dei titoli per vizi della sottoscrizione, la mancata indicazione del criterio di calcolo degli interessi, la prescrizione dei crediti e, soprattutto, l’inesistenza delle notifiche degli avvisi di addebito. Si richiedeva, quindi, la sospensione delle richieste e l’annullamento dei provvedimenti, con vittoria di spese. Il ricorso è stato considerato manifestamente infondato.

Risultavano, infatti, accertate le pretese creditorie e ritualmente effettuate le notifiche e, rispetto ad esse, la ricorrente non aveva fornito specifiche indicazioni a fronte della necessità, per contestarne la validità, di eccepire di non aver ricevuto l’atto o di indicare quali siano i vizi del procedimento di notifica.

Il richiamo all’intelligenza artificiale interviene, però, solo al momento di liquidare le spese di lite.
La giudice torinese non considera sufficiente porle a carico della ricorrente, seguendo la soccombenza, ma reputa altresì necessario, ai sensi dell’art. 96 comma 3 c.p.c. (“responsabilità aggravata”), condannare l’attrice al pagamento della somma di 500 euro in favore di ciascuna delle parti convenute. Ciò in quanto ravvisa un’azione in giudizio condotta con malafede o, quantomeno, con colpa grave, dal momento che, da un lato, era stata proposta opposizione nei confronti di avvisi di addebito che erano stati tutti notificati in precedenza, già oggetto di plurimi atti di esecuzione anch’essi tutti regolarmente notificati e, dall’altro, erano state svolte eccezioni manifestamente infondate tramite un ricorso predisposto con il supporto dell’intelligenza artificiale e “costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio”. A tale statuizione segue, ai sensi dell’art. 96 comma 4 c.p.c., anche la condanna ad una somma in favore della cassa delle ammende equitativamente determinata in 500 euro (sul tema si veda anche Trib. Firenze 14 marzo 2025 che, peraltro, non ha ravvisato il presupposto applicativo dell’art. 96 c.p.c. nonostante la produzione in giudizio di sentenze risultate il frutto di una allucinazione di ChatGPT).

Dalla decisione non emerge chiaramente quale sia la effettiva incidenza dell’inopportuno utilizzo dell’intelligenza artificiale sulla decisione finale. Il riferimento ad essa è collocato in un inciso che lascia pensare ad un mero obiter dictum. Non sembrano, infatti, presenti allucinazioni non rilevate dal professionista, ma una scarsa pertinenza, o puntuale riferibilità, dei risultati forniti dall’AI rispetto al caso in questione.

A fronte di ciò si ricorda che l’art. 13 della legge sull’intelligenza artificiale – approvata in via definitiva dal Senato e in attesa di pubblicazione sulla Gazzetta Ufficiale – stabilisce che l’uso di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera. Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.

Al di là del passaggio normativo dedicato all’informativa al cliente – che non è possibile verificare – ciò che nel caso di specie risulta mancante ai fini di un corretto utilizzo dell’intelligenza artificiale sembra essere la prevalenza del lavoro intellettuale; lavoro che avrebbe dovuto selezionare la documentazione raccolta – che, si ribadisce, sembrerebbe comunque corretta – e focalizzarla sulla questione concreta. Infatti, come sottolineato anche dall’Ordine degli avvocati di Milano – nella prima Carta italiana dei Principi per l’uso consapevole dei sistemi di AI in ambito forense – la decisione umana resta, comunque, centrale.

L’intervento attivo è richiesto anche ai fini di una critica dei risultati prodotti dalla tecnologia per garantirne adeguatezza, accuratezza e conformità a principi etici e legali e per evitare errori o pregiudizi. Durante l’interazione con l’AI è, inoltre, necessario effettuare una revisione costante dei risultati; revisione che, nel caso di specie, avrebbe potuto, e dovuto, assicurane la coerenza rispetto alle finalità in concreto perseguite.

TORNA SU