ACCEDI
Lunedì, 23 marzo 2026 - Aggiornato alle 6.00

PROFESSIONI

Il professionista deve verificare e validare ciò che produce l’IA

L’intelligenza artificiale generalista è uno strumento fallibile; negli studi è opportuno affidarsi a soluzioni verticali, costruite su basi documentali certe

/ Luca PIOVANO

Lunedì, 23 marzo 2026

x
STAMPA

download PDF download PDF

Le risposte dei modelli di intelligenza artificiale conversazionale arrivano in pochi secondi, in un italiano curato, con una formattazione ordinata e una struttura argomentativa che, a prima vista, convince. Il problema è che quella risposta potrebbe essere sbagliata. E in ambito fiscale non si parla di un rischio teorico: l’errore è concreto, frequente, talvolta difficile da intercettare proprio perché il testo generato ha un’apparenza di solidità tecnica.

Partiamo dal meccanismo: i modelli linguistici alla base di ChatGPT, Claude o Gemini non possiedono una base di conoscenza in senso professionale. Sono motori statistici: producono la risposta selezionando, parola dopo parola, il termine più probabile in funzione dell’input ricevuto. Non ragionano in senso giuridico. Non verificano fonti. Non incrociano norme con prassi. È questo meccanismo, del tutto fisiologico nel funzionamento di un modello probabilistico, a generare le cosiddette allucinazioni.

Che cosa si intende? Un’allucinazione è una risposta che appare corretta ma non lo è. Una sentenza della Cassazione citata con tanto di numero e data, che però non esiste. Un comma di un articolo di legge inventato di sana pianta. Una risposta a interpello dell’Agenzia delle Entrate il cui oggetto è completamente diverso da quello ricercato. Non si tratta di un guasto del sistema: il modello non ha il concetto di “vero” o “falso”, ha quello di verosimile. Peraltro i dati di addestramento possono essi stessi contenere informazioni inesatte o superate, e questo inquina statisticamente la risposta a valle.

Faccio un esempio che ciascuno può replicare. Si provi a chiedere all’IA: “Quale è la risposta a interpello dell’Agenzia delle Entrate che ha chiarito il trattamento IVA delle prestazioni di consulenza rese da un professionista italiano a una società svizzera con stabile organizzazione in Italia? Indica numero e data”. L’ho fatto con tutti e tre i principali modelli. Tre risposte diverse, tre numeri diversi, tre date diverse. Inventati. O, nel migliore dei casi, riferiti a interpelli reali, ma su tutt’altra materia.

Nei nostri studi serve consapevolezza piena di questo limite. L’accesso ai modelli generalisti è immediato, la domanda si può porre anche in modo sgrammaticato e poco preciso e il sistema risponde comunque, sempre, con tono sicuro. Questa apparente affidabilità abbassa la guardia e riduce lo spirito critico sulla risposta ricevuta. Ed è esattamente qui che si annida il pericolo.

Il tema è anzitutto di formazione interna. Chi lavora nei nostri studi deve sapere che l’intelligenza artificiale generalista, calata negli ambiti fiscale, contabile e societario, è strutturalmente esposta all’errore. Porre un quesito tecnico, copiare la risposta e incollarla nella mail al cliente non è un flusso di lavoro accettabile. Non si può non tenere conto, tra l’altro, di quanto previsto dalla L. 132/2025, che impone espressamente la validazione umana degli output generati da sistemi di intelligenza artificiale.

La responsabilità è e resta in capo al professionista

La responsabilità professionale è e resta in capo al professionista, il software non risponde al suo posto. Se un output errato viene fatto proprio senza alcuna verifica, a sbagliare è chi lo ha utilizzato.

Per rispondere a questa esigenza Eutekne ha sviluppato Eutekne AI, un sistema proprietario addestrato esclusivamente sulla base documentale del Sistema Integrato. I contenuti sono alimentati e aggiornati quotidianamente dalla redazione; il sistema non attinge a fonti esterne. Ogni risposta è corredata dai link ai documenti di riferimento, sicché il professionista riceve non un testo plausibile da controllare altrove, ma un’informazione ancorata a fonti documentali puntuali e verificabili.

L’intelligenza artificiale generalista va dunque utilizzata per quello che è: uno strumento potente, sì, ma fallibile. Meglio destinare ChatGPT, Claude e Gemini a quei compiti ripetitivi e a basso valore aggiunto che riempiono le nostre giornate, lì funzionano bene, a volte benissimo. Per le questioni tecniche del nostro mestiere è opportuno affidarsi a soluzioni verticali, costruite su basi documentali certe. E in ogni caso, una regola non negoziabile: l’IA produce, il professionista valida.

Per approfondimenti sul tema si rimanda al percorso specialistico “L’intelligenza artificiale in pratica: strumenti e applicazioni”, in partenza ad aprile.

TORNA SU