ACCEDI
Lunedì, 16 marzo 2026 - Aggiornato alle 6.00

PROFESSIONI

L’intelligenza artificiale va governata con consapevolezza

Tre aspetti toccano il lavoro: la questione della responsabilità, l’obbligo di trasparenza verso il cliente e la tracciabilità delle decisioni assistite dall’IA

/ Luca PIOVANO

Lunedì, 16 marzo 2026

x
STAMPA

download PDF download PDF

L’intelligenza artificiale ha già varcato la soglia dei nostri studi. Il collega alla scrivania accanto ha probabilmente interrogato uno dei vari sistemi (ChatGPT, Claude, Gemini) caricando il bilancio di un cliente o un verbale del consiglio di amministrazione. Molto probabilmente nessuno ha però chiesto il permesso. Nessuno ha controllato dove vanno a finire quei dati (Europa? America? Cina?) e cosa ne viene fatto, ad esempio se il sistema li utilizza per addestramento.

L’intelligenza artificiale, insomma, in molti studi c’è già. Solo che nessuno la governa.
E si capisce anche il perché. Il questionario del Comitato nazionale pari opportunità del Consiglio nazionale pubblicato a novembre 2025 ha messo nero su bianco quello che ciascuno di noi sa per esperienza diretta: il 55,5% dei professionisti è impegnato nel proprio studio per più di 8 ore al giorno in media. Sappiamo bene che il nostro tempo è la risorsa più scarsa in assoluto e se uno strumento promette di farcene risparmiare, lo si adotta. Subito. Senza aspettare che il titolare convochi una riunione per parlarne.

Il punto è però che non si tratta più solo di una questione interna allo studio, perché i nostri clienti stanno vivendo lo stesso identico fenomeno. I dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano, ripresi dalla Fondazione nazionale dei commercialisti nella seconda Guida operativa sull’intelligenza artificiale del giugno 2025, raccontano che il 53% delle grandi aziende italiane usa già strumenti come ChatGPT o Copilot, spesso senza una strategia, esattamente come succede nei nostri studi. Fra le PMI solo l’8% ha sperimentazioni attive, ma il 44% si dichiara almeno interessato al tema. Una quota crescente dei nostri clienti sta cominciando a fare domande, alle quali, se non ci siamo preparati, non sapremo rispondere.

La L. 132/2025 aggiunge un ulteriore e fondamentale elemento da considerare attentamente. Dal 10 ottobre 2025 è infatti in vigore il primo quadro normativo nazionale organico sull’intelligenza artificiale. Non è una dichiarazione di principio: sono regole operative, con conseguenze dirette per chi esercita una professione intellettuale.

Tre aspetti toccano il lavoro quotidiano dello studio. Il primo è il principio antropocentrico: l’IA resta strumento, la responsabilità professionale è e rimane del commercialista. Se un sistema suggerisce una classificazione contabile e noi la accettiamo senza verificarla, l’errore è nostro, non del software.
Il secondo è l’obbligo di trasparenza verso il cliente: chi utilizza strumenti IA per elaborare dati o formulare raccomandazioni deve informarne espressamente i propri clienti, e questo significa rimettere mano alle lettere di incarico e alle informative privacy.
Il terzo è la tracciabilità delle decisioni assistite dall’intelligenza artificiale: quali dati sono stati processati, con quale strumento, con quale supervisione umana, dove sono conservate le evidenze.

Tutto questo genera un’urgenza operativa concreta, che riguarda anche chi è convinto che nel proprio studio non si usi ancora l’intelligenza artificiale. La prima cosa da fare è chiederselo davvero: qualcuno nel mio studio la sta già usando? È molto probabile che la risposta sia sì. Il passo successivo è verificare dove risiedono i server delle piattaforme utilizzate, se i dati caricati vengono usati per l’addestramento dei modelli, quali sono le clausole contrattuali a protezione dei dati dei nostri clienti, e se la documentazione verso il cliente – a partire dalla lettera di incarico – è aggiornata ai nuovi obblighi. Non sono adempimenti che possono aspettare i decreti attuativi. Il quadro normativo essenziale c’è già.

Chi ha iniziato a sperimentare con metodo qualche risultato concreto lo ha già conseguito: analisi dei dati più rapide, redazione assistita di pareri e verbali, gestione più fluida della corrispondenza professionale. Ma l’intelligenza artificiale non è il miracolo che molti si aspettano. Ci aiuterà a risparmiare tempo ma ci sarà sempre bisogno della validazione umana, sia perché la legge lo richiede espressamente, sia perché non possiamo affidarci a occhi chiusi ai risultati prodotti. È tempo recuperato e redistribuito dove serve.

Chi aspetta, d’altro canto, rischia un ritardo che diventa difficile da colmare. La Fondazione nazionale dei commercialisti lo ha scritto chiaramente: l’adozione dell’intelligenza artificiale nella professione non è più questione di “se”, ma di “come” e di “quando”. E il ritardo non si misura in aggiornamenti tecnologici mancanti. Si misura in clienti che vanno a cercare risposte altrove, collaboratori giovani che scelgono studi percepiti come più innovativi, opportunità di consulenza che sfuggono perché non c’è il tempo di coglierle.

L’intelligenza artificiale non ha bussato prima di entrare nei nostri studi. La scelta che abbiamo davanti non è se usarla, ma se governarla con la consapevolezza e il rigore che la nostra professione richiede da sempre.

Per approfondimenti sul tema si rimanda al percorso specialistico “L’intelligenza artificiale in pratica: strumenti e applicazioni”, in partenza ad aprile.

TORNA SU