L’introduzione dell’Intelligenza Artificiale (IA) sta portando, in quasi tutte le attività umane, profonde trasformazioni che — se da un lato agevolano l’uomo semplificando il suo lavoro — dall’altro generano il timore che l’eccessiva informatizzazione e l’affidamento di molti processi ai calcoli algoritmici possano creare gravi problemi, soprattutto quando dalle decisioni assunte attraverso l’IA possono derivare violazioni dei principi fondamentali dell’uomo, inclusa la sicurezza e la riservatezza.
Talvolta il dubbio riguarda persino la corretta applicazione dei principi costituzionali che, con l’affidamento dei processi decisionali ai nuovi sistemi di intelligenza artificiale, potrebbero risultare compromessi, con conseguenze pesanti per i cittadini.
Anche il fisco ha dichiarato di volersi avvalere dell’IA. La legge sulla riforma tributaria (n. 111 del 9 agosto 2023) afferma, all’articolo 2, comma 1, lettera b), la necessità di “prevenire, contrastare e ridurre l’evasione e l’elusione fiscale”. Con la stessa legge, all’articolo 3, è stata stabilita “la piena utilizzazione dei dati che affluiscono al sistema informativo dell’anagrafe tributaria, il potenziamento dell’analisi del rischio, il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale, nel rispetto della disciplina europea sulla tutela dei dati personali”. Infine, all’articolo 17, si prevede di “potenziare l’utilizzo di tecnologie digitali, anche con l’impiego di sistemi di intelligenza artificiale, al fine di ottenere la piena interoperabilità tra le banche dati e garantirne il tempestivo utilizzo”.
L’intelligenza artificiale è dunque entrata a pieno titolo anche nella fase dell’accertamento tributario e in quella del contenzioso fiscale. Se da un lato l’introduzione di questi sistemi può semplificare le procedure degli uffici, in alcuni casi potrebbe persino favorire la tutela del contribuente. Potrebbe, ad esempio, aiutare a superare i limiti delle metodologie di controllo sintetiche o presuntive, che spesso lasciano al contribuente l’onere di provare la propria innocenza. Algoritmi evoluti e tecniche di analisi avanzate potrebbero infatti elaborare informazioni molteplici e dettagliate, avvicinando l’accertamento alla reale situazione reddituale di ogni singolo contribuente.
Fondamentale, tuttavia, è assicurare sempre la trasparenza degli algoritmi utilizzati nelle procedure di accertamento, indicando — nei relativi atti amministrativi — il ruolo che l’algoritmo ha avuto nella decisione finale.
L’IA potrebbe inoltre essere utile nel contenzioso tributario, riducendo il numero delle controversie grazie a una maggiore certezza del diritto e a una giustizia più trasparente. Di fronte all’incognita del giudizio, l’intelligenza artificiale potrebbe rendere più accessibili gli orientamenti giurisprudenziali, suggerendo ai contribuenti se proseguire o meno la lite, in base alla probabilità di vittoria o sconfitta. Un sistema che avrebbe un forte effetto deflattivo del contenzioso.
Resta imprescindibile, comunque, che sia il giudice tributario — anche quando si fa uso dell’IA — a garantire, caso per caso, il rispetto delle garanzie costituzionali: i principi di imparzialità (art. 97 Cost.), uguaglianza (artt. 3 e 53), tutela del diritto di difesa (artt. 24 e 111) e, soprattutto, il rispetto dei principi fondamentali dell’uomo.
Nel frattempo, nella Gazzetta Ufficiale del 25 settembre 2025 è stata pubblicata la legge n. 132 del 23 settembre 2025, contenente “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, entrata in vigore il 10 ottobre 2025. Come già evidenziato da questo giornale, la legge affronta temi cruciali quali trasparenza, sicurezza, protezione dei dati personali, tutela dei disabili ed evita ogni forma di discriminazione, ribadendo l’assoluta necessità di preservare l’autonomia e il potere decisionale dell’uomo, anche nei processi di sorveglianza.
Subito dopo l’entrata in vigore della legge, è intervenuta l’Agenzia delle Entrate, che ha diffuso le linee guida interne sull’uso dell’IA. Il direttore Vincenzo Carbone, con un approccio garantista, ha richiamato gli uffici alla necessità di verificare sempre i risultati prodotti dall’intelligenza artificiale, sottolineando che tali sistemi possono essere soggetti a errori dovuti alla loro natura statistica e non deterministica.
Carbone ha ribadito che non esiste “nessun Grande Fratello fiscale, né un algoritmo antievasione”, e che “non esiste alcuna macchina che faccia pesca a strascico fra i contribuenti o sforni accertamenti a go-go”. Ha però riconosciuto che l’IA, se correttamente governata, può ottimizzare i processi fiscali, migliorando l’efficienza dell’amministrazione.
Le direttive interne prevedono la verifica e la supervisione costante dell’uomo, il divieto assoluto di utilizzare software IA non validati e l’impossibilità di emanare atti amministrativi tramite sistemi non integrati nei canali ufficiali dell’Agenzia. Anche quando validata, l’intelligenza artificiale può essere impiegata solo come strumento di supporto e non per la produzione diretta di atti amministrativi. Non può essere utilizzata per l’elaborazione di banche dati interne, ma soltanto nei programmi sviluppati dalla Sogei per l’analisi del rischio, al fine di individuare i contribuenti con profili di incoerenza da sottoporre a ulteriori approfondimenti. Tutto questo, naturalmente, nel pieno rispetto della privacy e con l’affidamento dei dati a un numero ristretto e qualificato di funzionari.
Queste regole, unite alla garanzia di trasparenza annunciata dall’Agenzia, potranno favorire una più solida tax compliance e una migliore collaborazione tra cittadini e amministrazione, anche grazie alla semplificazione degli adempimenti e alla chiarezza normativa promesse dalla riforma tributaria in corso.
Salvatore Forastieri