Il CommentoAmministrativo

Intelligenza artificiale e PA tributaria: nuove sfide, responsabilità e prospettive deflattive del contenzioso

Chi risponde se l’algoritmo sbaglia? E l’errore – nella misura in cui incide su diritti e obblighi del contribuente – può essere considerato alla stregua di un vizio dell’atto amministrativo?

di Dario Allegrucci, Valeria Pepe*

Un cambiamento epocale sta ridisegnando il futuro della Pubblica Amministrazione: l’intelligenza artificiale sta entrando a far parte di ogni settore, incluso quello fiscale. Non si tratta solo di una transizione tecnologica ma anche di una innovazione gravida di risvolti normativi.

Il 17 settembre 2025, infatti, il Senato ha approvato in via definitiva il disegno di legge n. 1146, conferendo all’Italia il titolo di primo Paese europeo ad essersi dotato di una normativa nazionale sull’intelligenza artificiale. La norma, promanante dal Regolamento UE 2024/1689 (denominato “AI Act”) e cristallizzata con la Legge delega n. 132/2025, in vigore dal 10 ottobre 2025, segna una svolta, introducendo, a livello domestico, per la prima volta, standard stringenti di trasparenza, supervisione umana e cybersicurezza.

L’IA non è più un’ospite occasionale nella Pubblica Amministrazione ma diventa una componente strutturale in grado, anche nel settore fiscale, di trasformare radicalmente i processi decisionali.

Prima di questa svolta legislativa, la giurisprudenza amministrativa aveva offerto un orientamento fondamentale con la recente sentenza n. 4929 del 6 giugno 2025 del Consiglio di Stato, che delineava i principi cardine per l’impiego dell’IA nella PA, in un contesto normativo ancora frammentato, tra il Codice dell’Amministrazione Digitale (d.lgs. n. 82/2005), lelinee guida AgID e i principi generali del diritto amministrativo: trasparenza, conoscibilità e comprensibilità dell’algoritmo, divieto di discriminazione algoritmica.

Questi principi, di portata trasversale, si applicano pienamente al settore tributario, cuore del rapporto tra Stato e cittadino, dove l’esigenza di efficienza si intreccia con la tutela di diritti fondamentali. Qui, l’IA sta segnando una transizione epocale: da un paradigma di informatica servente-deduttiva, che fungeva da supporto strumentale alle decisioni dei funzionari, si passa a un modello di informatica capace di incidere direttamente sul contenuto delle scelte amministrative.

Uno strumento esemplificativo è dato dall’interpello.

L’istituto in parola, normato dall’art. 11 della Legge 27 luglio 2000, n. 212 (Statuto dei diritti del contribuente), consente al contribuente di rivolgersi all’Amministrazione finanziaria per ottenere una risposta ufficiale e vincolante in merito all’interpretazione, all’applicazione o alla qualificazione di una norma tributaria, in presenza di casi concreti e personali, sui quali sussistono obiettive condizioni di incertezza.

L’obiettivo del nuovo interpello è fornire risposte a quesiti fiscali fornite dalla macchina, su base normativa e giurisprudenziale, con minima supervisione umana.

Con l’ultimo riordino del sistema di interpello, intervenuto con il Decreto Legislativo del 30 dicembre 2023, n. 219, in attuazione della Riforma fiscale (Legge n. 111 del 2023), il nuovo servizio di consultazione semplificata prevede, all’art. 10-novies dello Statuto del contribuente, l’implementazione di servizi di interlocuzione rapida tramite l’utilizzo dell’intelligenza artificiale. Questi servizi sono progettati per pre-filtrare le richieste di interpello, determinando se le questioni sollevate dal contribuente siano già state affrontate e risolte.

In assenza di un precedente di prassi conforme al problema del contribuente o quando non sia possibile individuare in maniera non equivoca una risposta, il sistema informerà che, in relazione alla specifica questione, può presentare un’istanza di interpello secondo la nuova disciplina che caratterizza l’istituto. Il comma 4 del nuovo art. 10-novies prevede, infatti, che l’utilizzazione del nuovo servizio di consultazione semplificata costituisce condizione di ammissibilità ai fini della presentazione delle istanze di interpello da parte dei contribuenti.

Quanto alle conseguenze, sempre l’art. 10-novies precisa che la risposta fornita dal sistema produce gli effetti di cui all’art. 10, comma 2, esclusivamente nei confronti del contribuente istante.

L’adozione dell’IA in tale contesto comporta una serie di vantaggi: rapidità di risposta; riduzione di costi; miglioramento dell’analisi.

Siamo davanti a un’evoluzione rispetto al tradizionale modello delineato dall’art. 11 dello Statuto, secondo cui l’interpello produce effetti vincolanti per l’Amministrazione solo se emesso dopo un’istruttoria individualizzata, con valutazione specificadel caso concreto.

Al riguardo si osserva un’articolazione di tesi dottrinali che postulano soluzioni operative distinte.

Secondo un primo orientamento, minoritario, l’output generato dall’IA non può mai considerarsi una “risposta ufficiale”, bensì un parere tecnico privo di valore vincolante. In questa chiave, il sistema automatizzato sarebbe assimilabile a una banca dati intelligente, utile per orientare il comportamento del contribuente, ma priva di effetti giuridici. Nessun vincolo, dunque, né per la PA né per il cittadino. Solo un supporto, simile – seppure più evoluto – alle FAQ disponibili sui portali istituzionali.

Una seconda corrente dottrinale, prevalente e più innovativa, ritiene invece che l’adozione formalizzata della risposta automatica da parte dell’Amministrazione, magari con un click finale di validazione o di revisione da parte di un funzionario, potrebbe integrare una forma semplificata di interpello. In tal caso, il vincolo giuridico scatterebbe, non per l’origine “algoritmica” della risposta, ma perché la PA ne fa proprio il contenuto. La responsabilità, quindi, tornerebbe a essere “umana”, e la risposta vincolerebbe l’Ente, seppur entro i limiti del quesito originario.

Il problema centrale rimane la tracciabilità e la leggibilità del procedimento logico. Se l’algoritmo ha seguito un percorso opaco e non verificabile, l’atto finale potrebbe risultare viziato, non solo sotto il profilo amministrativo, ma anche per possibile violazione del diritto alla difesa e del principio di trasparenza, entrambi costituzionalmente garantiti.

In chiave europea, l’AI Act ha stabilito che i sistemi di IA impiegati in ambito pubblico devono essere sottoposti a una rigorosa verifica ex ante ed ex post, con possibilità di revisione umana, spiegabilità del risultato e responsabilità ben definite.

Anche l’art. 22 del Regolamento GDPR vieta decisioni basate unicamente su processi automatizzati che producano effetti giuridici, salvo che non vi sia esplicito consenso o base normativa chiara.

Altresì dall’esame dei provvedimenti pubblicati dal Garante della Privacy, in particolare il parere del 30 luglio 2022, risulta evidente come l’Autorità abbia concentrato il proprio intervento nel disinnescare il più possibile automatismi computazionali non verificabili.

Ne consegue che l’output dell’IA – anche se tecnicamente corretto – non può vincolare il contribuente, e nemmeno l’Amministrazione, se non vi è stato un atto formale di adozione. È, in definitiva, una suggestione tecnica: utile, ma ancora lontana dall’assumere veste giuridica compiuta.

Se l’intelligenza artificiale diventa, dunque, parte del processo decisionale della Pubblica Amministrazione, una domanda – finora sottovalutata – torna con forza: chi risponde se l’algoritmo sbaglia? E l’errore – nella misura in cui incide su diritti e obblighi del contribuente – può essere considerato alla stregua di un vizio dell’atto amministrativo?

L’output tecnico produce conseguenze giuridiche concrete ed è naturale chiedersi chi ne porti la responsabilità. Pertanto, in assenza di una norma settoriale si fa ricorso ai principi di diritto amministrativo.

Un provvedimento amministrativo basato su un algoritmo, quindi prodotto da una forma di intelligenza artificiale, può presentare vizi di variabile genesi: può essere viziato a causa di un malfunzionamento del sistema informatico che lo ha generato o anche da un errore nella fase di inserimento dei dati nel sistema, così avendo il vizio causa nell’errore umano. A fronte di questi vizi, i rimedi esperibili potrebbero essere quelli generali previsti dalla Legge n. 241 del 1990 sull’invalidità, dai rimedi conservativi a quelli caducatori.

L’individuazione del responsabile dell’illegittimità del provvedimento adottato mediante algoritmo appare affare più complesso rispetto al caso di un normale provvedimento amministrativo, ma vale comunque il principio di imputabilità dell’atto all’Amministrazione di provenienza, anche quando non sia individuabile il funzionario che lo abbia materialmente generato.

In ambito amministrativo il TAR Lazio, Sez. III bis, con la sentenza n. 10964/2019 ha ritenuto che le procedure informatiche, finanche ove pervengano al loro maggior grado di precisione e addirittura alla perfezione, non possano mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere.

Pertanto, la tesi prevalente in dottrina è piuttosto netta: l’Amministrazione resta pienamente responsabile degli atti che pone in essere, anche se generati da un algoritmo. La delega (anche solo parziale) a un sistema di IA non esonera l’ente dal controllo e dalla validazione dei propri provvedimenti.

In questa prospettiva, l’errore dell’algoritmo diventa un errore dell’Amministrazione, che risponde secondo le regole ordinarie: revoca dell’atto illegittimo, risarcimento del danno, eventuale responsabilità erariale in caso di colpa grave del dirigente o del funzionario.

Un filone più recente di riflessione sottolinea, poi, che l’impiego di IA introduce nuove forme di opacità tecnica, che rendono sempre più difficile identificare la responsabilità individuale.

In ambito tributario, dove la discrezionalità tecnica è massima, il rischio è che si crei un’area grigia tra responsabilità tecnica e responsabilità giuridica.

In relazione a tale profilo emergono due approcci ermeneutici che delineano scenari applicativi differenziati.

Il primotradizionale e formalista – impone alla PA di mantenere sempre il controllo sul procedimento, attraverso validazioni obbligatorie e tracciabilità decisionale. È il modello seguito da alcune amministrazioni europee: in Germania, la legge sull’amministrazione elettronica (E-Government-Gesetz) vieta decisioni automatizzate senza possibilità di revisione umana; in Francia, il Conseil d’État, nel Rapporto 2022 su “L’usage de l’intelligence artificielle dans l’action publique”, ha escluso ogni automatismo nei settori ad alta intensità di discrezionalità.

Il secondo – più orientato alla realtà operativa – riconosce che, in certi contesti, l’output dell’IA è di fatto vincolante, anche se formalmente non lo è. E propone, allora, di ancorare la responsabilità all’affidamento legittimo del cittadino, in analogia con il principio del legittimo affidamento di derivazione euro-unitaria.

Da ultimo, uno degli obiettivi dichiarati in ambito tributario, da anni, è la riduzione del contenzioso. In questo scenario, l’intelligenza artificiale è guardata con crescente interesse: nella fase pre-conflittuale, sistemi basati su IA generativa e machine learning possono fornire interpretazioni guidate delle norme, suggerire soluzioni coerenti con l’orientamento della giurisprudenza e individuare rischi di non compliance prima ancora che si concretizzino, anticipando margini di incertezza ed evitando comportamenti divergenti. In tal senso, la dottrina più innovativa intravede in questi strumenti un’occasione di “pacificazione fiscale preventiva”, che riduce il margine d’imprevedibilità e favorisce un comportamento collaborativo.

Un interrogativo strutturale rimane sullo sfondo: è davvero possibile affidare all’IA l’intero spettro dell’azione amministrativa tributaria?

La giurisprudenza amministrativa italiana, pur riconoscendo l’utilità di tali sistemi, ha posto un limite chiaro all’automatismo puro: la delega integrale del potere decisionale a un sistema automatizzato è incompatibile con il principio di legalità e con il diritto alla tutela giurisdizionale effettiva.

Anche la Corte di Giustizia dell’Unione Europea, nella causa C-634/21 (caso SCHUFA), ha ribadito che le decisioni automatizzate con effetti giuridici devono essere comprensibili, contestabili e fondate su una base giuridica esplicita. In mancanza, il rischio è quello di sostituire l’arbitrarietà umana con una opacità tecnica invisibile ma invasiva.

L’evoluzione tecnologica non può tralasciare i principi costituzionali di legalità, imparzialità, buon andamento e tutela del contribuente. L’art. 97 della Costituzione impone che l’attività amministrativa sia esercitata secondo legge. Se il potere tributario viene esercitato da una macchina, il rischio è che la legge venga interpretata e applicata secondo logiche non trasparenti, o peggio, non controllabili.

Non è un caso che la Commissione europea, nel Regolamento sull’AI Act, abbia previsto obblighi specifici di trasparenza, supervisione umana e tracciabilità per i sistemi ad alto rischio, tra cui rientrano espressamente quelli destinati a decisioni amministrative pubbliche.

Paradossalmente, l’uso indiscriminato dell’intelligenza artificiale – se mal progettato o mal impiegato – può minare il principio stesso del buon andamento, sancito sempre dall’art. 97 Cost. L’efficienza amministrativa, infatti, non si misura solo in termini di rapidità o automazione, ma anche in termini di correttezza, coerenza e tutela effettiva del contribuente. Diversi casi recenti dimostrano come sistemi di IA mal calibrati abbiano generato “falsi positivi”. Il risultato? Aumento del contenzioso e maggiore sfiducia del contribuente verso l’istituzione.

L’IA, dunque, se addestrata su dati imparziali e supervisionata correttamente, può ridurre il margine di arbitrarietà e personalismo; se alimentata da dati storici non verificati, può replicare o amplificare le discriminazioni (c.d. bias algoritmico). La Corte EDU, nella sentenza López Ribalda c. Spagna (2019), ha richiamato la necessità di “proporzionalità e trasparenza anche nei trattamenti automatizzati” da parte delle autorità pubbliche. Allo stesso modo, il nostro Garante della Privacy, ha ribadito che l’adozione di algoritmi non può comprimere il diritto alla comprensibilità del procedimento amministrativo”.

In conclusione, le potenzialità dello strumento sono evidenti: maggiore efficienza nei controlli, anticipazione delle irregolarità, possibilità di prevenzione del contenzioso e perfino di orientamento per i contribuenti.

La sfida non è impedire l’ingresso della tecnologia nella PA, ma governarne l’utilizzo, restituendole un ruolo ausiliario.

È questo il modello dell’“IA costituzionalmente sostenibile”, che non minaccia ma rafforza la democrazia digitale.

______

*Dario Allegrucci (Avvocato e Comandante della Guardia di Finanza, Socio Centro Studi Borgogna) e Valeria Pepe (Ufficiale della Guardia di Finanza, esperta nel settore)