1 Introduzione: intelligenza artificiale e Amministrazione finanziaria nell’ordinamento tributario italiano
L’intelligenza artificiale ed i suoi utilizzi si collocano nel più generale contesto di quella che –comunemente – viene denominata rivoluzione digitale, tema ormai attuale e dibattuto non solo in ambito giuridico.1 Certamente, la digitalizzazione permea ogni aspetto della vita individuale e collettiva e sta mutando con rapidità ed incisività inattese non solo l’ambito dell’economia, ma anche quello politico e sociale. Da fenomeno esclusivamente economico, insomma, essa è divenuta il nuovo paradigma dell’intera vita sociale, modificando comportamenti, indirizzando scelte, addirittura influenzando il modo di essere dei luoghi tradizionali della socialità (si pensi al fenomeno della sharing economy nelle città d’arte).2
Probabilmente, sarebbe più corretto parlare al riguardo di “rivoluzione algoritmica”.3 L’algoritmo è infatti ciò che contraddistingue la nuova economia dematerializzata (quella fondata sui big data, la loro raccolta ed il loro sfruttamento), ma anche la robotizzazione dei processi produttivi sia di beni che di servizi. È l’algoritmo che dà vita all’intelligenza artificiale, ne determina le condotte iniziali e ne consente, laddove possibile, l’evoluzione a seguito di autonomo apprendimento. Non stupisce, quindi, che sia attorno ad esso che si sta sviluppando un impetuoso mutamento dei comportamenti individuali e sociali (dalla costante interconnessione alla crescente virtualità dei rapporti), dell’economia (attorno alle piattaforme digitali ed ai processi produttivi automatizzati, che portano al superamento della centralità dei beni/servizi tradizionali come strumenti di creazione del valore) e conseguentemente del modo di concepire e garantire il welfare (si pensi all’espulsione dal lavoro di lavoratori dotati di competenze basiche, ma allo stesso tempo all’emergere di nuove figure professionali prive di adeguata regolamentazione). Tutto ciò, peraltro, in un contesto di assoluta incertezza, dal momento che l’algoritmo è in sé non conoscibile, creato da tecnici dotati di competenze per i più esoteriche e coperto da rigorose privative.4
Siamo, insomma, al centro di un movimento che investe l’intera civiltà contemporanea, in tutti i suoi profili fondamentali, e che però sfugge alle classificazioni tradizionali e come tale è destinato a imporsi alle istituzioni ed ai consociati senza che sia ad essi riconosciuta la capacità di comprenderne appieno potenzialità e, soprattutto, esiti. L’era dell’intelligenza artificiale può quindi essere un’età dell’oro, come molti affermano recisamente, ma rischia altresì di trasformarsi, come sostengono i più pessimisti, in un periodo nel quale poche oligarchie tecnocratiche sono in grado di indirizzare le scelte e le condotte dei governi e degli individui senza alcuna possibilità di controllo democratico. La recente polemica concernente l’applicazione denominata Chat GPT, con l’intervento sospensivo del Garante della Privacy italiano,5 e l’appello lanciato da decine di studiosi e scienziati a rallentare l’evoluzione della robotizzazione capace, questa è la preoccupazione, di mettere in discussione addirittura taluni fondamenti delle nostre società6 testimoniano crescenti perplessità, anche da parte di coloro che ne sono stati in un primo momento i promotori, nei confronti di un progresso percepito come largamente deregolamentato.
Non è detto che la valutazione di questo assetto, ormai inevitabile, debba essere così drastica. Appare possibile che l’evoluzione del fenomeno si orienti ora verso forme di positivo sviluppo, ora verso situazioni di compressione dei diritti individuali e collettivi a seconda degli strumenti che verranno scelti per (tentare di) governarlo. In questo senso, è il diritto lo strumento al quale volgersi per realizzare tale ultimo obiettivo. Tuttavia, ad un primo sguardo si deve riconoscere che il saldo, ad oggi, è senza dubbio in perdita. Si vuole dire che, a fronte di un progresso rapido e pervasivo della tecnologia, il diritto è rimasto molto indietro. O, meglio, è rimasta indietro la riflessione giuridica su di essa, sulle sue origini e sulle sue implicazioni non solo economiche ma anche sociali. Un ritardo che, sebbene generalizzato, si manifesta con particolare evidenza in Europa ed in Italia, laddove invece negli Stati Uniti da tempo una élite di giuristi ha iniziato ad affrontare seriamente il problema.
Si ha come l’impressione che il mondo del diritto – il legislatore, ma anche la categoria dei giuristi – sia rimasto spiazzato dall’emergere di nuovi fenomeni che impongono una rivisitazione – non solo un mero aggiornamento – di istituti ed approcci interpretativi ormai consolidati e che si ritenevano patrimonio immutabile. Occorre, dunque, per evitare che il novello mondo algoritmico imponga nuove regole, fondate sulla prassi ed influenzate da interessi non coincidenti con il benessere dell’intera collettività, che gli studiosi del diritto escano dalla propria comfort zone e si pongano seriamente la questione di come ricondurre saldamente nell’alveo giuridico fenomeni che oggi appaiono tanto diffusi quanto ingovernabili.
Tale esigenza si pone, e non potrebbe essere diversamente, anche per il diritto tributario. Da un lato, l’intelligenza artificiale è uno strumento capace di indirizzare sia le scelte del contribuente che le strategie di controllo dell’Amministrazione finanziaria, grazie all’analisi in tempi rapidissimi di una mole ragguardevole di dati e precedenti, tale da non poter essere egualmente effettuata con mezzi esclusivamente umani. Dall’altra, l’elevato tecnicismo delle norme di diritto tributario, in special modo quelle relative al reddito di impresa,7 e la redazione di esse in termini estremamente analitici, tali da renderne pressoché automatica l’applicazione,8 sembrano consentirne una applicazione più meccanica, capace di essere effettuata da sistemi in grado di immagazzinare, vagliare, incrociare ed elaborare dati in quantità e con velocità tali da sorpassare ogni capacità umana.
Pensando al caso italiano, molte sono le disposizioni fiscali che, implicando l’analisi di un certo numero di elementi di fatto, ben potrebbero prestarsi ad una più efficiente applicazione proprio ricorrendo a sistemi intelligenti. Tra i casi nei quali più frequentemente ciò potrebbe avvenire si possono ricordare il redditometro, gli studi di settore – in seguito rimpiazzati dagli indici sintetici di affidabilità – e l’analisi di comparabilità nell’ambito della disciplina dei prezzi di trasferimento. Si tratta, per l’appunto, di vicende nelle quali gioca un ruolo centrale la capacità dell’operatore di collegare e confrontare situazioni e dati apparentemente autonomi, rispetto alla quale l’algoritmo consentirebbe di aumentare in modo esorbitante sia il numero degli elementi oggetto di analisi, sia la rapidità dell’elaborazione.9
Il tema che è stato, sin qui, maggiormente attenzionato dalla dottrina è stato quello delle modalità e dei limiti entro cui sistemi intelligenti possono supportare – o addirittura sostituire anche solo in parte – l’attività dell’Amministrazione finanziaria nello svolgimento delle proprie attività di controllo e di conseguente accertamento.10 Ci si interroga maggiormente, insomma, sulle possibilità offerte dall’intelligenza artificiale per il contrasto all’evasione ed all’elusione fiscale e, quindi, sui possibili profili di attrito tra i principi che guidano l’attività di controllo e accertamento da parte dell’Amministrazione finanziaria e l’automaticità che sistemi tecnologicamente avanzati possono garantire ad esclusione di qualsiasi intervento umano. Allo stesso tempo, il dibattito è particolarmente vivace con riguardo alle ricadute processuali dell’uso dell’intelligenza artificiale, sia per la maggiore esigenza di tutela del contribuente a fronte di accertamenti automatizzati, sia addirittura per la robotizzazione, in tutto o in parte, dell’attività giudicante.11
Lo scopo della presente analisi è quello di delineare lo stato dell’arte della disciplina prevista nell’ordinamento italiano con riguardo all’utilizzo di sistemi intelligenti da parte dell’Amministrazione finanziaria. Un tema certamente attuale, considerati anche i notevoli investimenti in corso per migliorare l’efficienza dell’attività di controllo e di intercettazione delle violazioni fiscali da parte dell’Agenzia delle Entrate, e che tuttavia solleva molteplici interrogativi sulla tenuta del sistema dal punto di vista dei diritti del contribuente.
2 Impiego degli algoritmi nella fase attuativa del rapporto
Come si vedrà amplius nel prosieguo, l’analisi del rischio fiscale si pone al centro dell’evoluzione di tecniche poggianti sul machine learning al fine di canalizzare l’attività amministrativa verso percorsi maggiormente efficienti ed efficaci nel contrasto al fenomeno dell’evasione fiscale.
Ma prima di passare al vaglio di detto tema, non si può fare a meno di rimarcare come l’ampio patrimonio informativo a disposizione dell’Amministrazione finanziaria italiana si presti ad essere valorizzato nell’attività preventiva di semplificazione degli adempimenti dei contribuenti, nonché in quella successiva basata sui c.d. controlli automatizzati.
2.1 I dati acquisiti e la messa a disposizione per semplificare gli adempimenti: le dichiarazioni precompilate e la fatturazione elettronica
Quanto al primo profilo, sin dal d.lgs. n. 175/2014, l’Agenzia delle Entrate utilizza le informazioni disponibili in Anagrafe tributaria, i dati trasmessi da parte di soggetti terzi e i dati contenuti nelle certificazioni uniche al fine di rendere disponibile telematicamente la dichiarazione precompilata relativa ai redditi prodotti nell’anno precedente. Il contribuente può accettare o modificare quei dati.
I flussi informativi utili per la predisposizione della dichiarazione precompilata sono ricevuti e gestiti mediante un’apposita unità di monitoraggio dell’Agenzia delle Entrate, verificandone la completezza, la qualità e la tempestività della trasmissione (art. 1, co. 2 del d.lgs. n. 175/2014).
Più nel dettaglio, tramite l’apposito servizio online, il contribuente dispone di tutte le informazioni raccolte dall’Agenzia delle Entrate, quali la Certificazioni Unica di tutti i soggetti pagatori, i familiari a carico e rispettivi codici fiscali, i dati sui terreni e/o fabbricati e relative fonti informative, i redditi percepiti, gli oneri e le spese, acconti, ritenute, eccedenze, crediti di imposta, investimenti e attività estere. I dati degli oneri detraibili e deducibili e quelli relativi ai rimborsi di oneri (come ad es. interessi passivi, contributi previdenziali e assistenziali, spese sanitarie ecc.) sono trasmessi da soggetti terzi. A questo proposito, l’Amministrazione finanziaria dispone anche dei dati trasmessi al Sistema tessera sanitaria da determinati soggetti esercenti attività medica o farmaceutica,12 acquisendo le informazioni recate dalle singole fatture per prestazioni sanitarie.
L’Agenzia delle Entrate – in qualità di titolare del trattamento dei dati – memorizza tali dati per lo svolgimento delle attività di assistenza ai contribuenti, per il controllo finalizzato all’erogazione dei rimborsi fiscali, per l’elaborazione dei dati per attività di analisi del rischio, per il controllo automatizzato e puntuale, che possono essere effettuati anche attraverso l’attività di analisi dei dati di natura fiscale presenti nelle fatture congiuntamente a quanto è dato ritrarre dalle banche dati. Tali risultanze possono essere rese disponibili dall’Agenzia delle Entrate anche alla Guardia di finanza e all’Agenzia delle Dogane e dei Monopoli per le loro finalità istituzionali.13
In materia IVA, l’introduzione della fatturazione elettronica da trasmettere al sistema di interscambio ha favorito la possibilità di memorizzare informazioni suscettibili di essere utilizzate dall’Agenzia delle Entrate e dalla Guardia di Finanza per le attività di analisi del rischio e di controllo a fini fiscali. Sulla base dei dati acquisiti da molteplici elementi conoscitivi (quali fatture elettroniche, comunicazioni sulle operazioni transfrontaliere, corrispettivi acquisiti telematicamente, nonché gli ulteriori dati fiscali presenti nel sistema dell’Anagrafe tributaria), l’Agenzia delle Entrate elabora e mette a disposizione di tutti i soggetti passivi dell’IVA residenti e stabiliti in Italia (in apposita area riservata del proprio sito internet) le bozze dei registri richiesti dalla normativa IVA (artt. 23 e 25 del d.P.R. n. 633/1972), della liquidazione periodica dell’IVA, nonché della dichiarazione annuale dell’IVA.14
Da ultimo, il progresso tecnologico nell’acquisizione dei dati ha segnato anche l’anacronismo della richiesta di molteplici informazioni già conosciute dall’Amministrazione finanziaria. Per tale ragione e a fini di semplificazione degli obblighi posti a carico dei contribuenti, dai modelli utilizzati per le dichiarazioni (IRPEF IRAP e IVA) sono progressivamente eliminate quelle informazioni non rilevanti ai fini della liquidazioni delle imposte oppure quelle che l’Agenzia delle Entrate può autonomamente acquisire mediante sistemi di interoperabilità delle banche dati proprie e nella titolarità di altre Amministrazioni.15
2.2 I controlli automatizzati
Se la precompilata riguarda un’attività “a monte” di raccolta e gestione di dati per semplificare gli adempimenti dei contribuenti, “a valle” i controlli possono muovere da numerose fonti di informazioni per rilevare eventuali incongruenze fra quanto dichiarato dal contribuente e quanto risulta “altrove” sulla scorta dei dati in possesso dell’Amministrazione.16
A questo proposito si possono ricordare la liquidazioni basata sulle dichiarazioni (art. 36-bis del d.P.R. n. 600/1973) e il controllo formale delle dichiarazioni (art. 36-ter del d.P.R. n. 600/1973).
La prima consiste in una procedura automatizzata che, sin dal 1979, involge attività (i) di correzione di errori materiali e di calcolo aventi ad oggetto alcuni elementi della dichiarazione (imponibili, imposte, contributi e premi o eccedenze d’imposte, nonché contributi e premi risultanti dalle precedenti dichiarazioni), (ii) di riduzione di detrazioni, deduzioni o crediti d’imposta esposti in misura superiore a quella prevista dalla legge oppure detrazioni o crediti d’imposta non spettanti sulla base dei dati risultanti dalle dichiarazioni, nonché (iii) di controllo della rispondenza con la dichiarazione e la tempestività dei versamenti dovuti a titolo di acconto e di saldo e delle ritenute alla fonte operate in qualità di sostituto d’imposta (art. 36-bis del d.P.R. n. 600/1973). L’attività amministrativa in esame poggia su dati ed elementi «direttamente desumibili dalle dichiarazioni presentate e di quelli in possesso dell’anagrafe tributaria». Le correzioni o riduzioni apportate sui dati contabili risultanti dalla liquidazione sono equipollenti – a tutti gli effetti – come se fossero dichiarati dal contribuente e dal sostituto d’imposta.
Il controllo formale delle dichiarazioni, invece, si basa su un perimetro informativo e documentale più ampio, essendo esteso anche alle dichiarazioni dei sostituti di imposta, alle certificazioni delle ritenute, alle comunicazioni cui sono annualmente tenute alcune categorie di “pagatori qualificati” (assicurazioni, enti previdenziali, soggetti che erogano mutui ecc.). Sulla base di tale set documentale, l’Amministrazione può intervenire per negare la spettanza di deduzioni o di detrazioni o lo scomputo di ritenute, là dove quanto esposto in dichiarazione non sia conforme a quanto risulta dalle dichiarazioni o comunicazioni presentate da altri in relazione al medesimo rapporto. In particolare, gli Uffici possono liquidare la maggiore imposta sul reddito delle persone fisiche e i maggiori contributi dovuti tenuto conto dell’ammontare complessivo dei redditi risultanti da più dichiarazioni o certificati presentati per lo stesso anno dal medesimo contribuente. Infine, è consentito correggere le dichiarazioni dei sostituti di imposta, ove siano affette da errori materiali e di calcolo. Tutte le ipotesi dell’art. 36-ter del d.P.R. n. 600/1973 trovano un innesco in specifiche «analisi del rischio di evasione» meglio definita dall’art. 2 del d.lgs. n. 13/2024 (per tale concetto si rinvia a quanto si dirà amplius più avanti).
Ai fini IVA, i dati e gli elementi direttamente desumibili dalle dichiarazioni presentate e quelli acquisiti all’Anagrafe Tributaria sono utilizzati nell’ambito di procedure automatizzate per la correzione di quanto riportato erroneamente nella dichiarazione (imposta, volume d’affari, o eccedenze) oppure per i controlli di conformità alla dichiarazione e di tempestività dei versamenti dell’imposta risultante dalla dichiarazione annuale a titolo di acconto e di conguaglio nonché dalle liquidazioni periodiche (art. 54-bis del d.P.R. n. 633/1972).
2.3 La raccolta e l’elaborazione dei dati: approccio deterministico e possibili casi problematici
Questa rassegna sulle modalità di utilizzo dei dati acquisiti (pur essendo parziale per ragioni di sintesi) consente di inquadrare un primo piano sul quale si colloca il tema del machine learning nell’attuazione del rapporto tributario.
Questo ambito pare essere il campo d’elezione per un approccio deterministico, volto alla selezione dell’enorme mole di dati, per la raccolta e per la loro elaborazione sia nella fase preventiva di semplificazione degli adempimenti (specie, ai fini delle dichiarazioni precompilate), sia nella fase successiva di controllo automatizzato (in particolare, per i controlli incrociati con le risultanze dei dati forniti da sostituti o dalle fatture elettroniche).
E difatti, a questi fini, i modelli e le tecniche di analisi sono basate sul raffronto e sull’elaborazione di dati riferiti ad uno (ad es. fatturazione elettronica o acquisti per prestazioni sanitarie) o più contribuenti (si pensi al rapporto sostituto/sostituito, cioè pagatore/percipiente) ovvero ad uno o più periodi di imposta (ad es. per il riporto di eccedenze d’imposta), volti a verificare, tramite criteri selettivi fondati su relazioni non probabilistiche, l’avveramento di un rischio fiscale, in tutto o in parte definibile prima dell’avvio dell’analisi (analisi deterministica).
In questo senso e in generale, si riconosce all’Amministrazione finanziaria il potere di acquisire, anche attraverso l’interoperabilità o l’interconnessione, dati e informazioni riguardanti i contribuenti, contenuti in banche dati proprie o quelle di altri soggetti pubblici onde realizzare la corretta attuazione del prelievo tributario.17
Su questo piano, si tratta di relazioni non probabilistiche, atteso che i dati confrontati si pongono in una relazione caratterizzata da certezza.18 Appartiene a questo novero di casi il rapporto esistente fra gli importi indicati nelle certificazioni rilasciate dai sostituti di imposta e l’ammontare del reddito imponibile dichiarato dal percipiente: se l’incongruenza numerica è in difetto rispetto a quanto dichiarato dal pagatore, allora si desume che è inferiore quanto esposto nella dichiarazione del contribuente percettore. Altro esempio richiamato dall’Agenzia delle Entrate è quello riferito al modello basato sul confronto delle operazioni imponibili risultanti dalle fatture elettroniche acquisite e i ricavi e/o il volume d’affari esposto nella dichiarazione per lo stesso periodo di imposta. Nella logica degli algoritmi utilizzati dall’Amministrazione finanziaria, il criterio deterministico seleziona i contribuenti sulla base di «incongruenze numeriche sintomatiche» di una violazione degli obblighi fiscali a fronte di uno scostamento fra grandezze (fiscali, economiche e finanziarie) che non sono giustificabili sulla base di altri elementi e circostanze.19
Detto in altri termini, gli algoritmi deterministici poggiano su un set informativo predeterminato in sede di progettazione e regolato dal parametro logico “se …, allora …”, ritraendo le conclusioni in via inferenziale dall’incongruenza. In questo senso, essi assolvono un ruolo importante nell’elaborazione delle precompilate, ma anche nell’ambito dei controlli automatizzati, attingendo ad informazioni che vengono messe a confronto sulla base di relazioni di tipo certo.20
Quanto alla dichiarazioni precompilate, l’intervento umano è sempre garantito dalla possibilità di accettare, modificare o integrare il contenuto del modello preconfezionato, risolvendo così eventuali disallineamenti causati da un errato inserimento dei dati che sono stati processati dal sistema.21
Nei controlli automatizzati, il tema è più delicato, in quanto occorre distinguere casi in cui gli errori riguardano difformità relative a grandezze facilmente riscontrabili da altre ipotesi più delicate. In dottrina è stato posto l’accento sui rischi di un’espansione della portata delle liquidazioni automatizzate (artt. 36-bis e 54-bis citati) anche a profili che non si limitano a cogliere mere incongruenze derivanti da errori materiali o di calcolo, richiedendo valutazioni giuridiche o maggiori sforzi interpretativi.22 Questo novero di casi potrebbe essere definito come vizi apparentemente formali, in quanto la liquidazione si innesca a fronte dell’omissione di una denuncia o di un elemento dichiarativo (ad es. per mancanza di un “flag”), ma sottintende l’inesistenza di fatti rilevanti ai fini della fattispecie impositiva sostanziale e talvolta connotati da peculiare complessità di apprezzamento. Si fa l’esempio della detrazione IVA rilevata come errata e, quindi, disconosciuta nella procedura automatizzata per omessa presentazione della dichiarazione nel periodo precedente.23 Altro caso riguarda l’iscrizione a ruolo per le maggiori imposte derivanti dalla disciplina delle società di comodo, là dove il contribuente non abbia spuntato in dichiarazione la voce relativa alle ragioni obiettive idonee a giustificare la disapplicazione del regime presuntivo.24 Si tratta di due casi emblematici in cui, a fronte di un profilo formale attinente ad un’incongruenza nel contenuto della dichiarazione, il procedimento automatizzato coglie la discrasia formale, ma l’oggetto di accertamento attiene ad una dimensione sostanziale. Infatti, la detrazione IVA spetta anche in caso di omessa dichiarazione ove sussistano i presupposti dell’effettività del costo e dell’inerenza dell’acquisto. Il regime sulle società di comodo si applica sol ove non sia data prova in sede amministrativa (tramite interpello) oppure in giudizio (a fronte dell’impugnazione dell’atto impositivo) dell’operatività in concreto della società o dell’esistenza di ragioni oggettive impedienti il conseguimento dei ricavi minimi di legge. Detto in altri termini, le questioni poste dalla rilevazione di un’incongruenza per mancato assolvimento di un obbligo formale-contenutistico nella dichiarazione sono duplici: il primo riguarda la rilevanza dell’omissione formale ai fini della legittimità della contestazione sostanziale in punto di disconoscimento di una situazione di vantaggio del contribuente oppure ai fini dell’applicazione di un trattamento fiscale in peius; la seconda è quella della prova dell’effettività della situazione di fatto che giustifica quel disconoscimento o quel regime fiscale sfavorevole. Questi due aspetti dovrebbero essere depotenziati nei loro rischi ove si applichi un approccio sostanzialista basato sulla prova e sull’accertamento del fatto in sede amministrativa o contenziosa. Sicché, il confronto con le circostanze concrete e i presupposti richiesti dalla fattispecie astratta dovrebbe risolvere la questione sotto il profilo sostanziale e cioè verificando se spetta o meno quella situazione attiva (deduzione, detrazione, credito, eccedenza) oppure se il contribuente non ha dimostrato i fatti impeditivi di una fattispecie impositiva “peggiorativa” (ad es. l’operatività in concreto o le ragioni oggettive di cui si è detto). In tal caso, la violazione dell’obbligo formale dovrebbe avere conseguenze solo se ha arrecato concreto pregiudizio all’esercizio delle azioni di controllo,25 atteso che raggiunta la prova dei presupposti della situazione giuridica favorevole al contribuente non vi è alcuna incidenza sulla determinazione della base imponibile, dell’imposta o sul versamento del tributo.
Ferme queste conclusioni che sdrammatizzano le preoccupazioni sollevate dagli studiosi, non è dato sottacere come il tema si sposti sui problemi attinenti alla motivazione di atti impositivi di tal fatta e al contraddittorio (come si vedrà ampiamente nel prosieguo). Val quanto dire che anche per tali atti dovrebbe rimanere ferma la centralità dell’intervento umano secondo ragionevolezza.26
Si potrebbe ipotizzare un errore in sede di compilazione della dichiarazione per sostituzione del codice fiscale del figlio “a carico” con quello di un altro figlio per il quale il contribuente non abbia più diritto alla relativa detrazione. In questo caso, l’algoritmo – basandosi su relazioni certe – rileverebbe agevolmente l’incongruenza sulla base dell’incrocio fra la certificazione dei redditi percepiti dal figlio in misura superiore alla soglia prevista per la detrazione (€ 4.000) e il codice fiscale esposto nella dichiarazione del padre. Sennonché, in un caso del genere, l’atto impositivo dovrebbe essere annullato, se si tiene conto che non vi è danno in concreto ai fini dei versamenti perché il risultato non muterebbe in ragione della spettanza della medesima detrazione per il figlio effettivamente a carico. Né dovrebbero essere irrogate sanzioni per ciò che la sostituzione di codice fiscale potrebbe essere rilevata tramite l’interoperabilità con altri dati (ad es. quelli ISEE) e, quindi, non vi sarebbe alcun pregiudizio all’azione di controllo. Questo caso configurerebbe un’ipotesi addirittura di annullamento in autotutela obbligatoria per errore materiale del contribuente, facilmente riconoscibile dall’Amministrazione finanziaria.27
Le ipotesi rammentate evidenziano come l’intervento umano potrebbe evitare l’attivazione di una tutela ex post (autotutela o contenzioso). Sennonché, l’obbligo del contraddittorio preventivo di cui al nuovo art. 6-bis Stat. contr. è escluso per i controlli automatizzati o sostanzialmente tali (ossia quelli basati sull’incrocio dei dati in possesso della stessa Amministrazione), per gli atti di pronta liquidazione (poggianti sui dati della stessa dichiarazione o sulle informazioni della medesima Amministrazione), nonché per i controlli formali delle dichiarazioni (ossia quelli relativi ad un riscontro formale dei dati contenuti nelle dichiarazioni presentate dai contribuenti o dai sostituti d’imposta con i documenti che attestano la correttezza dei dati dichiarati).28
Rimane tuttavia un altro tipo di contraddittorio, ossia quello disciplinato dall’art. 6, co. 5 Stat. contr. secondo cui prima di procedere alle iscrizioni a ruolo derivanti dalla liquidazione di tributi risultanti da dichiarazioni, l’Amministrazione finanziaria deve (a pena di annullabilità) invitare il contribuente a fornire i necessari chiarimenti ed eseguire le relative produzioni documentali entro un termine non inferiore a trenta giorni. Tuttavia si richiede che vi sia incertezza su aspetti rilevanti della dichiarazione. Questa condizione estremamente vaga è stata foriera di dubbi con soluzioni giurisprudenziali ondivaghe: in alcune occasioni si è riferito l’obbligo al solo controllo formale di cui all’art. 36-ter e non già con riferimento alla liquidazione ex art. art. 36-bis; in altre pronunce si è parlato di una mera facoltà di invito a fornire chiarimenti e non già di un obbligo anche con riferimento all’art. 36-ter.29
Oltretutto con la recente riforma si registra un disallineamento fra i termini dell’art. 6, co. 5 Stat. contr. e quelli previsti dagli artt. 36-bis, 36-ter e 54-bis, a fronte dell’ampliamento del termine da trenta a sessanta giorni per consentire al contribuente di fornire chiarimenti.30 Sicché, in base ad una lettura volta a risolvere l’antinomia secondo il principio lex specialis posterior derogat priori generali, il termine che l’Amministrazione deve assegnare non può essere inferiore a sessanta giorni proprio per consentire al contribuente di fornire chiarimenti in coerenza con le nuove tempistiche previste dalle norme speciali sui procedimenti automatizzati.
3 Gli algoritmi in funzione predittiva: il concordato preventivo
Fin qui si è avuto modo di affrontare l’impiego di algoritmi secondo un approccio deterministico. L’applicazione di un’analisi probabilistica si attaglia perfettamente nell’ambito della disciplina del concordato preventivo biennale.31
Si tratta di un modulo consensuale di definizione anticipata del reddito prodotto nell’esercizio dell’attività di impresa e nell’esercizio di arti e professioni ai fini delle imposte sui redditi, nonché del valore della produzione netta ai fini IRAP in relazione a due periodi di imposta in corso e a quello successivo. È consensuale proprio perché il quantum debeatur si determina dall’incrocio fra la proposta dell’Amministrazione finanziaria e l’accettazione del contribuente.
Per ciò che massimamente interessa in questa sede, l’uso degli algoritmi risulta centrale per la raccolta dei dati e per la loro elaborazione nella prospettiva di enucleare la proposta da sottoporre al contribuente. In questo ambito si tratta di un impiego in funzione predittiva, in quanto il software dovrebbe essere idoneo a prevedere quanto sarà l’ammontare dei proventi di un dato contribuente nel corso del biennio. Oltre ai dubbi di legittimità costituzionale, gli studiosi hanno mostrato preoccupazioni circa le nebulosità32 che avviluppano i dati da processare e le modalità tecniche degli algoritmi destinati alla formulazione della proposta.
Come accennato, l’approccio dovrebbe basarsi su un’analisi probabilistica secondo modelli e tecniche di analisi che, sfruttando soluzioni di machine learning o di statistica inferenziale, consentono di ritrarre informazioni anche non note a priori che, una volta ricavate, possono essere impiegate per l’elaborazione di autonomi risultati (ammontare dell’imposta dovuta in un dato anno) e/o permettono di attribuire una determinata probabilità di quel dato accadimento (i.e. il verificarsi del presupposto impositivo). Se questo metodo viene escluso dall’A.f. per la predittività del contribuente potenzialmente rischioso, invece, la necessità di formulare una proposta più prossima ad un dato futuro e effettivo impone questo tipo di analisi probabilistica.33
Si dovrebbe quindi parlare di un’analisi supervisionata, riferita ai campioni di contribuenti per settore (training set), di una variabile “risposta” (output) che rappresenta la grandezza (reddito/valore della produzione netta) da predire in relazione al singolo contribuente appartenente a quella data categoria economica. All’interno del training set, si pone una fase di addestramento del modello nel corso del quale si analizzano le relazioni tra specifiche variabili fiscali, finanziarie, patrimoniali e dichiarative (variabili di input), disponibili su tutta la platea del settore economico, e la variabile risposta. Segue poi la fase predittiva in cui viene attribuita al singolo soggetto una previsione del valore della variabile risposta sulla base delle relazioni stimate.34
Nelle note metodologiche per l’elaborazione della proposta concordataria,35 l’analisi predittiva poggia su dati macroeconomici, quali l’andamento dei mercati e le proiezioni macroeconomiche di crescita del PIL elaborate dalla Banca d’Italia. A ciò si aggiungono anche i dati relativi alla redditività individuale e settoriale desumibile dagli ISA (indici sintetici di affidabilità) e alle risultanze della loro applicazione,36 nonché ad altre informazioni in possesso dell’Amministrazione finanziaria.
In particolare, si muove da una misurazione dei singoli indicatori elementari di affidabilità e anomalia secondo una valutazione nell’ambito dello specifico ISA alla luce dei dati dichiarati dal contribuente nelle ultime otto annualità disponibili. Rispetto ad alcune voci relative a tali indicatori si è assunto il valore dei ricavi/compensi nella misura richiesta per la massima affidabilità fiscale (come in relazione alla voce “ricavi per addetto”). In alternativa sono stati elaborati specifici algoritmi di valutazione indiretta. Nella nota, si fa riferimento all’indice “durata e decumulo delle scorte” che viene valorizzato muovendo dal valore di riferimento delle rimanenze finali (quale incremento di costo del venduto e per la produzione di servizi) e che rientra nel maggior Valore aggiunto per addetto. Per i contribuenti che non hanno un massimo livello di affidabilità si prevede la rivalutazione degli indicatori elementari non pienamente soddisfatti secondo coefficienti di benchmark (bbench) determinato sulla scorta del rapporto tra il valore aggiunto dichiarato e quello stimato dai contribuenti pienamente affidabili del settore economico.
Per la proposta concordataria si fa riferimento al dato storico delle redditività del contribuente nei periodi precedenti e in quello di applicazione. A tal fine si fa riferimento all’andamento del reddito operativo, quale quello realizzato nell’ambito della gestione caratteristica negli ultimi tre esercizi. I redditi degli ultimi tre anni sono oggetto di una media ponderata con diversi pesi a seconda dei punteggi di affidabilità per anno. Il rapporto tra il reddito operativo e il risultato della media consente di individuare il coefficiente di rivalutazione della base concordataria.
Nel calcolo si individua anche un livello minimo di redditività settoriale (limiteinf) ritratto dalle spese per lavoro dipendente (ossia i soggetti sui quali non ricade il c.d. rischio di impresa). Se la quantificazione del reddito determinata sui precedenti passaggi metodologici è inferiore al livello settoriale delle spese per lavoro dipendente, si assume tale valore minimo come dato reddituale. Tale step metodologico muove dai contributi Invalidità Vecchiaia e Superstiti, là dove si prevede un livello minimo retributivo per il versamento dei contributi previdenziali sulla base di un minimale giornaliero di retribuzione utilizzato per il calcolo dei contributi relativi agli operai dei settori dell’artigianato e del commercio.
Da ultimo, la rivalutazione con le proiezioni macroeconomiche è segnata dall’affidabilità della fonte di tale dato, ossia la Banca d’Italia. Si tiene conto dei rischi derivanti dall’instabilità geo-politica per determinarne rincari di materie prime oppure della diminuzione della fiducia degli operatori economici o degli effetti sulla stretta creditizia per imprese e famiglie (a cagione dell’aumento dei tassi di interesse). Non si può fare a meno di osservare, tuttavia, che questi dati danno luogo a “stime”, essendo suscettibili di revisioni in corso d’anno a causa di eventi imprevisti o imprevedibili (come un’emergenza sanitaria, un attacco terroristico o una guerra).
4 Le utilità nell’attività organizzativa dell’Amministrazione finanziaria e nel processo tributario
L’ambito maggiormente apprezzabile in termini di efficacia ed efficienza pare essere quello delle funzioni ausiliari e strumentali che le tecniche di intelligenza artificiale possono assumere nell’ambito dell’organizzazione.
Da questo punto di vista sono da salutare con favore le iniziative volte a migliorare la digitalizzazione dell’azione amministrativa per ciò che concerne la semplificazione dei rapporti con i contribuenti e l’erogazione dei servizi. Al riguardo, gli indirizzi dell’Amministrazione finanziaria volgono – in specie e fra l’altro – verso una gestione da remoto di tutte le fasi di interlocuzione. A questo proposito, l’Agenzia promuove lo svolgimento del contraddittorio anche a distanza mediante il miglioramento dei servizi di consegna documenti o di prenotazione web degli appuntamenti, nonché attraverso nuovi strumenti diretti a gestire on line richieste di chiarimenti e di certificazioni.37
In questo senso, lo sviluppo di servizi online ulteriori può essere utile per ridurre l’apporto di risorse nell’ambito di attività routinarie o a basso impatto sull’efficienza e sull’efficacia amministrativa nei compiti fondamentali assegnati all’Amministrazione finanziaria. Ciò dovrebbe valere per il rilascio di certificazioni o l’assegnazione di codici fiscali, ma anche per il potenziamento del Sistema di interscambio (SDI), ampliando la possibilità di accesso anche ad intermediari e ai provider accreditati – in specie e fra l’altro – per una gestione integrata della dichiarazione e dei registri IVA precompilati.
In tal modo, si vuole favorire l’interazione con gli utenti tramite uno sportello digitale, volto allo svolgimento di servizi gestiti interamente da remoto tramite funzionalità integrate di scambio documentale, chat, sottoscrizione digitale, di eventuale documentazione utile alla chiusura dell’attività istruttoria riferita alla propria posizione.
Più in generale, lo sviluppo infrastrutturale di piattaforme concernenti tecniche di intelligenza artificiale (quali il machine learning, il text mining, la network analysis, ecc.) consentirà dal punto di vista organizzativo di porre in essere azioni mirate e, quindi, con maggiore efficienza e minore impatto per cittadini ed imprese sotto il profilo degli oneri amministrativi.38
Si tratta di un percorso di integrale digitalizzazione di alcuni processi amministrativi. L’esperienza pratica ha mostrato come gli strumenti tecnologici di comunicazione/collaborazione si rivelino di fondamentale importanza per la reingegnerizzazione dei processi dell’Amministrazione (in termini di digitalizzazione dei flussi documentali, automazione e semplificazione delle interazioni tra il personale). Ciò ha comportato un significativo risparmio di risorse, consentendo ai dipendenti di lavorare efficacemente da remoto. In prospettiva, l’incremento della digitalizzazione viene visto con riferimento alle possibilità offerte dai nuovi modelli di intelligenza artificiale generativa e conversazionale.39
Sempre in questo solco si colloca la prospettiva di introdurre servizi di interlocuzione rapida per le persone fisiche e i contribuenti di minori dimensioni onde ottenere risposte scritte mediante l’utilizzo di tecnologie digitali e di intelligenza artificiale in luogo della diretta attivazione del procedimento di interpello.40 In particolare, tali contribuenti potranno accedere gratuitamente – previa richiesta avente ad oggetto “casi concreti” – ad una banca dati recante i documenti di prassi, le risposte a istanze di consulenza giuridica e interpello, le risoluzioni e ogni altro atto interpretativo, con lo scopo di ottenere una soluzione ad un quesito interpretativo o applicativo. Ove la risposta non sia individuata “univocamente”, la banca dati informa il contribuente circa la possibilità di proporre istanza di interpello. L’utilizzazione di detto servizio è pregiudiziale ai fini del procedimento di interpello, essendo espressamente qualificato come “condizione di ammissibilità” della relativa istanza. Si tratta di un’iniziativa volta alla semplificazione in favore dei contribuenti di minori dimensioni, ma si risolve in una scelta diretta anche alla riduzione della mole di lavoro degli Uffici, i quali potranno essere consultati tramite interpello sol ove non sia possibile ottenere una risposta automatizzata sulla base di documenti di prassi già emessi. La conformazione della condotta del contribuente a quanto indicato dal servizio di interlocuzione rapida ha come effetto quello di escludere l’applicazione delle sanzioni e degli interessi moratori (art. 10, co. 2 Stat. contr.) e non già l’annullabilità di ogni atto impositivo contrario alla soluzione prospettata dal database analogamente alla vincolatività della risposta all’istanza di interpello resa dall’Ufficio (art. 11, co. 5 Stat. contr.). Ciò appare una deminutio in termini di tutela del contribuente. Al contempo, esprime la sfiducia dello stesso legislatore circa la piena attendibilità ed affidabilità dei propri mezzi di interlocuzione automatizzati. Non avrebbe altrimenti alcun senso riconoscere una diversa rilevanza giuridica fra la risposta dell’Ufficio e quella della banca dati.
Anche nell’ambito della fase esecutiva dell’obbligazione tributaria, il piano delle iniziative per il triennio 2024-2026 dell’Agenzia delle Entrate-Riscossione ha – fra le sue principali direttrici – la revisione delle architetture applicative e infrastrutturali nella prospettiva di (i) digitalizzazione (sia con riferimento ai servizi per il contribuente che ai processi amministrativi), (ii) estensione delle soluzioni di intelligenza artificiale, (iii) evoluzione dei processi a supporto del servizio nazionale di riscossione, (iv) servizi digitali per (e interoperabilità con) gli enti creditori, (v) cybersecurity. Il tutto per il raggiungimento degli scopi di efficientamento di costi e prestazioni, di miglioramento della manutenibilità e del rafforzamento della sicurezza informatica.41 Con particolare riguardo all’implementazione delle tecniche di intelligenza artificiale, si rammenta che già nel 2021 si è consolidato un sistema di protocollazione con una soluzione di apprendimento intelligente che nell’ottobre 2019 era stata applicata al protocollo dei documenti cartacei in ingresso della sola sede della Direzione centrale di Roma aventi ad oggetto gli atti introduttivi del contenzioso e alle forniture di ruolo provenienti dagli enti creditori. Nel corso di questa sperimentazione, le tecniche di machine learning hanno mostrato la loro attitudine ausiliaria e strumentale, in quanto hanno dato luogo ad un’attività di interpretazione di documenti e di estrapolazione di informazioni volte alla classificazione, all’assegnazione e alla protocollazione in relazione alle classi documentali per le quali è stata condotta l’attività di addestramento. In una fase successiva, l’operatività di tali tecnologie è stata ampliata anche alle attività processuali dell’Amministrazione finanziaria, quali quelle relative alla repertoriazione degli atti introduttivi (ricorsi) e successivi (sentenze) del contenzioso. L’obiettivo è stato quello di automatizzare anche il tracciamento delle informazioni di repertorio nell’ambito della c.d. Agenda Legale che fino ad allora era svolto manualmente dai funzionari. È previsto un potenziamento di questi strumenti nel triennio 2024-2026 mediante ampliamento delle classi documentali concernenti il processo tributario, nonché mediante estensione delle soluzioni di IA per la protocollazione automatica delle PEC relative al protocollo istituzionale. In questa prospettiva si fa riferimento al servizio Knowledge e al Monitoraggio SLA da applicare al protocollo in ingresso, onde migliorare i livelli di servizio e raggiungere la massima standardizzazione di trattamento tra i punti di protocollazione.
Oltre a questi aspetti meramente organizzativi, non si può dimenticare il progetto Prodigit, quale piano di investimento nell’ambito del P.N.R.R. in attività volte all’innovazione tecnologica della Giustizia tributaria anche mediante tecniche di intelligenza artificiale, quali – in specie e fra l’altro – la sperimentazione di un modello di prevedibilità della decisione e la realizzazione di una banca dati nazionale di giurisprudenza tributaria (recante le sentenze di merito integrali oscurate). A partire dal 27 giugno 2024 la banca dati è stata resa disponibile agli utenti in modo pubblico, gratuito e liberamente accessibile. Quanto invece alle funzionalità predittive, il progetto si trova in un momento di stallo a causa di problematiche tecniche relative alla formulazione dell’algoritmo.42
5 La legge delega n. 111/2023
Una notevole spinta alla regolamentazione del fenomeno qui esaminato viene dalla recente legge delega per la riforma del sistema tributario, approvata con la legge n. 111/2023.
L’intero impianto della legge delega è punteggiato da riferimenti alla digitalizzazione dell’attività dell’Amministrazione finanziaria. Non poteva, del resto, essere diversamente, considerata la rapida diffusione di strumenti tecnologici a servizio della gestione del rapporto d’imposta, come anche testimoniato da una serie di progetti pilota, posti in essere negli ultimi anni dall’Agenzia delle Entrate anche con il contributo dell’Unione europea. Ciò appare indispensabile per consentire a quest’ultima di processare in modo efficace l’immenso numero di dati che ogni anno vengono immagazzinati nelle banche dati a sua disposizione.
Il legislatore delegante ha scelto di non dedicare a questo tema una disposizione specifica, ma di effettuarvi riferimenti sparsi nel contesto di varie disposizioni. I richiami più rilevanti si collocano nell’art. 2 che pone i principi generali ai quali dovrà ispirarsi, sul piano interno, il nuovo assetto dell’ordinamento tributario ai sensi della riforma. Alla lettera b, punti 1) e 2), del primo comma, proprio richiamando l’esigenza di una corretta gestione dei dati raccolti tramite sia l’anagrafe tributaria, sia la fatturazione elettronica, ed allo scopo di «prevenire, contrastare e ridurre l’evasione e l’elusione fiscale», si richiama «il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale» in particolare per «il potenziamento dell’analisi di rischio». Traspare, quindi, l’obiettivo del pieno impiego delle innovazioni tecnologiche in funzione endoprocedimentale, in special modo per quanto riguarda la selezione dei soggetti da sottoporre a controllo fiscale. Vi è, quindi, la consapevolezza dei minori costi e della maggiore efficienza che l’uso dell’intelligenza artificiale può consentire in questo ambito.
I principi contenuti, al riguardo, nell’art. 2 si trovano in parte concretizzati nel successivo art. 17, dedicato al procedimento accertativo. La lettera f del primo comma proclama l’obiettivo di «potenziare l’utilizzo di tecnologie digitali», anche mediante la completa interoperabilità delle numerose banche dati a disposizione dell’Amministrazione finanziaria, lungo tre direttrici:
1) la funzione preventiva («realizzare interventi volti a prevenire gli errori dei contribuenti e i conseguenti accertamenti»);
2) la funzione di selezione dei contribuenti da sottoporre a controllo («operare azioni mirate, idonee a circoscrivere l’attività di controllo nei confronti di soggetti a più alto rischio fiscale»);
3) la funzione predittiva, ai fini dell’adempimento spontaneo («perseguire la riduzione dei fenomeni di evasione e di elusione fiscale, massimizzando i livelli di adempimento spontaneo dei contribuenti»).
Queste norme sviluppano, quindi, le indicazioni già ricavabili dall’art. 2 sopra richiamato, confermando come l’azione degli strumenti di intelligenza artificiale dovrà muoversi nell’ambito del procedimento istruttorio, senza poter tracimare nella fase di predisposizione dell’avviso di accertamento. La delega, peraltro, non lo esplicita, mantenendo un certo grado di ambiguità al riguardo, come in particolare emerge dalla lettura dell’art. 2, comma 1 lett. b.1, dove «il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale» pare essere concepito come generalizzato.
Per quanto l’art. 17 sembri escludere tale approdo, è auspicabile che il legislatore delegato lo chiarisca esplicitamente, anche sulla scorta della prassi amministrativistica che si sta sviluppando al riguardo. Si deve ricordare che il Consiglio di Stato, con riferimento ad un atto amministrativo algoritmico peraltro in materia non fiscale, ha affermato il necessario rispetto del principio di conoscibilità di una regola espressa in un linguaggio non strettamente giuridico, sostenendo che «la ‘caratterizzazione multidisciplinare’ dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la ‘formula tecnica’, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella ‘regola giuridica’ ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice» (Consiglio di Stato, sez. VI, sent. n. 2270/2019). Considerati gli ostacoli che, come è noto, circondano il pieno accesso all’algoritmo, si tratta di un sostanziale requiem per ogni ipotesi di utilizzo dell’intelligenza artificiale da parte dell’Amministrazione finanziaria al fine di fondare tout court un avviso di accertamento.
6 L’attuazione della delega nei decreti delegati
I decreti delegati hanno dato attuazione a questa parte della delega in modo piuttosto ampio, sebbene non del tutto organico. Indicazioni interessanti provengono, principalmente, dal D.Lgs. 13/2024, che disciplina l’accertamento e introduce il concordato preventivo; nonché dal D.lgs. 219/2023 che ha modificato lo Statuto dei diritti del contribuente (legge n. 212/2000).
Un primo tema di interesse riguarda l’art. 10-nonies dello Statuto, concernente la consultazione semplificata per contribuenti minori, sul meccanismo di determinazione dell’imponibile oggetto della proposta di concordato da parte dell’Agenzia delle Entrate nonché sull’impianto del decreto sull’accertamento, in particolare per quanto riguarda l’analisi del rischio fiscale e la selezione dei contribuenti da sottoporre a controllo. Si tratta, infatti, di rilevanti esempi dell’ampiezza variabile che l’attuazione della delega attribuisce all’uso dell’intelligenza artificiale nell’attività dell’Amministrazione finanziaria.
Il meccanismo di consultazione semplificata indica un uso basico dei sistemi tecnologici. Si tratta, infatti, di una banca dati che raccoglie precedenti prese di posizione da parte dell’Amministrazione finanziaria,43 alla quale le persone fisiche ed i contribuenti minori possono accedere per conoscere l’orientamento della parte pubblica rispetto ad un caso concreto e prima di accedere ad un formale interpello, che viene peraltro consentito solo laddove l’interrogazione della banca dati non fornisca esito o non risolva la situazione di incertezza. In questo ambito, l’intelligenza artificiale serve al limitato scopo di selezionare i documenti di prassi rilevanti e di combinarne le indicazioni al fine di fornire una risposta al quesito del contribuente, quindi si tratta si una banca dati che potremmo definire evoluta e nella quale, quindi, la funzione dell’elaborazione automatizzata è ampiamente circoscritta. Tra l’altro, laddove il richiedente si adegui all’output fornito dalla banca dati che, in seguito, si riveli non corretto, è previsto che al recupero dell’eventuale maggiore imposta dovuta non si accompagni né l’irrogazione di alcuna sanzione, né l’attribuzione degli interessi.
Quanto al concordato preventivo, l’art. 9 del D.Lgs. n. 13/2024 stabilisce che «la proposta di concordato è elaborata dall’Agenzia delle entrate (…) sulla base di una metodologia che valorizza, anche attraverso processi decisionali completamente automatizzati di cui all’art. 22 del Regolamento (UE) 2016/679, del Parlamento europeo e del Consiglio, del 27 aprile 2016, le informazioni già nella disponibilità dell’Amministrazione finanziaria». L’elaborazione automatizzata ha ad oggetto, dunque, una molteplicità di dati, esterni rispetto al contenuto della dichiarazione del contribuenteal fine di individuare la capacità contributiva dal medesimo manifestata per la determinazione del quantum della proposta di concordato preventivo. L’intelligenza artificiale serve, qui, per ricostruire il reddito riferibile al contribuente ed ha, perciò, un impatto assai più profondo nella gestione del rapporto d’imposta, sebbene pur sempre nel contesto di una procedura speciale come quella appunto del concordato preventivo.
Quanto all’impiego dell’intelligenza artificiale nell’ordinaria attività di controllo e accertamento, va detto che l’attuazione della delega lo ha limitato ad una fase endoprocedimentale, che è quella dell’analisi del rischio fiscale e, quindi, della selezione dei contribuenti da sottoporre a verifica.
L’art. 2 del D.Lgs. n. 13/2024, al comma 1 lett. a), nel definire la nozione di “analisi del rischio”, fa riferimento ad un «processo, composto da una o più fasi, che, al fine di massimizzare l’efficacia delle attività di prevenzione e contrasto all’evasione fiscale, alla frode fiscale e all’abuso del diritto in materia tributaria, nonché di quelle volte a stimolare l’adempimento spontaneo, tramite modelli e tecniche di analisi deterministica ovvero probabilistica (…), utilizza, anche attraverso la loro interconnessione, le informazioni presenti nelle banche dati dell’Amministrazione finanziaria, ovvero pubblicamente disponibili, per associare, coerentemente a uno o più criteri selettivi, ovvero a uno o più indicatori di rischio desunti o derivati, la probabilità di accadimento a un determinato rischio fiscale, effettuando, ove possibile, anche una previsione sulle conseguenze che possono generarsi dal suo determinarsi». Qui, il sistema automatizzato attinge all’amplissimo stock di informazioni nelle mani dell’Amministrazione finanziaria (ma anche, aspetto rilevante sul quale si dovrà tornare affrontando il delicato tema delle tutele, a qualsiasi altro dato desumibile da fonti pubbliche) per calcolare il rischio fiscale di un contribuente o di una fattispecie. Ciò al duplice fine di orientare i controlli, anche preventivi,44 e di svolgere le attività di accertamento, nonché quelle volte a sollecitare lo spontaneo adempimento da parte dei contribuenti interessati.
Rimane, peraltro, ambigua la posizione della disciplina introdotta dal D.Lgs. n. 13/2024 con riguardo alla possibilità di impiegare direttamente i risultati dell’analisi automatizzata per l’attività di accertamento: una ambiguità già presente nella legge delega,45 che permane per l’appunto in sede di attuazione, laddove in particolare si prevede che gli esiti dell’analisi automatizzata possano essere posti a fondamento di non meglio precisate «finalità di contrasto all’evasione fiscale».
Laddove l’Amministrazione finanziaria pretendesse di fondare l’accertamento su quanto indicato dal sistema di intelligenza artificiale, si porrebbero taluni rilevanti problemi interpretativi.
In primo luogo, quello legato alla motivazione dell’atto amministrativo. Se si ritenesse, infatti, che questo possa essere motivato sulla base delle risultanze dell’elaborazione del sistema di intelligenza artificiale, allora ci si troverebbe di fronte alla questione dell’algoritmo da quest’ultimo utilizzato per l’elaborazione dei dati, il più delle volte non conoscibile.46 Una delle caratteristiche indefettibili della motivazione dell’atto amministrativo è, invero, quella per cui dalla lettura di quella il destinatario deve essere messo in condizione di comprendere sia il fondamento di ciò che viene contestato sia il procedimento logico attraverso cui da tale fondamento l’ufficio è potuto pervenire ad una certa conclusione, nel caso di specie quella di abusività di una certa operazione.
Ebbene, nel caso dei sistemi intelligenti la ricostruzione del procedimento logico non può prescindere dall’accesso all’algoritmo, perché in esso si annida la comprensione del percorso attraverso il quale si è dipanato il confronto tra le caratteristiche concrete della fattispecie e quelle che, sulla base dei dati conosciuti dal sistema, avrebbero dovuto mostrarsi per poter giudicare corretta la predetta operazione. Non è detto tuttavia che l’Amministrazione finanziaria abbia a sua volta accesso all’algoritmo e possa perciò adempiere a tale onere motivazionale, proprio in conseguenza della già ricordata “segretezza” dello stesso. D’altro canto, e conseguentemente, il problema diviene anche di merito, dal momento che l’impossibilità di comprendere il modo di essere dell’algoritmo comporta la subordinazione dell’attività amministrativa alle scelte (anche di valore) effettuate in modo autonomo ed incontrollato dai suoi creatori.47
Vi è poi la questione della tutela dei diritti del contribuente.48 Il dovere di motivazione dell’atto impositivo, oltre che a garantire il buon andamento dell’attività amministrativa, mira a consentire al destinatario il pieno esercizio del proprio diritto di difesa, il quale passa inevitabilmente dalla piena comprensione dei termini della contestazione a lui mossa dall’ufficio. Il caso della contestazione di abusività motivata sulla base degli esiti di una elaborazione svolta da un sistema di intelligenza artificiale suscita, al riguardo, perplessità sotto due profili: quello, già esaminato, della effettiva comprensione della motivazione del recupero a motivo dell’impossibilità di accedere all’algoritmo sottostante; e quello, in ogni caso, legato ai costi di consulenza tecnica che inevitabilmente, anche laddove un simile accesso fosse possibile, il contribuente sarebbe chiamato a sostenere per comprenderne realmente il funzionamento.49
Infine, vi è il problema della valenza probatoria che l’elaborazione effettuata dal sistema intelligente potrebbe avere in giudizio. I limiti di conoscibilità dell’algoritmo possono infatti impattare negativamente anche sull’attività del giudicante, il quale non sarebbe nella maggior parte dei casi posto nella condizione di valutare l’attendibilità della ricostruzione dell’ufficio, se non forse a costo di ricorrere massicciamente a consulenze tecniche d’ufficio, con conseguente lievitazione dei costi della giustizia.
Salvo i casi di attività meramente routinarie, peraltro raramente individuabili in ambito fiscale,50 residua l’ipotesi già messa in evidenza dalla dottrina amministrativistica di un impiego di essa in back office, quindi per lo svolgimento di una istruttoria interna al termine della quale vi sia l’intervento del funzionario essere umano capace di assumersi la responsabilità esterna dell’atto emesso.51 Vi è, altrimenti, il concreto rischio di “scaricare” sul giudice – e quindi su una fase successiva all’accertamento – la valutazione degli interessi che è invece l’Amministrazione finanziaria a dover compiere in anticipo nel caso concreto.52
Una conferma, per quanto in ambito non fiscale, viene dal Consiglio di Stato con la sent. 4 febbraio 2020, n. 881, pronunciata dalla VI Sezione. Qui i giudici, da un lato, enfatizzano l’importanza e l’utilità degli strumenti automatizzati per garantire l’efficienza ed il buon andamento della Pubblica Amministrazione, dall’altra, pongono una serie di paletti, in funzione di tutela dei diritti degli interessati, oltre i quali l’impiego dell’intelligenza artificiale non può spingersi. In particolare, si legge che «assumono rilievo fondamentale, anche alla luce della disciplina di origine sovranazionale, due aspetti preminenti, quali elementi di minima garanzia per ogni ipotesi di utilizzo di algoritmi in sede decisoria pubblica: a) la piena conoscibilità a monte del modulo utilizzato e dei criteri applicati; b) l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo». Ancora una volta, non solo si specifica l’esigenza che l’esito dell’elaborazione algoritmica sia vagliata da un operatore umano, che se ne assume la relativa responsabilità, ma viene ulteriormente precisato che deve essere garantita la piena conoscibilità dell’algoritmo, «dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti». Ciò, prosegue la sentenza, «al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato».
Resta, in sostanza, confermato che l’atto amministrativo non può mai, allo stato, fondarsi sulle risultanze di una procedura automatizzata, dal momento che nessun algoritmo – salvo il caso, per adesso puramente teorico, in cui esso sia stato sviluppato dalla stessa Pubblica Amministrazione – consente quel livello di conoscenza che, come si è visto, è richiesto dalla giurisprudenza.
7 La tutela del contribuente sottoposto alle procedure automatizzate
Occorre che l’impiego di tali strumenti si svolga in modo da non danneggiare i diritti del contribuente. Invero, mentre in altri settori giuridici il tema dei diritti individuale al cospetto dell’IA è particolarmente presente, in ambito tributario ciò accade in misura assai più circoscritta. La delega era, quindi, l’occasione per un intervento ponderato in tal senso, anche considerata la centralità che nell’intero impianto della delega medesima ha la tutela dei diritti del contribuente.
Sul punto, l’art. 2 della legge n. 111/2023 pone la questione ma la risolve in modo piuttosto insoddisfacente, limitandosi a disporre che l’uso delle nuove tecnologie avvenga «nel rispetto della disciplina dell’Unione europea sulla tutela dei dati personali». Si tratta di un riferimento poco tranquillizzante, dal momento che il GDPR (Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016 prevede ampie deroghe alla tutelabilità dei dati personali nel contesto di fattispecie tributarie. Allo stesso tempo, anche l’AI Act, ovvero il Regolamento europeo sull’intelligenza artificiale n. 1689/2024 recentemente approvato dal Consiglio, oltre a rinviare al 2023 l’operatività delle tutele rispetto all’uso dell’intelligenza artificiale da parte della Pubblica Amministrazione, considera che l’impiego di sistemi automatizzati da parte dell’Amministrazione finanziaria non rientri tra quelli considerati high risk, con la conseguente possibilità da parte degli Stati membri di ridurre legittimamente le tutele per le persone ad esso sottoposte.
Il mero richiamo alla disciplina europea, quindi, rischia di garantire assai poco la posizione del contribuente. Occorrerà, dunque, che il legislatore delegato, da un lato, specifichi quali diritti spettano al contribuente nel corso di attività automatizzate svolte dall’Amministrazione finanziaria; dall’altro, che estenda tale tutela anche al di là dei limiti previsti dal GDPR. In particolare, questo ultimo obiettivo potrebbe essere realizzato valorizzando, anche in questo contesto, l’interlocuzione preventiva che, ai sensi della delega, è stata generalizzata, per quanto non in modo del tutto soddisfacente.
In sede di attuazione della delega i dubbi, già presenti nella lettura dei principi direttivi, sono sin qui stati confermati, gettando più di un’ombra sull’effettivo equilibrio tra esigenze di rafforzamento dell’efficacia dell’azione amministrativa e piena tutela dei diritti del contribuente.
Un primo profilo di perplessità riguarda la possibilità che l’esito dell’elaborazione automatizzata sia effettivamente oggetto di consapevole controllo da parte dell’operatore umano.
La giurisprudenza amministrativa da tempo ha messo in evidenza l’importanza che l’uso degli algoritmi nell’attività della Pubblica Amministrazione sia sorretta da una valutazione autonoma da parte di operatori umani. Più volte il Garante della privacy è intervenuto nei confronti dell’Agenzia delle Entrate per imporre l’adozione di idonee forme di garanzia sull’utilizzo automatizzato dei dati, invocando l’intervento di operatori umani qualificati per l’interpretazione dei risultati dell’elaborazione automatizzata a tutela del contribuente. Si veda, tra gli altri, il parere n. 58 del 14 marzo 2019, che riguardava l’elaborazione da parte dell’Agenzia delle Entrate dei dati contenuti nell’Archivio dei rapporti finanziari. In quel caso, il Garante ha espressamente prescritto la «puntuale valutazione della coerenza complessiva della posizione di ciascun contribuente selezionato da parte di operatori qualificati appartenenti alle Direzioni provinciali, appositamente istruiti dalla Direzione centrale accertamento, preliminare alla convocazione del contribuente».
La delega, al riguardo, prevede (all’art. 16, comma 1 lett. r) l’obiettivo di «rafforzare la specializzazione e la formazione professionale continua del personale dell’Amministrazione finanziaria, con particolare riferimento (…) all’utilizzo delle nuove tecnologie digitali, anche applicate alle attività economiche, all’utilizzo dei big data e al relativo trattamento, alla sicurezza informatica (…)». Si tratterà di circoscrivere e rendere più concreto questo criterio direttivo, attesa in particolare la sua delicatezza per la tutela dei diritti. Sebbene, come si è ricordato in precedenza, occorra sempre che i risultati dell’analisi automatizzata siano vagliati criticamente da un operatore umano, il rischio concreto è che quest’ultimo sia influenzato dalla forza “persuasiva” dell’algoritmo, nel senso che tali risultati sembrano dotati di un crisma della scientificità oggettiva, tale da rendere superfluo, o addirittura pericoloso per la purezza degli esiti, ogni intervento umano. Contro tale rischio, solo una adeguata preparazione tecnica del personale dell’Amministrazione finanziaria può costituire una efficace garanzia. In questo senso, peraltro, desta perplessità quanto indicato dall’art. 16, lett. r sopra ricordata, ovvero che le azioni di specializzazione e formazione dovranno essere realizzate «senza nuovi o maggiori oneri a carico della finanza pubblica». Vi è il rischio che le seppur apprezzabili indicazioni contenute nella delega non possano essere realizzate per i costi che siffatta attività di formazione e specializzazione inevitabilmente impone. Con il che, viene messa a repentaglio la piena tutela della posizione del contribuente coinvolto nel procedimento automatizzato.
Peraltro, sono ben note le critiche all’approccio fondato su una rilettura umana degli esiti dell’elaborazione automatizzata, giudicato eccessivamente ottimistico: l’elaborazione da parte dell’algoritmo, essendo circondata da un’aura di oggettività, influisce sull’atteggiamento dell’operatore umano, spingendolo a confermarne l’esito, anche per lo sforzo motivazionale che una posizione diversa inevitabilmente gli imporrebbe.53 Significativa manifestazione di un certo pessimismo al riguardo è la risoluzione del Parlamento europeo del 6 ottobre 2021 sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale (2022/C 132/02), la quale osserva che «se gli esseri umani fanno affidamento unicamente sui dati, i profili e le raccomandazioni generati dalle macchine, non saranno in grado di condurre una valutazione indipendente», evidenziando che «dovrebbe essere evitata l’eccessiva fiducia nei risultati forniti dai sistemi di IA».54
La medesima indicazione sembra emergere anche dalla regolamentazione europea sulla protezione delle persone relativamente al trattamento dei dati personali. L’art. 23, lett. e) del GDPR ammette una decisione completamente automatizzata nella materia tributaria, ma richiede, oltre ad una espressa regolamentazione di legge, anche il necessario intervento umano. In modo del tutto analogo si esprime l’art. 11 della Direttiva 680/2016 “relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali”, la quale di fatto estende le ampie deroghe previste dal GDPR per decisioni automatizzate che coinvolgono in qualche misura le sanzioni, quindi tutte quelle di natura tributaria ove, come noto, l’accertamento della maggiore imposta si accompagna solitamente con l’irrogazione delle sanzioni.
Un secondo aspetto controverso riguarda la possibilità che l’ampiezza dei diritti del contribuente sottoposto ad azione automatizzata dell’Amministrazione finanziaria sia definita da fonti sub-legislative.
In effetti, l’art. 2, comma 4, del D.Lgs. n. 13/2024 prevede che l’Agenzia delle Entrate, nello svolgimento delle attività di analisi del rischio, possa limitare i diritti dei soggetti interessati in tema di protezione dei dati personali, rinviando ad un regolamento del Ministero dell’economia e delle finanze per la relativa disciplina.
Vi è, quindi, un duplice profilo di preoccupazione: da un lato, sembra ammettersi pacificamente –peraltro, lo si è già ricordato, in linea con le emergenze dei documenti sovranazionali – che i diritti individuali nel contesto di procedure rette dall’intelligenza artificiale possano cedere al cospetto dell’interesse erariale; dall’altro, l’estensione residua di tali diritti è rimessa ad una fonte subordinata e, nella specie, allo stesso soggetto pubblico titolare sul lato attivo del rapporto tributario.
Si tratta di una problematica restrizione delle ragioni della tutela individuale, peraltro in continuità con le limitazioni già previste nel nostro ordinamento dalla legge di bilancio 2020,55 nella quale si era espressamente statuito che il riconoscimento dei diritti di cui al GDPR (in particolare quelli previsti dagli artt. 15-22) potesse essere circoscritto nel caso in cui il loro esercizio potesse comportare il rischio di un pregiudizio effettivo e concreto agli interessi perseguiti in sede tributaria, nonché allo svolgimento delle attività di prevenzione e contrasto all’evasione e all’elusione fiscale. Anche in questo caso, la concreta latitudine di tale disciplina era rimessa ad un emanando decreto del MEF.
Appare evidente come la limitazione dei diritti individuali al trattamento dei dati nel caso di elaborazione svolta per fini fiscali realizzi, in questo caso, un vulnus ben maggiore di quello già in parte presente nella disciplina europea,56 nella quale il possibile restringimento nel godimento dei diritti, oltre a dover essere tale da non vanificare del tutto la sostanza dei diritti medesimi, deve comunque essere previsto da una fonte di rango legislativo.
Per di più, l’art. 2, comma 1 lett. a), del D.Lgs. n. 13/2024 consente all’Amministrazione finanziaria di compiere le previste attività di analisi del rischio fiscale utilizzando non solo le informazioni presenti nelle banche dati afferenti all’Agenzia delle Entrate, ma anche quelle desumibili da fonti pubbliche: chiaro il riferimento alla possibilità di riferirsi a dati presenti su internet e, in particolare, sulle piattaforme social concernenti ciascun singolo contribuente. Si pone, in questo modo, un rilevante problema di attendibilità di tali informazioni, che ben potrebbero non rispecchiare l’effettiva realtà dei fatti e, quindi, condurre a ricostruzioni non coerenti con la capacità contributiva.
Siffatto rischio, peraltro, era già stato enfatizzato in una analoga iniziativa del legislatore francese, che aveva previsto la possibilità di basare accertamenti in tema di residenza fiscale sulle informazioni ricavabili per l’appunto dai profili social dei soggetti interessati: ciò, peraltro, suscitando la reazione della Cour constitutionelle, la quale – pur ammettendo la legittimità costituzionale della disciplina in questione – ha evidenziato con forza la necessità di rispettare una serie di presidi a tutela dei diritti dei contribuenti coinvolti.
Sul punto, peraltro, va registrato l’intervento del Garante della Privacy, che – con riferimento allo schema di decreto legislativo sull’accertamento ed il concordato preventivo biennale – ha per l’appunto sottolineato l’esigenza che dall’art. 2, comma 3, siano «espunte le informazioni ‘pubblicamente disponibili’ dal novero di quelle suscettibili di utilizzo (…) in quanto prive dei necessari requisiti di affidabilità e raccolte per finalità diverse da quelle sottese al trattamento considerato».57 Tale auspicio non è stato, come si è visto, raccolto dal legislatore delegato in relazione alle attività di analisi del rischio e controllo, mentre il rischio di data scraping sembra invece essere stato escluso con riferimento alla metodologia di determinazione dell’imponibile oggetto della proposta di concordato preventivo, dal momento che l’art. 9 del D.Lgs. 13/2024 fa unicamente menzione delle banche dati nella disponibilità dell’Agenzia delle Entrate.
Anche rispetto alla conoscibilità dell’algoritmo l’attuazione della delega manifesta qualche criticità.
Si è già in precedenza messa in evidenza l’opacità dell’algoritmo, vera e propria black box che –specie nella sua forma generativa e di autoapprendimento – rende del tutto improbabile la comprensione del processo realizzativo delle attività ad esso affidate.
Sotto questo profilo, occorrerebbe valorizzare la piena conoscibilità dell’algoritmo, specie se dotato di meccanismi di machine learning, per non lasciare sguarnito il contribuente (ma anche il giudice, nei casi in cui l’esito dell’attività automatizzata pervenga in qualche modo alla sua competenza) della possibilità di comprendere la logica sottesa all’azione svolta nei suoi confronti ed esercitare consapevolmente il proprio diritto di difesa.
Sul punto, ancora una volta con una fonte non normativa, l’Agenzia delle Entrate è intervenuta per descrivere i processi di analisi del rischio ed il relativo algoritmo utilizzati nello svolgimento delle attività di cui alla ricordata disciplina introdotta in sede di attuazione della delega. Il documento denominato “Informativa sulla logica sottostante i modelli di analisi del rischio basati sui dati dell’Archivio dei rapporti finanziari” del 19 maggio 2023 se, da un lato, costituisce la prima descrizione sulle modalità pratiche con le quali l’Amministrazione finanziaria intende fare uso dei sistemi automatizzati nel nuovo contesto normativo, dall’altro, persevera nel mantenere segreta «l’architettura informatica utilizzata», al fine di «salvaguardare le esigenze di riservatezza delle attività istituzionali dell’Agenzia delle entrate ed evitare l’adozione di condotte suscettibili di eludere i controlli». Si conferma qui un approccio fondato esclusivamente sulla centralità delle nuove tecnologie per l’efficientamento dell’azione pubblica, considerata prevalente rispetto al pieno dispiegarsi dei diritti del contribuente coinvolto.
Vi è, infine, il rischio di condotte discriminatorie nella determinazione dell’analisi di rischio e, quindi, nella selezione dei contribuenti da sottoporre a controllo. Appare, infatti, concreta la possibilità che coloro che già hanno subito accertamenti fiscali siano con maggiore frequenza indicati come meritevoli di ulteriore controllo.
Tale possibilità emerge già dalla lettura del decreto accertamento. L’art. 2, comma 1 lett. a), del D.Lgs. n. 13/2024 pone infatti sullo stesso piano, per quanto riguarda la selezione dei modelli e delle tecniche di analisi del rischio, quella “deterministica” e quella “probabilistica”. Entrambe, dunque, possono legittimamente essere impiegate per la selezione dei contribuenti rischiosi verso i quali indirizzare prioritariamente le attività di controllo e verifica.
Ebbene, l’analisi probabilistica ha un evidente connotato predittivo, che si fonda – come precisa la ricordata Informativa del maggio 2023 – sui «dati relativi ai contribuenti già oggetto di controllo» e può condurre ad una modellazione che ha alla sua base indici relativi, per l’appunto, alla pregressa condotta fiscale del contribuente, come «presenza di un processo verbale di constatazione, commissione di infedeltà dichiarative, coinvolgimento in schemi fraudolenti et similia».
Appare non improbabile che il funzionamento degli schemi automatizzati si indirizzi prioritariamente verso contribuenti già noti al fisco, con il duplice effetto di discriminare chi si trovi in questa condizione, a prescindere dall’esito delle pregresse contestazioni in fase amministrativa (si pensi ad una adesione) o in quella giudiziale (per esempio con l’annullamento dell’avviso di accertamento), e di preservare la posizione di coloro che risultino del tutto ignoti all’Amministrazione finanziaria.
È pur vero che la ricordata Informativa afferma che l’analisi probabilistica dovrebbe servire solo per corroborare gli esiti di quella deterministica: tuttavia, la lettera del decreto accertamento non avalla una tale interpretazione, mettendo sullo stesso piano l’una e l’altra, con la conseguenza che un documento descrittivo e privo di valenza giuridica come l’Informativa non può alterare l’assetto normativo, lasciando quindi intatti i rischi di condotte difformi da quelle ivi anticipate.
8 Algoritmo e sanzione “afflittiva”: spunti problematici dalla prassi sovranazionale e straniera
L’eventuale utilizzo dell’algoritmo da parte degli Uffici nel contesto delle attività di irrogazione delle sanzioni amministrative tributarie si colloca nell’alveo di un procedimento denso di profili valutativi e tale da coinvolgere il nucleo essenziale dei diritti individuali: due elementi che – a differenza di quanto avviene, ad esempio, con riferimento alle sanzioni per violazioni del codice della strada58 – chiamano fortemente in causa il prudente intervento umano e rendono pertanto assai delicata la tematica dell’utilizzo dell’intelligenza artificiale.
In questo contesto, la riflessione dovrebbe prendere le mosse da due esperienze, entrambe non focalizzate sulle sanzioni tributarie ma in generale su quelle penali: la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla Commissione europea per l’efficienza della giustizia (organo del Consiglio d’Europa) nel dicembre 2018; e la prassi, prevalentemente nordamericana, degli algoritmi predittivi per la determinazione della sanzione penale e la valutazione del rischio di recidiva. Pur nell’estrema diversità degli esiti, entrambe queste esperienze suggeriscono alcune riflessioni comuni ed utili per l’indagine concernente le sanzioni tributarie.
La Carta etica raccomanda particolare cautela nell’utilizzo di algoritmi laddove si faccia riferimento alla materia penale. In particolare, si legge che tale utilizzo dovrebbe essere esaminato «con le più estreme riserve» nel caso in cui si tratti di algoritmi per la profilazione delle persone in ambito penale, al fine di evitare rischi di esiti discriminatori e, quindi, la violazione delle «norme europee in materia di sanzioni penali». Qui il documento fa riferimento a situazioni tipicamente criminali, nelle quali i precedenti e la situazione personale dell’individuo potrebbero suggerire un peggiore giudizio di pericolosità che nasconde pregiudizi di natura razziale, sociale o sessuale. Peraltro, si tratta di situazioni che ben potrebbero presentarsi anche in relazione a fattispecie sanzionatorie tributarie: si pensi all’istituto della recidiva, all’adozione di misure cautelari da parte dell’Amministrazione finanziaria, fino al giudizio di pericolosità naturalmente insito nell’irrogazione di sanzioni accessorie, quali quelle previste dall’art. 21 del D.Lgs. 472/1997.
Quanto alla prassi nordamericana, il pensiero va al noto caso Loomis, che riguardava la determinazione di una pena detentiva grazie all’utilizzo dell’algoritmo denominato Compas, in base al quale può essere calcolata la probabilità di recidiva nonché il rischio sociale di un individuo facendo riferimento ad una serie di dati statistici, alcuni relativi all’imputato (ad es. i precedenti o le risposte date dal medesimo ad un apposito questionario), altri coperti da segreto industriale e quindi non noti. La vicenda, nella quale la pena inflitta all’imputato era per l’appunto stata incrementata sulla base delle valutazioni offerte da Compas,59 è alla fine approdata dinanzi alla Corte suprema del Wisconsin. Questa ha, di fatto, legittimato l’uso dell’algoritmo, da un lato riconoscendo il diritto della società proprietaria di tutelare i propri diritti di privativa, dall’altro affermando la libertà del tribunale di valutare gli esiti dell’elaborazione automatizzata.60 Il caso Loomis è peraltro solo il più noto tra i tanti esempi di impiego di algoritmi per la determinazione di sanzioni penali, tutte vicende nelle quali l’uso predittivo dell’intelligenza artificiale – addirittura in qualche caso obbligatorio per il giudice – è stato ritenuto neutrale e, quindi, perfettamente ammissibile. Ciò che induce turbamento, al cospetto di tali esperimenti, è la constatazione – confermata da numerosi studi indipendenti61 – che tale neutralità non sussiste affatto, essendo evidenti le ricadute negative dell’applicazione di siffatti algoritmi in termini di discriminazione e distorsioni del sistema.62
Come è stato osservato,63 nel nostro ordinamento siffatti strumenti, basati su valutazioni psico-criminologiche, sarebbero in contrasto con il divieto di cui all’art. 220, secondo comma, del codice di procedura penale. Tuttavia, nella materia tributaria non ne è impensabile un utilizzo, ad esempio nella valutazione della recidiva o nella determinazione delle sanzioni accessorie, casi nei quali i rischi di minorata tutela dei diritti individuali sembrano amplificati dalla circostanza che tali valutazioni si collocano al livello del procedimento amministrativo e non a quello del processo.
Dunque, se la Carta etica evidenzia i rischi discriminatori insiti in algoritmi impiegati nell’applicazione delle sanzioni penali, raccomandandone un uso limitato, mentre la prassi nordamericana appare più disinvolta nell’ammetterne l’impiego e nel sopportare il rischio di esiti distorti, entrambi gli approcci appaiono accomunati dalla consapevolezza delle peculiarità dei procedimenti di applicazione delle sanzioni penali e dai rischi che l’automazione può generare in questo contesto. Una considerazione che, evidentemente, non può che valere anche nelle riflessioni che stiamo facendo in merito alle sanzioni tributarie in qualche modo gestite attraverso gli algoritmi.
9 Intelligenza artificiale e procedimento sanzionatorio
Si tratta, ora, di calare tali riflessioni nel contesto del sistema sanzionatorio tributario italiano e chiedersi se ed in quale misura i sistemi intelligenti possano essere impiegati dall’Agenzia delle Entrate per determinare l’entità della sanzione applicabile nel singolo caso concreto e per procedere alla relativa irrogazione, cercando di comprendere se a tal fine siano sufficienti i già numerosi caveat che la dottrina e la prassi del Garante della Privacy hanno posto in relazione all’attività amministrativa automatizzata, ovvero al contrario se – come si ritiene – la funzione sanzionatoria debba essere riguardata in modo separato da quella di accertamento del tributo e se, pertanto, anche il dibattito sull’uso all’uopo di algoritmi necessiti di altri e più raffinati strumenti di riflessione.
In effetti, quello delle sanzioni tributarie amministrative sembra essere l’ambito più fecondo per l’applicazione di metodi integralmente automatizzati. La relativa funzione, è ormai sotto gli occhi di qualsiasi operatore pratico, è svolta dagli Uffici in modo pressoché automatico, quasi che si trattasse di operazione vincolata pur in assenza di qualsiasi giustificazione normativa al riguardo. Basti pensare alla prassi per la quale la sanzione irrogata è sempre pari al minimo edittale ed alla circostanza, per certi versi ancora più sconvolgente, che dolo e colpa non costituiscono oggetto di alcuna menzione negli atti con i quali l’Amministrazione finanziaria irroga le sanzioni collegate al tributo. In questo senso, è del tutto condivisibile la posizione di chi afferma che il nostro sistema tributario contempla, ormai, una presunzione di colpa,64 ragion per cui alla violazione di una norma tributaria, con il conseguente recupero di una maggiore imposta, consegue sempre l’applicazione di una sanzione, quasi accessorio indefettibile dell’accertamento del tributo la cui applicazione risulta slegata da qualunque indagine circa la sussistenza delle condizioni che il D.Lgs. 472/1997 pone per l’applicazione delle sanzioni amministrative.65 Il sistema ha in sostanza perduto, nei suoi esiti pratici, l’intero connotato personalistico della sanzione che era stato, viceversa, l’elemento caratterizzante la riforma del 1997, a favore – per l’appunto – di una applicazione meccanica della sanzione minima che solo apparentemente ridonda a vantaggio del contribuente, traducendosi al contrario in una generalizzazione della sanzione anche in casi nei quali al tributo evaso potrebbe non accompagnarsi alcuna conseguenza sanzionatoria in mancanza per l’appunto dell’elemento soggettivo.
Proprio la riflessione sugli impieghi dell’intelligenza artificiale potrebbe contribuire a porre al centro dell’attenzione l’esigenza di recuperare l’impianto originario personalistico della riforma del 1997,66 sganciando la sanzione dal collegamento indefettibile con il tributo ed individuando la sua peculiarità nel principio personalistico e nei suoi corollari applicativi. Non è affatto scontato che l’algoritmo possa svolgere un ruolo nel procedimento di irrogazione delle sanzioni tributarie: tuttavia, la riflessione attorno agli automatismi che esso inevitabilmente evoca potrebbe sollecitare una riconsiderazione dell’unicità del sistema sanzionatorio e della irriconducibilità del medesimo a mero ed inevitabile accessorio del tributo oggetto di accertamento.
Occorre, al riguardo, ricordare che le sanzioni tributarie hanno natura penale. Lo confermano sia i principi che sono stati posti alla base del D.Lgs. 472/1997, che sono quelli delle sanzioni criminali,67 sia l’ormai arcinoto indirizzo sovranazionale, che qualifica come sostanzialmente penali sanzioni amministrative connotate da un elevato grado di afflittività,68 come per l’appunto quelle tributarie la cui entità minima nel nostro ordinamento è pari – di regola – oggi al 70% dell’imposta evasa. +
Va peraltro osservato che la riconduzione delle sanzioni amministrative tributarie al novero di quelle sostanzialmente penali è stata sin qui valorizzata in relazione a profili prevalentemente procedurali, si pensi alla disciplina del ne bis in idem, ma non ha se non sporadicamente investito la sostanza della disciplina concernente la determinazione dell’entità della sanzione ed il procedimento di irrogazione. Al contrario, la natura penale delle sanzioni tributarie deve innervare l’interpretazione e l’applicazione di tutte le disposizioni del D.Lgs. 472/1997 ed influire, quindi, sul modo stesso con cui tali sanzioni sono concepite e trovano poi concreta applicazione. Tale considerazione, fondamentale come subito si dirà per il discorso sugli utilizzi dell’intelligenza artificiale in subjecta materia, porta con sé la conseguenza dell’impossibilità di ricondurre integralmente la funzione sanzionatoria all’esplicazione di una mera attività amministrativa. Vi è una ontologica diversità tra tributo e sanzione, resa palese dalla natura appunto penale di quest’ultima, che fa sì che il relativo procedimento di determinazione e irrogazione sfugga ad un’impostazione propriamente amministrativa.
Se è vero che la sanzione è applicata dall’Amministrazione finanziaria nel corso di un procedimento che è lo stesso che conduce al recupero d’imposta, lo è altrettanto che si tratta però di una attività tipicamente giudiziaria, che nel processo penale è il giudice a compiere e che per tale ragione non può appiattirsi integralmente sul primo. Tanto è vero che la stessa giurisprudenza sovranazionale cui si è poco sopra accennato distingue nettamente tra imposta e sanzione nell’individuazione delle tutele, processuali ma anche procedurali, riconoscibili al contribuente.69
Dunque, che le sanzioni tributarie siano sostanzialmente penali è constatazione che impatta sia sull’attività diretta alla loro applicazione, la quale coinvolge un evidente profilo valutativo ben diverso da quello che riguarda l’accertamento del tributo, sia sulle tutele riservate al contribuente. È qui che si inserisce la riflessione sull’utilizzo degli algoritmi.
L’impiego dell’intelligenza artificiale nel procedimento di determinazione e irrogazione delle sanzioni patisce – in qualche modo amplificandole – le medesime problematiche già da più parti enfatizzate (e sopra ampiamente ricordate) a proposito dell’automatizzazione dell’attività amministrativa provvedimentale.
La soluzione che viene spesso proposta consiste nell’aggiramento della black box attraverso la valorizzazione dell’intervento umano: questo consentirebbe, infatti, di sganciare la valutazione da un preteso meccanicismo indotto dall’algoritmo, riconducendo tutto il processo, in modo molto tranquillizzante, alla sintesi umana, sebbene aiutata dall’elaborazione digitale. Come si è visto, è proprio su questa supposta riappropriazione della funzione sanzionatoria da parte dell’essere umano che la Corte suprema del Wisconsin ha giudicato legittima l’applicazione di Compass nei confronti dell’imputato Loomis. Tuttavia, sono ben note le critiche a questo approccio, giudicato eccessivamente ottimistico: l’elaborazione da parte dell’algoritmo, essendo circondata da un’aura di oggettività, influisce sull’atteggiamento dell’operatore umano, spingendolo a confermarne l’esito, anche per lo sforzo motivazionale che una posizione diversa inevitabilmente gli imporrebbe.70
Il quadro appare fortemente problematico, tanto da indurre a ritenere che non vi sia spazio per l’impiego dell’intelligenza artificiale nel contesto del procedimento sanzionatorio, se non a rischio di quel fenomeno che è stato efficacemente definito come di “privatizzazione delle sanzioni”,71 con chiaro riferimento all’attribuzione a soggetti privati del potere di influire, di fatto senza controlli pubblici, sul processo di applicazione delle sanzioni, con tutte le ricadute in termini di opacità, discriminazione, e così via. Quanto appena detto con riferimento al fenomeno del machine learning consente di spingersi ancora oltre, nel senso della completa sottrazione della possibilità di influire sul processo di applicazione delle sanzioni con riguardo a tutti gli attori del medesimo, certamente il contribuente, ma anche l’Amministrazione finanziaria e finanche la società che ha ideato l’algoritmo. Uno scenario davvero preoccupante, per la tenuta dei diritti, che non può che impattare sul giudizio circa l’utilità dei sistemi intelligenti in materia sanzionatoria tributaria.
Esclusa una funzione sostitutiva dell’algoritmo nella determinazione ed irrogazione della sanzione – possibile, forse, solo nell’attuale scenario, che come detto deve essere fortemente criticato, di appiattimento della sanzione come mero accessorio del tributo –, anche il suo ruolo ausiliario dell’attività dell’operatore umano appare, quanto meno nel contesto attuale, difficilmente ipotizzabile. Il rischio che tale operatore si affidi al risultato dell’elaborazione digitale senza sottoporlo a vaglio critico è elevato, tanto più che la scarsa importanza che la parte sanzionatoria dell’avviso di accertamento manifesta, nei fatti, rispetto al recupero d’imposta ed alla relativa motivazione impedisce un serio vaglio critico delle risultanze di siffatta elaborazione anche nella fase giurisdizionale. Insomma, la possibilità di una violazione dei diritti individuali in relazione all’applicazione di una sanzione chiaramente afflittiva è evidente.
Come già accennato, non si devono sposare tesi eccessivamente reazionarie. Il mettere al centro la dimensione della tutela, inevitabile nel contesto sanzionatorio, non significa rigettare del tutto il contributo che le nuove tecnologie possono offrire per l’efficienza del procedimento amministrativo tributario. Si tratta di ritagliare con attenzione – e realisticamente, va aggiunto – i confini entro i quali ciò deve avvenire per non sovvertire i fondamenti di principio del sistema. Ebbene, è forse possibile trovare un accettabile compromesso facendo riferimento, come si è accennato in avvio del presente scritto, a due aspetti: quello del recupero dell’originaria dimensione personalistica della disciplina sulle sanzioni tributarie; e quello del controllo – della messa alla prova, come si direbbe in gergo penalistico – degli esiti dell’elaborazione automatizzata prima dell’irrogazione della sanzione.
Combinando questi due fattori, si potrebbe allora ipotizzare di separare una volta per tutte il recupero dell’imposta dall’irrogazione della sanzione, generalizzando il ricorso allo strumento dell’atto di contestazione di cui all’art. 16 del D.Lgs. 472/1997 e rendendo invece l’irrogazione immediata ai sensi del successivo art. 17 del tutto eccezionale, limitata a casi più semplici.
In questo modo, l’Amministrazione finanziaria ben potrebbe utilizzare sistemi basati sull’intelligenza artificiale come ausilio per lo svolgimento delle verifiche e delle valutazioni imposte dall’impronta personalistica del sistema sanzionatorio ex D.Lgs. 472/1997. Allo stesso tempo, lo sforzo motivazionale dell’atto di contestazione dovrebbe consentire all’operatore umano di riappropriarsi della piena responsabilità al riguardo, evitando quell’arrendevolezza sugli esiti della valutazione algoritmica cui si è più volte fatto riferimento, se non al prezzo di un vizio motivazionale capace di refluire negativamente sulla tenuta dell’atto medesimo.
Il passaggio attraverso la preventiva notifica dell’atto di contestazione sarebbe, poi, funzionale a realizzare un contraddittorio preventivo con il contribuente, magari prevedendo – per una esigenza di maggiore tutela – che nel caso di elaborazione automatizzata non ci si limiti al mero confronto scritto, ma si debba passare da uno o più incontri, tali da realizzare una completa disclosure da parte dell’Ufficio e una efficace interlocuzione da parte del contribuente. Una situazione di tal genere avrebbe il pregio di depotenziare fortemente i rischi evocati per la tenuta dei diritti del soggetto sottoposto a sanzione in tutto o in parte gestita attraverso un algoritmo, sia per gli oneri motivazionali che, come detto, dovrebbero caratterizzare l’atto di contestazione, sia per l’effettivo confronto tra uffici e contribuente sull’ammontare della sanzione di cui si preannuncia l’irrogazione.
Così davvero si potrebbe serenamente fare ricorso all’intelligenza artificiale fugando sin dall’inizio l’impressione di oscurità (e, conseguentemente, di insidia) che esso suscita, e valorizzando gli effetti garantistici che la motivazione ed il contraddittorio realizzano. Il tutto, giova ripeterlo, in un contesto di pieno recupero dell’impianto voluto dal legislatore della riforma verso una peculiare considerazione della sanzione tributaria e degli elementi necessari per la sua valutazione.
Infine, si realizzerebbero conseguenze favorevoli anche sul piano processuale. Il già avvenuto contraddittorio tra le parti solleverebbe le Corti di giustizia tributaria dal difficile compito di pronunciarsi sugli esiti di oscure elaborazioni algoritmiche coperte da impenetrabili privative industriali, riconducendo l’attività delle stesse ad un contesto più noto e tranquillizzante. Allo stesso tempo, però, si potrebbe finalmente concentrare il giudizio sulla valutazione della correttezza della sanzione in sé, senza i condizionamenti derivanti dal giudizio sull’imposta che sin qui hanno costantemente rubato la scena, rafforzando il già enfatizzato recupero della funzione sanzionatoria di cui al D.Lgs. 472/1997 e fugando ogni dubbio in merito alla piena operatività, nel contesto di tale giudizio, dei presidi del giusto processo di cui all’art. 6 CEDU.72 Certo, lo sdoppiamento – che qui si propone – tra giudizio sull’accertamento e quello sulla sanzione rischia di aumentare il già pesante carico delle Corti di giustizia tributaria: in questo senso, la recente riforma del processo tributario potrebbe costituire il volano, con la professionalizzazione del ceto giudiziario tributario, per una maggiore efficienza capace di assorbire, nel medio termine, questo maggiore impegno professionale.
La proposta pare, dunque, praticabile sul piano normativo ed accettabile per quanto riguarda il grado di tutela del contribuente a fronte di un impiego di algoritmi per l’esercizio della funzione sanzionatoria.73 Certo, viene imposto uno sforzo organizzativo all’Amministrazione finanziaria, chiamata a profondere attività sin qui sostanzialmente neglette, ma del resto non si può pensare di avallare una prassi svalutativa dell’impianto normativo solo per asserite difficoltà organizzative degli uffici. Tale proposta ha il pregio di mettere doverosamente alla ribalta il tema dei diritti, che nel contesto delle sanzioni appare ancora più urgente che in quello del tributo in sé, e su tale base costruire un procedimento che non innova il sistema ed allo stesso tempo dà ingresso anche in questo ambito ai vantaggi promessi dalle nuove tecnologie.
Sul piano teorico, essa risulta poi coerente con gli indirizzi che, non da oggi peraltro, ricostruiscono il paradigma del rapporto di imposta non più in termini meramente autoritativi, a favore di forme di collaborazione – e pertanto consensualistiche – di interazione tra i vari attori del rapporto impositivo.74 La soluzione proposta da una parte conserva comunque un ruolo ai sistemi intelligenti per guidare le valutazioni dell’Amministrazione finanziaria con riguardo alle sanzioni; dall’altra, risulta credibile nella parte in cui si inserisce profondamente in un processo che ormai da qualche anno caratterizza il diritto tributario, sia a livello internazionale che interno, e che enfatizza le forme di interlocuzione preventiva tra Amministrazione finanziaria e contribuente.
Una delle prime ricerche che ha utilizzato il termine “rivoluzione” riferendosi all’economia digitale è stata quella di D. TAPSCOTT, Blueprint to the digital economy: creating wealth in the era of e-business, New York, 1998.↩︎
Si veda, per una visione critica, il lavoro di C. O’NEIL, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, Penguin, UK, 2017. Il profondo impatto dell’uso dei dati nelle economie contemporanee è stato evidenziato da V. MAYER-SCHÖNBERGER – T. RANGE, Reinventing Capitalism in the Age of Big Data, Hachette, 2018. Si può rinviare anche a V. MAYER-SCHÖNBERGER – K. CUKIER, Big Data. A Revolution That Will Transform How We Live, Work and Think, London, 2013.↩︎
Alcuni Autori preferiscono il termine “rivoluzione cibernetica”, facendo riferimento alla possibilità di controllo (sia degli umani che delle macchine) che il nuovo paradigma è in grado di realizzare (si veda ad esempio A. SIMONCINI, Diritto costituzionale e decisioni algoritmiche, in Il ragionamento giuridico nell’era dell’intelligenza artificiale (a cura di S. DORIGO), Pisa, 2020, p. 37 ss.).↩︎
L’algoritmo è stato definito come una “scatola nera” (black box) proprio per la sua sostanziale opacità (F. PASQUALE, The black box society: The secret algorithms that control money and information, Harvard, 2015).↩︎
Provvedimento n. 112 del 30 marzo 2023, reperibile in internet all’indirizzo https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832.↩︎
Elon Musk e altri 1.000 leader della Silicon Valley: «Sospendere lo sviluppo dell’intelligenza artificiale», in Il Sole 24 ore, 29 marzo 2023, reperibile in internet all’indirizzo https://www.ilsole24ore.com/art/elon-musk-e-altri-1000-leader-silicon-valley-sospendere-sviluppo-dell-intelligenza-artificiale-AEjaGLBD.↩︎
Un autore sostiene, al riguardo, che «tax law, being highly complex and technical in structure and content, may be one of the best candidates to be addressed by AI» (B. KUZNIACKI, The Artificial Intelligence Tax Treaty Assistant: Decoding the Principal Purpose Test, in Bullettin for International Taxation, 2018).↩︎
Così si esprime, peraltro in termini critici, E.L. RISSLAND, Artificial Intelligence and Legal Reasoning, in AI Magazine, 1988, p. 45 ss..↩︎
La vastità degli ambiti del procedimento tributario nei quali potrebbe rilevare il ricorso a strumenti basati sull’intelligenza artificiale è ben esplorata da C. FRANCIOSO, Intelligenza artificiale nell’istruttoria tributaria e nuove esigenze di tutela, in Rass. Trib., 2023, p. 47 ss.↩︎
Si veda, ad esempio, l’ampia disamina di F. PAPARELLA, L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi, in Riv. Dir. trib., 2022, p. 617 ss. Peraltro, sulle implicazioni dell’utilizzo dell’intelligenza artificiale nel contesto dell’attività amministrativa (non in ambito fiscale) si può rinviare a D.U. GALETTA – J.G. CORVALAN, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, 6 febbraio 2019, in federalismi.it.↩︎
In termini generali, cfr. M. LUCIANI, La decisione giudiziaria robotica, in Decisione robotica (a cura di Carleo), Bologna, 2019, p. 63 ss..↩︎
Si tratta di aziende sanitarie locali, aziende ospedaliere, istituti di ricovero e cura a carattere scientifico, policlinici universitari, farmacie (pubbliche e private), presidi di specialistica ambulatoriale, strutture per l’erogazione delle prestazioni di assistenza protesica e di assistenza integrativa, altri presidi e strutture accreditati per l’erogazione dei servizi sanitari e gli iscritti all’Albo dei medici chirurghi e degli odontoiatri (art. 3, co. 3 del d.lgs. n. 175/2014).↩︎
Si veda il D.M. 1° febbraio 2024 avente ad oggetto “Modalità di utilizzo dei dati fiscali delle fatture trasmessi al Sistema tessera sanitaria”.↩︎
Si rinvia all’art. 4 del d.lgs. n. 127/2015.↩︎
Questo processo di semplificazione è stato attivato con l’art. 15 del d.lgs. 08/01/2024, n. 1, là dove si rinvia ad appositi provvedimenti del Direttore dell’Agenzia delle Entrate per l’attuazione della norma. Per un commento alle novità della riforma sul tema si veda A. PIZZABIOCCA LANZI, Gli adempimenti fra semplificazione e razionalizzazione, in A. GIOVANNINI (a cura di), La riforma fiscale – i diritti e i procedimenti – Vol. II – I diritti del contribuente, gli adempimenti e la tutela giurisdizionale, Pisa, 2024, pp. 187-212.↩︎
Sull’ampio tema dell’accertamento anche con riferimento ai controlli automatizzati, si veda F. PAPARELLA – P.L. CARDELLA – F. FARRI, I controlli e la fase di accertamento, in L. DEL FEDERICO – F. PAPARELLA, Diritto Tributario Digitale, Pisa, 2022, pp. 231-252.↩︎
Così l’art. 9-ter dello Statuto del contribuente inserito dall’art. 1 del d.lgs. 30/12/2023, n. 219. Si veda anche l’art. 2, co. 3 del d.lgs. 12/02/2024, n. 13, a mente del quale le informazioni presenti in tutte le basi dati di cui l’Agenzia entrate dispone (ivi comprese quelle presenti nell’apposita sezione dell’Anagrafe tributaria e quelle relative ai file delle fatture elettroniche memorizzate) sono utilizzate dall’Agenzia, anche tramite interconnessione tra loro e con quelle di archivi e registri pubblici per le attività di analisi del rischio fiscale, per le attività di controllo, per le attività di stimolo dell’adempimento spontaneo e per quelle di erogazione di servizi ai contribuenti.↩︎
Al riguardo si veda R. CORDEIRO GUERRA, L’intelligenza artificiale nel prisma del diritto tributario, in Dir. prat. trib., 2020, 3, p. 933, secondo cui l’enumerazione casistica – connotante il diritto tributario – si presterebbe ad una applicazione meccanicistica secondo tecniche di intelligenza artificiale.↩︎
In tal senso si veda A.d.E., Informativa sulla logica sottostante i modelli di analisi del rischio basati sui dati dell’archivio dei rapporti finanziari, reperibile su https://www.agenziaentrate.gov.it.↩︎
Sull’impatto relativo ai controlli automatizzati si veda A. QUATTROCCHI, Le potenzialità applicative della ‘blockchain’ e dei database condivisi nell’attuazione della norma tributaria, in Riv. tel. dir. trib., 2022, 2, pp. 623-631.↩︎
Al riguardo, A. CONTRINO, Digitalizzazione dell’amministrazione finanziaria e attuazione del rapporto tributario: questioni aperte e ipotesi di lavoro nella prospettiva dei principi generali, in Riv. dir. trib., 2023, 2, pp. 109-110, il quale condivisibilmente rimarca che in ogni caso la digitalizzazione dovrebbe escludere rigidità, ammettendo la possibilità di correzione o modifica del risultato. ↩︎
Cfr. C. FRANCIOSO, Intelligenza artificiale nell’istruttoria tributaria e nuove esigenze di tutela, in Rass. Trib., 2023, 1, pp. 68-70, nonché A. ZUCCARELLO, Algoritmi e automatismi nei controlli della dichiarazione: profili problematici, in Riv. tel. dir. trib., 2022, 1, pp. 118 – 124.↩︎
Sul tema Cass., SS.UU., sent. 8 settembre 2016, n. 17758.↩︎
Cfr. Cass., sent. 16 febbraio 2022, n. 5016.↩︎
Cfr. art. 6, co. 5 del d.lgs. 18/12/1997 n. 472 e art. 10, co 3 della l. 27/07/2000 n. 212.↩︎
Questi due aspetti fondamentali (motivazione e contraddittorio) e correlati al tema della non esclusività della decisione algoritmica sono stati ampiamente valorizzati in dottrina. V. S. DORIGO, Opportunità e limiti nell’impiego dell’intelligenza artificiale da parte del Fisco, in Corr. trib., 2022, 11, pp. 971-972; IDEM, L’intelligenza artificiale e i suoi usi pratici nel diritto tributario: Amministrazione finanziaria e giudici, in R. CORDEIRO GUERRA – S. DORIGO (a cura di), Fiscalità dell’economia digitale, Pacini, 2022, p. 205; A. GUIDARA, Accertamenti dei tributi e intelligenza artificiale: prime riflessioni per una visione di sistema, in Dir. e prat. trib., 2023, 2, p. 409; F. PAPARELLA, L’ausilio delle tecnologie digitali nella fase di attuazione del tributo, in Riv. dir. trib., 2022, 6, p. 650; C. FRANCIOSO, ult. op cit., pp. 69-70; IDEM, Automated decision making by tax authorities and the protection of taxpayers’ rights in a comparative perspective, in Riv. trim. dir. trib., 2023, 3, p. 554-555; A. BORGHETTI, L’Intelligenza artificiale nei controlli tributari. Lotta all’evasione fiscale, in Sinappsi, 2023, XIII, 3, p. 106; M. CEDRO – F.A. CIMINO, Intelligenza artificiale ed accertamento tributario: opportunità e rischi di una rivoluzione in atto, in Dir. e prat. trib. int., 2024, 1, pp. 68-69.↩︎
V. art. 10-quater, co 1, lett. d della l. 27/07/2000 n. 212.↩︎
Cfr. D.M. 24 aprile 2024 ed articolo 6-bis della l. 27/07/2000 n. 212. Sui problemi derivanti da tale scelta legislativa, si veda M. PIERRO, Il dovere di informazione dell’Amministrazione, in A. GIOVANNINI (a cura di), La riforma fiscale – i diritti e i procedimenti – Vol. II – I diritti del contribuente, gli adempimenti e la tutela giurisdizionale, Pisa, 2024, pp. 116-117. Sul tema del contraddittorio nella riforma, si vedano anche L. CARPENTIERI, Il contraddittorio obbligatorio, in ult. op. cit., pp. 27-41; L. SALVINI, Il contraddittorio procedimentale, in ult. op. cit., pp. 15-25.↩︎
In tal senso, si veda Cass. civ., Sez. V, ord. 27/10/2023, n. 29852, con nota di R. MICELI, L’invito a fornire informazioni ex art. 36-ter del D.P.R. n. 600/1973 non è adempimento necessario, in GT – Riv. Giur. Trib., 2024, 4, 322. Per l’interpretazione della portata dell’art. 6, co. 5 si rinvia per ragioni di sintesi al contributo M. D’ALONZO, La “conclusione del controllo” fiscale come “accertamento”: dell’adempimento e dell’inadempimento dell’obbligo tributario, in Dir. e prat. trib., 2023, 94, 6, pp. 2120-2263, nonché ai numerosi riferimenti bibliografici ivi recati sul punto.↩︎
La modifica è stata introdotta ad opera dell’art. 3, comma 7, del d.lgs. 05/08/2024, n. 108 applicabile alle comunicazioni elaborate a decorrere dal 1° gennaio 2025.↩︎
Sulla disciplina del concordato preventivo biennale si vedano il d.lgs. 12 febbraio 2024, n. 13 e il d.lgs. 5 agosto 2024, n. 108. Per gli studi sulla nuova normativa si rinvia a F. PAPARELLA, Il concordato preventivo e la deroga al reddito effettivo, in E. DELLA VALLE – F. PAPARELLA (a cura di), I controlli del Fisco. La riforma tributaria fra accertamento e Statuto del contribuente, in I libri del Sole 24 Ore Settimanale, 2024, 11, pp. 40 ss.; A. GIOVANNINI, Contraddittorio assente e soglia di scostamento da ritoccare, in ult. op. cit., pp. 44 ss.; Idem, Concordato preventivo e progettazione giuridica del reddito, in Rass. Trib., 2024, 3, pp. 510-534; M. VERSIGLIONI, Valido soltanto il concordato con verità, vero, in ult. op. cit., pp. 46 ss.; D. CANÉ, Il doppio volto del concordato preventivo nella riforma tributaria, tra imposizione e collaborazione, in Riv. trim. dir. trib., 1, 2024, pp. 107 ss.. Per le analisi riferite alla proposta riversata nella legge delega, vedansi A. GIOVANNINI, L’onere impositivo “à la carte” e il concordato biennale, in Riv. tel. dir. trib., 2023, 2, 4, pp. 602 ss.; V. MASTROIACOVO, Procedimenti accertativi e nuovo rapporto tra fisco e contribuente nella legge delega di riforma tributaria, in Rass. trib., 2023, 3, pp. 479 ss.; L. NICOTINA, L’enigma del concordato preventivo biennale: un istituto che rischia di risolversi, nuovamente, in un fallimento, n. 1/2024 (pubblicato online il 9 gennaio 2024, www.rivistadirittotributario.it).↩︎
In tal senso, v. P.L. CARDELLA, Il concordato preventivo biennale: l’elaborazione della proposta, la sua accettazione ed il marginale impiego delle “nuove tecnologie”, n. 2/2024 (pubblicato online il 30 luglio 2024, www.rivistadirittotributario.it).↩︎
Cfr. A.d.E., Informativa sulla logica sottostante i modelli di analisi del rischio basati sui dati dell’archivio dei rapporti finanziari, reperibile su www.agenziaentrate.gov.it, p. 10, là dove si rassicura che l’analisi probabilistica serve solo a corroborare gli esiti delle analisi deterministiche, con la conseguenza che «nessun contribuente potrà essere individuato come fiscalmente rischioso esclusivamente in base alle risultanze di un modello predittivo».↩︎
In questo senso sulla descrizione della tecnica di analisi in A.d.E., Informativa sulla logica, ult. op. cit., ancorché sia riferibile al modello di analisi del rischio fiscale.↩︎
Cfr. D.M. 14 giugno 2024 sull’approvazione della metodologia relativa al concordato preventivo biennale e D.M. 15 luglio 2024 su quella destinata ai contribuenti che aderiscono al regime forfettario.↩︎
Per una critica circa la rappresentatività degli ISA, si veda D. CANÉ, ult. op. cit., pp. 141-145.↩︎
Cfr. Piano dell’Agenzia delle Entrate sub Allegato 2 alla Convenzione triennale per gli esercizi 2024-2026 fra Ministero dell’Economia e delle Finanze, Agenzia delle Entrate e Agenzia delle Entrate-Riscossione.↩︎
Si veda l’art. 5 della Convenzione triennale per gli esercizi 2024-2026 sopra citata.↩︎
V. p. 54 del Piano dell’Agenzia delle Entrate sopra citata.↩︎
Così l’art. 10-nonies della l. 27/07/2000, n. 212 inserito dall’art. 1, co. 1, lett. m), d.lgs. 30 dicembre 2023, n. 219 in attuazione dell’art. 4, co. 1, lett. c), n. 3 della legge n. 111/2023 in tema di “delega al Governo per la riforma fiscale”.↩︎
Cfr. p. 28 del Piano dell’Agenzia delle Entrate-Riscossione sub Allegato 4 alla succitata Convenzione triennale per gli esercizi 2024-2026.↩︎
Così si apprende da fonti di stampa, Liti fiscali, è online la prima banca dati del merito. Lussana (Cpgt): «Auspichiamo più condivisione dal Mef», in Il Sole 24 ore del 27 giugno 2024.↩︎
Si tratta dei documenti previsti dal precedente art. 10-sexies, ovvero circolari, risposte a istanze di consulenza giuridica e interpello, risoluzioni e ogni altro atto interpretativo.↩︎
Si veda il comma 2 della disposizione in commento.↩︎
All’art. 2, comma 1 lett. b1), della legge n. 111/2024 si legge che l’obiettivo di «prevenire, contrastare e ridurre l’evasione e l’elusione fiscale» può essere realizzato anche attraverso «il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale». Si tratta di una formula ampia e indeterminata, che non può ridursi alla mera analisi del rischio (contemplata separatamente dalla medesima disposizione), e che quindi ben potrebbe, in astratto, comprendere anche attività ausiliarie dell’accertamento.↩︎
In nota all’art. 4 della citata Carta etica, il quale afferma il principio di trasparenza, imparzialità e correttezza, si osserva che «The provision of entire algorithms or the underlying software code to the public is an unlikely solution in this context, as private companies regard their algorithm as key proprietary software that is protected». Sul punto, nella dottrina amministrativistica si sostiene l’esigenza che sia introdotto un “principio di accesso algoritmico massimo” (D.U. GALETTA, op. cit., p. 21). Secondo un autore, la filosofia che sottende alla carta si può così sintetizzare. “non dobbiamo aver paura di accompagnare l’evoluzione tecnologica, a condizione che non si affievolisca la funzione giudiziaria di tutela dei diritti” (R. BICHI, Intelligenza artificiale tra ’calcolabilità del diritto e tutela dei diritti, in Giur. it,, 2019, p. 1772 ss.)↩︎
Come ricorda la Commissione europea per l’effettività della giustizia, «the neutrality of algorithms is a myth, as their creators consciously or unintentionally transfer their own value systems into them» (Carta etica, p. 46).↩︎
Il tema della contrapposizione tra potere della Pubblica Amministrazione e tutela dell’amministrato nell’epoca dei “big data” è acutamente messo in evidenza nelle sue molteplici criticità da D.U. GALETTA, Public Administration in the Era of Database and Information Exchange Networks: Empowering Administrative Power or Just Better Serving the Citizens?, in European Public Law, 2019, p. 171 ss.↩︎
Si tratta della nota questione della black box, sulla quale recentemente si è espresso in senso fortemente critico il gruppo di alto livello sull’intelligenza artificiale, istituito dalla Commissione europea, nel proprio documento “Ethics Guidelines for Trustworthy AI” dell’8 aprile 2019. Qui, in particolare, si legge quanto segue: «Explicability is crucial for building and maintaining users’ trust in AI systems. This means that processes need to be transparent, the capabilities and purpose of AI systems openly communicated, and decisions – to the extent possible – explainable to those directly and indirectly affected. Without such information, a decision cannot be duly contested. An explanation as to why a model has generated a particular output or decision (and what combination of input factors contributed to that) is not always possible» (p. 13).↩︎
Un caso potrebbe forse essere quello degli accertamenti fondati su strumenti statistici, come ad esempio il redditometro.↩︎
La tesi è sostenuta da D.U. GALETTA, op. cit., p. 14. Del resto, anche l’Amministrazione finanziaria riconosce tale esigenza minima di tutela: nel già ricordato comunicato stampa del 4 marzo 2021, si indica esplicitamente che le attività svolte con l’ausilio di macchine intelligenti «non vengono tradotte automaticamente nell’emanazione di atti impositivi, ma devono essere inserite in un processo più ampio che deve fondarsi nel rispetto del principio del contraddittorio e della collaborazione e buona fede tra amministrazione fiscale e contribuente, come fissati nello Statuto dei diritti del contribuente».↩︎
Su questo delicato profilo, si veda l’approfondita riflessione di F. PATRONI GRIFFI, La decisione robotica e il giudice amministrativo, 2018, reperibile in https://www.giustizia-amministrativa.it/documents/20142/147941/Patroni+Griffi+-+La+decisione+robotica+e+il+giudice+amministrativo+-+28+agosto+2018.pdf/24218a2e-47b7-1c0a-b2ee-c1b670347f95.↩︎
Secondo A. SIMONCINI, op. cit., p. 56, esiste una «evidente forza ‘pratica’ di qualsiasi automatismo valutativo che, da un lato, solleva il decisore dal burden of motivation, dal peso dell’esame e della motivazione; dall’altro, gli consente di qualificare la propria decisione con un crisma di ‘scientificità’ ovvero ‘neutralità’ che oggi circonda la valutazione algoritmica e le conferisce una peculiare, quanto infondata, ‘autorità’”. Nello stesso senso Marello, op. cit., chiarisce che “ogni strumento tecnologico ha, per il profano, l’aura dell’oggettività e della necessarietà”, aggiungendo peraltro che “non appena si acquisisce qualche consapevolezza dello strumento, si comprende, al contrario, la sua parzialità e la sua dipendenza da un progetto e da ipotesi teoriche (e realizzazioni pratiche) fortemente soggettive».↩︎
Si tratta del Considerando 15.↩︎
Cfr. art. 1, comma 681, della legge n. 160/2019, con il quale è stato modificato l’art. 2-sexies del D.Lgs. n. 196/2023.↩︎
Si veda, in particolare, l’art. 23.↩︎
Parere del Garante su uno schema di decreto legislativo recante disposizioni in materia di accertamento tributario e di concordato preventivo biennale, n. 3 dell’11 gennaio 2024.↩︎
Cfr. ancora A. MARCHESELLI, op. cit., il quale nota che «i precetti del codice della strada (non si passa con il rosso, non si possono superare i 50km/h) riguardano oggetti semplici e sono formulati in modo chiaro. I precetti tributari sono oggetti complessi, disciplinati con una tecnica normativa deficitaria».↩︎
Nella sentenza emessa dal giudice della Contea di La Crosse si affermava che, mediante l’utilizzo dell’algoritmo, l’imputato «è stato ritenuto un individuo ad alto rischio per la comunità (…) la sua storia personale e gli strumenti di valutazione del rischio suggeriscono un’alta probabilità di recidiva».↩︎
Secondo la Corte Suprema del Wisconsin, «se usato correttamente, il software COMPAS non viola il diritto del convenuto al giusto processo: questo poiché la Corte della contea ha chiarito che la sua considerazione dei punteggi di rischio COMPAS è stata supportata anche da altri fattori indipendenti (…). Il suo uso, dunque, non è stato determinante nel decidere (…). COMPAS è solo uno strumento disponibile per un tribunale che rimane libero di basarsi solo su parti di esso e rifiutare altre parti».↩︎
Se ne può trovare una efficace sintesi in Regulating Artificial Intelligence for Use in Criminal Justice Systems in the EU. Policy Paper, edito dall’organizzazione privata Fair Trials (https://www.fairtrials.org/app/uploads/2022/01/Regulating-Artificial-Intelligence-for-Use-in-Criminal-Justice-Systems-Fair-Trials.pdf).↩︎
Registra che “prototipi di ‘giustizia predittiva’ sono stati realizzati in questi anni, ma hanno dato esiti sostanzialmente negativi” Farri, “La giustizia predittiva in materia tributaria”, in Rivista telematica di diritto tributario, 12 ottobre 2022, www. rivistadirittotributario.it.↩︎
S. QUATTROCOLO, Equo processo penale e sfide della società algoritimica, in Intelligenza artificiale e diritto. Come regolare un mondo nuovo (a cura di D’ALOIA), Milano, 2020, p. 267 ss., p. 278.↩︎
Lo nota A. MARCHESELLI, Considerazioni eterodosse sull’elemento soggettivo delle sanzioni tributarie. Responsabilità oggettiva, gestione del rischio, intelligenza artificiale, deontologia professionale ed etica del profitto, in Riv. tel. dir. trib., 12 aprile 2021, www.rivistadirittotributario.it, secondo il quale tale presunzione «confligge in maniera frontale con il principio, proprio del diritto punitivo, per cui sussiste la presunzione opposta, quella di non colpevolezza».↩︎
È stato osservato, al riguardo, che «all’Amministrazione finanziaria sono state attribuite funzioni di giustizia che di regola dovrebbero essere esercitate da un soggetto terzo -in sede penale, il giudice- rispetto alle parti della relazione sanzionatoria» (M. PIERRO, Il responsabile per la sanzione amministrativa tributaria: art. 11 d.lg. n. 472 del 1997, in Riv. dir. fin. e sc. fin., 1999, p. 248).↩︎
Sui caratteri della riforma del sistema sanzionatorio, si vedano, tra gli altri, R. CORDEIRO GUERRA, Sanzioni amministrative tributarie, in Digesto delle discipline privatistiche. Sezione commerciale, Agg., Torino, 2017, p. 456 ss.; L. DEL FEDERICO, Introduzione alla riforma delle sanzioni amministrative tributarie: i principi sostanziali del d.lgs. n. 472/1997, in Riv. Dir. trib., 1999, p. 1041 ss.; R. LUPI, Prime osservazioni sul nuovo sistema delle sanzioni amministrative tributarie, in Rass. Trib., 1998, I, p. 327 ss.↩︎
Osserva un Autore che «quella compiuta dalla legge delega (…) è una scelta chiara a favore di un regime di marca sostanzialmente penalistica» (R. CORDEIRO GUERRA, op. cit., p. 459).↩︎
Indirizzo che si è sviluppato nella giurisprudenza della Corte EDU già a partire dal 1976, con la nota sentenza Engel (Corte EDU, 8 giugno 1976, Engel c. Paesi Bassi).↩︎
Sul punto, si veda la sentenza Jussila (Corte EDU, 23 novembre 2006, Jussila c. Finlandia).↩︎
Secondo A. SIMONCINI, op. cit., p. 56, esiste una «evidente forza ‘pratica’ di qualsiasi automatismo valutativo che, da un lato, solleva il decisore dal burden of motivation, dal peso dell’esame e della motivazione; dall’altro, gli consente di qualificare la propria decisione con un crisma di ‘scientificità’ ovvero ‘neutralità’ che oggi circonda la valutazione algoritmica e le conferisce una peculiare, quanto infondata, ‘autorità’». Nello stesso senso E. MARELLO, op. cit., chiarisce che «ogni strumento tecnologico ha, per il profano, l’aura dell’oggettività e della necessarietà», aggiungendo peraltro che «non appena si acquisisce qualche consapevolezza dello strumento, si comprende, al contrario, la sua parzialità e la sua dipendenza da un progetto e da ipotesi teoriche (e realizzazioni pratiche) fortemente soggettive».↩︎
Così A. MARCHESELLI, Considerazioni eterodosse sull’elemento soggettivo delle sanzioni tributarie…, cit..↩︎
Si ricorderà che, sin dalla sentenza Ferrazzini, la Corte EDU aveva negato che il giudizio tributario, attenendo alla manifestazione della sovranità statale, implicasse la parità delle parti e, quindi, l’applicazione dei presidi processuali in tema di giusto processo. Tuttavia, l’esigenza di mantenere una tutela piena nel contesto dei giudizi sanzionatori ha presto condotto la Corte ad auspicare che, nell’ambito dei giudizi aventi ad oggetto il rapporto tributario, i diritti di cui all’art. 6 fossero rispettati con riguardo per l’appunto ai profili sanzionatori.↩︎
Sull’esigenza di un approccio ai temi della digitalizzazione che metta al centro i diritti, si vedano A. CONTRINO – S.M. RONCO, Prime riflessioni e spunti in tema di protezione dei dati personali in materia tributaria, alla luce della giurisprudenza della Corte di Giustizia e della Corte EDU, in Dir. Prat. Trib. Int., 2019, p. 599 ss.↩︎
Tra i tanti contributi realizzati sul punto negli anni, si ricorda in questa sede quello di L. DEL FEDERICO, I tributi paracommutativi e la teoria di Antonio Berliri della tassa come onere nell’attuale dibattito tra autorità e consenso, in Riv. dir. fin. e sc. Fin., 2009, p. 69 ss.↩︎