1 Introducción: inteligencia artificial y administración financiera en el sistema tributario italiano
La inteligencia artificial y sus usos se sitúan en el contexto más general de lo que, comúnmente, se llama la revolución digital, un tema que hoy está de actualidad y se debate no sólo en el ámbito jurídico.1 Ciertamente, la digitalización impregna todos los aspectos de la vida individual y colectiva y está cambiando no sólo la esfera económica, sino también la esfera política y social con una rapidez e incisividad inesperadas. En definitiva, de un fenómeno exclusivamente económico, se ha convertido en el nuevo paradigma de toda la vida social, modificando comportamientos, dirigiendo elecciones, incluso influyendo en la forma de ser de los lugares tradicionales de socialidad (pensemos en el fenómeno de la economía colaborativa en las ciudades de arte).2
Probablemente sería más correcto hablar a este respecto de una “revolución algorítmica”.3 De hecho, el algoritmo es lo que distingue la nueva economía desmaterializada (la basada en el big data, su recopilación y su explotación), pero también la robotización de los procesos de producción tanto de bienes como de servicios. Es el algoritmo que da vida a la inteligencia artificial, determina su comportamiento inicial y permite, cuando es posible, su evolución siguiendo el aprendizaje autónomo. No sorprende, por tanto, que sea en torno a él que se esté desarrollando un cambio impetuoso en el comportamiento individual y social (de la interconexión constante a la virtualidad creciente de las relaciones), en la economía (en torno a las plataformas digitales y a los procesos proautomatizados, que conducen a para superar la centralidad de los bienes/servicios tradicionales como herramientas de creación de valor) y, en consecuencia, de la manera de concebir y garantizar el bienestar (pensemos en la expulsión del trabajo de trabajadores dotados de habilidades básicas, pero al mismo tiempo a la aparición de nuevas figuras profesionales sin una regulación adecuada). Todo ello, además, en un contexto de absoluta incertidumbre, ya que el algoritmo es en sí mismo incognoscible, creado por técnicos con las habilidades más esotéricas y amparado por rigurosas leyes privadas.4
Estamos, en definitiva, en el centro de un movimiento que afecta a toda la civilización contemporánea, en todos sus perfiles fundamentales, y que escapa sin embargo a las clasificaciones tradicionales y como tal está destinado a imponerse a las instituciones y a sus asociados sin que tenga la capacidad de controlarlas plenamente. se entiende su potencial y, sobre todo, se reconocen sus resultados. La era de la inteligencia artificial puede ser, por tanto, una edad de oro, como muchos afirman rotundamente, pero también corre el riesgo de transformarse, como sostienen los más pesimistas, en una época en la que pocas oligarquías tecnocráticas son capaces de dirigir las elecciones y la conducta de los Gobiernos y de los individuos. sin posibilidad alguna de control democrático. La reciente polémica en torno a la aplicación Chat GPT, con la suspensión de la intervención del Garante de Privacidad italiano,5 y el llamamiento lanzado por decenas de académicos y científicos para frenar la evolución de la robotización capaz, es la preocupación de cuestionar incluso algunos de los fundamentos. de nuestras sociedades6 atestigua dudas crecientes, incluso por parte de quienes inicialmente fueron sus promotores, hacia un progreso percibido como en gran medida liberalizado.
No es seguro que la evaluación de esta estructura, ahora inevitable, deba ser tan drástica. Parece posible que la evolución del fenómeno se oriente ahora hacia formas de desarrollo positivo, ahora hacia situaciones de compresión de derechos individuales y colectivos en función de las herramientas que se elijan para (intentar) gobernarlo. En este sentido, el derecho es el instrumento al que acudir para alcanzar este último objetivo. Sin embargo, a primera vista hay que reconocer que el saldo, hasta la fecha, es indudable que está perdido. Esto significa que, frente al rápido y generalizado progreso tecnológico, el derecho se ha quedado muy rezagado. O, mejor dicho, se ha quedado atrás la reflexión jurídica sobre él, sobre sus orígenes y sobre sus implicaciones, no sólo económicas sino también sociales. Un retraso que, aunque generalizado, se manifiesta especialmente claramente en Europa e Italia, mientras que en Estados Unidos una élite de juristas hace tiempo que empezó a abordar seriamente el problema.
Se tiene la impresión de que el mundo del Derecho -el legislador, pero también la categoría de los juristas- se ha visto conmocionado por la aparición de nuevos fenómenos que exigen una revisión -y no una mera actualización- de instituciones y enfoques interpretativos hoy consolidados y considerado patrimonio inmutable. Por lo tanto, para evitar que el nuevo mundo algorítmico imponga nuevas reglas, basadas en la práctica e influenciadas por intereses que no coinciden con el bienestar de toda la comunidad, es necesario que los juristas salgan de su zona de confort y se planteen seriamente la cuestión. de cómo devolver firmemente al marco legal fenómenos que hoy parecen tan extendidos como ingobernables.
Esta exigencia surge también, y no podría ser de otra manera, para el derecho tributario. Por un lado, la inteligencia artificial es una herramienta capaz de orientar tanto las elecciones del contribuyente como las estrategias de control de la Administración financiera, gracias al análisis muy rápido de una cantidad considerable de datos y precedentes, que no pueden ser igualmente llevado a cabo con medios exclusivamente humanos. Por otra parte, el alto tecnicismo de las normas tributarias, especialmente las relativas a los rendimientos empresariales,7 y su redacción en términos extremadamente analíticos, de modo que su aplicación sea casi automática,8 parecen permitir una aplicación más mecánica, capaz de llevarse a cabo mediante sistemas capaces de almacenar, cribar, cruzar y procesar datos en cantidades y con velocidades que superan cualquier capacidad humana.
Pensando en el caso italiano, hay muchas disposiciones fiscales que, implicando el análisis de un cierto número de elementos fácticos, bien podrían prestarse a una aplicación más eficiente recurriendo a sistemas inteligentes. Entre los casos en los que esto podría ocurrir con mayor frecuencia podemos mencionar el medidor de ingresos, los estudios sectoriales -luego reemplazados por los índices sintéticos de confiabilidad- y el análisis de comparabilidad dentro de la disciplina de precios de transferencia. Se trata, precisamente, de acontecimientos en los que juega un papel central la capacidad del operador para conectar y comparar situaciones y datos aparentemente autónomos, respecto de los cuales el algoritmo permitiría un aumento desorbitado tanto del número de elementos sujetos a análisis, como de la velocidad de tratamiento.9
El tema que ha recibido más atención hasta ahora por parte de la doctrina ha sido el de los métodos y límites dentro de los cuales los sistemas inteligentes pueden apoyar -o incluso reemplazar aunque sea sólo parcialmente- la actividad de la Administración financiera en el desempeño de sus actividades de control y consecuentes evaluación.10 En definitiva, nos preguntamos más sobre las posibilidades que ofrece la inteligencia artificial para combatir la evasión y la elusión fiscal y, por tanto, sobre los posibles perfiles de fricción entre los principios que guían la actividad de control y evaluación por parte de la Administración Financiera y la automaticidad que la rige. Sistemas tecnológicamente avanzados pueden garantizar con exclusión de cualquier intervención humana. Al mismo tiempo, el debate es especialmente vivo en lo que respecta a las consecuencias procesales del uso de la inteligencia artificial, tanto por la mayor necesidad de protección de los contribuyentes frente a las liquidaciones automatizadas, como incluso por la robotización, total o parcial. de la actividad de juzgar.11
El objetivo de este análisis es esbozar el estado del arte de la disciplina prevista en el ordenamiento jurídico italiano en lo que respecta al uso de sistemas inteligentes por parte de la Administración financiera. Un tema ciertamente actual, teniendo en cuenta también las considerables inversiones en curso para mejorar la eficacia del control y la interceptación de las infracciones fiscales por parte de la Agencia Tributaria, y que, sin embargo, plantea numerosos interrogantes sobre la estabilidad del sistema desde el punto de vista de los derechos de los contribuyentes.
2 Uso de algoritmos en la fase de implementación de la relación
Como se verá ampliamente a continuación, el análisis del riesgo fiscal está en el centro de la evolución de técnicas basadas en el aprendizaje automático con el fin de canalizar la actividad administrativa hacia vías más eficientes y efectivas en la lucha contra el fenómeno de la evasión fiscal.
Pero antes de examinar este tema, no se puede dejar de señalar cómo el enorme caudal de información de que dispone la Administración financiera italiana se presta a ser explotado en la actividad preventiva de simplificación de las obligaciones de los contribuyentes, así como en la posterior basada en la llamado controles automatizados.
2.1 Los datos adquiridos y puestos a disposición para simplificar las obligaciones: declaraciones preelaboradas y facturación electrónica
En cuanto al primer perfil, desde el Decreto Legislativo núm. 175/2014, la Agencia Tributaria utiliza la información disponible en el Registro Tributario, los datos transmitidos por terceros y los datos contenidos en las certificaciones únicas para poner a disposición electrónicamente la declaración precompilada relativa a los ingresos producidos en el año anterior. El contribuyente puede aceptar o modificar esos datos.
Los flujos de información útiles para la preparación de la declaración precompilada se reciben y gestionan a través de una unidad de seguimiento específica de la Agencia Tributaria, verificando la integridad, calidad y puntualidad de la transmisión (art. 1, co. 2 del Decreto Legislativo. n. 175/2014).
Más en detalle, a través del servicio específico en línea, el contribuyente dispone de toda la información recopilada por la Agencia Tributaria, como las Certificaciones Únicas de todos los pagadores, familiares dependientes y códigos tributarios respectivos, datos sobre terrenos y/o edificios e información relacionada. fuentes, ingresos recibidos, cargos y gastos, anticipos, retenciones, excedentes, créditos fiscales, inversiones y activos en el exterior. Los datos sobre franquicias y gastos deducibles y los relativos a reembolsos de gastos (como intereses a pagar, cotizaciones a la seguridad social y asistencia social, gastos sanitarios, etc.) 12 son transmitidos por terceros. En este sentido, la Administración Financiera también tiene acceso a los datos transmitidos al sistema de la tarjeta sanitaria por determinadas entidades que desarrollan actividades médicas o farmacéuticas, adquiriendo la información contenida en las facturas individuales de los servicios sanitarios.
La Agencia Tributaria – como responsable del tratamiento – almacena dichos datos para la realización de actividades de asistencia al contribuyente, para el control destinado al desembolso de las devoluciones de impuestos, para el procesamiento de datos, para actividades de análisis tributario de riesgo, para el control automatizado y oportuno, que también puede realizarse a través de la análisis de los datos fiscales presentes en las facturas, junto con los extraídos de las bases de datos. Estos resultados también podrán ser puestos a disposición por la Agencia Tributaria, de la Policía Financiera y de la Agencia de Aduanas y Monopolios para sus fines institucionales.13
En materia de IVA, la introducción de la facturación electrónica para ser transmitida al sistema cambiario ha favorecido la posibilidad de almacenar información que puede ser utilizada por la Agencia Tributaria y la Policía Financiera para actividades de análisis de riesgos y control con fines tributarios. A partir de los datos adquiridos a partir de múltiples elementos cognitivos (como facturas electrónicas, comunicaciones sobre operaciones transfronterizas, tasas adquiridas electrónicamente, así como datos tributarios adicionales presentes en el sistema de Registro Tributario), la Agencia Tributaria procesa y pone a disposición de todos los contribuyentes del IVA, los sujetos pasivos residentes y establecidos en Italia (en un área reservada específica de su sitio web) los borradores de los registros exigidos por la legislación del IVA (artículos 23 y 25 de Decreto Presidencial nº 633/1972), del pago periódico del IVA, así como de la declaración anual del IVA.14
Por último, los avances tecnológicos en la adquisición de datos también han marcado el anacronismo de la solicitud de múltiples informaciones ya conocidas por la Administración financiera. Por este motivo y con el fin de simplificar las obligaciones que soportan los contribuyentes, de los modelos utilizados para las declaraciones (IRPEF, IRAP e IVA) se podrá extraer aquella información que no sea relevante a efectos de la liquidación del impuesto o la que la Agencia Tributaria pueda adquirir de forma independiente a través de sistemas de interoperabilidad con bases de datos propias y de otras Administraciones 15
2.2 Controles automatizados
Si el formulario precompilado se refiere a una actividad “upstream” de recopilación y gestión de datos para simplificar las obligaciones de los contribuyentes, “downstream” los controles pueden partir de numerosas fuentes de información para detectar posibles inconsistencias entre lo declarado por el contribuyente y lo que aparece ” en otro lugar” sobre la base de los datos en posesión de la Administración.16
En este sentido, podemos mencionar las liquidaciones basadas en declaraciones (art. 36-bis del Decreto Presidencial n. 600/1973) y el control formal de las declaraciones (art. 36-ter del Decreto Presidencial n. 600/1973).
El primero consiste en un procedimiento automatizado que, desde 1979, implica actividades (i) de corrección de errores materiales y de cálculo relativos a determinados elementos de la declaración (bases imponibles, impuestos, contribuciones y primas o excedentes fiscales, así como contribuciones y primas resultantes de las declaraciones anteriores), (ii) reducción de las deducciones, deducciones o créditos fiscales que se muestren en exceso de lo previsto por la ley o de las deducciones o créditos fiscales no debidos en función de los datos resultantes de la declaraciones, así como (iii) verificar el cumplimiento de la declaración y la puntualidad de los pagos adeudados en concepto de anticipo y saldo y de las retenciones practicadas en concepto de retención en origen (art. 36-bis del Decreto Presidencial n. 600/1973). La actividad administrativa en cuestión se basa en datos y elementos “directamente inferibles de las declaraciones presentadas y de las que obran en poder del registro tributario”. Las correcciones o reducciones que se realicen a los datos contables resultantes de la liquidación equivalen -a todos los efectos- a si fueran declaradas por el contribuyente y el agente de retención.
El control formal de las declaraciones, sin embargo, se basa en un perímetro informativo y documental más amplio, extendiéndose también a las declaraciones de los agentes retenedores, a las certificaciones de retenciones, a las comunicaciones a las que están obligadas determinadas categorías de “pagadores cualificados”. anualmente (seguros, instituciones de seguridad social, entidades que otorgan hipotecas, etc.). En base a este conjunto de documentos, la Administración puede intervenir para denegar el derecho a deducciones o deducciones o a la deducción de retenciones, cuando lo expresado en la declaración no se ajuste a lo que se desprende de las declaraciones o comunicaciones presentadas por otros en relación con la misma relación. En particular, las Oficinas pueden liquidar el impuesto sobre la renta de las personas físicas más elevado y las contribuciones más elevadas adeudadas teniendo en cuenta el importe global de los ingresos resultantes de múltiples declaraciones o certificados presentados durante el mismo año por un mismo contribuyente. Finalmente, se permite corregir las declaraciones de los agentes de retención de impuestos, cuando éstas se encuentren afectadas por errores materiales y de cálculo. Todas las hipótesis del art. 36-ter del Decreto Presidencial num. 600/1973 se desencadenan por un “análisis del riesgo de evasión fiscal” específico, mejor definido por el art. 2 del Decreto Legislativo núm. 13/2024 (para este concepto, consulte lo que se dirá más adelante).
A efectos del IVA, los datos y elementos directamente inferibles de las declaraciones presentadas y los adquiridos del Registro Tributario se utilizan como parte de procedimientos automatizados para la corrección de lo declarado erróneamente en la declaración (impuesto, cifra de negocios o excedentes) o para comprobaciones sobre el cumplimiento de la declaración y puntualidad de los pagos del impuesto resultante de la declaración anual como anticipo y ajuste, así como de los pagos periódicos (art. 54-bis del Decreto Presidencial núm. 633/1972).
2.3 Recopilación y procesamiento de datos: enfoque determinista y posibles casos problemáticos
Esta revisión sobre los métodos de uso de los datos adquiridos (a pesar de ser parcial por razones de síntesis) nos permite enmarcar un primer plano en el que se sitúa el tema del aprendizaje automático en la implementación de la relación tributaria.
Este ámbito parece ser el campo de elección para un enfoque determinista, destinado a seleccionar la enorme cantidad de datos, para su recogida y para su tratamiento, tanto en la fase preventiva de simplificación de las obligaciones (especialmente a efectos de las declaraciones precompiladas), y en la fase posterior de control automatizado (en particular, para cotejos con los resultados de los datos proporcionados por sustitutos o facturas electrónicas).
Y de hecho, para estos fines, los modelos y técnicas de análisis se basan en la comparación y el procesamiento de datos referentes a uno (por ejemplo, facturación electrónica o compras de servicios de salud) o más contribuyentes (pensemos en la relación sustituto/sustituito, es decir, pagador/ destinatario) o a uno o más períodos impositivos (por ejemplo, para el arrastre de excedentes fiscales), destinados a verificar, mediante criterios selectivos basados en relaciones no probabilísticas, la ocurrencia de un riesgo fiscal, que puede definirse total o parcialmente antes de iniciar el análisis (análisis determinista).
En este sentido y con carácter general, se reconoce a la Administración Financiera la facultad de adquirir, también mediante interoperabilidad o interconexión, datos e informaciones relativas a los contribuyentes,17 contenidos en sus propias bases de datos o en las de otras entidades públicas, con el fin de lograr la correcta implementación de la recaudación impositiva.
En este nivel, se trata de relaciones no probabilísticas, dado que los datos comparados se sitúan en una relación caracterizada por la certeza.18 Esta categoría de casos incluye la relación existente entre los montos indicados en las certificaciones emitidas por los agentes de retención y el monto de la renta imponible declarada por el receptor: si la inconsistencia numérica es defectuosa respecto de lo declarado por el pagador, entonces se deduce inferior a la declarada en la declaración del contribuyente. Otro ejemplo citado por la Agencia Tributaria se refiere al modelo basado en la comparación de las operaciones imponibles resultantes de las facturas electrónicas adquiridas y los ingresos y/o facturación reflejados en la declaración para el mismo período impositivo. En la lógica de los algoritmos utilizados por la Administración Financiera, el criterio determinista selecciona a los contribuyentes sobre la base de “inconsistencias numéricas sintomáticas” de un incumplimiento de las obligaciones tributarias ante una desviación entre cantidades (fiscales, económicas y financieras) que no son justificable sobre la base de otros elementos y circunstancias.19
En otras palabras, los algoritmos deterministas se basan en un conjunto de información predeterminado durante la fase de diseño y regulado por el parámetro lógico “si…, entonces…”, extrayendo conclusiones inferencialmente de la inconsistencia. En este sentido, desempeñan un papel importante en el procesamiento de formularios precompilados, pero también en el contexto de controles automatizados, basándose en información que se compara en función de determinadas relaciones.20
En cuanto a las declaraciones preelaboradas, la intervención humana siempre está garantizada por la posibilidad de aceptar, modificar o integrar el contenido del modelo preelaborado, solucionando así los posibles desajustes provocados por la introducción incorrecta de los datos que han sido procesados por el sistema.21
En el caso de los controles automatizados, la cuestión es más delicada, ya que es necesario distinguir los casos en los que los errores se refieren a discrepancias relativas a cantidades fácilmente verificables de otras hipótesis más delicadas. En la doctrina, se ha puesto énfasis en los riesgos de una ampliación del alcance de las liquidaciones automatizadas (artículos 36-bis y 54-bis citados) también a perfiles que no se limiten a captar meras inconsistencias resultantes de errores materiales o de cálculo, exigiendo disposiciones legales. valoraciones o mayores esfuerzos interpretativos.22 Este grupo de casos podría definirse como vicios aparentemente formales, ya que la liquidación se desencadena por la omisión de un informe o de un elemento declarativo (por ejemplo, por falta de una “bandera”), pero implica la inexistencia de hechos relevantes para los propósitos del caso de impuestos sustanciales y a veces se caracterizan por una peculiar complejidad de apreciación. Se pone el ejemplo de la deducción del IVA detectada como incorrecta y, por tanto, no considerada en el procedimiento automatizado por no presentar la declaración en el periodo anterior.23 Otro caso se refiere a la inscripción en el registro de los impuestos superiores derivados de la regulación de sociedades pantalla, donde el contribuyente no ha verificado el elemento relativo a las razones objetivas idóneas para justificar la no aplicación del régimen presuntivo en la declaración.24 Se trata de dos casos emblemáticos en los que, ante un perfil formal relativo a una inconsistencia en el contenido de la declaración, el procedimiento automatizado capta la discrepancia formal, pero el objeto de valoración atañe a una dimensión sustancial. De hecho, la deducción del IVA también es válida en caso de falta de declaración cuando existen las condiciones para la efectividad del coste y la relevancia de la compra. El régimen de las sociedades fantasma se aplica únicamente cuando no se acredita en vía administrativa (mediante sentencia) o judicial (ante la impugnación del título tributario) el funcionamiento concreto de la sociedad o la existencia de motivos objetivos que lo impiden, consecución de los ingresos mínimos exigidos por la ley. En otras palabras, las cuestiones que plantea la detección de una inconsistencia por incumplimiento de una obligación de contenido formal en la declaración son dos: la primera se refiere a la relevancia de la omisión formal a los efectos de la legitimidad de la impugnación sustancial respecto de la denegación de una situación de ventaja para el contribuyente o a los efectos de la aplicación del tratamiento fiscal in peius; el segundo es el de la prueba de la efectividad de la situación fáctica que justifica esa denegación o ese régimen fiscal desfavorable. Estos dos aspectos deberían verse debilitados en sus riesgos cuando se aplica un enfoque sustantivista basado en la evidencia y el establecimiento del hecho en vía administrativa o contenciosa. Por lo tanto, la comparación con las circunstancias concretas y las condiciones que requiere el caso abstracto debe resolver la cuestión desde un punto de vista sustancial, es decir, verificando si se aplica o no esa situación activa (deducción, deducción, crédito, superávit) o si el contribuyente no ha demostrado que los hechos impidan un “empeoramiento” de la situación fiscal (por ejemplo, la operación real o las razones objetivas mencionadas anteriormente). En este caso, la violación de la obligación formal debe tener consecuencias sólo si ha causado un daño concreto al ejercicio de las acciones de control, dado que una vez comprobadas las condiciones de la situación jurídica favorables al contribuyente, no hay afectación a la determinación de la base imponible, del impuesto o sobre el pago del impuesto.25
Sin perjuicio de estas conclusiones, que restan importancia a las preocupaciones planteadas por los estudiosos, no se puede pasar por alto que el tema se desplaza hacia los problemas relacionados con la motivación de actos tributarios de este tipo y con el contrainterrogatorio (como se verá detalladamente más adelante). Vale decir que incluso para estos actos, la centralidad de la intervención humana, según la razonabilidad, debe permanecer firme.26
Se podría plantear la hipótesis de un error al completar la declaración para la sustitución del código tributario del hijo “dependiente” por el de otro hijo por el cual el contribuyente ya no tiene derecho a la deducción correspondiente. En este caso, el algoritmo -basado en determinadas relaciones- detectaría fácilmente la inconsistencia a partir de la intersección entre la certificación de los ingresos percibidos por el hijo por encima del umbral establecido para la deducción (4.000 euros) y el código fiscal, como se muestra en la declaración del padre. Sin embargo, en tal caso, el acto tributario debe ser anulado, si se tiene en cuenta que no existe un perjuicio concreto a los efectos de los pagos porque el resultado no cambiaría por el derecho a la misma deducción para el realmente dependiente. Tampoco deberían imponerse sanciones porque la sustitución del código tributario podría detectarse mediante la interoperabilidad con otros datos (por ejemplo, datos ISEE) y, por tanto, no perjudicaría la acción de control. Este caso constituiría incluso una hipótesis de cancelación en legítima defensa obligatoria por un error material del contribuyente, fácilmente reconocible por la Administración financiera.27
Las hipótesis antes mencionadas resaltan cómo la intervención humana podría evitar la activación de la protección ex post (legítima defensa o litigio). Sin embargo, la obligación de contrainterrogatorio preventivo, a que se refiere el nuevo art. 6-bis del Estatuto del contribuyente, se excluyen los controles automatizados o sustancialmente de este tipo (es decir, los basados en el cruce de datos en poder de la propia Administración), los actos de liquidación inmediata (basados en los datos de la misma declaración o en información de la misma Administración), así como así como para controles de declaraciones formales (es decir, aquellas relativas a una verificación formal de los datos contenidos en las declaraciones presentadas por los contribuyentes o agentes de retención de impuestos con los documentos que acrediten la veracidad de los datos declarados.28
Sin embargo, queda otro tipo de contrainterrogatorio, el regulado por el art. 6, co. 5 Estatuto del contribuyente, según el cual antes de proceder a las inscripciones resultantes del pago de impuestos resultantes de las declaraciones, la Administración Financiera deberá (bajo pena de nulidad) invitar al contribuyente a proporcionar las aclaraciones necesarias y realizar la producción documental correspondiente en un plazo no menor a treinta días. Sin embargo, se requiere que exista incertidumbre sobre aspectos relevantes de la declaración. Esta condición extremadamente vaga ha sido presagio de dudas con soluciones jurisprudenciales vagas: en algunas ocasiones la obligación de realizar únicamente el control formal conforme al art. 36-ter y no con referencia a la liquidación prevista en el art. art. 36-bis; en otras sentencias se ha hablado de una mera facultad de invitación a aportar aclaraciones y no de una obligación también en referencia al art. 36 ter.29
Además, con la reciente reforma se produce un desfase entre los términos del art. 6, co. 5 Estatuto del contibuyente y los previstos por los artículos. 36-bis, 36-ter y 54-bis, tras la ampliación del plazo de treinta a sesenta días para permitir al contribuyente aportar aclaraciones.30 Por tanto, a partir de una lectura encaminada a resolver la antinomia según el principio lex specialis posterior derogat priori generali, el plazo que debe asignar la Administración no puede ser inferior a sesenta días, precisamente para permitir al contribuyente aportar aclaraciones conforme a los nuevos plazos previstos. por las normas especiales sobre procedimientos automatizados.
3 Algoritmos con función predictiva: el acuerdo preventivo
Hasta ahora hemos tenido la oportunidad de abordar el uso de algoritmos según un enfoque determinista. La aplicación de un análisis probabilístico se adapta perfectamente a la disciplina del convenio bienal con acreedores.31
Se trata de una forma consensuada para la definición anticipada de las rentas producidas en el ejercicio de la actividad empresarial y en el ejercicio de las artes y profesiones para efectos del Impuesto sobre la Renta, así como del valor de la producción neta para efectos del IRAP en relación con dos períodos de vigencia actual y el siguiente. Es consensual precisamente porque el quantum deber está determinado por la intersección entre la propuesta de la Administración Financiera y la aceptación del contribuyente.
Lo que aquí es de mayor interés es que el uso de algoritmos es fundamental para la recopilación de datos y su procesamiento con miras a identificar la propuesta que se presentará al contribuyente. En este contexto, se trata de un uso con función predictiva, ya que el software debería ser adecuado para predecir cuál será el importe de los ingresos de un determinado contribuyente durante un período de dos años. Además de las dudas sobre la legitimidad constitucional, los académicos han mostrado preocupaciones sobre las nebulosidades que rodean los datos a procesar y los métodos técnicos de los algoritmos destinados a formular la propuesta.32
Como se ha mencionado, el enfoque debe basarse en un análisis probabilístico según modelos y técnicas de análisis que, aprovechando el aprendizaje automático o soluciones estadísticas inferenciales, permitan representar información, incluso si no se conoce a priori, que, una vez obtenida, puede utilizarse para el elaboración de resultados autónomos (monto del impuesto adeudado en un año determinado) y/o permitir la atribución de una cierta probabilidad de ese evento determinado (es decir, la ocurrencia del requisito tributario). Si este método está excluido del Administracion financiera para la previsibilidad del contribuyente potencialmente riesgoso, sin embargo, la necesidad de formular una propuesta más cercana a datos futuros y reales impone este tipo de análisis probabilístico.33
Por lo tanto, deberíamos hablar de un análisis supervisado, refiriéndose a muestras de contribuyentes por sector (conjunto de formación), de una variable “respuesta” (producción) que representa la cantidad (renta/valor neto de producción) que se debe predecir en relación con el contribuyente individual, pertenecientes a esa categoría económica determinada. Dentro del conjunto de capacitación, hay una fase de capacitación del modelo durante la cual se analizan las relaciones entre variables fiscales, financieras, de equidad y declarativas específicas (variables de entrada), disponibles en todo el sector económico, y la variable de respuesta. Luego sigue la fase predictiva en la que se atribuye al sujeto individual una predicción del valor de la variable de respuesta sobre la base de las relaciones estimadas.34
En las notas metodológicas para la preparación de la propuesta de composición,35 el análisis predictivo se basa en datos macroeconómicos, como las tendencias del mercado y las proyecciones macroeconómicas de crecimiento del PIB desarrolladas por el Banco de Italia. A ello se suman también los datos relativos a la rentabilidad individual y sectorial que se pueden deducir de los ISA (índices sintéticos de fiabilidad) y los resultados de su aplicación, así como otra información en poder de la Administración financiera.36
En particular, se parte de una medición de los indicadores elementales individuales de confiabilidad y anomalía según una evaluación dentro de la ISA específica a la luz de los datos declarados por el contribuyente en los últimos ocho años disponibles. Con respecto a algunas partidas relacionadas con estos indicadores, el valor de los ingresos/compensaciones se asumió en la cantidad requerida para la máxima confiabilidad fiscal (como en relación con la partida “ingresos por empleado”). Alternativamente, se han desarrollado algoritmos de evaluación indirecta específicos. En la nota se hace referencia al índice de “duración y liquidación de existencias” que se valora pasando del valor de referencia de las existencias finales (como incremento del coste de los bienes vendidos y de la producción de servicios) y que se parte del mayor valor añadido por empleado. Para los contribuyentes que no tienen un nivel máximo de fiabilidad, se prevé la revalorización de los indicadores elementales no plenamente satisfechos según coeficientes de referencia (bbench) determinados sobre la base de la relación entre el valor añadido declarado y el estimado por contribuyentes plenamente fiables en el sector económico.
Para la propuesta de composición se hace referencia a los datos históricos de rentabilidad del contribuyente en los períodos anteriores y en el período de aplicación. Para ello se hace referencia a la evolución de los resultados de explotación, como la alcanzada dentro de la dirección central en los últimos tres ejercicios. Los ingresos de los últimos tres años están sujetos a un promedio ponderado con diferentes pesos dependiendo de los puntajes de confiabilidad por año. La relación entre el resultado de explotación y el resultado medio permite identificar el coeficiente de revalorización de la base de composición.
El cálculo también identifica un nivel mínimo de rentabilidad del sector (limiteinf) tomado de los gastos de trabajo de los empleados (es decir, los sujetos sobre los que no recae el llamado riesgo empresarial). Si la cuantificación de ingresos determinada en los pasos metodológicos anteriores es inferior al nivel sectorial de gastos por empleo, se asume este valor mínimo como dato de ingresos. Este paso metodológico parte de las cotizaciones de Vejez, Sobrevivencia y Invalidez, donde se establece un nivel salarial mínimo para el pago de las cotizaciones a la seguridad social sobre la base de un salario mínimo diario utilizado para el cálculo de las cotizaciones relativas a los trabajadores de los sectores de artesanía y comercio. .
Por último, la revalorización con proyecciones macroeconómicas está marcada por la fiabilidad de la fuente de estos datos, es decir, el Banco de Italia. Los riesgos derivados de la inestabilidad geopolítica se tienen en cuenta para determinar los aumentos de los precios de las materias primas o la disminución de la confianza de los operadores económicos o los efectos sobre la crisis crediticia de las empresas y familias (debido al aumento de los tipos de interés). No se puede dejar de observar, sin embargo, que estos datos dan lugar a “estimaciones”, siendo susceptibles de revisiones durante el año debido a acontecimientos imprevistos o impredecibles (como una emergencia sanitaria, un ataque terrorista o una guerra).
4 Las utilidades en la actividad organizativa de la Administración financiera y en el proceso tributario
El ámbito más apreciable en términos de eficacia y eficiencia parece ser el de las funciones auxiliares e instrumentales que las técnicas de inteligencia artificial pueden asumir dentro de la organización.
Desde este punto de vista, son bienvenidas las iniciativas encaminadas a mejorar la digitalización de la acción administrativa en lo que respecta a la simplificación de las relaciones con los contribuyentes y la prestación de servicios. A este respecto, las orientaciones de la Administración Financiera apuntan – en particular y entre otras cosas – a la gestión remota de todas las fases de la discusión. En este sentido, la Agencia promueve la realización de contrainterrogatorios incluso a distancia mediante la mejora de los servicios de entrega de documentos o de reserva de citas web, así como a través de nuevas herramientas destinadas a la gestión de solicitudes de aclaraciones y certificaciones en línea.37
En este sentido, el desarrollo de mayores servicios en línea puede resultar útil para reducir el aporte de recursos en el contexto de actividades rutinarias o de bajo impacto en la eficiencia y eficacia administrativa en las tareas fundamentales asignadas a la Administración Financiera. Esto debería aplicarse a la emisión de certificaciones o la asignación de códigos tributarios, pero también al fortalecimiento del Sistema de Intercambio (SDI), ampliando la posibilidad de acceso también a intermediarios y proveedores acreditados – en particular y entre otras cosas – para la gestión integrada. de la declaración y los registros del IVA precompilados.
De esta forma, queremos fomentar la interacción con los usuarios a través de un escritorio digital, orientado a la realización de servicios gestionados de forma totalmente remota a través de funciones integradas de intercambio de documentos, chat, suscripción digital y cualquier documentación útil para el cierre de la actividad de averiguación previa relacionada con su actividad.
De manera más general, el desarrollo infraestructural de plataformas relativas a técnicas de inteligencia artificial (como aprendizaje automático, minería de textos, análisis de redes, etc.) permitirá, desde un punto de vista organizativo, implementar acciones específicas y, por tanto, con mayor eficiencia y menor impacto para ciudadanos y empresas en términos de cargas administrativas.38
Se trata de un proceso de digitalización integral de algunos procesos administrativos. La experiencia práctica ha demostrado cómo las herramientas tecnológicas de comunicación/colaboración resultan de fundamental importancia para la reingeniería de los procesos de la Administración (en términos de digitalización de los flujos documentales, automatización y simplificación de las interacciones entre el personal). Esto dio lugar a importantes ahorros de recursos, lo que permitió a los empleados trabajar de forma remota de forma eficaz. De cara al futuro, el aumento de la digitalización se ve en referencia a las posibilidades que ofrecen los nuevos modelos de inteligencia artificial generativa y conversacional.39
También en este contexto se encuentra la perspectiva de introducir servicios de comunicación rápida para personas físicas y pequeños contribuyentes con el fin de obtener respuestas escritas mediante el uso de tecnologías digitales e inteligencia artificial en lugar de la activación directa del procedimiento de consulta.40 En particular, estos contribuyentes podrán acceder gratuitamente -previa solicitud relativa a “casos concretos”- a una base de datos que contiene documentos tipo, respuestas a solicitudes de asesoramiento jurídico y sentencias, resoluciones y cualquier otro acto interpretativo, con el fin de obtener una solución a una cuestión interpretativa o aplicativa. Cuando la respuesta no esté identificada “únicamente”, la base de datos informa al contribuyente sobre la posibilidad de proponer una solicitud de resolución. La utilización de este servicio resulta perjudicial a los efectos del procedimiento de resolución, calificándose expresamente como “condición de admisibilidad” de la correspondiente solicitud. Se trata de una iniciativa destinada a la simplificación en favor de los pequeños contribuyentes, pero también supone una opción directa para reducir la carga de trabajo de las Oficinas, que sólo pueden consultarse mediante solicitud cuando no es posible obtener una respuesta automatizada sobre la base de documentos de práctica ya emitidos. La conformidad de la conducta del contribuyente con lo indicado por el servicio de interlocución rápida tiene por efecto excluir la aplicación de sanciones e intereses moratorios (art. 10, co. 2 Stat. contr.) y no la anulación de cualquier acto tributario contrario a la solución propuesta por la base de datos es similar al carácter vinculante de la respuesta a la solicitud de resolución formulada por la Oficina (art. 11, co. 5 Stat. contr.). Esto parece ser una deminutio en términos de protección del contribuyente. Al mismo tiempo, expresa la desconfianza del propio legislador respecto de la plena fiabilidad y confiabilidad de sus propios medios automatizados de interlocución. De lo contrario, no tendría sentido reconocer una relevancia jurídica diferente entre la respuesta de la Oficina y la de la base de datos.
También en el ámbito de la fase ejecutiva de la obligación tributaria, el plan de iniciativas para el trienio 2024-2026 de la Agencia de Recaudación de Ingresos tiene – entre sus principales lineamientos – la revisión de las arquitecturas de aplicación y de infraestructura con vistas a (i) digitalización (tanto en lo que respecta a los servicios al contribuyente como a los procesos administrativos), (ii) extensión de las soluciones de inteligencia artificial, (iii) evolución de los procesos para apoyar la gestión nacional cobranza, (iv) servicios digitales para (e interoperabilidad con) instituciones acreedoras, (v) ciberseguridad. Todo esto para lograr los objetivos de mejorar la eficiencia de costos y desempeño, mejorar la mantenibilidad y fortalecer la seguridad de TI. En particular, en lo que respecta a la implementación de técnicas de inteligencia artificial, se recuerda que ya en 202141 se consolidó un sistema de protocolo con una solución de aprendizaje inteligente que en octubre de 2019 se había aplicado al protocolo de los documentos en papel que ingresaban a la sede única de la dirección Central en Roma sobre los documentos introductorios del litigio y las entregas de papel procedentes de los órganos acreedores. Durante esta experimentación, las técnicas de aprendizaje automático mostraron su aptitud auxiliar e instrumental, ya que dieron lugar a una actividad de interpretación de documentos y extrapolación de información orientada a la clasificación, asignación y registro en relación con las clases documentales para las que se desarrolló la actividad formativa. En una fase posterior, el funcionamiento de estas tecnologías se extendió también a las actividades procesales de la Administración Financiera, como las relativas al repertorio de los escritos iniciales (recursos de apelación) y posteriores (sentencias) del litigio. El objetivo era también automatizar el seguimiento de la información de archivo dentro del llamado Agenda Jurídica que hasta entonces era realizada manualmente por los funcionarios. Se espera una mejora de estas herramientas en el trienio 2024-2026 mediante la ampliación de las clases de documentos relacionados con el proceso tributario, así como mediante la extensión de soluciones de inteligencia artificial para el registro automático de PEC relacionados con el protocolo institucional. En esta perspectiva, se hace referencia al servicio de Conocimiento y Monitoreo SLA a aplicar al protocolo entrante, con el fin de mejorar los niveles de servicio y lograr la máxima estandarización del tratamiento entre los puntos del protocolo.
Además de estos aspectos puramente organizativos, no puede olvidarse el proyecto Prodigit, como plan de inversiones dentro del P.N.R.R. en actividades encaminadas a la innovación tecnológica de la justicia fiscal también a través de técnicas de inteligencia artificial, como – en particular y entre otras cosas – la experimentación de un modelo de previsibilidad de decisiones y la creación de una base de datos nacional de jurisprudencia fiscal (que contiene las sentencias de mérito completas oscurecido). A partir del 27 de junio de 2024, la base de datos se puso a disposición de los usuarios de forma pública, gratuita y de libre acceso. En cuanto a las funciones predictivas, el proyecto está paralizado debido a problemas técnicos relacionados con la formulación del algoritmo.42
5 La ley habilitante n. 111/2023
Un impulso notable hacia la regulación del fenómeno aquí examinado proviene de la reciente ley habilitante para la reforma del sistema tributario, aprobada con la ley núm. 111/2023.
Toda la estructura de la ley habilitante está salpicada de referencias a la digitalización de la actividad de la administración financiera. Además, no podría haber sido de otra manera, considerando la rápida difusión de herramientas tecnológicas al servicio de la gestión de la relación fiscal, como también lo demuestran una serie de proyectos piloto implementados en los últimos años por la Agencia Tributaria también con la contribución de la Unión Europea. Esto parece esencial para permitir a este último tratar eficazmente el inmenso número de datos que se almacenan cada año en las bases de datos de las que dispone.
El legislador delegado ha optado por no dedicar una disposición específica a este tema, sino hacer referencias dispersas al mismo en el contexto de diversas disposiciones. Las referencias más relevantes se encuentran en el art. 2 que establece los principios generales que inspirarán, a nivel interno, la nueva estructura del sistema tributario derivada de la reforma. En la letra b, puntos 1) y 2) del primer párrafo, recordando precisamente la necesidad de una correcta gestión de los datos recabados tanto a través del registro tributario como de la facturación electrónica, y con el objetivo de «prevenir, combatir y reducir la evasión fiscal». y la elusión fiscal”, se refiere al “uso de tecnologías digitales y soluciones de inteligencia artificial”, en particular para “fortalecer el análisis de riesgos”. El objetivo de la plena utilización de las innovaciones tecnológicas en una función endoprocesal es, por tanto, claro, especialmente en lo que respecta a la selección de los sujetos que serán sometidos al control fiscal. Existe, por tanto, conciencia de los menores costes y mayor eficiencia que puede permitir el uso de la inteligencia artificial en este ámbito.
Los principios contenidos, a este respecto, en el art. 2 se concretan parcialmente en el siguiente art. 17, dedicado al procedimiento de evaluación. La letra f del primer párrafo proclama el objetivo de «mejorar el uso de las tecnologías digitales», también a través de la completa interoperabilidad de las numerosas bases de datos de que dispone la Administración Financiera, en tres líneas:
la función preventiva (“realización de intervenciones encaminadas a prevenir los errores del contribuyente y las consiguientes investigaciones”);
la función de seleccionar a los contribuyentes que serán sometidos a control («realizar acciones específicas, adecuadas para limitar la actividad de control hacia sujetos de mayor riesgo fiscal»);
la función predictiva, a efectos del cumplimiento espontáneo (“perseguir la reducción de los fenómenos de evasión y elusión tributaria, maximizando los niveles de cumplimiento espontáneo de los contribuyentes”).
Por tanto, estas normas desarrollan las indicaciones que ya se pueden obtener del art. 2 mencionado anteriormente, confirmando cómo la acción de las herramientas de inteligencia artificial deberá moverse en el ámbito del procedimiento de investigación previa, sin poder desbordarse a la fase de preparación de la comunicación de evaluación. La delegación, sin embargo, no lo hace explícito, manteniendo un cierto grado de ambigüedad al respecto, como se desprende en particular de la lectura del art. 2, párrafo 1 letra. b.1, donde «el uso de tecnologías digitales y soluciones de inteligencia artificial» parece concebirse como generalizado.
En cuanto al art. 17 parece excluir este enfoque, es deseable que el legislador delegado lo aclare explícitamente, también sobre la base de la práctica administrativa que se está desarrollando al respecto. Hay que recordar que el Consejo de Estado, refiriéndose a un acto administrativo algorítmico en materia no fiscal, afirmó el necesario respeto al principio de cognoscibilidad de una norma expresada en un lenguaje que no es estrictamente jurídico, sosteniendo que «la caracterización multidisciplinaria» del algoritmo (una construcción que ciertamente requiere no sólo competencias jurídicas, sino también técnicas, informáticas, estadísticas y administrativas) no exime de la necesidad de que la «fórmula técnica», que de hecho representa el algoritmo, sea acompañado de explicaciones de que traducir en la ‘norma jurídica’ que la sustenta y hacerla legible y comprensible, tanto para los ciudadanos como para el juez” (Consejo de Estado, sección VI, sentencia n.° 2270/2019). Teniendo en cuenta los obstáculos que, como es sabido, rodean el pleno acceso al algoritmo, se trata de un réquiem sustancial para cualquier hipótesis de utilización de la inteligencia artificial por parte de la Administración Financiera para fundamentar tout court una nota de evaluación.
6 La ejecución de la delegación en los decretos delegados
Los decretos delegados han implementado esta parte de la delegación de forma bastante amplia, aunque no del todo orgánica. Indicaciones interesantes provienen principalmente del Decreto Legislativo 13/2024, que regula la liquidación e introduce el convenio con acreedores; así como por Decreto Legislativo. 219/2023 que modificó el Estatuto de los Derechos del Contribuyente (ley n° 212/2000).
Un primer tema de interés se refiere al art. 10-nonies del Estatuto, relativos a la consulta simplificada para los contribuyentes menores, sobre el mecanismo para determinar la base imponible sujeta al acuerdo propuesto por la Agencia Tributaria, así como sobre la estructura del decreto sobre la evaluación, en particular en lo que respecta a la análisis del riesgo fiscal y selección de los contribuyentes a ser sometidos a control. Estos son, de hecho, ejemplos relevantes de la amplitud variable que la implementación de la delegación atribuye al uso de la inteligencia artificial en las actividades de la Administración financiera.
El mecanismo de consulta simplificado indica un uso básico de los sistemas tecnológicos. Se trata, en realidad, de una base de datos que recoge posiciones previas tomadas por la Administración financiera,43 a la que pueden acceder personas físicas y menores contribuyentes para conocer la orientación del sector público respecto de un caso concreto y antes de acceder a una solicitud formal, que sin embargo, sólo se permite cuando la consulta de la base de datos no proporciona un resultado o no resuelve la situación de incertidumbre. En este contexto, la inteligencia artificial tiene el objetivo limitado de seleccionar los documentos de prácticas relevantes y combinar sus indicaciones para dar respuesta a la pregunta del contribuyente, por lo que se trata de una base de datos que podríamos definir como avanzada y en la que, por tanto, la función del procesamiento automatizado está en gran medida limitada. Entre otras cosas, cuando el solicitante se adapta a los resultados proporcionados por la base de datos que posteriormente resultan incorrectos, se prevé que la recuperación de cualquier impuesto adicional adeudado no irá acompañada ni de la imposición de ninguna sanción ni de la atribución de intereses. .
En cuanto al acuerdo preventivo, el art. 9 del Decreto Legislativo núm. 13/2024 establece que «la propuesta de acuerdo es elaborada por la Agencia Tributaria (…) sobre la base de una metodología que mejora, también a través de los procesos de toma de decisiones totalmente automatizados a que se refiere el art. 22 del Reglamento (UE) 2016/679, del Parlamento Europeo y del Consejo, de 27 de abril de 2016, la información ya de que dispone la Administración Financiera”. El tratamiento automatizado tiene, por tanto, por objeto una multiplicidad de datos, externos al contenido de la declaración del contribuyente, con el fin de identificar la capacidad contributiva expresada por el mismo para la determinación de la cuantía del convenio de acreedores propuesto. Aquí, la inteligencia artificial se utiliza para reconstruir la renta imputable al contribuyente y tiene, por tanto, un impacto mucho más profundo en la gestión de la relación tributaria, aunque todavía en el contexto de un procedimiento especial como el del convenio preventivo.
En cuanto al uso de la inteligencia artificial en las actividades ordinarias de control y valoración, hay que decir que la implementación de la delegación la ha limitado a una fase endoprocesal, que es la del análisis del riesgo fiscal y, por tanto, de la selección de los contribuyentes ser sometidos a verificación.
El art. 2 del Decreto Legislativo núm. 13/2024, letra del apartado 1. a), al definir el concepto de “análisis de riesgos”, se refiere a un «proceso, compuesto de una o más fases, que, con el fin de maximizar la eficacia de las actividades de prevención y lucha contra la evasión fiscal, el fraude fiscal y el abuso de impuestos ley, así como aquellos dirigidos a estimular el cumplimiento espontáneo, a través de modelos y técnicas de análisis determinista o probabilístico (…), utiliza, también a través de su interconexión, la información presente en los datos bancarios provenientes de la Administración Financiera, o públicamente disponible, asociar, consistentemente con uno o más criterios selectivos, o con uno o más indicadores de riesgo inferidos o derivados, la probabilidad de ocurrencia a un riesgo fiscal específico, realizando además, cuando sea posible, una predicción sobre las consecuencias que pueden generarse. de su determinación.” En este caso, el sistema automatizado se basa en el gran acervo de información en poder de la Administración Financiera (pero también, un aspecto importante al que tendremos que volver cuando abordemos el delicado tema de las protecciones, sobre cualquier otro dato deducible de fuentes públicas ) para calcular el riesgo fiscal de un contribuyente o de un caso. Esto tiene el doble propósito de orientar los controles, incluidos los preventivos, y realizar actividades de evaluación, así como aquellas encaminadas a solicitar el cumplimiento espontáneo por parte de los contribuyentes interesados.44
Además, la posición de las normas introducidas por el Decreto Legislativo núm. 13/2024 con respecto a la posibilidad de utilizar directamente los resultados del análisis automatizado para la actividad de evaluación: una ambigüedad ya presente en la ley habilitante,45 que permanece precisamente durante la implementación, donde en particular se prevé que los resultados del análisis automatizado puede utilizarse como base para “fines de lucha contra la evasión fiscal” no especificados.
Si la Administración financiera afirmara que basa su evaluación en lo que indica el sistema de inteligencia artificial, surgirían importantes problemas de interpretación.
En primer lugar, el vinculado a la motivación del acto administrativo. Si realmente se creyera que esto podría estar motivado en función de los resultados del procesamiento del sistema de inteligencia artificial, entonces nos enfrentaríamos a la cuestión del algoritmo utilizado por este último para el procesamiento de datos, el más de la época incognoscible.46 Una de las características indefectibles de la motivación del acto administrativo es, efectivamente, que con su lectura el destinatario debe ser capaz de comprender tanto el fundamento de lo impugnado como el procedimiento lógico mediante el cual la oficina da ese fundamento, fue posible llegar a una conclusión determinada, en este caso la de la ilegalidad de una determinada operación.
Pues bien, en el caso de los sistemas inteligentes, la reconstrucción del procedimiento lógico no puede ignorar el acceso al algoritmo, porque en él reside la comprensión del camino por el que se puede realizar la comparación entre las características concretas del caso en cuestión y aquellas que, a partir de la datos conocidos por el sistema, deberían haberse mostrado para poder juzgar como correcta la mencionada operación. Sin embargo, no es seguro que la Administración Financiera a su vez tenga acceso al algoritmo y pueda por tanto cumplir con esta carga motivacional, precisamente como consecuencia del mencionado “secreto” del mismo. Por otro lado, y en consecuencia, el problema también adquiere fondo, ya que la imposibilidad de comprender el funcionamiento del algoritmo implica la subordinación de la actividad administrativa a elecciones (incluso de valor) realizadas de forma autónoma y descontrolada por sus creadores.47
Luego está la cuestión de proteger los derechos del contribuyente.48 El deber de fundamentar el acto tributario, además de garantizar el buen desarrollo de la actividad administrativa, tiene como objetivo permitir al destinatario el pleno ejercicio de su derecho de defensa, que pasa inevitablemente por la plena comprensión de los términos de la reclamación que le dirige el ’oficina. El caso del litigio por abusividad motivado a partir de los resultados de un tratamiento realizado por un sistema de inteligencia artificial, plantea, a este respecto, dudas bajo dos perfiles: el, ya examinado, de la comprensión real de la motivación de la recuperación, debido a la imposibilidad de acceder al algoritmo subyacente; y que, en todo caso, ligado a los costes de asesoramiento técnico que inevitablemente, incluso cuando dicho acceso fuera posible, el contribuyente estaría obligado a soportar para comprender verdaderamente su funcionamiento.49
Finalmente, está el problema del valor probatorio que podría tener ante los tribunales el tratamiento realizado por el sistema inteligente. De hecho, los límites de cognoscibilidad del algoritmo también pueden tener un impacto negativo en la actividad del juez, que en la mayoría de los casos no estaría en condiciones de evaluar la fiabilidad de la reconstrucción de la oficina, salvo quizás a costa de recurrir masivamente a consultoría técnica oficial, con el consiguiente aumento de los costos de la justicia.
Salvo en los casos de actividades meramente rutinarias,50 rara vez identificables en el ámbito fiscal, la hipótesis ya destacada por la doctrina administrativa, de su utilización en el back office, permanece, por lo tanto, para la realización de una investigación interna al final de la cual no hay la intervención del funcionario, ser humano capaz de asumir la responsabilidad externa por el acto dictado.51 De lo contrario, existe un riesgo real de “descargar” al juez -y por tanto en una fase posterior a la evaluación- la evaluación de intereses que la Administración Financiera debe realizar previamente en el caso concreto.52
La confirmación, aunque en un contexto extrafiscal, llega del Consejo de Estado con la sentencia. 4 de febrero de 2020, n. 881, pronunciado por la Sección VI. Aquí los jueces, por un lado, destacan la importancia y utilidad de las herramientas automatizadas para garantizar la eficiencia y el buen desempeño de la Administración Pública, por otro, fijan una serie de límites, con el fin de proteger los derechos de los interesados. partes, más allá de las cuales el uso de la inteligencia artificial no puede ir más allá. En particular, leemos que «dos aspectos preeminentes asumen una importancia fundamental, también a la luz de la disciplina de origen supranacional, como elementos de garantía mínima para cualquier hipótesis de uso de algoritmos en la toma de decisiones públicas: a) la plena cognoscibilidad aguas arriba de el módulo utilizado y los criterios aplicados; b) la imputabilidad de la decisión al órgano que tiene el poder, que debe poder realizar la necesaria verificación de la lógica y de la legitimidad de la elección y de los resultados confiados al algoritmo”. Una vez más, no sólo se precisa la necesidad de que el resultado del procesamiento algorítmico sea examinado por un operador humano, que asume la correspondiente responsabilidad, sino que se precisa además que se debe garantizar el pleno conocimiento del algoritmo, «desde sus autores hasta los procedimiento utilizado para su elaboración, al mecanismo de decisión, incluyendo las prioridades asignadas en el procedimiento de evaluación y toma de decisión y los datos seleccionados como relevantes”. Esto, prosigue la sentencia, «para poder comprobar que los criterios, requisitos y resultados del procedimiento robótico cumplen con los requisitos y finalidades establecidos por la ley o por la propia administración previa a este procedimiento y para que sean los métodos y las normas según las cuales se creó son claros y, por tanto, revisables”.
Queda, en esencia, confirmado que el acto administrativo nunca puede, por el momento, basarse en los resultados de un procedimiento automatizado, ya que no existe ningún algoritmo -salvo en el caso, por ahora puramente teórico, en el que ha sido desarrollado por la Administración Pública,propia Administración- permite ese nivel de conocimiento que, como hemos visto, exige la jurisprudencia.
7 Protección del contribuyente sometido a procedimientos automatizados
El uso de estas herramientas deberá realizarse de forma que no lesionen los derechos del contribuyente. De hecho, mientras que en otros sectores jurídicos la cuestión de los derechos individuales frente a la IA está especialmente presente, en el ámbito fiscal esto ocurre en una medida mucho más limitada. La delegación fue, por tanto, la oportunidad para una intervención reflexiva en este sentido, considerando también la centralidad que tiene la protección de los derechos del contribuyente en todo el sistema de la propia delegación.
Sobre este punto, el art. 2 de la ley núm. 111/2023 plantea la cuestión pero la resuelve de forma bastante insatisfactoria, limitándose a prever que el uso de las nuevas tecnologías se realice “de conformidad con las normas de la Unión Europea en materia de protección de datos personales”. No se trata de una referencia muy tranquilizadora, ya que el RGPD (Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, prevé amplias excepciones a la protección de datos personales en el contexto de asuntos fiscales. Al mismo tiempo, también la Ley de IA, o el Reglamento europeo sobre inteligencia artificial n.º 1689/2024, aprobado recientemente por el Consejo, así como el aplazar hasta 2023 el funcionamiento de las protecciones respecto del uso de inteligencia artificial por parte de la Administración Pública, considera que el uso de sistemas automatizados por parte de la Administración Financiera no entra entre los considerados de alto riesgo, con la consiguiente posibilidad por parte de los Estados miembros de legítimamente reducir la protección de las personas sujetas a ella.
Por lo tanto, la mera referencia a la normativa europea corre el riesgo de garantizar muy poco la situación del contribuyente. Será necesario, por tanto, que el legislador delegado, por un lado, especifique a qué protecion tiene derecho el contribuyente durante las actividades automatizadas realizadas por la Administración financiera; por otro, que extiende esta protección más allá de los límites establecidos por el RGPD. En particular, este último objetivo podría alcanzarse potenciando, incluso en este contexto, el diálogo preventivo que, según la delegación, se ha generalizado, aunque no de forma totalmente satisfactoria.
Durante la ejecución de la delegación, las dudas, ya presentes en la lectura de los principios directivos, se han confirmado hasta ahora, arrojando más que una sombra sobre el equilibrio efectivo entre las necesidades de reforzar la eficacia de la acción administrativa y la plena protección de los derechos del contribuyente.
Un primer aspecto de perplejidad se refiere a la posibilidad de que el resultado del procesamiento automatizado sea en realidad objeto de control consciente por parte del operador humano.
La jurisprudencia administrativa viene destacando desde hace tiempo la importancia de que el uso de algoritmos en las actividades de la Administración Pública esté respaldado por una evaluación autónoma por parte de operadores humanos. El Garante de la Privacidad ha intervenido varias veces contra la Agencia Tributaria para imponer la adopción de formas de garantía adecuadas al uso automatizado de los datos, invocando la intervención de operadores humanos cualificados para la interpretación de los resultados del tratamiento automatizado para proteger al contribuyente. Véase, entre otros, el dictamen núm. 58 de 14 de marzo de 2019, que se refería al procesamiento por parte de la Agencia Tributaria de los datos contenidos en el Archivo de informes financieros. En ese caso, el Garante ha prescrito expresamente la «evaluación puntual de la coherencia global de la posición de cada contribuyente seleccionado por operadores calificados pertenecientes a las Direcciones provinciales, específicamente capacitados por la Dirección Central de Investigación, antes de la citación del contribuyente».
La delegación, a este respecto, prevé (en el art. 16, apartado 1 letra r) el objetivo de «reforzar la especialización y la formación profesional continua del personal de la Administración financiera, con especial referencia (…) el uso de las nuevas tecnologías digitales, también aplicadas a las actividades económicas, el uso del big data y su procesamiento, la seguridad informática (…)“. Se tratará de limitar y concretar este criterio directivo, dada en particular su sensibilidad para la protección de los derechos. Aunque, como se ha mencionado anteriormente, siempre es necesario que los resultados del análisis automatizado sean examinados críticamente por un operador humano, el riesgo real es que este último se vea influenciado por la fuerza”persuasiva” del algoritmo, en el sentido de que estos resultados parecen tener una calidad científica objetiva, tal que cualquier intervención humana es superflua o incluso peligrosa para la pureza de los resultados. Frente a este riesgo, sólo una adecuada preparación técnica del personal de la Administración Financiera puede constituir una garantía eficaz. En este sentido, sin embargo, suscita dudas lo indicado por el art. 16, mencionado anteriormente; es decir, que las acciones de especialización y formación deben realizarse “sin nuevas o mayores cargas para las finanzas públicas”. Existe el riesgo de que las indicaciones, aunque apreciables, contenidas en la delegación no puedan aplicarse debido a los costes que inevitablemente imponen tales actividades de formación y especialización. Con ello se pone en riesgo la plena protección de la posición del contribuyente involucrado en el procedimiento automatizado.
Además, son bien conocidas las críticas al enfoque basado en una relectura humana de los resultados del procesamiento automatizado, considerado excesivamente optimista: el procesamiento por el algoritmo, al estar rodeado de un aura de objetividad, influye en la actitud del operador humano, empujándolo a confirmar el resultado, también por el esfuerzo motivacional que inevitablemente le impondría una posición diferente.53 Una manifestación significativa de cierto pesimismo a este respecto es la Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en materia penal (2022/C 132/02), que observa que « si los humanos se basan únicamente en datos, perfiles y recomendaciones generados por máquinas, no podrán realizar una evaluación independiente», destacando que «debe evitarse una confianza excesiva en los resultados proporcionados por sistemas de IA”.54
La misma indicación parece surgir también del reglamento europeo sobre la protección de las personas físicas en relación con el tratamiento de datos personales. El art. 23, carta. e) del RGPD permite una decisión completamente automatizada en materia fiscal, pero requiere, además de una regulación legal expresa, también la necesaria intervención humana. Se expresa de manera completamente similar el art. 11 de la Directiva 680/2016 “relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por las autoridades competentes con fines de prevención, investigación, detección y persecución de delitos o de ejecución de sanciones penales”, que extiende efectivamente la amplias exenciones previstas por el RGPD para las decisiones automatizadas que en cierta medida implican sanciones, por tanto todas aquellas de carácter fiscal donde, como es sabido, la liquidación del impuesto más elevado suele ir acompañada de la imposición de sanciones.
Un segundo aspecto controvertido se refiere a la posibilidad de que el alcance de los derechos del contribuyente sometido a la acción automatizada de la Administración Financiera sea definido por fuentes sublegislativas.
De hecho, el art. 2, párrafo 4, del Decreto Legislativo n. 13/2024 establece que la Agencia Tributaria, al realizar actividades de análisis de riesgos, podrá limitar los derechos de los interesados en materia de protección de datos personales, refiriéndose a una norma del Ministerio de Economía y Finanzas para la disciplina correspondiente.
Existe, por tanto, un doble perfil de preocupación: por un lado, parece admitirse pacíficamente -por otra parte, ya se ha recordado, en línea con las urgencias de los documentos supranacionales- que los derechos individuales en el marco de los procedimientos regulados mediante inteligencia artificial puede ceder ante los intereses de las autoridades fiscales; por otra parte, la extensión residual de estos derechos se deja a una fuente subordinada y, en este caso, a la misma entidad pública como titular de la parte activa de la relación tributaria.
Se trata de una restricción problemática de los motivos de protección individual, además en continuidad con las limitaciones ya previstas en nuestro sistema por la ley de presupuestos de 2020,55 en la que se establecía expresamente que el reconocimiento de los derechos a que se refiere el RGPD (en particular las previstas en los artículos 15 a 22) podrían limitarse en el caso de que su ejercicio pudiera entrañar riesgo de perjuicio efectivo y concreto a los intereses perseguidos en materia tributaria, así como a la realización de actividades de prevención y ejecución a la evasión y elusión fiscal. También en este caso, la latitud concreta de esta disciplina quedó en manos de un decreto emitido por el MEF.
Parece claro que la limitación de los derechos individuales al tratamiento de datos en el caso de tratamientos realizados con fines fiscales crea, en este caso, una vulnerabilidad mucho mayor que la ya parcialmente presente en la normativa europea,56 en la que la posible restricción en el disfrute de los derechos, además de tener que ser tal que no anule completamente la sustancia de los propios derechos, debe en todo caso estar previsto por una fuente con rango legislativo.
Además, el art. 2, párrafo 1 letra. a), del Decreto Legislativo núm. 13/2024 permite a la Administración Financiera realizar las actividades requeridas de análisis de riesgos fiscales utilizando no solo la información presente en las bases de datos de la Agencia Tributaria, sino también la que puede deducirse de fuentes públicas: la referencia a la posibilidad de referirse a datos presentes en Internet y, en particular, en las plataformas sociales, relativos a cada contribuyente individual. De esta manera, surge un problema importante en cuanto a la confiabilidad de dicha información, que bien puede no reflejar la realidad real de los hechos y, por tanto, dar lugar a reconstrucciones que no sean consistentes con la capacidad contributiva.
Este riesgo, por otra parte, ya había sido subrayado en una iniciativa similar del legislador francés, que había previsto la posibilidad de basar las valoraciones sobre la residencia fiscal en la información que se podía obtener precisamente de los perfiles sociales de los interesados: esto, por otra parte, suscitó la reacción de la Cour constitutionelle, que – si bien admite la legitimidad constitucional de la disciplina en cuestión – destacó firmemente la necesidad de respetar una serie de salvaguardias para proteger los derechos de los contribuyentes involucrados.
Sin embargo, a este respecto cabe destacar la intervención del Garante de la Privacidad, que – con referencia al proyecto de decreto legislativo sobre la evaluación y al acuerdo preventivo bienal – subrayó la necesidad de que el art. 2, apartado 3, la información “disponible públicamente” se elimina de la lista de susceptibles de utilización (…) por carecer de los requisitos de fiabilidad necesarios y ser recogida para fines distintos de los subyacentes al tratamiento en cuestión”.57 Esta voluntad, como hemos visto, no fue aceptada por el legislador delegado en relación con las actividades de análisis y control de riesgos, mientras que el riesgo de robo de datos parece haber sido excluido en relación con la metodología de determinación de la base imponible objeto de la propuesta para un convenio con acreedores, ya que el art. 9 del Decreto Legislativo 13/2024 solo menciona las bases de datos disponibles para la Agencia Tributaria.
Incluso con respecto a la capacidad de conocimiento del algoritmo, la implementación de la delegación muestra algunos problemas críticos.
Ya se ha destacado anteriormente la opacidad del algoritmo, una verdadera caja negra que, especialmente en su forma generativa y de autoaprendizaje, hace completamente improbable la comprensión del proceso de implementación de las actividades que se le confían.
Desde este punto de vista, sería necesario mejorar el pleno conocimiento del algoritmo, especialmente si está equipado con mecanismos de aprendizaje automático, para no dejar desprotegido al contribuyente (pero también al juez, en los casos en que el resultado de la actividad automatizada llega a alguno de su competencia) de la posibilidad de comprender la lógica que subyace a la acción practicada contra él y ejercer conscientemente su derecho de defensa.
Sobre este punto, nuevamente con fuente no regulatoria, la Agencia Tributaria intervino para describir los procesos de análisis de riesgos y el algoritmo relacionado utilizado en la realización de las actividades a que se refiere la citada norma introducida al implementar la delegación. El documento denominado “Información sobre la lógica subyacente a los modelos de análisis de riesgos basados en datos del Archivo de Informes Financieros” de 19 de mayo de 2023, constituye, por un lado, la primera descripción de los métodos prácticos con los que la Administración Financiera pretende utilizar sistemas automatizados en el nuevo contexto regulatorio, por otra parte, persiste en mantener en secreto “la arquitectura informática utilizada”, con el fin de “salvaguardar las necesidades de confidencialidad de las actividades institucionales de la Agencia Tributaria y evitar la adopción de conductas susceptibles para evadir los controles”. Confirmamos aquí un enfoque basado exclusivamente en la centralidad de las nuevas tecnologías para la eficiencia de la acción pública, considerada prevalente respecto del pleno despliegue de los derechos del contribuyente involucrado.
Finalmente, existe el riesgo de conductas discriminatorias en la determinación del análisis de riesgo y, por tanto, en la selección de los contribuyentes a ser sometidos a control. De hecho, parece existir una posibilidad concreta de que aquellos que ya han pasado por evaluaciones fiscales sean señalados con mayor frecuencia como merecedores de controles adicionales.
Esta posibilidad ya se desprende de la lectura del decreto de valoración. El art. 2, párrafo 1 letra. a), del Decreto Legislativo núm. 13/2024 sitúa, de hecho, al mismo nivel los “deterministas” y los “probabilísticos” en lo que respecta a la selección de modelos y técnicas de análisis de riesgos. Ambos, por lo tanto, pueden utilizarse legítimamente para la selección de contribuyentes riesgosos hacia quienes las actividades de control y verificación deben dirigirse de manera prioritaria.
Pues bien, el análisis probabilístico tiene una clara connotación predictiva, que se basa -como se especifica en la citada información de mayo de 2023- en “datos relativos a los contribuyentes ya sujetos a control” y puede conducir a una modelización que tenga como base índices relativos, precisamente, a la conducta tributaria previa del contribuyente, tales como “presencia de informe de liquidación, comisión de infidelidad declarativa, participación en esquemas fraudulentos y similares”.
No parece improbable que el funcionamiento de los sistemas automatizados se dirija principalmente a contribuyentes ya conocidos por las autoridades tributarias, con el doble efecto de discriminar a quienes se encuentran en esta condición, independientemente del resultado de conflictos previos en la fase administrativa (pensemos en un adhesión) o en el judicial (por ejemplo con la anulación de la notificación de liquidación), y para preservar la posición de aquellos que son completamente desconocidos para la Administración financiera.
También es cierto que la citada Información señala que el análisis probabilístico sólo debe servir para corroborar los resultados del determinista: sin embargo, la letra del decreto de valoración no avala tal interpretación, colocando a ambos en el mismo nivel, con la consecuencia es que un documento descriptivo sin valor jurídico como la Información no puede alterar el marco regulatorio, dejando intactos los riesgos de conductas distintas a las previstas en el mismo.
8 Algoritmo y sanción “aflictiva”: ideas problemáticas de la práctica supranacional y extranjera
La posible utilización del algoritmo por parte de las Oficinas en el contexto de las actividades de imposición de sanciones administrativas tributarias se inscribe en el contexto de un procedimiento lleno de perfiles de evaluación y capaz de involucrar el núcleo esencial de los derechos individuales: dos elementos que – a diferencia de lo que ocurre, por ejemplo, con las sanciones por infracciones del código de circulación58: cuestionan fuertemente la intervención humana prudente y, por tanto, hacen que la cuestión del uso de la inteligencia artificial sea muy delicada.
En este contexto, la reflexión debe partir de dos experiencias, ambas no centradas en sanciones fiscales sino en general penales: la carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y campos afines, adoptada por la Comisión Europea para la Eficiencia de Justicia (órgano del Consejo de Europa) en diciembre de 2018; y la práctica predominantemente norteamericana de algoritmos predictivos para determinar sanciones penales y evaluar el riesgo de reincidencia. A pesar de la extrema diversidad de resultados, ambas experiencias sugieren algunas reflexiones comunes y útiles para la investigación sobre sanciones fiscales.
La Carta de Ética recomienda especial precaución en el uso de algoritmos cuando se refiere a asuntos penales. En particular, leemos que dicho uso debería examinarse “con las más extremas reservas” en el caso de los algoritmos de elaboración de perfiles de personas en el ámbito penal, con el fin de evitar riesgos de resultados discriminatorios y, por tanto, de violación de las normas europeas sobre sanciones penales». El documento se refiere aquí a situaciones típicamente delictivas, en las que los antecedentes y la situación personal del individuo podrían sugerir un peor juicio de peligrosidad que esconde prejuicios raciales, sociales o sexuales. Además, se trata de situaciones que también podrían surgir en relación con los supuestos sancionadores fiscales: pensemos en la institución de la reincidencia, la adopción de medidas cautelares por parte de la Administración financiera, hasta la apreciación del peligro naturalmente inherente a la imposición de sanciones accesorias, como como los previstos por el art. 21 del Decreto Legislativo 472/1997.
En cuanto a la práctica norteamericana, pensamos en el conocido caso Loomis, que se refería a la determinación de una pena de prisión gracias al uso del algoritmo llamado Compas,59 a partir del cual se puede calcular la probabilidad de reincidencia, así como el riesgo social de un individuo refiriéndose a una serie de datos estadísticos, algunos relativos al acusado (por ejemplo, los precedentes o las respuestas dadas por el mismo a un cuestionario específico), otros cubiertos por secreto industrial y, por tanto, desconocidos. El caso, en el que la pena impuesta a los acusados había sido efectivamente aumentada en base a las evaluaciones ofrecidas por Compas, finalmente llegó al Tribunal Supremo de Wisconsin. De hecho, esto ha legitimado el uso del algoritmo, por un lado reconociendo el derecho de la empresa propietaria a proteger sus derechos de propiedad, por otro afirmando la libertad del tribunal de evaluar los resultados del tratamiento automatizado.60 El caso Loomis es también sólo el más conocido de los muchos ejemplos de utilización de algoritmos para la determinación de sanciones penales, acontecimientos todos ellos en los que el uso predictivo de la inteligencia artificial -incluso en algunos casos obligatorio para el juez- se ha considerado neutral y, por tanto, perfectamente admisible. Lo que resulta inquietante frente a estos experimentos es la constatación – confirmada por numerosos estudios independientes61 – de que esta neutralidad no existe en absoluto, las repercusiones negativas de la aplicación de tales algoritmos en términos de discriminación y distorsiones del sistema.62
Como se ha observado,63 en nuestro ordenamiento jurídico tales herramientas, basadas en valoraciones psicocriminológicas, estarían en conflicto con la prohibición a que se refiere el art. 220, segundo párrafo, del código procesal penal. Sin embargo, en materia fiscal su uso no es impensable, por ejemplo en la evaluación de reincidencias o en la determinación de sanciones adicionales, casos en los que los riesgos de menoscabo de la protección de los derechos individuales parecen amplificados por el hecho de que tales evaluaciones se sitúan en el nivel de procedimiento administrativo y no al del juicio.
Por lo tanto, si la Carta de Ética destaca los riesgos discriminatorios inherentes a los algoritmos utilizados en la aplicación de sanciones penales, recomendando su uso limitado, mientras que la práctica norteamericana parece más relajada al admitir su uso y al asumir el riesgo de resultados distorsionados, ambos enfoques parecen estar unidos por la conciencia de las peculiaridades de los procedimientos de aplicación de sanciones penales y de los riesgos que la automatización puede generar en este contexto. Una consideración que, evidentemente, sólo puede ser válida también en las reflexiones que estamos haciendo sobre las sanciones fiscales gestionadas de alguna manera a través de algoritmos.
9 Inteligencia artificial y procedimiento sancionador
Ahora se trata de situar estas reflexiones en el contexto del sistema de sanciones fiscales italiano y preguntarse si, y en qué medida, la Agencia Tributaria puede utilizar sistemas inteligentes para determinar el importe de la sanción aplicable en cada caso concreto y proceder con la imposición relativa, tratando de comprender si las ya numerosas advertencias que la doctrina y la práctica del Garante de Privacidad han puesto en relación con la actividad administrativa automatizada son suficientes para este fin, o por el contrario si – como se cree – la función sancionadora debe estar por separado de la liquidación tributaria y si, por tanto, el debate sobre el uso de algoritmos con este fin requiere también otras herramientas de reflexión más afinadas.
De hecho, las sanciones tributarias administrativas parecen ser el área más fructífera para la aplicación de métodos totalmente automatizados. La función conexa, que ahora resulta clara para cualquier operador práctico, la llevan a cabo las Oficinas de forma casi automática, casi como si se tratara de una operación limitada a pesar de la ausencia de cualquier justificación reglamentaria al respecto. Basta pensar en la práctica según la cual la sanción impuesta es siempre igual al mínimo legal y en la circunstancia, en cierto modo aún más chocante, de que el fraude y la negligencia no son objeto de mención alguna en los documentos con los que la Administración Financiera impone las sanciones correspondientes. al homenaje. En este sentido, es completamente aceptable la postura de quienes afirman64 que nuestro sistema tributario contempla ahora una presunción de culpa, por lo que la violación de una ley tributaria, con la consiguiente recuperación de un impuesto mayor, siempre resulta en la aplicación de una sanción, accesorio casi irrenunciable de la liquidación del impuesto, cuya aplicación es ajena a cualquier investigación sobre la existencia de las condiciones que establece el Decreto Legislativo 472/1997 para la aplicación de sanciones administrativas.65 El sistema ha perdido esencialmente, en sus resultados prácticos, toda la connotación personalista de la sanción que había sido, a la inversa, el elemento característico de la reforma de 1997,66 en favor -precisamente- de una aplicación mecánica de la sanción mínima67 que sólo aparentemente redunda en beneficio del contribuyente, traduciéndose, por el contrario, en una generalización de la sanción incluso en los casos en que el impuesto evadido no puede ir acompañado de consecuencias sancionadoras en ausencia del elemento subjetivo.
Precisamente la reflexión sobre los usos de la inteligencia artificial podría contribuir a poner en el centro de la atención la necesidad de recuperar la estructura personalista original de la reforma de 1997, desligando la sanción de la conexión indefectible con el impuesto e identificando su peculiaridad en el principio personalista y sus corolarios de aplicación. No es nada obvio que el algoritmo pueda desempeñar un papel en el procedimiento de imposición de sanciones fiscales: sin embargo, la reflexión sobre los automatismos que inevitablemente evoca podría llevar a reconsiderar la singularidad del sistema sancionador y su irreductibilidad a una mera e inevitable accesorio del impuesto que se está imponiendo.
En este sentido, cabe recordar que las sanciones fiscales tienen carácter penal. Así lo confirman tanto los principios que sirvieron de base al Decreto Legislativo 472/1997, que son los de las sanciones penales, como la ya conocida dirección supranacional, que califica las sanciones administrativas caracterizadas por un alto grado de aflicción como esencialmente criminales,68 como aquellos impuestos cuyo importe mínimo en nuestro sistema equivale -por regla general- hoy al 70% del impuesto evadido.
Cabe señalar también que la atribución de sanciones tributarias administrativas a la categoría de sanciones esencialmente penales se ha valorado hasta ahora en relación con perfiles principalmente procesales, pensemos en el reglamento ne bis in idem, pero sólo ha afectado esporádicamente al fondo del reglamento. sobre la determinación del importe de la sanción y el procedimiento de imposición. Por el contrario, el carácter penal de las sanciones tributarias debe sustentar la interpretación y aplicación de todas las disposiciones del Decreto Legislativo 472/1997 y, por tanto, influir en la forma misma en que estas sanciones se conciben y luego encuentran aplicación concreta. Esta consideración, fundamental como se dirá inmediatamente para la discusión sobre los usos de la inteligencia artificial en la materia, trae consigo la consecuencia de la imposibilidad de atribuir plenamente la función sancionadora a la explicación de una mera actividad administrativa. Existe una diferencia ontológica entre impuesto y sanción, que se pone de manifiesto por el carácter penal de esta última, lo que hace que el procedimiento de determinación e imposición correspondiente escape a un enfoque estrictamente administrativo.
Si es cierto que la sanción es aplicada por la Administración financiera durante un procedimiento, que es el mismo que conduce a la recuperación del impuesto, también lo es que se trata de una actividad típicamente judicial, que en el proceso penal es el juez quien realiza y que por esta razón no puede reducirse por completo a la primera. Tanto es así que la misma jurisprudencia supranacional mencionada anteriormente distingue claramente entre impuesto y sanción al identificar las protecciones, procesales pero también procedimentales, reconocibles para el contribuyente69
Por tanto, el hecho de que las sanciones fiscales sean sustancialmente penales es una constatación que incide tanto en la actividad encaminada a su aplicación, que implica un perfil de evaluación evidente y muy diferente del que atañe a la determinación del impuesto, como en las protecciones reservadas a el contribuyente. Aquí es donde entra la reflexión sobre el uso de algoritmos.
El uso de la inteligencia artificial en el proceso de determinación e imposición de sanciones sufre -en cierto modo al amplificarlas- los mismos problemas ya subrayados por muchos (y ampliamente mencionados anteriormente) en relación con la automatización de la actividad administrativa provisional.
La solución que a menudo se propone consiste en sortear la caja negra valorizando la intervención humana: esto permitiría, de hecho, separar la evaluación de un supuesto mecanismo inducido por el algoritmo, haciendo retroceder todo el proceso, de una manera muy tranquilizadora. camino, a la síntesis humana, aunque ayudada por el procesamiento digital. Como hemos visto, es precisamente sobre esta supuesta reapropiación de la función sancionadora por parte del ser humano que la Corte Suprema de Wisconsin consideró legítima la aplicación de Compass al acusado Loomis. Sin embargo, son bien conocidas las críticas a este enfoque, consideradas excesivamente optimistas: el procesamiento por parte del algoritmo, al estar rodeado de un aura de objetividad, influye en la actitud del operador humano, empujándolo a confirmar el resultado, también debido al esfuerzo motivacional. que inevitablemente le impondría una posición diferente.70
El panorama parece muy problemático, hasta el punto de llevarnos a creer que no hay espacio para el uso de la inteligencia artificial en el contexto del procedimiento sancionador, salvo a riesgo de que se produzca ese fenómeno que efectivamente se ha definido como ” privatización de las sanciones”71con clara referencia a la atribución a sujetos privados del poder de influir, de hecho sin controles públicos, en el proceso de aplicación de las sanciones, con todas las repercusiones en términos de opacidad, discriminación, etc. Lo que se acaba de decir con referencia al fenómeno del aprendizaje automático nos permite ir aún más lejos, en el sentido de eliminar por completo la posibilidad de influir en el proceso de aplicación de sanciones respecto de todos los actores implicados, sin duda el contribuyente, pero también el Administración financiera e incluso la empresa que creó el algoritmo. Un escenario verdaderamente preocupante, para el mantenimiento de derechos, que sólo puede impactar en el juicio sobre la utilidad de los sistemas inteligentes en materia sancionadora tributaria.
Excluyendo una función sustitutiva del algoritmo en la determinación e imposición de la sanción -posible, quizás, sólo en el escenario actual, que como hemos dicho debe ser fuertemente criticado, de allanamiento de la sanción como mero accesorio del impuesto-, incluso su auxiliar El papel de la actividad del operador humano parece, al menos en el contexto actual, difícil de formular hipótesis. El riesgo de que este operador se base en el resultado del procesamiento digital sin someterlo a un control crítico es alto, especialmente dada la falta de importancia que la parte sancionadora del auto de liquidación manifiesta, de hecho, con respecto a la recuperación del impuesto y a la motivación relacionada impide un examen crítico serio de los resultados de dicho procesamiento, incluso en la fase jurisdiccional. En definitiva, es evidente la posibilidad de una vulneración de derechos individuales en relación con la aplicación de una sanción claramente punitiva.
Como ya se ha mencionado, no se deben aceptar tesis excesivamente reaccionarias. Poner en el centro la dimensión de la protección, inevitable en el contexto sancionador, no significa rechazar por completo la contribución que las nuevas tecnologías pueden ofrecer a la eficiencia del procedimiento administrativo tributario. Se trata de establecer con cuidado -y de manera realista, hay que añadir- los límites dentro de los cuales esto debe tener lugar para no subvertir los fundamentos de principios del sistema. Pues bien, tal vez sea posible encontrar un compromiso aceptable refiriéndose, como se mencionó al principio de este escrito, a dos aspectos: el de recuperar la dimensión personalista original de la disciplina sobre las sanciones fiscales; y el del control -de comprobación, como diríamos en la jerga penal- de los resultados del tratamiento automatizado antes de la imposición de la sanción.
Combinando estos dos factores, se podría entonces plantear la hipótesis de separar de una vez por todas la recuperación del impuesto de la imposición de la sanción, generalizando el uso del instrumento del acto de disputa a que se refiere el art. 16 del Decreto Legislativo 472/1997 y en su lugar hacer inmediata la imposición de conformidad con el art. 17 bastante excepcionales, limitados a casos más simples.
De este modo, la Administración financiera bien podría utilizar sistemas basados en inteligencia artificial como ayuda para llevar a cabo los controles y evaluaciones impuestos por el carácter personalista del sistema sancionador en virtud del Decreto Legislativo 472/1997. Al mismo tiempo, el esfuerzo motivacional del acto de impugnación debería permitir al operador humano recuperar toda la responsabilidad a este respecto, evitando esa rendición a los resultados de la evaluación algorítmica a la que se ha hecho referencia varias veces, si no al precio de un defecto motivacional capaz de tener un impacto negativo en la validez del acto mismo.
El paso por la notificación previa del acto impugnado sería entonces funcional para realizar un contrainterrogatorio preventivo con el contribuyente, previendo quizás – por necesidad de mayor protección – que en el caso del tratamiento automatizado no se limite a la mera comparación por escrito, sino que se deberán celebrar una o más reuniones, a fin de lograr la completa divulgación por parte de la Oficina y la efectiva interlocución por parte del contribuyente. Una situación de este tipo tendría la ventaja de debilitar fuertemente los riesgos evocados para el mantenimiento de los derechos del sujeto sancionado total o parcialmente gestionados a través de un algoritmo, tanto para las cargas motivacionales que, como se mencionó, deberían caracterizar el acto de controversia, tanto para la discusión propiamente dicha entre las oficinas y el contribuyente sobre el monto de la sanción que se espera imponer.
Así, se podría recurrir tranquilamente a la inteligencia artificial, disipando de entrada la impresión de oscuridad (y, en consecuencia, de peligro) que suscita, y potenciando los efectos de garantía que crean la motivación y el contrainterrogatorio. Todo esto, vale repetir, en un contexto de plena recuperación de la estructura deseada por el legislador de la reforma hacia una consideración particular de la sanción tributaria y de los elementos necesarios para su evaluación.
Por último, también habría consecuencias favorables a nivel procesal. El contrainterrogatorio que ya se ha producido entre las partes liberaría a los Tribunales de Justicia Fiscal de la difícil tarea de pronunciarse sobre los resultados de oscuros procesos algorítmicos amparados por impenetrables derechos de propiedad industrial, devolviendo su actividad a un ámbito más conocido y contexto tranquilizador. Al mismo tiempo, sin embargo, la sentencia podría finalmente concentrarse en la evaluación de la corrección de la propia sanción, sin las limitaciones derivadas de la sentencia sobre el impuesto que hasta ahora han robado constantemente la escena, reforzando la recuperación ya subrayada de la función sancionadora a que se refiere el Decreto Legislativo 472/1997 y disipando cualquier duda sobre el pleno funcionamiento, en el marco de la presente sentencia, de las disposiciones del debido proceso a que se refiere el art. 6 CEDH.72 Por supuesto, la división – que aquí se propone – entre sentencias sobre la liquidación y aquellas sobre la sanción corre el riesgo de aumentar la ya pesada carga de los tribunales de justicia fiscal: en este sentido, la reciente reforma del proceso fiscal podría constituir el motor , con la profesionalización de la clase judicial fiscal, para una mayor eficiencia capaz de absorber, a medio plazo, este mayor compromiso profesional.
Por tanto, la propuesta parece viable a nivel regulatorio y aceptable en términos del grado de protección de los contribuyentes frente al uso de algoritmos para ejercer la función sancionadora.73 Por supuesto, se impone un esfuerzo organizativo a la Administración financiera, llamada a realizar actividades que hasta ahora han sido sustancialmente descuidadas, pero después de todo no se puede pensar en respaldar una práctica que devalúa el sistema regulatorio simplemente por supuestas dificultades organizativas de las oficinas. Esta propuesta tiene el mérito de poner diligentemente en el punto de mira la cuestión de los derechos, que en el contexto de las sanciones parece incluso más urgente que en el del propio impuesto, y de construir sobre esta base un procedimiento que no innova el sistema y al mismo tiempo, también en este ámbito se aporta información sobre las ventajas que prometen las nuevas tecnologías.
A nivel teórico, es entonces coherente con las directrices que, a partir de ahora, reconstruyen el paradigma de la relación fiscal ya no en términos meramente autoritarios, en favor de formas de colaboración – y por tanto consensualistas – de interacción entre los distintos actores de la relación tributaria. La solución propuesta, por un lado, sigue manteniendo el papel de los sistemas inteligentes para guiar las evaluaciones de la Administración financiera en materia de sanciones; por otro, es creíble en la parte en que se inserta profundamente en un proceso que caracteriza desde hace algunos años el derecho tributario, tanto a nivel internacional como interno, y que enfatiza las formas de interlocución preventiva entre la Administración financiera y el contribuyente.
Una de las primeras investigaciones que utilizó el término “revolución” refiriéndose a la economía digital fue la de D. TAPSCOTT, Blueprint to the digital economy: Creating Wealth in the Era of E-Business, Nueva York, 1998.↩︎
Para una visión crítica, véase el trabajo de C. O’NEIL, Weapons of Math Destruction. Cómo el Big Data aumenta la desigualdad y amenaza la democracia, Penguin, Reino Unido, 2017. El profundo impacto del uso de datos en las economías contemporáneas ha sido destacado por V. MAYER-SCHÖNBERGER – T. RANGE, Rein-venting Capitalism in the Age of Big Data, Hachette, 2018. Véase también V. MAYER-SCHÖNBERGER – K. CUKIER, Big Data. Una revolución que transformará cómo vivimos, trabajamos y pensamos, Londres, 2013.↩︎
Algunos autores prefieren el término “revolución cibernética”, refiriéndose a la posibilidad de control (tanto de humanos como de máquinas) que el nuevo paradigma es capaz de lograr (véase por ejemplo A. SIMONCINI, Derecho constitucional y decisiones algorítmicas, en El razonamiento jurídico en la era de la inteligencia artificial (editado por S. DORIGO), Pisa, 2020, p. 37 y siguientes).↩︎
El algoritmo ha sido definido como una “caja negra” precisamente por su sustancial opacidad (F. PASQUALE, The black box society: The secret algorithms that control money and information, Harvard, 2015).↩︎
Disposición núm. 112 del 30 de marzo de 2023, disponible en internet en https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832.↩︎
Elon Musk y otros 1.000 líderes de Silicon Valley: “Suspender el desarrollo de la inteligencia artificial”, en Il Sole 24 Ore, 29 de marzo de 2023, disponible en línea en https://www.ilsole24ore.com/art/elon-musk-e-altri-1000-leader-silicon-valley-sospendere-sviluppo-dell-intelligenza-artificiale-AEjaGLBD.↩︎
Un autor sostiene, a este respecto, que «el derecho tributario, al ser altamente complejo y técnico en su estructura y contenido, puede ser uno de los mejores candidatos para ser abordado por la IA» (B. KUZNIACKI, The Artificial Intelligence Tax Treaty Assistant: Decoding the Principal Purpose Test, en Bullettin for International Taxation, 2018).↩︎
Así se expresa E.L. RISSLAND, además en términos críticos, Inteligencia artificial y razonamiento jurídico, en AI Magazine, 1988, pág. 45 segundos.↩︎
La amplitud de los ámbitos de los procedimientos tributarios en los que podría ser relevante el uso de herramientas basadas en inteligencia artificial está bien explorada por C. FRANCIOSO, Inteligencia artificial en la investigación fiscal y nuevas necesidades de protección, en Rass. Trib., 2023, pág. 47 y sigs.↩︎
Si veda, ad esempio, l’ampia disamina di F. PAPARELLA, L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi, in Riv. Dir. trib., 2022, p. 617 ss. Peraltro, sulle implicazioni dell’utilizzo dell’intelligenza artificiale nel contesto dell’attività amministrativa (non in ambito fiscale) si può rinviare a D.U. GALETTA – J.G. CORVALAN, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, 6 febbraio 2019, in federalismi.it.↩︎
En términos generales, véase M. LUCIANI, La decisión judicial robótica, en Decisión robótica (editado por Carleo), Bolonia, 2019, p. 63 y sigs.↩︎
Entre ellos se encuentran las autoridades sanitarias locales, los hospitales, los institutos científicos de hospitalización y tratamiento, los hospitales universitarios, las farmacias (públicas y privadas), los centros ambulatorios especializados, los centros de prestación de asistencia protésica y asistencia complementaria, otras estructuras y estructuras acreditadas para la prestación de servicios sanitarios y las inscritas en el Registro de Cirujanos y Dentistas (art. 3, co. 3 del Decreto Legislativo n. 175/2014).↩︎
Véase el Decreto Ministerial. 1 de febrero de 2024 relativo a “Cómo utilizar los datos fiscales de las facturas transmitidas al Sistema de Tarjeta Sanitaria”.↩︎
Por favor, consulte el art. 4 del Decreto Legislativo n. 127/2015.↩︎
Este proceso de simplificación se activó con el art. 15 del Decreto Legislativo 01/08/2024, n. 1, donde se hace referencia a disposiciones específicas del Director de la Agencia Tributaria para la implementación de la norma. Para un comentario sobre las novedades de la reforma en la materia, véase A. PIZZABIOCCA LANZI, Compliance entre simplificación y racionalización, en A. GIOVANNINI (ed.), Reforma fiscal – derechos y procedimientos – Vol. II – Derechos del contribuyente, compliance y protección jurisdiccional, Pisa, 2024, pp. 187-212.↩︎
Sobre el tema amplio de la verificación también con referencia a los controles automatizados, véase F. PAPARELLA – P.L. CARDELLA – F. FARRI, Los controles y la fase de evaluación, en L. DEL FEDERICO – F. PAPARELLA, Derecho fiscal digital, Pisa, 2022, pp. 231-252.↩︎
Así es el arte. 9-ter del Estatuto del Contribuyente insertado por el art. 1 del Decreto Legislativo 30/12/2023, n. 219. Véase también el art. 2, compañía 3 del Decreto Legislativo 02/12/2024, n. 13, según el cual las informaciones presentes en todas las bases de datos a disposición de la Agencia Tributaria (incluidas las presentes en la sección específica del Registro Tributario y las relativas a los ficheros de facturas electrónicas conservadas) son utilizadas por la Agencia, también mediante interconexión entre ellas y con las de archivos y registros públicos para actividades de análisis de riesgos fiscales, para actividades de control, para actividades de estímulo del cumplimiento espontáneo y para aquellas de prestación de servicios a los contribuyentes.↩︎
Al respecto, véase R. CORDEIRO GUERRA, La inteligencia artificial en el prisma del derecho tributario, en Dir. prat. tribunal, 2020, 3, pág. 933, según el cual la enumeración casuística –característica del derecho tributario– se prestaría a una aplicación mecanicista según técnicas de inteligencia artificial.↩︎
Al respecto, véase A.d.E., Información sobre la lógica subyacente a los modelos de análisis de riesgos basados en los datos del archivo de informes financieros, disponible en https://www.agenziaentrate.gov.it.↩︎
Sobre el impacto de los controles automatizados, véase A. QUATTROCCHI, El potencial de aplicación de ‘blockchain’ y bases de datos compartidas en la implementación de la legislación tributaria, en Riv. tel. Der. trib, 2022, 2, págs. 623-631.↩︎
En este sentido, A. CONTRINO, Digitalización de la administración financiera e implementación de la relación tributaria: cuestiones abiertas e hipótesis de trabajo desde la perspectiva de los principios generales, en Riv. director. tribunal, 2023, 2, págs. 109-110, quien acertadamente señala que en todo caso la digitalización debe excluir la rigidez, admitiendo la posibilidad de corrección o modificación del resultado.↩︎
Véase C. FRANCIOSO, Inteligencia artificial en la investigación fiscal y nuevas necesidades de protección, en Rass. Trib., 2023, 1, págs. 68-70, así como A. ZUCCARELLO, Algoritmos y automatismos en controles de declaración: perfiles problemáticos, en Riv. tel. Der. Trib. 2022, 1, págs. 118 – 124.↩︎
Sobre el tema Cass., SS.UU., enviado. 8 de septiembre de 2016, n. 17758.↩︎
Cfr. Cass., sent. 16 febbraio 2022, n. 5016.↩︎
Ver arte. 6, compañía 5 del Decreto Legislativo 18/12/1997 n. 472 y arte. 10, co 3 de la l. 27/07/2000 n. 212.↩︎
Estos dos aspectos fundamentales (motivacional y contradictorio) y relacionados con el tema de la no exclusividad de la decisión algorítmica han sido ampliamente valorados en la doctrina. V. S. DORIGO, Oportunidades y límites en el uso de la inteligencia artificial por las autoridades fiscales, en Corr. trib, 2022, 11, págs. 971-972; IDEM, Inteligencia Artificial y sus Usos Prácticos en el Derecho Tributario: Administración Financiera y Jueces, en R. CORDEIRO GUERRA – S. DORIGO (eds.), Tributación de la Economía Digital, Pacini, 2022, p. 205; A. GUIDARA, Evaluaciones fiscales e inteligencia artificial: primeras reflexiones para una visión de sistema, en Dir. e prat. trib, 2023, 2, pág. 409; F. PAPARELLA, El uso de tecnologías digitales en la fase de implementación del impuesto, en Riv. dir. trib, 2022, 6, pág. 650; C. FRANCIOSO, ult. op cit., págs. 69-70; IDEM, La toma de decisiones automatizada por las autoridades fiscales y la protección de los derechos de los contribuyentes en una perspectiva comparada, en Riv. Tri.dir.trib., 2023, 3, pág. 554-555; A. BORGHETTI, Inteligencia Artificial en los Controles Fiscales. Lucha contra la evasión fiscal, en Sinappsi, 2023, XIII, 3, p. 106; M. CEDRO-F.A. CIMINO, Inteligencia Artificial y Evaluación Fiscal: Oportunidades y Riesgos de una Revolución en Curso, en Dir. e prat. Trib. int., 2024, 1, págs. 68-69.↩︎
Ver arte. 10-cuarto, co 1, lett. d de la l. 27/07/2000 n. 212↩︎
Véase Decreto Ministerial. 24 de abril de 2024 y el artículo 6-bis de la ley. 27/07/2000 n. 212. Sobre los problemas que se derivan de esta elección legislativa, véase M. PIERRO, El deber de información de la Administración, en A. GIOVANNINI (ed.), Reforma fiscal – derechos y procedimientos – Vol. II – Derechos, obligaciones del contribuyente y protección jurisdiccional, Pisa, 2024, pp. 116-117. Sobre el tema del procedimiento contradictorio en la reforma, véase también L. CARPENTIERI, Mandatory adversarial procedures, in ult. op.cit., págs. 27-41; L. SALVINI, Procedimiento contradictorio procesal, in ult. op.cit., págs. 15-25.↩︎
En este sentido, véase Cass. civ., Secc. V, orden. 27/10/2023, n. 29852, con nota de R. MICELI, La invitación a proporcionar información de conformidad con el art. 36-ter del Decreto Presidencial norte. 600/1973 no es un requisito necesario, en GT – Riv. Jurar. Trib., 2024, 4, 322. Para la interpretación del alcance del art. 6, compañía 5 Para mayor brevedad, se remite a la aportación de M. D’ALONZO, La “conclusión del control fiscal” como “comprobación”: del cumplimiento e incumplimiento de la obligación tributaria, en Dir. e prat. trib, 2023, 94, 6, págs. 2120-2263, así como las numerosas referencias bibliográficas que sobre el punto allí se dan.↩︎
La modificación fue introducida por el art. 3, apartado 7, del Decreto Legislativo 05/08/2024, n. 108 aplicable a las comunicaciones tramitadas a partir del 1 de enero de 2025.↩︎
Para la regulación del acuerdo de conciliación preventiva de dos años, véase el Decreto Legislativo 12 de febrero de 2024, n. 13 y Decreto Legislativo 5 de agosto de 2024, n. 108. Para estudios sobre la nueva legislación, véase F. PAPARELLA, Liquidación preventiva y derogación de los ingresos reales, en E. DELLA VALLE – F. PAPARELLA (editado por), Controles fiscales. La reforma fiscal entre la evaluación y el estatuto del contribuyente, en I libri del Sole 24 Ore Settimanale, 2024, 11, pp. 40 y sigs.; A. GIOVANNINI, Ausente umbral contradictorio y de desviación a ajustar, en ult. op. cit., págs. 44 y sigs.; IDEM, Liquidación preventiva y planificación jurídica de rentas, en Rass. Trib., 2024, 3, págs. 510-534; M. VERSIGLIONI, Sólo el acuerdo con la verdad, verdadero, en ult. es válido. op.ult.cit., págs. 46 y sigs.; D. CANÉ, La doble cara del concordato preventivo en la reforma fiscal, entre la imposición y la colaboración, en Riv. Trim.diri.trib, 1, 2024, págs. 107 y ss. Para los análisis relativos a la propuesta incluida en la ley de delegación, véase A. GIOVANNINI, La carga fiscal “a la carta” y el acuerdo bienal, en Riv. Trim.dir.trib., 2023, 2, 4, págs. 602 y sigs.; V. MASTROIACOVO, Procedimientos de evaluación y nueva relación entre las autoridades fiscales y los contribuyentes en la ley de delegación de la reforma fiscal, en Rass. trib, 2023, 3, págs. 479 y sigs.; L. NICOTINA, El enigma del acuerdo preventivo de dos años: una institución que corre el riesgo de acabar, una vez más, en fracaso, n. 1/2024 (publicada en línea el 9 de enero de 2024, www.rivistadirittotributario.it).↩︎
En este sentido, véase. PL. CARDELLA, El acuerdo preventivo bienal: la preparación de la propuesta, su aceptación y el uso marginal de las “nuevas tecnologías”, n. 2/2024 (publicada en línea el 30 de julio de 2024, www.rivistadirittotributario.it).↩︎
Véase A.d.E., Información sobre la lógica subyacente a los modelos de análisis de riesgos basados en los datos del archivo de informes financieros, disponible en www.agenziaentrate.gov.it, p. 10, donde se asegura que el análisis probabilístico sólo sirve para corroborar los resultados de los análisis deterministas, con la consecuencia de que “ningún contribuyente puede ser identificado como fiscalmente riesgoso exclusivamente sobre la base de los resultados de un modelo predictivo”.↩︎
En este sentido sobre la descripción de la técnica de análisis en A.d.E., Información sobre lógica, op.ult.cit., incluso si se refiere al modelo de análisis de riesgo fiscal.↩︎
Véase Decreto Ministerial. 14 de junio de 2024 sobre la aprobación de la metodología relativa al convenio preventivo bienal y Decreto Ministerial. 15 de julio de 2024 en el destinado a los contribuyentes acogidos al régimen de tipo fijo.↩︎
Para una crítica de la representatividad de la ISA, véase D. CANÉ,op. ult.cit.141-145.↩︎
Consulte el Plan de la Agencia Tributaria en el Anexo 2 del acuerdo trienal para los ejercicios 2024-2026 entre el Ministerio de Economía y Finanzas, la Agencia Tributaria y la Agencia Tributaria-Recaudación.↩︎
Ver arte. 5 del acuerdo trienal para los ejercicios económicos 2024-2026 antes mencionado.↩︎
V.p. 54 del Plan de la Agencia Tributaria citado anteriormente.↩︎
Así es el arte. 10-nonies del l. 27/07/2000, n. 212 insertado por el art. 1, compañía. 1, carta m), Decreto Legislativo 30 de diciembre de 2023, n. 219 en aplicación del art. 4, compañía 1, carta n. 3 de la Ley Núm. 111/2023 sobre “delegación en el Gobierno para la reforma fiscal”↩︎
Véase pág. 28 del Plan de Recaudación de la Agencia Tributaria del Anexo 4 del citado acuerdo trienal para los ejercicios 2024-2026.↩︎
Esto es lo que sabemos de fuentes de prensa, Disputas fiscales, la primera base de datos de méritos está en línea. Lussana (Cpgt): «Esperamos más aportes del Mef», en Il Sole 24 ore del 27 de junio de 2024.↩︎
Éstos son los documentos previstos por el art. anterior. 10-sexies, es decir, circulares, respuestas a solicitudes de asesoramiento jurídico y consultas, resoluciones y cualquier otro acto interpretativo.↩︎
Véase el párrafo 2 de la disposición en comentario.↩︎
En el arte. 2, párrafo 1, letra. b1), de la ley núm. 111/2024 establece que el objetivo de “prevenir, combatir y reducir la evasión y la elusión fiscal” también puede lograrse mediante “el uso de tecnologías digitales y soluciones de inteligencia artificial”. Se trata de una fórmula amplia e indeterminada, que no puede reducirse a un mero análisis de riesgos (contemplado separadamente por la misma disposición), y que por tanto podría, en teoría, incluir también actividades auxiliares a la evaluación.↩︎
En la nota al art. 4 de la citada Carta Ética, que enuncia el principio de transparencia, imparcialidad y corrección, se observa que «La puesta a disposición del público de algoritmos completos o del código del software subyacente es una solución poco probable en este contexto, ya que las empresas privadas consideran su algoritmo como un software propietario clave que está protegido». En este punto, la doctrina administrativa sostiene la necesidad de introducir un “principio de máximo acceso algorítmico” (D.U. GALETTA, op. cit., p. 21). Según un autor, la filosofía subyacente al artículo puede resumirse de la siguiente manera. “no hay que tener miedo de acompañar la evolución tecnológica, siempre que no se debilite la función judicial de protección de los derechos” (R. BICHI, Inteligencia artificial entre ‘calculabilidad del derecho y protección de los derechos’, en Giur. it,, 2019, p. 1772 ss.)↩︎
Como recuerda la Comisión Europea para la Eficacia de la Justicia, «la neutralidad de los algoritmos es un mito, ya que sus creadores transfieren a ellos, consciente o involuntariamente, sus propios sistemas de valores» (Carta Ética, p. 46).↩︎
El tema de la oposición entre el poder de la Administración pública y la protección de los administrados en la era del “big data” es resaltado agudamente en sus muchos aspectos críticos por D.U. GALETTA, La administración pública en la era de las bases de datos y las redes de intercambio de información: ¿empoderar el poder administrativo o simplemente servir mejor a los ciudadanos?, en Derecho público europeo, 2019, pág. 171 y sigs.↩︎
Se trata de la conocida cuestión de la caja negra, sobre la que el Grupo de Alto Nivel sobre Inteligencia Artificial, creado por la Comisión Europea, expresó recientemente una opinión muy crítica en su documento «Directrices éticas para una IA fiable» del 8 de abril de 2019. En concreto, leemos lo siguiente: «La explicabilidad es crucial para generar y mantener la confianza de los usuarios en los sistemas de IA. Esto significa que los procesos deben ser transparentes, las capacidades y los propósitos de los sistemas de IA deben comunicarse abiertamente y las decisiones, en la medida de lo posible, deben ser explicables a los afectados directa e indirectamente. Sin dicha información no es posible impugnar debidamente una decisión. «No siempre es posible explicar por qué un modelo ha generado un resultado o una decisión particular (y qué combinación de factores de entrada contribuyó a ello)» (p. 13).↩︎
Un ejemplo podría ser quizás el de las investigaciones basadas en herramientas estadísticas, como la declaración de la renta.↩︎
La tesis está apoyada por D.U. GALETTA,op. cit., pág. 14. Por otra parte, la Administración Financiera también reconoce esta necesidad mínima de protección: en la citada nota de prensa de 4 de marzo de 2021, se indica explícitamente que las actividades realizadas con la ayuda de máquinas inteligentes “no se traducen automáticamente en la emisión de documentos tributarios, sino que deben incluirse en un proceso más amplio que debe basarse en el cumplimiento del principio de contradicción y de colaboración y buena fe entre la Administración tributaria y el contribuyente, tal y como establece el Estatuto de los Derechos del Contribuyente”.↩︎
Sobre esta delicada cuestión, véase la profunda reflexión de F. PATRONI GRIFFI, Decisión robotica y juez administrativo, 2018, disponible en https://www.giustizia-amministrativa.it.↩︎
Según A. SIMONCINI, op. cit., pág. 56, hay una “evidente fuerza ‘práctica’ de todo automatismo evaluativo que, por una parte, libera al decisor de la carga de la motivación, del peso del examen y de la motivación; Por otra parte, le permite calificar su decisión con un sello de”cientificidad” o de “neutralidad” que hoy rodea la evaluación algorítmica y le confiere una “autoridad” peculiar, aunque infundada”. En el mismo sentido MARELLO, op. cit., aclara que “todo instrumento tecnológico tiene, para el hombre común, un aura de objetividad y de necesidad”, añadiendo además que “en cuanto se adquiere un cierto conocimiento del instrumento, se comprende, por el contrario, su parcialidad y su dependencia de un proyecto y de hipótesis teóricas (y realizaciones prácticas) altamente subjetivas”.↩︎
Este es el Considerando 15.↩︎
Ver arte. 1, párrafo 681, de la ley núm. 160/2019, que modificó el art. 2-sexies del Decreto Legislativo n. 196/2023.↩︎
Véase, en particular, el art. 23.↩︎
Dictamen del Garante sobre el proyecto de decreto legislativo que contiene disposiciones sobre la liquidación de impuestos y la liquidación preventiva bienal, núm. 3 de 11 de enero de 2024.↩︎
Véase también A. MARCHESELLI, op. cit., quien observa que «los preceptos del código de circulación (no pasar un semáforo en rojo, no circular a más de 50 km/h) se refieren a objetos simples y están formulados con claridad. “Los preceptos tributarios son objetos complejos, regulados con una técnica regulatoria deficiente”.↩︎
El fallo emitido por el juez del condado de La Crosse indicó que, mediante el uso del algoritmo, el acusado “ha sido determinado como un individuo de alto riesgo para la comunidad (…) su historial personal y herramientas de evaluación de riesgos sugieren una alta probabilidad de reincidencia”.↩︎
Según la Corte Suprema de Wisconsin, “cuando se utiliza correctamente, el software COMPAS no viola el derecho del acusado al debido proceso, porque el Tribunal del Condado dejó en claro que su consideración de las puntuaciones de riesgo de COMPAS también estaba respaldada por otros factores independientes (…). Su uso, por tanto, no fue decisivo para decidir (…). COMPAS es sólo una herramienta a disposición de un tribunal que sigue siendo libre de confiar sólo en partes de ella y rechazar otras.”↩︎
Se puede encontrar un resumen eficaz en Regulating Artificial Intelligence for Use in Criminal Justice Systems in the EU. Documento de política, publicado por la organización privada Fair Trials (https://www.fairtrials.org/app/uploads/2022/01/Regulating-Artificial-Intelligence-for-Use-in-Criminal-Justice-Systems-Fair-Trials.pdf).↩︎
Señala que “en los últimos años se han creado prototipos de ‘justicia predictiva’, pero han dado resultados sustancialmente negativos” Farri, “La justicia predictiva en materia fiscal”, en Rivista telematica di diritto tributario, 12 de octubre de 2022, https://www.rivistadirittotributario.it/.↩︎
S. QUATTROCOLO, Procesos penales justos y los desafíos de la sociedad algorítmica, en Inteligencia artificial y derecho. Cómo regular un mundo nuevo (editado por D’ALOIA), Milán, 2020, p. 267 y sigs., pág. 278.↩︎
A. MARCHESELLI señala esto: Consideraciones heterodoxas sobre el elemento subjetivo de las sanciones fiscales. Responsabilidad estricta, gestión de riesgos, inteligencia artificial, ética profesional y ética del lucro, en Riv. tel. dir. trib., 12 de abril de 2021, https://www.rivistadirittotributario.it/, según el cual esta presunción «entra en conflicto frontal con el principio, propio del derecho punitivo, según el cual existe la presunción opuesta, la de inocencia».↩︎
Se ha observado, a este respecto, que «a la Administración Financiera se le han atribuido funciones de justicia que normalmente deberían ser ejercidas por un tercero – en el proceso penal, el juez – respecto de las partes en la relación sancionadora» (M. PIERRO, El responsable de la sanción administrativa tributaria: art. 11 decreto legislativo n. 472 de 1997, en Riv. dir. fin. e sc. fin., 1999, p. 248).↩︎
Sobre las características de la reforma del sistema de sanciones, véase, entre otros, R. CORDEIRO GUERRA, Sanciones administrativas tributarias, en Digest of private law disciplines. Sección Comercial, Actualización, Turín, 2017, p. 456 y sigs.; L. DEL FEDERICO, Introducción a la reforma de las sanciones administrativas tributarias: los principios sustanciales del Decreto Legislativo n. 472/1997, en Riv. Dir.Trib., 1999, pág. 1041 y sigs.; R. LUPI, Primeras observaciones sobre el nuevo sistema de sanciones fiscales administrativas, en Rass. Trib., 1998, I, pág. 327 y sigs.↩︎
Un autor observa que «la elección hecha por la ley de delegación (…) es una clara elección en favor de un régimen de naturaleza sustancialmente penal» (R. CORDEIRO GUERRA, op. cit., p. 459).↩︎
Este enfoque se ha desarrollado en la jurisprudencia del CEDH desde 1976, con la conocida sentencia Engel (CEDH, 8 de junio de 1976, Engel c. Países Bajos).↩︎
Sobre este punto, véase la sentencia Jussila (TEDH, 23 de noviembre de 2006, Jussila c. Finlandia).↩︎
Según A. SIMONCINI, op. cit., p. 56, existe una «clara fuerza “práctica” de todo automatismo evaluativo que, por un lado, libera al decisor de la carga de la motivación, de la carga del examen y de la motivación; por otro, le permite calificar su decisión con un crisma de “cientificidad” o “neutralidad” que hoy rodea a la evaluación algorítmica y le confiere una peculiar, a la vez que infundada, “autoridad”». En el mismo sentido E. MARELLO, op. cit., aclara que «todo instrumento tecnológico tiene, para el profano, el aura de la objetividad y de la necesidad», añadiendo, sin embargo, que «en cuanto se adquiere cierta conciencia del instrumento, se comprende, por el contrario, su parcialidad y su dependencia de un proyecto y de hipótesis teóricas (y de realizaciones prácticas) fuertemente subjetivas».↩︎
Así A. MARCHESELLI, Consideraciones heterodoxas sobre el elemento subjetivo de las sanciones fiscales…, cit.↩︎
Se recordará que, desde la sentencia Ferrazzini, el Tribunal Europeo de Derechos Humanos había negado que los procedimientos fiscales, al ser una manifestación de la soberanía estatal, implicaran la igualdad de las partes y, por tanto, la aplicación de las garantías procesales del debido proceso. Sin embargo, la necesidad de mantener la plena protección en el contexto de las sentencias sancionadoras pronto llevó al Tribunal a esperar que, en el contexto de las sentencias relativas a las relaciones fiscales, se respetaran los derechos del artículo 6 en lo que se refiere precisamente a los aspectos sancionadores.↩︎
Sobre la necesidad de un enfoque de las cuestiones de digitalización centrado en los derechos, véase A. CONTRINO – S.M. RONCO, Primeras reflexiones y apreciaciones sobre la protección de datos personales en materia tributaria a la luz de la jurisprudencia del Tribunal de Justicia y del Tribunal EDU, en Dir. Prat. Trib. Int., 2019, p. 599 y ss.↩︎