1 Introducción
El uso de la inteligencia artificial (en adelante, IA) puede mejorar los distintos procesos administrativos que desarrollan las administraciones tributarias. No obstante, es importante abordar los riesgos que el uso de estas tecnologías puede suponer. En este sentido, ESEVERRI ha augurado que la irrupción de la IA en los procedimientos tributarios provocará una merma de los derechos y garantías de los obligados tributarios.1 El presente trabajo analizará en qué medida el uso de esta tecnología puede afectar a tales derechos fundamentales.
El hecho de que la IA pueda dar lugar a ciertas amenazas para las libertades fundamentales de los contribuyentes no ha de tener como consecuencia que se proscriba su uso. Las administraciones tributarias no pueden prescindir de esta y otras tecnologías informáticas para el desarrollo de diversas tareas que requieren un procesamiento masivo de datos, pues su uso puede mejorar enormemente las diversas funciones administrativas. Ahora bien, es preciso establecer medidas que aseguren un uso responsable, seguro y ético de la IA, siendo uno de los aspectos fundamentales para lograr este objetivo la protección de los derechos de los contribuyentes. Esta visión la ha compartido recientemente la propia Administración tributaria española, pues en el documento “Estrategia de IA de la Agencia Tributaria (en adelante, AEAT), de 27 de mayo de 2024”,2 se hace referencia reiteradamente a estos principios en el marco de la estrategia planteada para el desarrollo y uso de la IA.3
Ahora bien, hay que tener presente que no existe en la actualidad ninguna norma que, específicamente, regule el desarrollo y uso de esta tecnología por las administraciones tributarias. El Reglamento de la UE sobre IA4 no afecta por igual a todas las actividades humanas y apenas tendrá efectos en relación con los sistemas utilizados por las administraciones tributarias y aduaneras en sus procedimientos administrativos, en la medida en que se excluyen de la calificación de alto riesgo.5 Esto supone que no se aplicarán las reglas más estrictas que corresponden a este tipo de sistemas,6 sino tan solo determinadas normas de transparencia, lo que no va a contribuir de manera relevante a la mejora de los derechos de los contribuyentes.7 Tampoco existe ninguna normativa nacional que se refiera a la aplicación de estas tecnologías en el ámbito tributario.
Es esencial superar este vacío normativo, para lo cual se deberá establecer el marco jurídico adecuado y los mecanismos preventivos que permitan promover un desarrollo y utilización responsable y transparente de estas tecnologías en los procedimientos tributarios. Se ha de priorizar un uso ético de la IA, fundamentado en el debido respeto a los derechos y garantías de los contribuyentes, así como en los nuevos derechos que han de fortalecerse y consolidarse para la protección de los ciudadanos en la era digital. El reto de los juristas es proponer reformas normativas que se ajusten a los principios indicados.
En cualquier caso, a falta de una regulación específica, la aplicación de estas tecnologías se realiza en el marco del ordenamiento jurídico existente, que establece los principios en los que han de sustentarse las actuaciones administrativas. Además, estas han de respetar, en todo caso, los derechos y garantías de los ciudadanos afectados por las mismas. A continuación, va a ser objeto de estudio de qué modo tales principios y derechos pueden operar como límite a las administraciones tributarias que utilicen las herramientas basadas en IA y en el tratamiento masivo de datos. Los contribuyentes afectados por estas actuaciones administrativas gozan de todos los derechos que le asisten en orden a su defensa jurídica, por lo que en sus recursos frente a los actos administrativos que les afecten podrán hacer referencia a todas aquellas cuestiones que se hayan planteado a lo largo de aquellos, incluidas las relativas al uso de la IA.
2 Los principios que rigen la actuación de las administraciones tributarias como garantía del buen uso de la IA
En el despliegue y uso de las herramientas de IA en los procedimientos tributarios, las administraciones tributarias deben cumplir con todos los principios que inspiran y ordenan la actuación administrativa. GARCÍA-HERRERA señala que las administraciones que adopten las tecnologías de big data e IA deben regirse por los principios de prudencia, de no discriminación, de proporcionalidad, de transparencia o de gobernanza de datos.8 Las limitaciones de espacio nos impiden abordar un estudio integral de esta cuestión, por lo que, a continuación, nos vamos a ceñir a analizar con mayor profundidad solo algunos de los principios que son básicos a estos efectos, como los de proporcionalidad, buena administración, transparencia y seguridad jurídica.
2.1 El principio de proporcionalidad
El principio de proporcionalidad se incluye entre los principios que informan el procedimiento administrativo, siendo básico en la ordenación de las potestades. Cumple un papel de enorme relevancia, pues debe orientar al legislador en la regulación de los procedimientos de aplicación de los tributos y debe guiar en el uso de la potestad reglamentaria.9 Es también reconocido como un principio fundamental en la aplicación del sistema tributario por el artículo 3.2 de la Ley 58/2003, de 17 de diciembre, General Tributaria (en adelante, LGT).10 Además, es un principio que utiliza continuamente la jurisprudencia nacional o europea como medio de control de las actividades del legislador y de la Administración. De esta forma, resulta totalmente operativo como medio de control de la actividad de las administraciones tributarias, que deben ajustarse en la medida de lo posible a los criterios que se deducen del mismo. Este principio afecta a todas las actuaciones y a los actos de aplicación del sistema tributario, pues determina el modo en que ha de desenvolverse la relación del poder con los derechos fundamentales. Más allá de un límite a los distintos poderes, refleja el modo en que ha de entenderse la aplicación de los tributos en una sociedad democrática, por lo que debe regir todo proceso de toma de decisión en el marco de los procedimientos tributarios. Cualquier tratamiento de datos tiene que pasar por el tamiz del principio de proporcionalidad, lo que exige el respeto de los tres criterios que lo conforman: idoneidad, necesidad y ponderación de la medida o principio de proporcionalidad en sentido estricto.
En primer término, este principio supone la adecuación de los medios empleados en las actuaciones administrativas a los fines que las justifican.11 Aunque el objetivo que se persigue con las mismas puede ser perfectamente lícito, el medio utilizado para conseguirlo puede no serlo, por no resultar adecuado a dicha finalidad. Por tanto, se ha de justificar que el uso de las herramientas tecnológicas empleadas y del tratamiento de datos se adecua a los fines que se persiguen. Además, se han de tener en cuenta todos aquellos aspectos que son esenciales en el marco de los distintos procedimientos administrativos para que sea posible el control de la idoneidad de los actos y de las actuaciones administrativas. A tal efecto, existen determinados trámites que son absolutamente imprescindibles, como la realización de alegaciones por el interesado y/o el trámite de audiencia, que se regulan en las letras l) y m) del artículo 34.1 de la LGT. Ahora bien, el aspecto esencial para realizar este control de idoneidad es la motivación de los actos, pues su ausencia o insuficiencia determina la indefensión de los obligados tributarios. Precisamente, este es uno de los problemas que tienen los procedimientos que se resuelven de forma automatizada mediante cualquier tecnología basada en algoritmos, pues la realidad demuestra las carencias en la motivación de la informática decisional.12 La motivación debe ser individualizada, atendiendo a las condiciones del caso concreto, por lo que un documento que incorpore frases estereotipadas que se repiten en todas las decisiones no supera esta exigencia. Difícilmente, la motivación de un sistema de IA puede alcanzar la suficiente riqueza jurídica, particularmente cuando se trata del ejercicio de potestades discrecionales o cuando la decisión administrativa dependa de la interpretación jurídica de un texto normativo, pues la IA no tiene aún la capacidad de razonamiento jurídico de los seres humanos. Por ello, en este tipo de situaciones, la Administración se expone a que muchos actos tributarios sean anulados por falta o incorrección de la motivación. No obstante, en diferentes documentos la AEAT ha señalado que no utiliza sistemas de IA para el dictado de decisiones automatizadas, por lo que mientras que esta realidad no cambie no se planteará el problema señalado.13
En segundo lugar, se habrá de justificar la necesidad del tratamiento de datos mediante sistemas de IA, pues el principio de intervención mínima es un componente imprescindible del principio de proporcionalidad. Es un principio reconocido desde hace años en la normativa administrativa y tributaria,14 así como en la jurisprudencia del Tribunal Supremo (en adelante, TS), que lo elevó a la categoría de principio general aplicable a todas las administraciones públicas. El principio exige que, cuando se pueda elegir entre varias medidas adecuadas para conseguir un mismo objetivo, se debe utilizar la menos gravosa, pues se ha de buscar la menor onerosidad posible de las actuaciones administrativas. Con este principio se trata de impedir que se agrave de forma innecesaria la situación de los obligados tributarios. Por tanto, si para conseguir el mismo fin existe una solución menos radical, es decir, una medida que suponga una menor restricción de los derechos y libertades individuales, será la preferida. La medida adoptada en contradicción con dicha regla vulnera el principio de proporcionalidad, por lo que podrán ser anuladas aquellas actuaciones administrativas que resulten, en relación con los derechos fundamentales, más restrictivas que otras posibles soluciones alternativas, siempre que estas sean de similar eficacia. Las medidas más restrictivas solo se deben adoptar cuando las demás opciones más respetuosas con los derechos de los obligados tributarios hayan fracasado. Este principio tiene una gran relevancia cuando se trata del establecimiento y cumplimiento de deberes u obligaciones formales, pues es necesario que se limiten los costes de cumplimiento de este tipo de deberes para los obligados tributarios y que las actuaciones de las administraciones tributarias que requieran su intervención en tales procedimientos se lleven a cabo en la forma menos gravosa posible.15 Este principio exige que las cargas que se impongan a los obligados tributarios no sean desmesuradas en relación con las ventajas que reportan al bien público. Por tanto, la incorporación de las nuevas tecnologías de IA a los procedimientos tributarios no puede suponer mayores cargas para los obligados tributarios, sino justamente lo contrario, un aligeramiento de la mismas.
Finalmente, será necesario tener en cuenta el principio de proporcionalidad en sentido estricto, según la denominación del Tribunal Constitucional. Dicho principio está dirigido a evitar que, como consecuencia de la actividad administrativa, se deriven mayores perjuicios que los que se pretenden evitar, realizándose una ponderación de los beneficios que derivan de la medida adoptada y las restricciones de los derechos a que da lugar. En este sentido, la LGT establece diversos preceptos que inciden en esta idea. Son normas que se refieren a procedimientos que de suyo son especialmente gravosos, como el procedimiento de ejecución forzosa,16 la adopción de medidas cautelares17 o la suspensión de los actos administrativos en la vía económico-administrativa, al admitirse en determinadas situaciones la suspensión sin garantías.18 En suma, no basta con el mero cumplimiento formal de las normas, sino que es necesario que la Administración restrinja lo mínimo posible los derechos de los obligados tributarios en su modo de actuar ordinario.
En el ámbito que está siendo analizado, el principio de proporcionalidad determina, entre otras cosas, que no son válidas las injerencias injustificadas y desproporcionadas en la esfera personal de los ciudadanos, mediante, por ejemplo, la utilización de datos personales que no tengan una mínima transcendencia tributaria o que no tengan relación con el concreto procedimiento para el que han sido captados, lo cual también se remite al principio de la pertinencia y trascendencia tributaria de los mismos, que deriva del derecho a la protección de datos.
Si las administraciones tributarias tuvieran presente todos estos principios y criterios, mejoraría la calidad de las intervenciones administrativas, se lograría un mayor respeto de los derechos de los obligados tributarios y se limitarían los costes de cumplimiento para estos y, por supuesto, se obtendrían los objetivos perseguidos con la misma eficacia. Sin embargo, aún estamos muy lejos de que esto ocurra.
2.2 El principio de buena administración
Otro principio rector de la actuación administrativa que debe cobrar protagonismo en el proceso de incorporación de la IA a los procedimientos tributarios es el principio de buena administración. La relevancia de este principio ha sido reconocida por la jurisprudencia más reciente del TS,19 así como por el TJUE en numerosos asuntos que afectan al ámbito tributario.20 Este principio se fundamenta en el artículo 41 de la Carta de Derechos Fundamentales de la Unión Europea y, a nivel interno, se puede derivar de los artículos 9.3 y 103 de la Constitución Española y de los principios generales que se recogen en el artículo 3.1.e) de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público. El TS ha defendido que a la Administración le es exigible una conducta diligente para evitar posibles disfunciones derivadas de su actuación. En virtud de este principio, las administraciones no solo deben cumplir de forma estricta con las normas procedimentales, observando todos los trámites previstos en las mismas, sino que han de asegurar la plena efectividad de las garantías y los derechos reconocidos a los obligados tributarios en la Constitución Española, en las leyes y en las demás normas de desarrollo. Para garantizar de forma real y efectiva los derechos de los contribuyentes se exige de las administraciones tributarias una conducta objetiva y diligente, mediante una actitud proactiva. La jurisprudencia destaca también que este principio constituye, según la mejor doctrina, un nuevo paradigma del Derecho del siglo XXI, referido a un modo de actuación pública que excluye la gestión negligente.
De este principio derivan una serie de derechos de los ciudadanos, así como un correlativo elenco de deberes exigibles a las administraciones públicas, que han de actuar, en el ejercicio de sus funciones, de manera justa, razonable, equitativa, imparcial, transparente y en beneficio de los ciudadanos, respetando sus derechos e intereses, tratando por igual a todos ellos, sin discriminación. Se trata de un principio que permite afianzar los derechos y garantías de los ciudadanos en los procedimientos administrativos. Se relaciona con el derecho fundamental a un procedimiento administrativo justo, sin demoras desproporcionadas, así como con otros derechos y garantías que pueden derivar de él, como los principios de transparencia, imparcialidad, acceso a la justicia y a una tutela administrativa efectiva, el derecho a la información, a la participación, a ser recibido en audiencia, a obtener una resolución administrativa en un plazo razonable, a recibir un tratamiento eficaz y equitativo de los asuntos, a que la Administración actúe de buena fe y a la motivación de las decisiones administrativas.
En relación con la materia que está siendo objeto de estudio se pueden extraer consecuencias relevantes de este principio, aunque es cierto que algunas de ellas también pueden derivarse de otros principios rectores del procedimiento tributario y de algunos de los derechos de los contribuyentes que serán examinados con posterioridad. Así, este principio exige transparencia y publicidad en el uso de la IA. También supone la necesidad de un control del uso adecuado de esta tecnología para que los resultados que derivan de la misma resulten correctos, para lo cual se deberán implementar todos los procesos dirigidos a este fin. Así, se debe establecer un protocolo de actuación y una guía de buenas prácticas, en la que se indiquen los principios y procedimientos que han de seguirse para garantizar un idóneo desarrollo de los sistemas y un buen uso de los mismos por los funcionarios. Por su parte, deben realizarse controles o auditorías internas, que garanticen el respeto de tales principios y procedimientos y, en particular, un control de los sesgos y desviaciones que puedan producir dichas herramientas. También convendría que se pudieran desarrollar periódicamente auditorías externas que avalen el buen funcionamiento de los sistemas y pongan de manifiesto las mejoras que puedan introducirse, así como el establecimiento de un sello de calidad de los algoritmos. Otro aspecto en el que incide este principio es en la obligación que recae en la Administración de motivar suficientemente los actos tributarios, pues el ciudadano tiene derecho a que las decisiones basadas en IA sean debidamente explicadas para que el sujeto pueda desplegar las acciones defensivas que el ordenamiento le ofrece. Además, también obligaría a evitar una tardanza innecesaria e indebida en el reconocimiento de los derechos que se soliciten, por lo que este principio se podría alegar para corregir aquellos supuestos en los que la demora en la resolución derive de una decisión automatizada tomada en base a un algoritmo. Por tanto, es un principio rector que debe inspirar las actuaciones administrativas en los procedimientos tributarios, pero también es un principio que se puede alegar en vía de recurso o reclamación cuando se considere que el mismo se ha vulnerado por una actuación o resolución administrativa en cualquier procedimiento de aplicación de los tributos, lo que permite hacer justicia cuando no existe una flagrante vulneración de la normativa, que es lo que puede suceder por el uso de la IA por las administraciones tributarias, dada la desregulación existente21.
2.3 El principio de transparencia
El artículo 3.1.c) de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, recoge entre los principios generales que deberán respetar las administraciones públicas el principio de “transparencia de la actuación administrativa”. La Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno, también hace referencia constantemente a dicho principio. Se trata, por tanto, de un principio fundamental de la actuación de los poderes públicos que afecta a todas las administraciones públicas.
El deber de transparencia se ha de concretar en diversos derechos que corresponden a los obligados tributarios afectados por los procedimientos tributarios en los que se utilicen sistemas basados en IA. Sin ánimo de exhaustividad, podemos citar algunos de tales derechos. Primero, debe reconocerse el derecho del contribuyente a conocer si en el procedimiento se ha utilizado un sistema de IA y el alcance de dicho uso, pues el recurso que este formalice frente a un acto lo puede fundamentar en alguna cuestión relacionada con la herramienta utilizada. Segundo, se ha de establecer el derecho de los ciudadanos a conocer las aplicaciones informáticas que utilicen las administraciones tributarias, lo que se ha de concretar en un deber de difusión de las características técnicas básicas de estas herramientas. No obstante, la normativa vigente solo recoge este deber cuando de la aplicación informática resulten decisiones automatizadas, existiendo una nula transparencia en relación con las aplicaciones que se utilizan como apoyo a la toma de decisiones, que deberían tener su propio régimen jurídico. Tercero, si un acto ha sido adoptado directamente por el sistema, se debe especificar esta circunstancia en la decisión automatizada que ponga fin al procedimiento, lo que ya es una obligación de la Administración en algún país de nuestro entorno.22 Aunque se ha planteado que este deber podría encontrar fundamento en una interpretación extensiva de la letra ñ) del artículo 34.1 de la LGT,23 lo cierto es que difícilmente se puede obligar a las administraciones a su cumplimiento, dada la amplitud de los términos de dicho precepto, por lo que sería necesaria una previsión expresa en tal sentido para que deba ser aplicada de forma obligatoria por las administraciones tributarias. En un epígrafe posterior, se analizarán más extensamente los nuevos derechos y garantías para la protección de los obligados tributarios afectados por el uso por dichas administraciones de la IA, que se reconducirán al principio de transparencia, examinándose los pilares en los que se deberá basar dicho principio a estos efectos.
2.4 El principio de seguridad jurídica
El principio de seguridad jurídica también resulta de aplicación en esta materia. La escasa regulación de la misma, unida a la opacidad existente sobre el uso de estas tecnologías, determina que exista una ausencia casi total de seguridad jurídica. En este sentido, se ha considerado que la falta de transparencia en relación con el uso de la IA podría suponer una vulneración del principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad.24 No obstante, es muy complicado que se pueda articular un recurso o reclamación tomando como base únicamente este principio jurídico, pues es difícil que un tribunal anule un acto administrativo por contravenir el mismo. En cualquier caso, como ya se ha indicado en diferentes ocasiones, sería muy recomendable que el legislador establezca el marco jurídico adecuado que permita el cumplimiento de los principios que se analizan en este trabajo.
3 Los derechos fundamentales tradicionales como garantía frente al uso de la IA y al tratamiento masivo de datos
Los derechos fundamentales constituyen una garantía frente al uso de la IA por las administraciones tributarias. Ante la ausencia de una regulación legal que desarrolle esta materia, los derechos fundamentales constituyen un límite infranqueable a la actuación administrativa. Se ha destacado que, ante los recelos y desconfianzas que genera el uso de la IA por las administraciones tributarias, estas deben ser sumamente cuidadosas en la salvaguardia de los derechos de los contribuyentes.25 Es cierto que estos derechos resultarían más operativos frente a posibles abusos si se produjera un desarrollo legislativo de esta materia, lo que permitiría realizar las adaptaciones necesarias para garantizar la protección de los obligados tributarios en este nuevo contexto tecnológico. Mientras que no se lleve a cabo esta tarea, los operadores jurídicos deben estar especialmente vigilantes para asegurar que las administraciones tributarias respeten el contenido esencial de tales derechos.
En particular, aunque no son los únicos derechos que pueden resultar afectados, se van a analizar a continuación los que, a nuestro juicio, pueden ser más relevantes a estos efectos, como el derecho a la intimidad personal y familiar, el derecho a la no discriminación o a la igualdad en la aplicación de la ley y el derecho a la protección de datos personales. Sin ánimo de exhaustividad, se van a tratar de analizar algunos de los aspectos que pueden afectar a los derechos señalados y que, incluso, podrían dar lugar a la vulneración de los mismos. A medida que vayan surgiendo las cuestiones litigiosas y los casos concretos que se planteen se resuelvan por los tribunales, se podrá comprobar la efectividad de estos derechos para erradicar los comportamientos inadecuados de las administraciones tributarias.
3.1 El derecho a la intimidad personal y familiar
El derecho a la intimidad personal y familiar se puede vulnerar como consecuencia del tratamiento de datos que, aunque puedan tener un contenido patrimonial indirecto, se refieren a la esfera personal del obligado. Esta situación se puede dar, fundamentalmente, cuando se capten datos de fuentes abiertas de forma indiscriminada,26 sin un control de la trascendencia tributaria de los mismos para una investigación concreta ya iniciada. La fase de captación de datos no puede tener carácter prospectivo, pues ello llevaría a las administraciones tributarias a obtener todo tipo de datos para, posteriormente, en la fase de tratamiento, seleccionar los que resulten más relevantes. Esta situación se puede dar, por ejemplo, para tratar de demostrar la residencia fiscal en España de una persona, pues se puede obtener una gran cantidad de información que deriva de las publicaciones realizadas en redes sociales, de tal modo que se puede manejar cierta información que carece de interés tributario y que puede afectar a la vida íntima de la persona investigada.
3.2 El derecho a la no discriminación y a la igualdad en la aplicación de la ley
La utilización de la IA por las administraciones tributarias podría reforzar la igualdad, coadyuvando a que la gestión tributaria sea más justa, pues las decisiones administrativas pueden ser más objetivas, al depender menos de la subjetividad de los funcionarios, en la medida en que esta tecnología permite que, ante una misma situación de hecho, la respuesta del sistema sea idéntica. Además, se puede conseguir una mayor eficacia y eficiencia en el uso de los recursos públicos. No obstante, las aplicaciones también son imperfectas y pueden dar lugar a resultados inadecuados, lo que genera riesgos que ponen en peligro la igualdad, pues pueden dar lugar a sesgos que se traduzcan en situaciones discriminatorias, lo que se producirá cuando de la utilización de estos sistemas se pueda derivar un trato perjudicial a una persona o a un grupo de personas, sin justificación, lo que vulneraría el principio tradicional de no discriminación. En cualquier caso, la amenaza no es la tecnología, sino el mal uso que se haga de la misma.27
Numerosos autores han coincidido en que el derecho que puede verse más gravemente afectado por el uso de la IA es el derecho a la no discriminación y, más concretamente, el derecho a la igualdad en la aplicación de la ley.28 Aunque los sesgos son consustanciales a cualquier actividad humana, el uso de aplicaciones de big data e IA pueden incrementar este tipo de situaciones, porque realizan un tratamiento masivo de datos, de tal modo que el número de personas que pueden estar afectadas por estas aplicaciones es muy alto. Para evitar que se produzcan estos casos no se han de introducir variables que den lugar a sesgos discriminatorios, pues el modelo ha de ser neutral en relación con determinadas características del ser humano, como el sexo, la raza, la religión, la ideología política, la edad, el nivel de rentas, la clase social, la nacionalidad, etc. Cuando se utilicen factores de este tipo, pese a su irrelevancia legal para la resolución del procedimiento, se pueden producir sesgos injustificados en las decisiones que se adopten, vulnerándose los principios de igualdad y no discriminación.29 La misma consecuencia se produciría si la apertura de los procedimientos de comprobación tuviera su origen en algunos de los parámetros enunciados, por lo que se han de introducir garantías para eliminar los sesgos en los datos introducidos en los sistemas de IA, aunque ello suponga una menor eficacia en la persecución del fraude fiscal.
Por otra parte, los sesgos pueden tener su origen en diferentes aspectos técnicos necesarios para el funcionamiento de los sistemas.30 En primer lugar, la situación discriminatoria puede tener su origen en los algoritmos utilizados por las aplicaciones, lo que ha motivado que se enuncie un principio de “no discriminación algorítmica”.31 En segundo lugar, la vulneración de este derecho también puede tener su origen en los datos que se hayan utilizado para entrenar el sistema, fundamentalmente cuando los casos que se hayan usado para este fin se hayan generado por la IA, pues en ese supuesto se pueden amplificar los resultados erróneos que derivan de la herramienta. Particularmente, estos sesgos discriminatorios pueden producirse en los sistemas que se utilizan para seleccionar a las contribuyentes que van a ser objeto de un procedimiento de control tributario,32 lo que dará lugar a que cierto tipo de operaciones, sectores, personas o colectividades sean investigados de forma recurrente, sin que exista un motivo para ello.
3.3 El derecho a la protección de datos personales
El derecho a la protección de datos personales es uno de los más relevantes implicados en el uso de la IA por las administraciones tributarias,33 siendo una condición para la protección de otros derechos fundamentales. De hecho, se ha destacado que en la actualidad las únicas garantías jurídicas existentes en esta materia son las que se establecen en la normativa sobre protección de datos.34 Estas normas son la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, así como el Reglamento del Parlamento y el Consejo Europeo de 27 de abril de 2016 (2016/679). No obstante, hay que tener en cuenta que estas garantías abarcan solo una parte de la problemática planteada, dado que se trata de una de las múltiples cuestiones implicadas en el empleo de la IA por las administraciones. Si se procesan datos personales a través de este tipo de herramientas se han de respetar los principios que establecen dichas normas. Ahora bien, se ha de tener presente que la disposición adicional 14ª de la Ley Orgánica 3/2018 permite la pervivencia de las normas que establezcan excepciones y limitaciones en el ejercicio de los derechos que estuvieran en vigor antes del RGPD. Esto supone que sigan vigentes los artículos 23 y 24 de la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal, mientras que no sean expresamente modificados, sustituidos o derogados. Estas normas permiten que las administraciones tributarias denieguen el ejercicio de los derechos reconocidos en los artículos 15 a 22 del RGPD, en caso de que se obstaculicen las actuaciones administrativas tendentes a asegurar el cumplimiento de las obligaciones tributarias y, en todo caso, cuando el afectado esté siendo objeto de actuaciones inspectoras. Por tanto, el análisis de las implicaciones de la IA en este derecho se ha de realizar teniendo en cuenta este punto de partida.
A efectos de la protección de datos personales se han de cumplir los principios que recoge la normativa señalada, tales como los de transparencia, pertinencia, calidad, veracidad y control de los datos que se capten. El principio de transparencia exige la aplicación de las reglas que se contienen en los artículos 12 a 14 del RGPD, y, además, que se elabore un Registro de las actividades de tratamiento, conforme al artículo 30 del RGPD. Por otra parte, las normas establecen que los datos personales solo se podrán utilizar para una finalidad que se haya determinado previamente, lo que obliga a que los datos sean pertinentes para ese fin, de tal forma que no se podrán tratar datos que no sean necesarios, es decir, que no tengan trascendencia tributaria en el concreto procedimiento para el que los mismos sean captados. Dado que las herramientas de IA permiten un tratamiento masivo de datos, se corre el riego de que se utilice un número de datos mucho mayor que el que se necesita, cuando el tratamiento se debe hacer con la menor cantidad de datos personales que permitan cumplir el propósito del mismo. Además, debe existir un control sobre el almacenamiento de esta información con trascendencia tributaria, pues solo se puede conservar y procesar para el concreto procedimiento para el que se obtuvo y durante un periodo de tiempo limitado, por lo que debería destruirse una vez que la resolución que ponga fin al mismo haya quedado firme. En definitiva, los datos no pueden conservarse de manera indefinida de forma prospectiva, por si pudieran ser útiles en una investigación futura sobre el mismo contribuyente u otra persona relacionada con este. Todos estos principios se pueden poner en peligro por la captación indiscriminada de datos de un obligado tributario, particularmente cuando se realiza de fuentes abiertas, pues es fácil que se vean comprometidos datos personales sin trascendencia tributaria y que no tienen relación directa con el procedimiento para el que se captaron. Además, la extracción de datos de este tipo de fuentes, particularmente de redes sociales, pone en peligro la exactitud y la veracidad de los mismos, pues los datos no están contrastados, por lo que su procesamiento puede dar lugar a resultados incorrectos. En lo relativo al control de la información, las administraciones tributarias han de tener previstas todas las medidas técnicas y organizativas que aseguren la seguridad de los datos conservados o tratados, evitando la comunicación o los accesos no autorizados a los mismos. En definitiva, se han de implementar todos los mecanismos que permitan una adecuada gobernanza de estos datos.35 Estas medidas se deben revisar periódicamente, teniendo en cuenta el estado de la tecnología, la naturaleza de los datos y los riesgos a los que están expuestos.
Por otra parte, es muy relevante determinar si resulta de aplicación a estos efectos lo dispuesto en el artículo 22.1 del RGPD, que establece un derecho a no ser objeto de decisiones totalmente automatizadas, incluida la elaboración de perfiles.36 No obstante, el apartado 2 del mismo precepto permite este tipo de decisiones en determinados casos. Así, la letra b) lo admite cuando la decisión “está autorizada por el Derecho de la Unión o de los Estados miembros”. Por tanto, cuando se prevea expresamente por la normativa nacional, como así hace la LGT,37 el contribuyente no podrá oponerse a recibir una decisión totalmente automatizada como modo de finalización de los procedimientos. Coincidimos con PÉREZ BERNABEU en que los contribuyentes tampoco podrán alegar el derecho comentado cuando se trate de una decisión semiautomatizada, es decir, cuando derive de una herramienta de apoyo a la toma de decisión.38 Finalmente, otro aspecto relevante es la posibilidad de que las administraciones tributarias establezcan perfiles de riesgo de forma automatizada a efectos de hacer una clasificación o segmentación de los contribuyentes que pueden dar lugar a consecuencias relevantes en la situación jurídica de estos. Estas actividades de segmentación de los contribuyentes se pueden desarrollar tanto en el ámbito del control tributario, para que las inspecciones se centren en contribuyentes que tienen un alto riesgo de haber defraudado, como en el de la recaudación, pues los deudores se podrían clasificar en función del riesgo de morosidad, de tal forma que, por ejemplo, quienes no cumplan en plazo con las obligaciones de pago podrían tener más dificultades para acceder a un aplazamiento o fraccionamiento.39 Se ha de analizar si el derecho de los ciudadanos en relación con la elaboración de perfiles que establece el artículo 22.1 del RGPD resulta de aplicación en el ámbito tributario. Este tipo de herramientas no están previstas en la normativa, por lo que no concurren las condiciones de la excepción prevista en el artículo 22.2.b) del RGPD, aunque los artículos 23 y 24 de la Ley Orgánica 15/1999 permiten que las administraciones tributarias denieguen los derechos que derivan del artículo 22.1 del RGPD cuando obstaculicen las actuaciones administrativas tendentes a asegurar el cumplimiento de las obligaciones tributarias y, en particular, en caso de que se desarrollen actuaciones inspectoras.40
4 Los nuevos derechos y garantías para la protección de los contribuyentes afectados por el uso de la IA por las administraciones tributarias. Su reconducción al principio de transparencia y al deber de motivación
La doctrina ha planteado que, debido a los riesgos que supone el uso de estas nuevas tecnologías de procesamiento de la información, los derechos tradicionales que se han analizado en el epígrafe anterior no son suficientes para una adecuada protección de los obligados tributarios. En tal sentido, se considera que es preciso la introducción de nuevas garantías específicas cuando en los procedimientos se utilicen herramientas basadas en IA y en las tecnologías de tratamiento masivo de datos. En realidad, muchas de estas garantías tienen que ver con la aplicación de un principio de transparencia, que debe operar tanto en la transmisión de la información hacia la sociedad como al obligado tributario que esté afectado por un procedimiento en el que se empleen estas herramientas. En la actualidad, solo están previstas algunas reglas de transparencia en relación con las aplicaciones que den lugar a decisiones automatizadas, sin que tampoco se exija la publicación de muchos detalles sobre el funcionamiento de las mismas.41 Es preciso profundizar y mejorar los deberes de información a la ciudadanía, debiéndose extender estas garantías a las herramientas de apoyo a la gestión y a la toma de decisiones,42 para lo cual se tendrá que ofrecer una información básica sobre el funcionamiento de los sistemas de IA que utilizan las administraciones tributarias. A nuestro juicio, el principio de transparencia, en relación con las herramientas basadas en IA, se ha de basar en tres pilares.
El primero consiste en que las administraciones tributarias den información sobre las herramientas que utilizan para el procesamiento masivo de datos, lo que debería incluir una breve descripción de los elementos técnicos de las mismas. Es todo lo contrario de lo que ocurre actualmente, pues solo se publican aquellas aplicaciones que dan lugar a decisiones automatizadas. Tras la derogación por la Ley 11/2007 del artículo 45.4 de la Ley 30/1992,43 no hay base legal para que se obligue a las administraciones a publicar los datos sobre las herramientas informáticas que utiliza. Ninguna otra norma posterior, incluida la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno, ha introducido un deber de difusión de las características técnicas de los programas. Se debería obligar a publicar en un registro público el nombre y las características técnicas principales de todas las herramientas que se utilicen,44 siempre que con ello no se comprometa el buen fin del procedimiento en el que las mismas se apliquen. A tal efecto, se propone una transparencia razonable a la hora de publicar las herramientas informáticas que usan las administraciones tributarias, tanto las que den lugar a resoluciones administrativas automatizadas como las que se utilicen como sistemas de apoyo a la toma de decisiones,45 lo que supondría un cambio muy relevante en relación con este último tipo de herramientas.
El segundo pilar es la necesidad de que se introduzca un deber de informar a los obligados tributarios afectados por un procedimiento en el que se utilicen herramientas basadas en IA. Así debería ser cuando se trate de una decisión automatizada, pues se debería indicar de forma expresa en la resolución que dicho acto se ha realizado íntegramente mediante una aplicación informática, si bien en la actualidad no existe el deber jurídico de comunicar este dato. Pero también debería informarse de que el inicio de un procedimiento de comprobación ha tenido su origen en un sistema de IA predictiva, pues este deber de transparencia debería afectar también a los sistemas de ayuda a la toma de decisión.
El tercer pilar es el establecimiento de un deber de publicar determinados aspectos técnicos de las herramientas utilizadas. En particular, se ha planteado la posibilidad de configurar un principio de “explicabilidad algorítmica”.46 En virtud de este principio, se rechaza que las decisiones de las administraciones tributarias se puedan adoptar mediante una fórmula matemática completamente opaca. Ahora bien, la aplicación de este principio nos genera bastantes dudas y, de hecho, existen distintas sensibilidades en la doctrina a la hora de determinar su alcance y cómo se ha de interpretar o entender. Parte de la doctrina ha considerado que del mismo se deriva un derecho que permite a los ciudadanos tener acceso a determinados aspectos de la arquitectura de los programas utilizados y, en particular, al código fuente o a los algoritmos que determinan los resultados del sistema e, incluso, también podría alcanzar a los datos de entrenamiento que se hayan utilizado. Otros autores consideran que solo debería darse conocimiento de la arquitectura decisional de estas herramientas si los algoritmos decidieran automáticamente los procedimientos, pero no cuando estas herramientas se utilizan como apoyo a la toma de decisiones de los funcionarios.47 En cualquier caso, lo que une a estos autores es que, de un modo más amplio o más limitado, consideran que es necesario la difusión pública de los algoritmos y demás elementos técnicos que determinan el funcionamiento de las herramientas. Ahora bien, otra parte de la doctrina ha considerado que el principio “explicabilidad algorítmica” se podría reconducir al derecho a obtener una resolución motivada,48 pues la resolución de cualquier procedimiento exige una respuesta individualizada49 que incorpore un razonamiento jurídico comprensible para los destinatarios.50 Así entendemos nosotros también este principio por los siguientes motivos:
Primero, porque el conocimiento público de la arquitectura de las herramientas y, en particular, de los algoritmos que han sido utilizados, no supone una mejora de los derechos y garantías de los contribuyentes afectados por los procedimientos tributarios en los que se utilicen. Entre otros motivos, porque esta información no resultará útil para la mayor parte de los obligados tributarios, pues casi ningún contribuyente podrá entenderla. No tiene sentido que se imponga al responsable del tratamiento la obligación de ofrecer una compleja explicación matemática sobre cómo funcionan los algoritmos o, en general, las herramientas. Esta obligación se debe concretar en un deber de ofrecer una información clara en lenguaje natural de los aspectos esenciales que han motivado la resolución que se le ha comunicado, lo que se relaciona con el deber de motivar los actos administrativos.
Segundo, porque la difusión pública de todos los datos relativos a los programas podría perjudicar los objetivos de las administraciones tributarias. Así ocurre particularmente en relación con las herramientas orientadas a la lucha contra el fraude fiscal, pues la información que debe darse sobre estas herramientas no ha de comprometer la actuación investigadora de dichas administraciones, como ha sido destacado por el Consejo de Transparencia y Buen Gobierno.51 Además, en relación con las aplicaciones relativas a la prevención de los riesgos fiscales, hay que tener en cuenta que el artículo 170.7 del RGIT determina el carácter reservado de todos los sistemas de selección de los obligados tributarios que van a ser objeto de una inspección tributaria, lo que también abarca a los que se basan en los nuevos medios tecnológicos para el tratamiento de la información. Por su parte, también la doctrina ha señalado que una publicidad total de estos sistemas puede mermar la eficacia de las actuaciones de las administraciones tributarias.52 La publicación de los algoritmos en este tipo de aplicaciones podría perjudicar la eficacia de las investigaciones, pues el conocimiento público de las fórmulas matemáticas que determinan los resultados que derivan de las mismas permitiría la confección de otros programas que establezcan los niveles de fraude “consentidos”, lo que posibilitaría a los obligados tributarios la manipulación de sus datos contables y fiscales para no incurrir en los perfiles de riesgo preestablecidos. Como se ha indicado, resulta más conveniente una explicación comprensible en lenguaje natural de los elementos que han determinado que un contribuyente incurra en un perfil de riesgo y haya sido seleccionado para ser objeto de un procedimiento de control tributario que la difusión de los algoritmos que han determinado dicha conclusión.53 De hecho, los datos que hayan determinado la apertura del procedimiento deben incorporarse al expediente, además de recogerse en la motivación del acta de inspección. De esta forma, el contribuyente podrá conocerlos y oponerse a ellos en un procedimiento contradictorio, pues en el recurso que interponga frente a la liquidación derivada del procedimiento podrá discutir la validez y realidad de los datos en los que se fundamentó el inicio del mismo. En relación con el procedimiento a seguir para la utilización de las herramientas para la selección de los contribuyentes a inspeccionar, hemos propuesto que se incluya en la legislación un procedimiento de investigación previa al inicio del procedimiento de inspección,54 para evitar que estas actividades sean actuaciones de hecho carentes de regulación, como ocurre en la actualidad. Tras el seguimiento de estas actuaciones previas, habría más argumentos para determinar la adecuación o no de la apertura del procedimiento de inspección, cuando los datos reales obtenidos en tales actuaciones confirmen los indicios de fraude que resulten de las herramientas de IA predictiva, evitando molestias a los contribuyentes cuando dicho procedimiento no resulte necesario, lo que permitiría lograr una mayor eficacia y eficiencia de las actuaciones administrativas.
Tercero, cuando se enfatiza en la necesidad de que se publiquen los algoritmos que utiliza el sistema y de que se den detalles técnicos del funcionamiento del mismo se está poniendo el acento en un aspecto que, a mi juicio, no es el más importante en esta materia. Es como si en cualquier acto adoptado por un funcionario se pretendiese saber el funcionamiento del cerebro de la persona que toma esta decisión.55 En efecto, no puede ser más relevante el conocimiento de las operaciones matemáticas que han llevado a la obtención de un resultado que la decisión que se haya adoptado, pues el foco debe ponerse en la correcta motivación de dicho acto desde el punto de vista fáctico y jurídico, en la medida en que este podrá ser objeto de recurso. Es cierto que en algún caso podría ser relevante a efectos jurídicos el proceso de toma de decisión, particularmente cuando se produzcan ciertas discriminaciones que deriven de sesgos de las herramientas. Esto podría ocurrir, entre otros casos, cuando un sistema que resuelva los procedimientos deniegue sistemáticamente ciertas solicitudes sin ninguna fundamentación o si un contribuyente se ve afectado de forma regular por la apertura de procedimientos de comprobación sin justificación. Incluso en el caso de que estas decisiones puedan estar fundadas jurídicamente podría predicarse la vulneración del principio de igualdad ante la ley si se justifica que la toma de decisión esté basada en sesgos de la aplicación que se ha utilizado. Ahora bien, no es fácil determinar el carácter sesgado de una decisión, pues para saber las razones por las que el sistema ha adoptado la misma habría que auditar los casos de entrenamiento y los algoritmos que han sido programados, e incluso así no es fácil la localización de los sesgos. Además, la explicación de la decisión a veces será muy complicada, no solo por el interés de la AEAT de mantener la máxima confidencialidad sobre los modelos que emplea, sino porque en determinados tipos avanzados de IA, particularmente en los sistemas de machine learning o deep learning puede resultar prácticamente imposible entender y explicar por qué se ha llegado a un resultado concreto (black boxes). Por tanto, en los sistemas de aprendizaje automático es difícil esclarecer el proceso de toma de decisión, por lo que la única posibilidad viable es un control sobre los resultados que derivan de estas herramientas, pues, en otro caso, estos sistemas no podrían ser utilizados por las administraciones tributarias.
Cuarto, porque en la actualidad no existe la suficiente base legal para que se pueda defender que a los contribuyentes les asiste un derecho a conocer los algoritmos o los códigos fuentes de las herramientas utilizadas en los procedimientos que les hayan podido afectar. Aunque se pueden plantear explicaciones un tanto forzadas para justificar la necesidad de esta publicidad,56 el único fundamento legal podría ser diversas normas del RGPD, aunque en ninguna de ellas se establece de forma explícita que la obligación de publicidad del responsable del tratamiento alcance a los aspectos técnicos señalados. Esta es también la tesis oficial, pues así lo señalan las Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679, realizadas por el Grupo de trabajo sobre protección de datos del artículo 29 del RGPD, cuya posición coincide con la tesis que defendemos en este trabajo.57 Tampoco esta posición se puede fundamentar en la legislación española, particularmente tras la derogación del artículo 45.4 de la Ley 30/1992, al que se ha hecho referencia anteriormente. Aunque es cierto que podrían existir dudas de si las administraciones deben publicar información sobre estos datos en virtud de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno,58 no existe un reconocimiento expreso de este derecho en dicha Ley, por lo que su aplicación práctica resulta forzada, particularmente cuando esta norma se trate de aplicar a las herramientas de apoyo a la toma de decisiones. Además, este derecho podría chocar con las limitaciones que introduce el artículo 14 de la misma Ley a efectos del desarrollo de las funciones administrativas de inspección y control, cuando se trate de herramientas utilizadas por la inspección tributaria, así como con el artículo 170.7 del RGGIT, que establece el carácter reservado de todos los sistemas de selección de los obligados tributarios que vayan a ser objeto de actuaciones inspectoras, incluidos los medios informáticos de tratamiento de información. En definitiva, haría falta un cambio normativo expreso para que pudiera acogerse esta tesis, aunque ya se ha indicado que el conocimiento público de los aspectos técnicos del funcionamiento de las herramientas basadas en IA, no tendría, con carácter general, mucha eficacia en la defensa de los derechos de los obligados tributarios.59
Antes de exigir un conocimiento técnico tan profundo de las herramientas, que aporta poco a las garantías de los contribuyentes, habría que exigir cambios radicales que permitan superar la situación actual de absoluta opacidad, en la que no se sabe qué herramientas se utilizan, ni en qué tecnología se sustentan, ni qué datos se captan para alimentar estas aplicaciones o si estos se conservan o destruyen. La conclusión es que el derecho a la “explicabilidad algorítmica” se ha de reconducir, con carácter general, al derecho a la motivación de los actos administrativos, pues las decisiones que derivan de estas herramientas se han de explicar o motivar, como cualquier otra decisión de la Administración.60 De esta forma, el sistema basado en IA debe ser capaz de analizar y explicar los elementos de hecho del caso planteado y llegar a una solución jurídica adecuada que debe motivarse de forma correcta para que el destinatario pueda ejercer sus derechos de defensa. En definitiva, lo relevante es que todas las operaciones matemáticas de los sistemas de IA se reduzcan a un texto comprensible y bien fundamentado. Solo si el sistema logra cumplir estos objetivos se puede aceptar la IA como un mecanismo válido para la resolución de los procedimientos. Mientras que la IA no permita fundamentar jurídicamente de forma adecuada los casos que resuelva, no se podrá automatizar el proceso de adopción de decisiones en los procedimientos tributarios. Estas herramientas solo se podrán utilizar como ayuda o apoyo para la toma de decisión de los funcionarios, quienes deberán contrastar los resultados derivados de las mismas con los elementos fácticos obtenidos de la realidad. De hecho, la propia AEAT reconoce que en la actualidad ninguna herramienta de IA resuelve automáticamente ningún procedimiento, como se indicó anteriormente. Por tanto, no se ha de poner el acento en el proceso cognitivo, matemático e informático que lleva a la adopción de un acto concreto, por lo que no es necesaria la publicación del código fuente de los programas y los algoritmos que se utilizan. La falta de conocimiento público de estos aspectos ni genera indefensión, con carácter general, ni vulnera el derecho a la tutela judicial efectiva, al margen de que también se deben exigir cambios en la transparencia de dicho proceso. En suma, hay que centrarse en los actos singulares que derivan de las herramientas basadas en IA y en la adecuación de la fundamentación fáctica y jurídica de las decisiones adoptadas, pues lo que vulnera este derecho es la inexistencia o la insuficiencia de la motivación, por lo que este clásico derecho deberá actualizarse y ampliarse para adaptarse a estas nuevas situaciones.61
5 Conclusiones
Ni la normativa europea ni la española establecen reglas específicas que regulen el uso de la IA por las administraciones tributarias. El Reglamento de la UE excluye de la calificación de alto riesgo a las aplicaciones que utilicen dichas administraciones, por lo que no se establecen prevenciones especiales en relación con ellas, de tal forma que la incidencia de esta normativa en este ámbito será mínima. Por su parte, la normativa tributaria nacional no se refiere a la IA, aunque las herramientas basadas en ellas deben ajustarse a las normas que regulan el uso de las aplicaciones informáticas, además de respetar el marco jurídico general, en el que ya existe alguna referencia a la utilización de la IA por las administraciones públicas.
Por tanto, pese a que no existan normas que se refieren a esta materia de forma específica, los obligados tributarios no están abandonados a su suerte, pues el uso de la IA se debe realizar en el marco jurídico existente y, en particular, se han de tener muy presentes los diferentes principios que rigen la actuación administrativa, como los de proporcionalidad, buena administración, transparencia y seguridad jurídica, cuya aplicación en este ámbito ha sido objeto de estudio en el presente trabajo. Además, los obligados tributarios son titulares de numerosos derechos y garantías, que se aplican en cualquier fase del procedimiento tributario. En este sentido, una parte central de este artículo ha consistido en el análisis de los riesgos y amenazas que plantea el uso de la IA y el tratamiento masivo de datos por las administraciones tributarias en relación con algunos de los derechos fundamentales más relevantes, como son los derechos a la intimidad personal y familiar, a la no discriminación y a la igualdad en la aplicación de la ley o a la protección de datos personales. Todos estos derechos resultan de aplicación en relación con el uso de las nuevas tecnologías informáticas, con independencia de que el acto se haya dictado de forma automatizada a través de las mismas o que estas se hayan utilizado como apoyo a la toma de decisión de los funcionarios.
Los obligados tributarios también son titulares de otros derechos de nueva generación que se están comenzando a aplicar en el ámbito digital, como es el derecho a la “explicabilidad algorítmica”. No obstante, hemos concluido que este derecho es reconducible al principio de transparencia y a la necesidad de motivación en lenguaje natural de los actos administrativos, sin que sea exigible a las administraciones tributarias una publicidad absoluta de la arquitectura de las herramientas basadas en IA, por lo que no han de publicar el código fuente y los algoritmos utilizados por los programas, si bien es necesario también superar la situación de opacidad que existe actualmente. A estos efectos, se han señalado los elementos en relación con los cuales debe exigirse una mayor transparencia.
En cualquier caso, si alguna evidencia deja nuestro estudio es que es necesario establecer un marco normativo que asegure el uso adecuado de estas nuevas herramientas en las actuaciones que lleven a cabo las administraciones tributarias. El régimen jurídico que regule el uso de estas aplicaciones está por construir, al ser esencial que se refuerce el control y los límites en el desarrollo y la utilización de estas aplicaciones, así como que se logre una mayor transparencia en el uso de esta tecnología, particularmente en relación con determinados aspectos señalados en este trabajo. Y lo más relevante, se han de garantizar los derechos de los ciudadanos que puedan verse afectados por el uso de la IA, para lo cual será necesaria una reforma legislativa integral que aborde una regulación específica de esta materia. Corresponde a los juristas la exigir que la normativa evolucione en aras a establecer los mecanismos que permitan una mejor protección de los derechos y garantías de los contribuyentes que se pueden ver afectados por el uso de estas aplicaciones por las administraciones tributarias.
E. Eseverri, Garantías del contribuyente e inteligencia artificial, en L. A. Malvárez Pascual; J. J. Martos García y A. M. Pita Grandal (dirs.), Los modelos de negocio en la era digital. Tratamiento contable y fiscal e implicaciones en el procedimiento tributario y las garantías de los contribuyentes, Aranzadi, Navarra, 2023, pág. 545.↩︎
https://sede.agenciatributaria.gob.es/static_files/AEAT_Intranet/Gabinete/Estrategia_IA.pdf↩︎
Dicho documento se refiere hasta en 9 ocasiones a la necesidad de un uso ético de la IA (págs. 2, 7, 8, 11 y 13) y en 7 ocasiones a la necesidad de asegurar la protección de los derechos de los contribuyentes (págs. 2, 4, 6, 7 y 8).↩︎
Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Artificial Intelligence Act).↩︎
Vid. el considerando 59 del Reglamento.↩︎
Cuando el sistema sea calificado de alto riesgo se debe realizar una evaluación del grado de afectación de los derechos fundamentales. Sin embargo, en la medida en que los sistemas utilizados por las administraciones tributarias se excluyen de dicha calificación, no tendrán que realizar esta evaluación.↩︎
En este sentido, B. Pérez Bernabeu, “¿Nuevos? derechos de los contribuyentes frente al uso de inteligencia artificial por la Administración”, en L. A. Malvárez Pascual; J. J. Martos García y A. M. Pita Grandal (dirs.), op. cit., 2023, pág. 553.↩︎
C. García-Herrera Blanco, “El uso del Big Data y la inteligencia artificial por las administraciones tributarias en la lucha contra el fraude fiscal. Particular referencia a los principios que han de regirla y a los derechos de los contribuyentes”, en F. Serrano Antón (dir.), Fiscalidad e inteligencia artificial: Administración tributaria y contribuyentes en la era digital, Thomson Reuters Aranzadi, Navarra, 2020, págs. 307 a 314.↩︎
Vid. el artículo 129 de la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas (en adelante, LPAC).↩︎
Un estudio de los principios que enuncia dicho precepto se realiza en L. A. Malvárez Pascual, “Los principios que rigen la aplicación del sistema tributario que se enuncian en el artículo 3.2 de la LGT”, en I. Merino Jara, (dir.), Doctrina jurisprudencial aplicable tras 20 años de la Ley General Tributaria, La Ley, Madrid, 2023, págs. 49 a 89.↩︎
El principio de idoneidad se consagra en el artículo 106.1 de la Constitución Española y se establece de forma reiterada en la legislación administrativa. En la actualidad, se recoge en el artículo 34.2 de la LPAC o en el artículo 84.2 de la Ley 7/1985, de 2 de abril, reguladora de las bases del Régimen Local, si bien el primer precedente de este principio se encuentra en el aún vigente artículo 6.1 del Reglamento de Servicios de las Corporaciones Locales, aprobado por el Decreto de 17 de junio de 1955, que señala que “el contenido de los actos de intervención será congruente con los motivos y fines que los justifiquen”.↩︎
B. Pérez Bernabeu, “¿Nuevos? derechos de los contribuyentes frente al uso de inteligencia artificial por la Administración”, op. cit., págs. 560 y 561.↩︎
El Plan estratégico de la AEAT 2024-2027, pág. 59, determina que “cabe reseñar que las actuaciones administrativas automatizadas que dicte la Agencia Tributaria no descansarán, en ningún caso, de manera exclusiva en el resultado obtenido de un sistema de IA”. El mismo texto se recoge en el documento “Estrategia de IA de la AEAT”, pág. 13.↩︎
Así, el artículo 6.2 del Reglamento de Servicios de las Corporaciones Locales, aprobado por el Decreto de 17 de junio de 1955, aún vigente, establece que “si fueren varios los admisibles, se elegirá el menos restrictivo de la libertad individual”. También se establece en el artículo 100.2 de la LPAC, en relación con el procedimiento de ejecución forzosa. En el ámbito tributario, además de la referencia genérica del artículo 3.2 de la LGT al principio de proporcionalidad, el artículo 34.1.k) de dicha Ley incluye, entre los derechos y garantías de los obligados tributarios, de manera más específica, el “derecho a que las actuaciones de la Administración tributaria que requieran su intervención se lleven a cabo en la forma que le resulte menos gravosa, siempre que ello no perjudique el cumplimiento de sus obligaciones tributarias”. En relación con el procedimiento de inspección, el artículo 180.4 del Real Decreto 1065/2007, de 27 de julio, por el que se aprueba el Reglamento General de las actuaciones y los procedimientos de gestión e inspección tributaria (en adelante, RGGI), determina que “las actuaciones del procedimiento deberán practicarse de forma que se perturbe lo menos posible el desarrollo normal de las actividades laborales o económicas del obligado tributario”.↩︎
El artículo 3.2 de la LGT establece como principio básico en la aplicación del sistema tributario, junto con el principio de proporcionalidad, la “limitación de costes indirectos derivados del cumplimiento de obligaciones formales”, aunque en realidad es parte de aquel principio.↩︎
Vid. los artículos 65.5 y 172.3 de la LGT, así como los artículos 40.1 y 56.4 del Reglamento General de Recaudación.↩︎
Vid. el artículo 56 de la LPAC, así como, en el ámbito tributario, los artículos 81.3 y 146.2 de la LGT.↩︎
Vid. el artículo 233, apartados 4 y 13, de la LGT. En un sentido similar, el artículo 117.2 de la LPAC.↩︎
El TS ha dado carta de naturaleza a dicho principio desde 2017 en numerosas sentencias de la Sección Segunda de la Sala Tercera, entre las que se pueden citar las SSTS de 14 de febrero de 2017 (rec. 2379/2015), 17 de abril de 2017 (rec. 785/2016), 5 de diciembre de 2017 (rec. 1727/2016), 19 de febrero de 2019 (rec. 128/2016), 18 de diciembre de 2019 (rec. 4442/2018), 30 de septiembre de 2019 (rec. 6276/2017), 18 de mayo de 2020 (rec. 6950/2018), 11 de junio de 2020 (rec. 3887/2017), 15 de octubre de 2020 (rec. 1652/2019), 19 de noviembre de 2020 (rec. 4911/2018) o 15 de marzo de 2021 (rec. 526/2020).↩︎
Se pueden citar a estos efectos la STJUE de 14 de mayo de 2020, Asunto C-446/18, que en el punto 44 considera que la Administración tributaria tiene un deber de diligencia que le obliga a adoptar sus decisiones disponiendo de datos completos y fiables. De este deber deriva también el derecho de toda persona a que las autoridades administrativas tramiten sus asuntos de forma imparcial, equitativa y dentro de un plazo razonable. El principio también se reconoce en la STJUE de 21 de octubre de 2021, Asunto C-396/20, en la que se determina que el principio obliga a las administraciones tributarias a que tengan una actitud proactiva.↩︎
Esta función del principio de buena administración ha sido destacada por D. Marín-Barnuevo Fabo, “El principio de buena administración en materia tributaria”, Civitas, Revista Española de Derecho Financiero, nº 186, 2020, pág. 16, quien destaca que este principio “se ha convertido en un poderoso instrumento de resolución de conflictos extraordinariamente versátil que permite al TS hacer justicia del caso concreto, especialmente eficaz en los supuestos en que no existe una clara vulneración del ordenamiento jurídico tributario”.↩︎
En concreto, en Francia la LOI nº 2016-1321 du 7 octobre 2016 pour une République numérique (JORF n°0235 du 8 octobre 2016) incluyó un nuevo artículo L.311 en el Código de relaciones entre el público y la Administración, estableciendo la obligación de las administraciones públicas de incluir un “aviso explícito” informando al usuario que la decisión que le concierne fue tomada en base a un procesamiento algorítmico.↩︎
B. Pérez Bernabeu, “¿Nuevos? derechos de los contribuyentes frente al uso de inteligencia artificial por la Administración”, op. cit., pág. 559.↩︎
L. Soto Bernabeu, “La importancia de la transparencia algorítmica en el uso de la inteligencia artificial por la administración tributaria”, Crónica tributaria nº 179, 2021, pág. 119.↩︎
C. García-Herrera Blanco, op. cit., pág. 303.↩︎
En relación con este asunto puede consultarse A. García Martínez, “La obtención automatizada por las Administraciones tributarias de información de las redes sociales y otras plataformas de internet”, Revista de Contabilidad y Tributación, CEF, nº 470, 2022, págs. 5 a 40.↩︎
J. Martín López, “Inteligencia artificial, sesgos y no discriminación en el ámbito de la inspección tributaria”, Crónica Tributaria, nº 182, 2022, pág. 86.↩︎
F. Alonso Murillo, “Los derechos fundamentales como límites al empleo de inteligencia artificial en los procedimientos tributarios, en F. Serrano Antón (dir.), Inteligencia artificial y Administración tributaria: eficiencia administrativa y defensa de los derechos de los contribuyentes, Thomson Reuters Aranzadi, Navarra, 2021, págs. 55 a 96; L. Soto Bernabeu, op. cit., pág. 110 y ss.; I. Bilbao Estrada,”Disrupción tecnológica y administración tributaria: deber de contribuir, lucha contra el fraude, y derechos y garantías del contribuyente”, en AA.VV, Retos y oportunidades de la Administración tributaria en la era digital, Aranzadi, Navarra, 2019, págs. 113 a 156.↩︎
En relación con la toma en consideración de la nacionalidad por un sistema automatizado se puede hacer referencia al caso kinderopvangtoeslagaffaire, que afectó a la Administración Tributaria y Aduanera de Holanda, la cual fue objeto de una sanción y debió eliminar de sus sistemas la información sobre la doble nacionalidad de sus ciudadanos. Se puede encontrar información sobre este asunto en:
https://autoriteitpersoonsgegevens.nl/actueel/boete-belastingdienst-voor-discriminerende-en-onrechtmatige-werkwijze↩︎
S. Segarra, “Fiscalidad e inteligencia artificial”, en F. Serrano Antón (dir.), op. cit., 2021, págs. 46 a 49, explica cómo se pueden producir los sesgos en los sistemas de IA, distinguiendo entre los basados en reglas y en casos.↩︎
J. A. Eguíluz Castañeda, “Desafíos y retos que plantean las decisiones automatizadas y los perfilados para los derechos fundamentales”, Estudios de Deusto. Revista de Derecho público, Vol. 68, núm. 2, 2020, en https://revistaestudios.revistas.deusto.es/article/view/1954/2418↩︎
En relación con el uso de la IA para este fin, se puede consultar L. A. Malvárez pascual, “El uso del big data y la inteligencia artificial en la planificación de las actuaciones inspectoras”, en A. Pita Grandal, L. A., Malvárez Pascual. y C. Ruiz Hidalg. (dirs.): La digitalización en los procedimientos tributarios y el intercambio automático de información, Aranzadi, Navarra, 2023, págs. 115 a 151; J. Martín López, Inteligencia artificial y comprobación tributaria: transparencia y no discriminación, Aranzadi, Navarra, 2023.↩︎
Un estudio desde la perspectiva de las garantías sobre protección de datos puede verse en B. D. Olivares Olivares, “Transparencia y aplicaciones informáticas en la administración tributaria”, Crónica Tributaria nº 174, 2020, págs. 105 a 108.↩︎
Así lo señalan J. Martín López y B. Pérez Bernabeu, “Inteligencia artificial, machine learning e inclusión de contribuyentes en los procedimientos comprobatorios”, en F. Serrano Antón (dir.), op. cit., 2021, pág. 452.↩︎
Sobre la gobernanza de datos vid. Y. Villegas Almagro, “La gobernanza de datos en la administración tributaria a raíz de la propuesta de reglamento europeo de inteligencia artificial”, en B. Olivares Olivares (dir.), La inteligencia artificial en la relación entre los obligados y la administración tributaria: retos ante la gestión tecnológica, La Ley, Madrid, 2022, págs. 96 a 121.↩︎
En concreto, establece que “todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”.↩︎
El artículo 100.2 de la LGT señala que “tendrá la consideración de resolución la contestación efectuada de forma automatizada por la Administración tributaria en aquellos procedimientos en que esté prevista esta forma de terminación”.↩︎
B. Pérez Bernabeu, op. cit., págs. 565 y 566.↩︎
Ahora bien, la segmentación no significa que se asignen únicamente consecuencias negativas a quienes se encuentren en los segmentos peor clasificados, sino que también se deberían otorgar ciertas ventajas a los obligados tributarios que se encuentren en los escalones superiores, quienes, por ejemplo, podrían obtener aplazamientos o fraccionamientos de pago en condiciones ventajosas como recompensa a su buen desempeño en el cumplimiento de sus obligaciones tributarias.↩︎
Así lo considera B. Pérez Bernabeu, op. cit., págs. 566 y 567.↩︎
Cuando se utilice una herramienta informática de la que derive una actuación administrativa automatizada se establecen los siguientes deberes: 1º Garantizar, con carácter previo a la utilización de la herramienta, el órgano administrativo responsable de la misma, así como los órganos competentes para resolver los recursos que puedan interponerse (artículo 96.3 de la LGT y artículo 84.1 del RGGI); 2º Aprobar las aplicaciones informáticas con carácter previo a su uso (artículo 96.4 de la LGT y artículo 85 del RGGI); 3º Difundir públicamente estas aplicaciones, que se podrán conocer mediante una consulta en la página web de las administraciones tributarias (artículo 85 del RGGI).↩︎
En este sentido, B. Pérez Bernabeu, op. cit., pág. 564.↩︎
Dicho precepto señalaba que “los programas y aplicaciones electrónicos, informáticos y telemáticos que vayan a ser utilizados por las administraciones públicas para el ejercicio de sus potestades, habrán de ser previamente aprobados por el órgano competente, quien deberá difundir públicamente sus características”.↩︎
En este sentido, el artículo 16.1. l) de la Ley 1/2022, de 13 de abril, de Transparencia y Buen Gobierno de la Comunitat Valenciana, obliga por primera vez en España a una Administración pública a incorporar en su portal de transparencia información relativa a los sistemas algorítmicos o de IA que utiliza en los procedimientos administrativos o en la prestación de los servicios públicos y que sean relevantes en la toma de decisiones, con la descripción de manera comprensible de su diseño y funcionamiento, el nivel de riesgo que implican y el punto de contacto al que pueden dirigirse los ciudadanos. Para ello, se ha anunciado la creación de un Registro Público de Algoritmos de la Generalitat Valenciana, que será el primer registro público en España que centralizará y divulgará la información sobre los algoritmos utilizados por dicha Administración.↩︎
La doctrina ha exigido que estos sistemas de ayuda a la decisión cuenten con un régimen jurídico que tutele los derechos y garantías de los contribuyentes. Así lo ha señalado B. Pérez Bernabeu, op. cit., pág. 555. En el mismo sentido, L. Cotino Hueso, “Garantías frente a la huida del Derecho administrativo del uso de inteligencia artificial en el sector público”, Observatorio de la Transformación Digital Sector Público, Cátedra PAGODA, 2020, https://www.uv.es/catedra-pagoda/es/novedades-1286053802801/Novetat.html?id=1286153114002↩︎
Sobre esta cuestión puede verse el trabajo de B. Pérez Bernabeu (2021), “El principio de explicabilidad algorítmica en la normativa tributaria española: hacia un derecho a la explicación individual”, Civitas, Revista española de derecho financiero, nº 192, (BIB 2021\5557-versión electrónica).↩︎
J. Hurtado Puerta, “Big Data y la gestión tributaria”, en F. Serrano Antòn, (dir.), op. cit., 2020, pág. 181.↩︎
En este sentido, F. Alonso Murillo, op. cit., págs. 89 y 90; B. Pérez Bernabeu op. cit., págs. 25 y 33; A. Ribes Ribes, “La posición del contribuyente ante los Sistemas de Inteligencia Artificial utilizados por la Administración”, Quincena Fiscal nº 18, 2021 (BIB 2021\4910-versión electrónica), pág. 16; I. Suberbiola Garbizu, “Inteligencia artificial, opacidad y motivación de las decisiones administrativas automatizadas”, en I. Merino Jara (dir.), La protección de los derechos fundamentales en el ámbito tributario, Wolters Kluwer, Madrid, 2021, pág. 320 y ss.↩︎
F. Serrano Antón, “Inteligencia artificial y Administración tributaria. Especial referencia al procedimiento de inspección tributaria”, en F. Serrano Antón (dir.), op. cit., pág. 169.↩︎
Vid. el artículo 5 de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno, particularmente lo dispuesto en el apartado 5.↩︎
La Resolución 825/2019, de 13 de febrero de 2020, del Consejo de Transparencia y Buen Gobierno considera que “un detalle excesivo del funcionamiento de las aplicaciones señaladas sí podría afectar al correcto ejercicio de las funciones que corresponden a la AEAT. Sin embargo, ese perjuicio podría quedar anulado y, al mismo tiempo, garantizar el derecho del solicitante, aportando información sobre las aplicaciones mencionadas que, sin entrar en ese detalle comprometedor de la actuación de la AEAT, no se limitase a la descripción vaga y genérica que se proporciona en la resolución objeto de reclamación”.↩︎
Así lo consideran L. Soto Bernabeu, op. cit., pág. 124 o B. Pérez Bernabeu op. cit., pág. 564.↩︎
En este sentido, B. Pérez Bernabeu, op. cit., pág. 25. Igualmente, G. Rincón de Pablo, “El uso de la inteligencia artificial por la Administración Tributaria: ¿quién vigila a los vigilantes?”, en Garrigues Digital, (https://www.garrigues.com/es_ES/garrigues-digital/uso-inteligencia-artificial-administracion-tributaria-quien-vigila-vigilantes)↩︎
L. A. Malvárez Pascual, “Las actividades de investigación previas a un procedimiento de inspección tributaria. Una propuesta de marco jurídico para mejorar los mecanismos de selección de los sujetos inspeccionados en el contexto del estado actual de la tecnología”, Civitas, REDF, n.º 196, oct/dic 2022, págs. 127 a 175 (versión electrónica-BIB 2023\94).↩︎
J. Martín López y B. Pérez Bernabeu, “Inteligencia artificial, compliance risk management y conflictividad tributaria” en, S. Moreno González, y P. Carrasco Parrilla, (dirs.), Cumplimiento cooperativo y reducción de la conflictividad: hacia un nuevo modelo de relación entre la Administración tributaria y los contribuyentes, Aranzadi, Navarra, 2021, pág. 590.↩︎
Algunas de estas tesis se comentan en B. Pérez Bernabeu op. cit., pág. 568 y ss.↩︎
Vid. la pág. 35 del Anexo I de dichas Directrices automatizadas, en https://www.aepd.es/documento/wp251rev01-es.pdf↩︎
Así, podría considerarse que tales datos se podrían incluir en el concepto de “información pública”, a la que hace referencia el artículo 13 de dicha Ley, o en el concepto de “información de relevancia jurídica”, a la que se refiere el artículo 7 de esta misma Ley.↩︎
En este sentido, B. Pérez Bernabeu op. cit., págs. 571 y 572.↩︎
E. Gamero Casado, “Necesidad de motivación e invalidez de los actos administrativos sustentados en inteligencia artificial o en algoritmos”, Almacén de Derecho, 2021, en https://almacendederecho.org/necesidad-de-motivacion-e-invalidez-de-los-actos-administrativos-sustentados-en-inteligencia-artificial-o-en-algoritmos↩︎
B. Pérez Bernabeu op. cit., pág. 562.↩︎