SciELO - Scientific Electronic Library Online

 
vol.10 número18El impacto de la inteligencia artificial desde las Ciencias JurídicasLa justa remuneración: Análisis jurídico de la reclasificación salarial de los funcionarios administrativos índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Iustitia Socialis. Revista Arbitrada de Ciencias Jurídicas y Criminalísticas

versión On-line ISSN 2542-3371

Iustitia Socialis vol.10 no.18 Santa Ana de Coro jun. 2025  Epub 20-Mar-2025

https://doi.org/10.35381/racji.v10i18.4338 

De Investigación

Entre algoritmos y justicia: la danza regulatoria de la inteligencia artificial

Between algorithms and justice: the regulatory dance of artificial intelligence

1Universidad Pablo de Olavide, Sevilla, Andalucía, España ismel.bravo78@gmail.com


RESUMEN

La inteligencia artificial ha avanzado notablemente, impulsada por innovaciones tecnológicas y cambios socioeconómicos vinculados a la creatividad humana. Este artículo tiene como objetivo analizar la regulación jurídica de la inteligencia artificial en la Unión Europea y España, abordando marcos regulatorios no vinculantes, técnicos y sectoriales. Para ello, se emplean diversos métodos teóricos: el teórico-jurídico para analizar las fuentes bibliográficas más relevantes, el sistémico-estructural-funcional para una visión integral, el analítico-sintético para estudiar las implicaciones sociales, tecnológicas y jurídicas, y el hermenéutico para interpretar las normativas actuales. También se utilizó la observación como método empírico. El estudio sistematiza el alcance de la regulación vigente, identificando posibles vacíos legales y proponiendo áreas de mejora para una aplicación más efectiva de la IA en contextos legales. Finalmente, se sugieren pautas específicas para fortalecer la regulación de la IA, atendiendo a las necesidades particulares de la Unión Europea y España.

Descriptores: Inteligencia artificial; algoritmos; tecnología; justicia; transparencia algorítmica

ABSTRACT

Artificial intelligence has advanced significantly, driven by technological innovations and socioeconomic changes linked to human creativity. This article aims to analyze the legal regulation of artificial intelligence in the European Union and Spain, addressing non-binding, technical and sectorial regulatory frameworks. For this purpose, several theoretical methods are used: the theoretical-legal method to analyze the most relevant bibliographic sources, the systemic-structural-functional method for a comprehensive view, the analytical-synthetic method to study the social, technological and legal implications, and the hermeneutic method to interpret the current regulations. Observation was also used as an empirical method. The study systematizes the scope of current regulations, identifying possible legal gaps and proposing areas of improvement for a more effective application of AI in legal contexts. Finally, specific guidelines are suggested to strengthen the regulation of AI, taking into account the particular needs of the European Union and Spain.

Descriptors: Artificial intelligence; algorithms; technology; justice; algorithmic transparency

INTRODUCCIÓN

Los avances en las tecnologías de la información y la comunicación (TIC) han dado lugar a una nueva revolución conocida como la Cuarta Revolución Industrial. A diferencia de las revoluciones anteriores, esta nueva etapa implica una disrupción sistémica que afecta tanto a los fundamentos como al funcionamiento de la vida política, económica y social (Robles Carrillo, 2020). Dentro de esta evolución, destacan varios elementos significativos, como el internet de las cosas, los servicios en la nube, la tecnología Blockchain, el análisis de grandes volúmenes de datos (Big Data) y las redes 5G, así como la computación cuántica. Sin embargo, uno de los componentes de las TIC que está captando una atención especial debido a su potencial naturaleza es la inteligencia artificial (IA).

La IA es el paradigma dominante en nuestro tiempo. Aunque sus avances en los últimos cinco años son asombrosos, el término IA tiene una historia de evolución que se remonta a finales del siglo pasado. Fue en 1956 cuando John McCarthy acuñó el término (Gómez Rodríguez, 2022).

El desarrollo de la IA plantea posiblemente el mayor desafío científico de la historia, ya que aspira a equipararse, e incluso, superar la inteligencia humana. Este fenómeno tiene implicaciones en diversas disciplinas, como la antropología, la filosofía, la sociología, la política, la economía, las ciencias matemáticas y físicas, las ingenierías, y también el Derecho (Araya Paz, 2020).

Durante mucho tiempo, la idea de la IA ha generado varias polémicas. En la actualidad, es una realidad en constante desarrollo, pero aún no ha alcanzado todo su potencial y, en gran medida, sigue siendo desconocida. La noción escapa a la comprensión de la mayoría de los ciudadanos, al igual que la existencia de una “Sociedad de la Caja Negra” en la que operan sistemas opacos (Brundage, 2018).

Desde una perspectiva científica, la IA plantea una problemática compleja. En primer lugar, no existe una definición ampliamente aceptada, ya que el propio concepto es objeto de debate. La expresión inteligencia ha generado controversia en la doctrina, que prefiere utilizar términos más precisos como optimización.

A pesar de las numerosas contribuciones realizadas desde la ciencia jurídica al estudio de la IA, la noción de que existe un vacío legal, o la sugerencia de que los principios éticos y los estándares técnicos son mejores opciones que la regulación, plantean interrogantes sobre el papel mismo del Derecho.

El análisis de la práctica revela un panorama complejo en el que se encuentran una gran cantidad de iniciativas a nivel regional, pero con resultados poco efectivos a nivel global. Aunque se han llevado a cabo trabajos dentro del marco de las Naciones Unidas, la mayoría de las propuestas se están materializando a nivel regional o interregional, en estructuras lideradas por los países más avanzados económica y tecnológicamente, como la OCDE, el Consejo de Europa, la Unión Europea, el G-7 o el G-20 (Heredia Yzquierdo, 2021).

En España, por ejemplo, se está llevando a cabo simultáneamente el desarrollo de una estrategia nacional de I+D+I en Inteligencia Artificial, la elaboración de una específica en Cataluña, y la aprobación de una estrategia propia por parte de la Comunidad Valenciana en diciembre de 2019 (Robles Carrillo, 2020).

En consecuencia, el presente artículo investiga las conexiones entre la IA y el campo del Derecho, además de ofrecer algunas pautas hacia la regulación jurídica de la inteligencia artificial en la Unión Europea. En este sentido, se analiza el papel de la IA en la sociedad, y las implicancias que su uso conlleva para el ámbito jurídico.

MÉTODO

La selección de los métodos, técnicas e instrumentos de investigación se basó en el objetivo propuesto y las posibilidades de su cumplimiento. Para obtener los resultados, se emplearon operaciones lógicas que apoyaron el análisis cognitivo. Entre los métodos destacan:

Método teórico-jurídico: Permitió analizar las fuentes bibliográficas más relevantes sobre la IA, comprendiendo las distintas opiniones y enfoques sobre su regulación, y facilitando un análisis integral de las normativas existentes.

Método sistémico-estructural-funcional: Ofreció una visión integral de la IA, permitiendo un análisis coherente de las normas jurídicas desde un enfoque multidisciplinar, garantizando una regulación efectiva.

Método analítico-sintético: Descompuso la IA en sus componentes esenciales, permitiendo un análisis detallado de sus implicaciones tecnológicas, sociales y jurídicas, integrando las conclusiones para una comprensión profunda de su impacto en el Derecho.

Método hermenéutico: Ayudó a interpretar las normativas legales actuales, evaluando su adecuación a los avances tecnológicos y desafíos éticos de la cuarta revolución industrial.

Como método empírico se empleó la observación, que permitió examinar de manera directa la implementación de la IA en diversos sectores de la sociedad y la industria.

RESULTADOS

Luego de la aplicación de los métodos descritos, se presentan a continuación los principales resultados obtenidos a partir del análisis detallado del objeto de estudio. Estos hallazgos han permitido alcanzar conclusiones claras y significativas, contribuyendo de manera relevante a analizar la regulación jurídica de la Inteligencia Artificial en la Unión Europea y España, con un enfoque en los diferentes marcos regulatorios, desde los no vinculantes, hasta los técnicos y sectoriales.

Entendiendo la inteligencia artificial: definición y alcance

La inteligencia artificial (IA) está intrínsecamente vinculada a la creatividad humana, su desarrollo ha sido impulsado por avances tecnológicos y cambios socioeconómicos (Andrés Segovia, 2021). Su evolución no puede entenderse sin el desarrollo de las TIC, la computación y el Internet. Los sistemas de IA, creados por humanos, funcionan en el ámbito físico y digital, utilizando datos estructurados y no estructurados para lograr objetivos complejos. Estos sistemas son capaces de aprender y adaptar su comportamiento mediante la observación del impacto de sus acciones (Becerril Gil, 2021).

Como disciplina científica, la IA abarca enfoques como el aprendizaje automático (machine learning, ML), el razonamiento automático y la robótica. El ML permite que las máquinas aprendan y tomen decisiones de manera autónoma, basándose en datos y algoritmos. Entre sus técnicas, el aprendizaje por refuerzo ha sido ejemplificado por Google DeepMind’s Alpha Go. El aprendizaje profundo (deep learning, DL), una subdisciplina del ML, utiliza redes neuronales para que las máquinas realicen tareas complejas que antes solo podían ejecutar los humanos. Un componente importante de este enfoque es el Procesamiento del Lenguaje Natural (NLP), que ayuda a las máquinas a interpretar y entender el lenguaje humano. Ejemplos destacados incluyen IBM Watson, un avance significativo en este campo (Fernández, 2019).

El Grupo de Alto Nivel en Inteligencia Artificial de la Comisión Europea define la IA como sistemas que exhiben comportamientos inteligentes al analizar su entorno y tomar decisiones de manera autónoma (Mendoza Enríquez, 2021). Además, conceptos como el aprendizaje de las máquinas y las redes neuronales amplían su alcance. El concepto de IA sigue evolucionando con los avances tecnológicos.

Para comprender el funcionamiento de la IA, es crucial entender los algoritmos, que son conjuntos de instrucciones utilizados para resolver problemas, procesar datos y realizar tareas (Gutiérrez David, 2022). Los algoritmos son el núcleo de la IA, ya que permiten que las máquinas aprendan y mejoren sus capacidades.

La insistencia de la doctrina en la necesidad de regular la inteligencia artificial debido a los riesgos que representa para los derechos humanos ha impulsado la creación de dos modelos internacionales de regulación en curso de aprobación (Díaz-González, 2023). En el ámbito internacional dos modelos están en proceso de aprobación. La UNESCO ha propuesto una recomendación adoptada en 2021, que incluye principios éticos que deberán incorporarse en las legislaciones nacionales para proteger los derechos humanos. Por otro lado, la Unión Europea está desarrollando una regulación vinculante que comenzó con principios éticos, pero ahora avanza hacia normas jurídicas específicas. La Comisión Europea ha propuesto un reglamento en 2021 que armoniza el Derecho europeo y regula los sistemas de IA, con el objetivo de proteger los derechos humanos. Esta iniciativa se conoce como la Ley de Inteligencia Artificial (Gamero Casado, 2021).

La IA integra aspectos técnicos y sociales, lo que impulsa la transformación económica y social. Países como Estados Unidos, la Unión Europea, China y Francia han adoptado estrategias nacionales para aprovechar sus beneficios y liderar su desarrollo. No obstante, al igual que otras tecnologías, la IA plantea riesgos, como el uso de algoritmos para la vigilancia y toma de decisiones automatizadas. Un ejemplo son los drones autónomos, que pueden ser beneficiosos, pero también conllevan riesgos si son utilizados para fines destructivos. Estos dilemas éticos y de seguridad deben ser abordados por el Derecho para garantizar un control adecuado y evitar daños.

Perspectivas de la regulación jurídica de la inteligencia artificial

La relación entre la inteligencia artificial (IA) y el derecho puede abordarse desde dos perspectivas: su aplicación en el ámbito jurídico y su regulación por el derecho. Al igual que en áreas como la medicina o el deporte, la IA también está siendo considerada en el derecho, tanto institucionalmente como en la doctrina (Surden, 2019). Varios estados y organizaciones internacionales evalúan su uso en la gestión gubernamental, legislación y administración de justicia, así como su impacto en figuras jurídicas como contratos, patentes y la responsabilidad civil y penal (Calderón Ortega & Cueto Calderón, 2022; Navacerra Santiago, 2023).

La aplicación del Derecho a la IA es compleja y no permite soluciones generales, ya que no es posible adoptar un modelo único. Es necesario diferenciar entre los ámbitos públicos (gubernamental, administrativo, legislativo, judicial) y el privado, así como considerar distintas ramas del Derecho, como el civil, penal, mercantil, y laboral. Además, se deben identificar los sectores donde la IA sería más viable y beneficiosa, mientras que en otros su uso podría ser cuestionable. La regulación jurídica de la IA es aún más compleja. Algunos expertos proponen una regulación técnica y no vinculante, dentro del soft law (Boutin, 2018), mientras que otros defienden una regulación que abarque los aspectos técnicos y sectoriales (Robles Carrillo, 2020).

Se considera que, la regulación jurídica de la IA puede establecerse a través de dos modelos. El primero se basa en reglas y técnicas jurídicas generales, que incluyen principios y normas imperativas del Derecho Internacional aplicables a cualquier ámbito. El segundo enfoque propone enmarcar la regulación dentro del desarrollo de normativas existentes, siguiendo el ejemplo de la regulación del ciberespacio, otra tecnología disruptiva relevante. Aunque los estados han mostrado desacuerdos, especialmente en cuanto a los efectos de los avances tecnológicos en la seguridad internacional, existe un consenso claro sobre la aplicabilidad del Derecho Internacional en el ciberespacio, la adhesión a normas voluntarias y el desarrollo de medidas de confianza.

Siguiendo este enfoque, se debería aplicar un modelo regulatorio para la IA basado en tres pilares: normas obligatorias, reglas voluntarias y medidas de confianza. Esto garantizaría una regulación adecuada dentro del marco jurídico existente, promoviendo un desarrollo responsable y seguro de la IA. Dado que la IA es una tecnología disruptiva de amplio alcance, pero que aún no ha transformado radicalmente los modelos sociales, surge una tercera opción para su regulación: separar el contenido de la norma de su aplicación en el ámbito de la IA.

Desde esta perspectiva, hay situaciones donde ni el contenido ni la aplicación de la norma se ven afectados. Un ejemplo es el principio de igualdad soberana de los estados, que se mantiene vigente independientemente del avance tecnológico. A pesar de las desigualdades derivadas de la brecha digital o el desarrollo tecnológico, este principio sigue siendo jurídicamente válido para las relaciones internacionales, sin que los cambios tecnológicos afecten el equilibrio de poderes entre los estados.

La segunda situación surge cuando el contenido de la norma permanece inalterado, pero su aplicación en el ámbito de la IA requiere un enfoque específico. Un ejemplo es la prohibición del uso o amenaza de la fuerza armada, un principio normativo imperativo que sigue siendo válido, a pesar de los avances tecnológicos. Aunque su autoridad y obligatoriedad no se cuestionan, la aplicación de este principio a la IA puede necesitar un tratamiento particular, similar al que se ha dado a otras tecnologías anteriores.

La regulación jurídica de la IA es crucial debido a su creciente adopción e influencia en múltiples áreas de la sociedad, transformando la forma en que las personas trabajan, viven y se relacionan. Esto implica importantes desafíos éticos, sociales y legales, lo que subraya la necesidad de una regulación adecuada. Algunas razones clave que justifican su regulación incluyen las siguientes:

La IA puede tomar decisiones autónomas y aprender de sus experiencias, lo que hace necesario establecer reglas claras para responsabilizar a los actores involucrados en el desarrollo y uso de la tecnología. En tal sentido, se deben definir límites éticos para evitar el abuso, la discriminación, y el sesgo en la toma de decisiones automatizadas.

La IA requiere grandes cantidades de datos para funcionar correctamente, lo que puede poner en riesgo la privacidad y seguridad de las personas. La regulación jurídica en este caso debe garantizar que los datos se utilicen de manera ética y segura, protegiendo la privacidad de los individuos y asegurando el cumplimiento de las leyes de protección de datos.

En muchas aplicaciones de IA, como en la toma de decisiones en el sector financiero o en el ámbito judicial, es esencial que los resultados sean comprensibles y explicables para evitar la “caja negra”, y asegurar la confianza pública en la tecnología.

La regulación jurídica debe asegurar que la adopción de la IA no conduzca a monopolios o concentración excesiva de poder en unas pocas empresas, lo que podría distorsionar la competencia y frenar la innovación.

La IA también puede ser vulnerable a ataques y manipulaciones, por lo que su regulación debe abordar las cuestiones de seguridad cibernética y la prevención de riesgos asociados con el mal uso de la tecnología.

La falta de regulación adecuada de la IA puede tener graves consecuencias. En primer lugar, existe un riesgo significativo para los derechos individuales, como la privacidad, la no discriminación y la protección contra decisiones sesgadas o injustas. Sin normativas sólidas, estos derechos pueden ser vulnerados. Además, la falta de transparencia en los sistemas de IA puede generar desconfianza entre ciudadanos y consumidores, lo que frenaría la adopción y el desarrollo de esta tecnología.

En términos de desigualdad social, una regulación insuficiente podría ampliar las brechas existentes, beneficiando a algunos grupos y marginando a otros. Esto podría llevar a situaciones peligrosas, como accidentes en sistemas autónomos, desinformación o un aumento en la polarización social.

Por lo tanto, la regulación jurídica de la IA es esencial para garantizar un desarrollo ético, responsable y seguro, protegiendo tanto los derechos individuales como el bienestar social. Ignorar o retrasar esta regulación podría tener consecuencias negativas graves en el futuro y en nuestra interacción con esta poderosa tecnología.

El derecho frente a la revolución de la inteligencia artificial

La aplicación de la IA plantea desafíos en áreas del derecho, como la propiedad intelectual, especialmente en cuanto a la titularidad de creaciones generadas por sistemas de IA. En el ámbito del derecho de autor, surgen preguntas sobre quién será el titular de una obra literaria o un software original creado por IA. ¿Se presumirá que la persona jurídica que encargó el desarrollo de la IA es el titular, o será la empresa que desarrolló el sistema? Para reconocer derechos a la IA, primero sería necesario considerarla como sujeto de derecho, lo cual implica otorgarle capacidad para ejercer derechos y contraer obligaciones, un tema aún poco explorado. La idea de que la IA sea reconocida como sujeto de derecho plantea complejos desafíos éticos, jurídicos y filosóficos que deben ser objeto de un estudio profundo y detallado.

En este momento, la IA se percibe como una herramienta creada por humanos para realizar tareas específicas con capacidad de decisión, pero los avances tecnológicos plantean preguntas sobre si, en el futuro, podría alcanzar un nivel de inteligencia o autonomía que justifique su reconocimiento como sujeto de derecho. Esto implicaría otorgarle ciertos derechos y responsabilidades legales, como la titularidad de derechos de propiedad intelectual, la responsabilidad por daños o incluso derechos de personalidad.

Sin embargo, este enfoque presenta desafíos importantes. ¿Cómo se definiría la personalidad jurídica de la IA? ¿Qué derechos y deberes se le asignarían, y quién sería responsable por los daños causados por un sistema de IA autónomo? Además, surgen preocupaciones éticas sobre otorgar a una entidad artificial el estatus de sujeto de derecho, lo que podría afectar la percepción de la dignidad y los derechos humanos.

Actualmente, la mayoría de los sistemas de IA son creados y controlados por humanos, lo que mantiene los debates sobre su reconocimiento como sujetos de derecho en una etapa inicial. No obstante, es crucial que expertos en ética, legisladores y profesionales del Derecho continúen reflexionando sobre este tema a medida que la tecnología avanza. Aunque la posibilidad de otorgar personalidad jurídica a la IA es intrigante, aún persisten importantes desafíos legales y éticos que deben resolverse antes de llegar a una conclusión definitiva.

Recientemente, expertos de la Unión Europea emitieron una carta abierta solicitando que la Comisión Europea no otorgue “personalidad electrónica” a los sistemas avanzados de IA (Araya Paz, 2020). Argumentan que concederles derechos fundamentales, como la integridad y dignidad, sería incompatible con la Carta de Derechos Humanos de la Unión Europea, ya que estas entidades no poseen tales características. Si bien este debate puede parecer prematuro, es inevitable que se convierta en un tema relevante en el futuro.

Otro desafío relevante es la aplicación de la IA en el ámbito laboral. La llegada de sistemas de inteligencia artificial y robótica tendrá un impacto significativo en el empleo. En primer lugar, se espera que los trabajos de baja calificación, como operarios de maquinaria, operadores de call centers y conductores de taxis o buses, se vean afectados, ya que la automatización podría reducir la demanda de mano de obra en estos sectores al ser asumidas por máquinas y algoritmos más eficientes (Rivas Vallejo, 2022).

Por otro lado, esta tecnología también afectará empleos más especializados. Un ejemplo es el sector financiero, donde se observa un aumento en el uso de modelos de machine learning para analizar movimientos bursátiles y detectar patrones que generen mayores ganancias. Fondos de inversión y corredoras ya están adoptando estas técnicas, mostrando cómo la inteligencia artificial está transformando incluso los sectores más sofisticados.

Al analizar una de las áreas con mayor implicación de la IA, se puede concluir que la utilización de datos personales es clave. Las técnicas de aprendizaje automático, debido a su complejidad en modelos y algoritmos, a menudo resultan difíciles o imposibles de interpretar por los seres humanos. Esto implica que el tratamiento de datos personales mediante estas técnicas avanzadas, como el aprendizaje automático, puede desviarse de la finalidad originalmente prevista (Rodríguez Ayuso, 2021). Como resultado, los titulares de los datos pierden el control sobre el uso de su información, lo que frecuentemente entra en conflicto con el principio de finalidad, aunque sea necesario para que el sistema logre su objetivo.

La aplicación de la IA al derecho también presenta beneficios significativos, especialmente a través de los llamados sistemas jurídicos expertos, basados en datos y conocimientos. Los modelos de bases de datos y los buscadores de leyes y jurisprudencia, impulsados por IA, permiten procesar grandes volúmenes de información, facilitando la selección de documentos relevantes según los criterios de búsqueda y sentencias relacionadas. En este contexto, la IA se convierte en una herramienta invaluable para apoyar diversas actividades legales, como se detallará a continuación.

La IA agiliza el proceso judicial al automatizar tareas en la oficina judicial, aplicando controles predefinidos basados en la legislación. Un sistema de IA puede funcionar como un portal virtual, aplicando filtros para determinar la admisibilidad y procedencia de una petición o demanda. Asimismo, puede prevenir o rechazar solicitudes que no cumplan con los requisitos documentales o que se presenten fuera de plazo. Además, este tipo de sistema puede emitir acuerdos y enviar notificaciones electrónicas, facilitando y optimizando la gestión del procedimiento.

Un ejemplo destacado de cómo la inteligencia artificial facilita la gestión procesal es el sistema Prometea (Corvalán, 2018), diseñado para resolver demandas de tutela, especialmente en casos de restitución del derecho a la salud. Implementado por la Corte Constitucional de Colombia, utiliza criterios estadísticos para su aplicación exitosa.

En el ámbito de la investigación, Ross Intelligence es un buscador de jurisprudencia y documentación legal que emplea IA para apoyar a abogados y firmas legales (Gómez Rodríguez, 2022). Basado en la tecnología de la supercomputadora Watson de IBM, Ross no actúa como abogado, sino que busca normas y jurisprudencia, proporcionando respuestas estructuradas.

Otro sistema similar es COMPAS, creado por Northpointe, un algoritmo que evalúa perfiles de delincuentes penitenciarios para sugerir sanciones alternativas. COMPAS predice el riesgo de reincidencia de un acusado analizando seis factores de un cuestionario de 137 puntos sobre el individuo y sus antecedentes penales.

En resumen, la revolución de la inteligencia artificial plantea numerosos desafíos y oportunidades en el ámbito del Derecho. Desde la propiedad intelectual hasta la automatización de procesos judiciales, la IA está transformando el panorama legal. A pesar de los beneficios que ofrece, como la mejora en la gestión procesal y la optimización de tareas rutinarias, surgen importantes cuestiones éticas y jurídicas, como la posibilidad de otorgar personalidad jurídica a la IA y los impactos en el empleo. La regulación adecuada y la reflexión sobre el uso responsable de la IA son esenciales para garantizar que esta tecnología sea aprovechada de manera equitativa y segura en el futuro.

DISCUSIÓN

El primer paso hacia la regulación de la IA fue dado a través del Libro Blanco sobre Inteligencia Artificial, una iniciativa de la Comisión Europea destinada a establecer una estrategia en este ámbito, y forjar una visión a largo plazo sobre cómo la Unión Europea puede fomentar y desarrollar esta tecnología en los años venideros. El Libro Blanco fue presentado en febrero de 2020, y su principal objetivo es abordar los desafíos y oportunidades que la IA plantea en Europa, tanto desde una perspectiva tecnológica, como socioeconómica.

El Libro Blanco sobre IA tiene una serie de objetivos clave destinados a impulsar el desarrollo responsable y beneficioso de esta tecnología en la Unión Europea, dentro de los que pueden citarse los siguientes:

La creación de un ecosistema de datos seguro y accesible, cuyo principal objetivo es fomentar la investigación y la innovación en IA mediante el establecimiento de un entorno seguro, donde los datos estén disponibles y puedan utilizarse de manera ética y confiable. Al promover el acceso a datos de calidad y garantizar la privacidad y la seguridad de estos, se busca potenciar el avance de la tecnología y su aplicación en diversos sectores.

El establecimiento de un marco ético y legal para la IA. Con ello, se pretende desarrollar un conjunto de principios éticos y regulaciones legales que guíen el uso adecuado y responsable de la IA en la UE. Esto incluye la creación de un sistema de certificación voluntaria para garantizar que las soluciones de IA cumplan con estándares éticos y de calidad, así como establecer un marco de responsabilidad para los proveedores de IA, incentivándolos a actuar de manera transparente y segura.

El aumento de la inversión en investigación y desarrollo en IA. Para mantenerse a la vanguardia de la innovación en IA, es fundamental aumentar la inversión en investigación y desarrollo en áreas clave como la ciberseguridad, la robótica y la inteligencia artificial de confianza. Esta inversión impulsará el crecimiento del sector y promoverá el desarrollo de soluciones tecnológicas avanzadas y seguras.

La promoción de la formación y desarrollo de habilidades en IA: Con el objetivo de preparar a los ciudadanos y trabajadores para los desafíos y oportunidades que plantea la IA, se busca impulsar la formación en esta área. Esto incluye la capacitación en habilidades específicas relacionadas con la IA, y la promoción de una mayor comprensión sobre su impacto en la sociedad y la economía.

De acuerdo con lo anterior, estos objetivos tienen como propósito fortalecer la posición de la Unión Europea en el campo de la IA, garantizando un enfoque ético, seguro y centrado en el desarrollo humano en todas las etapas de su implementación. Al seguir estas directrices, la UE busca aprovechar el potencial transformador de la IA para el beneficio de sus ciudadanos y el avance sostenible de la sociedad.

La transformación digital plantea nuevos desafíos para nuestras economías y ciudadanos en general. Ante la aceleración de este proceso, resulta imprescindible que la UE defina la forma en que los valores y derechos fundamentales se aplicarán en el ámbito digital, al igual que lo hacen fuera de línea. Por ello, resulta fundamental garantizar que la transformación digital no menoscabe los derechos de los ciudadanos, estableciendo que, lo que es ilegal fuera de línea, también lo es en línea.

En tal sentido, se establece la Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital, documento que expone las intenciones y compromisos políticos comunes, reafirmando los derechos fundamentales en el contexto de la transformación digital. Su objetivo es proporcionar orientación a los responsables de las políticas cuando reflexionen sobre cómo abordar la transformación digital.

Algunas de las directrices de esta declaración son las siguientes: colocar a las personas en el centro de la transformación digital; apoyar la solidaridad y la integración mediante la promoción de la conectividad, educación, formación y habilidades digitales, así como condiciones laborales justas y equitativas. Además, se debe garantizar el acceso a servicios públicos digitales en línea; destacar la importancia de la libertad de elección en la interacción con algoritmos y sistemas de inteligencia artificial, promoviendo un entorno digital equitativo; fomentar la participación en el espacio público digital, promoviendo una ciudadanía activa y responsable en línea; aumentar la seguridad, protección y empoderamiento en el entorno digital, especialmente para niños y jóvenes, sin dejar de garantizar la privacidad y el control individual de los datos; e impulsar la sostenibilidad para asegurar que los beneficios de la transformación digital sean sostenibles a largo plazo.

De allí que, sea importante tener en cuenta que los distintos capítulos de esta Declaración deben considerarse como un marco de referencia integral, y no deben interpretarse de forma aislada, sino que, se busque abordar los desafíos de la transformación digital de manera holística y coordinada.

Otro de los pasos para regular IA, es la propuesta Reglamento del Europeo de Inteligencia Artificial presentada por la Comisión Europea en abril de 2021, con el objetivo de establecer un marco reglamentario para la IA en la Unión Europea. Sus principales objetivos son garantizar la seguridad y el cumplimiento de los derechos fundamentales y valores de la Unión en los sistemas de IA introducidos y utilizados en el mercado de la Unión Europea. También busca proporcionar seguridad jurídica para fomentar la inversión e innovación en IA, mejorar la gobernanza y la aplicación efectiva de la legislación de derechos fundamentales, y facilitar un mercado único para un uso legal, seguro y fiable de las aplicaciones de IA, evitando la fragmentación del mercado (Herrera de las Heras, 2024).

El artículo 6 y el Anexo III de la propuesta del Reglamento IA establecen que los sistemas de IA de alto riesgo en la Unión Europea estarán sujetos a requisitos específicos, abarcando áreas como identificación biométrica, infraestructuras esenciales, educación, empleo y acceso a servicios. Dado que muchas de estas áreas son gestionadas por administraciones públicas, el uso de la IA deberá cumplir con los requisitos del reglamento. La propuesta busca garantizar la protección de derechos fundamentales, fomentar la innovación y promover un uso responsable de la IA en sectores clave.

En países de la UE como España, se están dando los primeros pasos hacia la regulación de la IA. En febrero de 2021, el Ministerio de Asuntos Económicos y Transformación Digital presentó un borrador del Anteproyecto de Ley de Inteligencia Artificial, que establece un marco ético y jurídico para regular su desarrollo y uso en el país. Esta iniciativa busca sentar una base sólida para promover un avance responsable de la IA en España.

En mayo de 2021, se presentó la Estrategia Nacional de Inteligencia Artificial (ENIA), que establece un plan de acción para promover el desarrollo de la IA en España en los próximos años. La ENIA incluye medidas para fomentar la innovación y la adopción de la IA en distintos sectores, asegurando al mismo tiempo que su implementación siga principios éticos y de transparencia.

Con el borrador del Anteproyecto de Ley de Inteligencia Artificial y la implementación de la Estrategia Nacional de Inteligencia Artificial, España avanza hacia un futuro en el que la IA se desarrolla y aplica de manera responsable, alineada con los valores y necesidades de la sociedad. Estas iniciativas representan un avance crucial para impulsar la innovación tecnológica y fortalecer el progreso del país en el ámbito de la inteligencia artificial.

El 2 de septiembre de 2023, España publicó en el Boletín Oficial del Estado (BOE) el Real Decreto 729/2023, que aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). Con esta medida, España se convierte en el primer país europeo en establecer una entidad de este tipo, adelantándose a la implementación del Reglamento Europeo de Inteligencia Artificial, el cual requerirá que todos los Estados Miembros designen una autoridad nacional de supervisión encargada de regular la IA.

Según el nuevo Estatuto, AESIA promoverá el desarrollo de sistemas de Inteligencia Artificial desde una perspectiva sostenible, ambiental y de género, asegurando la igualdad entre mujeres y hombres. Además, el artículo 10 establece la creación de un marco de certificación voluntario para entidades privadas, con el fin de fortalecer la confianza en la tecnología y su aplicación en la IA. AESIA también se enfocará en la formación y difusión de conocimiento sobre una IA ética y humanista, destacando tanto su potencial como los desafíos y riesgos que puedan surgir en su adopción.

En este orden, la regulación de la IA en la UE y en España es de suma importancia en la búsqueda de un equilibrio entre el avance tecnológico y la protección de los derechos humanos y valores fundamentales. La implementación de una regulación adecuada es crucial debido a varios factores clave, entre ellos:

La protección de los derechos humanos es crucial, ya que la IA puede afectar significativamente la privacidad, la igualdad y la no discriminación de las personas. La regulación tiene como objetivo garantizar que las aplicaciones de IA se utilicen de forma ética y responsable, salvaguardando estos derechos fundamentales.

El fomento de la confianza también es clave. Un marco regulatorio claro y transparente para el desarrollo y uso de la IA genera confianza tanto en los ciudadanos como en las empresas e instituciones. Este entorno confiable es esencial para que la IA prospere y logre su máximo potencial en beneficio de la sociedad.

Impulso a la innovación responsable: La regulación no busca limitar la innovación en IA, sino promover un desarrollo responsable. Al establecer directrices claras sobre el uso ético y seguro de la IA, se incentiva a las empresas y desarrolladores a crear soluciones que sean socialmente beneficiosas y sostenibles, garantizando así un avance tecnológico alineado con los valores de la sociedad.

Estándares comunes en el mercado único digital: La UE es un mercado único digital, y la regulación de la IA proporciona una oportunidad para establecer estándares comunes en toda la región. Esto facilita la cooperación transfronteriza y la interoperabilidad, lo que es crucial para el éxito y la adopción generalizada de la tecnología de IA.

Competitividad global: Al tener una regulación sólida de la IA, la UE puede posicionarse como un líder mundial en el desarrollo y aplicación ética de esta tecnología. Esto no solo fortalece la posición de la UE en el mercado global, sino que también contribuye a establecer un referente internacional para la regulación de la IA.

CONCLUSIONES

La IA está estrechamente vinculada a la creatividad humana y su desarrollo ha sido impulsado por innovaciones tecnológicas, cambios económicos, sociales y culturales en la sociedad actual. Su creación está profundamente ligada a la evolución de las Tecnologías de la Información y la Computación, así como al desarrollo de Internet.

Como disciplina científica, la IA abarca una amplia gama de enfoques y técnicas, incluyendo el aprendizaje automático (machine learning), el razonamiento automático (machine reasoning) y la robótica, que integra técnicas de sistemas ciberfísicos. La IA ha despertado preocupaciones sobre su regulación debido a los riesgos que representa para los derechos humanos. Tanto la UNESCO como la Unión Europea, han presentado propuestas para regular la IA y garantizar el respeto de los derechos humanos.

En cuanto a la aplicación de la IA al Derecho, se destaca que esta tecnología está siendo objeto de consideración en distintos Estados y organizaciones internacionales para su uso en la gestión gubernamental, legislación, administración de justicia y figuras jurídicas específicas, como contratos, patentes y responsabilidad civil y penal. Se reconoce que su aplicación no permite respuestas generalistas, ya que es necesario considerar diferentes ámbitos jurídicos y sectores de actividad donde su implementación puede ser viable o discutible.

En relación con la regulación de la IA por el Derecho, se destacan diferentes enfoques que van desde una regulación no vinculante (soft law) hasta una regulación técnica y sectorial. Se plantea la posibilidad de establecer una regulación basada en principios y normas obligatorias del Derecho Internacional, así como la opción de separar el contenido normativo de su aplicación en el ámbito de la IA.

La regulación de la IA debe abordar aspectos como la responsabilidad, la ética, la privacidad, la transparencia, la competencia y la seguridad para evitar riesgos y garantizar un desarrollo y uso ético, responsable y seguro. Ignorar la implementación de una regulación adecuada podría tener consecuencias negativas en los derechos individuales y el bienestar social, así como en la confianza pública en esta tecnología. Por lo tanto, es crucial abordarla de manera efectiva y equitativa para asegurar el beneficio y protección de la sociedad en general.

AGRADECIMIENTO

A la Universidad Pablo de Olavide, de Sevilla, España, por motivar el desarrollo de la investigación.

REFERENCIAS CONSULTADAS

Andrés Segovia, B. (2021). El reinicio tecnológico de la Inteligencia Artificial en el servicio público de salud . Ius et Scientia, 7(1), 327-356. https://n9.cl/gx263Links ]

Araya Paz, C. (2020). Desafíos legales de la inteligencia artificial en Chile. Revista Chilena de Derecho y Tecnología, 9(2), 257-290. https://n9.cl/0lxhluLinks ]

Becerril Gil, A. A. (2021). Retos para la regulación jurídica de la Inteligencia Artificial en el ámbito de la Ciberseguridad. IUS, Revista del Instituto de Ciencias Jurídicas de Puebla, 15(48), 14. https://n9.cl/nnjgbLinks ]

Boutin, B. (2018). Technologies for International Law & International Law for Technologies. Groningen Journal of International Law, 6, 7. https://n9.cl/0sltsLinks ]

Brundage, M. E. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigations. Executive Summary, University of Oxford, 13. https://n9.cl/t3nayLinks ]

Calderón Ortega, M. A., & Cueto Calderón, C. A. (2022). Prueba por inteligencia artificial: una propuesta de producción probatoria desde el dictamen pericial científico en Colombia. Civilizar Ciencias Sociales y Humanas, 22(42). https://n9.cl/4nxkjLinks ]

Corvalán, J. G. (2018). Inteligencia artificial, retos desafíos y oportunidades -Prometea: La primera inteligencia artificial de Latinoamérica al servicio de la justicia. Revista de Investigações Constitucionais, 5(1), 295-316. https://n9.cl/ytqznLinks ]

Díaz González, J. M. (2023). Espacios naturales protegidos inteligentes. Conceptos y áreas de actuación. En D. J. Vera Jurado, & E. M. Álvarez González, Espacios naturales protegidos en Andalucía: impacto de las tecnologías de la información, de la comunicación y de la inteligencia artificial en su protección y conservación (págs. 31-77). Editorial Tirant lo Blanch. https://n9.cl/08xatzLinks ]

Fernández, P. (2019). IBM Watson. MoleQla: Revista de Ciencias de la Universidad Pablo de Olavide, (34). https://n9.cl/3bke9Links ]

Gamero Casado, E. (2021). El enfoque europeo de inteligencia artificial. Revista de Derecho Administrativo (20), 268-289. https://n9.cl/kw2ugLinks ]

Gómez Rodríguez, J. M. (2022). Inteligencia artificial y neuroderechos. Retos y perspectivas. Cuestiones Constitucionales, Revista Mexicana de Derecho Constitucional, (46), 93-119. https://n9.cl/f2sztdLinks ]

Gutiérrez David, M. E. (2022). Transparencia de los algoritmos públicos de IA. Eticidad y gobernanza de los datos. En E. García - Cuevas Roque (Ed.)Estudios de ética pública (págs. 218-239). Editorial Thomson Reuters Aranzadi. https://n9.cl/9stp6Links ]

Heredia Yzquierdo, F. J. (2021). Inteligencia artificial y transición ecológica 2030: Una perspectiva europea. ICADE. Revista de la Facultad De Derecho, (112), 1-17. https://n9.cl/kobsvLinks ]

Herrera de las Heras, R. (2024). El nuevo marco jurídico de la inteligencia artificial: las novedades del Reglamento Europeo. Actualidad civil, (5). https://n9.cl/sj3j3Links ]

Mendoza Enríquez, O. A. (2021). El derecho de protección de datos personales en los sistemas de inteligencia artificial. IUS, Revista del Instituto de Ciencias Jurídicas de Puebla , 15(48), 182. https://n9.cl/40j0pLinks ]

Navacerra Santiago, J. F. (2023). Integración de los sensores OCR para la prevención e investigación de la delincuencia. Logos Guardia Civil. Revista Científica del Centro universitario de la Guardia Civil, (1), 347-370. https://n9.cl/kc89fLinks ]

Rivas Vallejo, M. P. (2022). Discriminación algorítmica en el ámbito laboral. Thomson Reuters Aranzadi. https://n9.cl/mt2bffLinks ]

Robles Carrillo, M. (2020). Artificial Intelligence: From Ethics to Law. Telecommunications Policy, 44(6), 7. https://n9.cl/s5fvbLinks ]

Rodríguez Ayuso, J. F. (2021). Personal data in artificial intelligence projects: main study elements. IUS ET SCIENTIA: Revista electrónica de Derecho y Ciencia, 7(1), 37-47. https://n9.cl/twv5zLinks ]

Surden, H. (2019). Artificial Intelligence and Law: An Overview. Georgia State University Law Review, 35(4), 1328. https://n9.cl/bkrw2Links ]

FINANCIAMIENTO

0No monetario.

Recibido: 18 de Octubre de 2024; Revisado: 19 de Noviembre de 2024; Aprobado: 12 de Diciembre de 2024; Publicado: 01 de Enero de 2025

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons