INTRODUCCIÓN
La protección de la información personal constituye un derecho primordial, cuya relevancia se ha intensificado en el contexto contemporáneo debido a los desafíos planteados a través de la proliferación de tecnologías disruptivas como la IA y el big data (Martínez, 2019; Cotino, 2020). Garantizar dicha protección se configura como un imperativo tanto para los Estados como para los organismos supranacionales, que deben responder a las demandas del ecosistema digital en constante evolución.
Este estudio se fundamenta en tres pilares esenciales. Primero, el derecho a la protección de datos personales (PDP) se concibe como una prerrogativa irrenunciable que brinda a los individuos la facultad consciente de administrar sus datos personales (Ordóñez y Calva, 2020; Giménez-Chornet, 2021). En segundo lugar, resulta esencial armonizar el avance tecnológico con la protección de los derechos humanos, en particular la privacidad y la seguridad de los datos personales (Guerrero-Sotelo et al., 2022; Garcés et al., 2023). Finalmente, se requiere un marco regulatorio holístico y cohesivo que responda a los desafíos multidimensionales derivados de las tecnologías emergentes (Navarro y Magasich-Airola, 2023; La Torre et al., 2020).
Estudios recientes han profundizado en los riesgos inherentes al uso de la IA y el big data para la PDP (Huerta, 2019; Cotino, 2020; Martínez, 2019), así como en el papel crucial del derecho al olvido digital para preservar la privacidad y la dignidad en entornos virtuales (Franco y Quintanilla, 2020; Ordóñez y Calva, 2020). Este derecho, pese a ser esencial, presenta desafíos en su implementación efectiva y en su conciliación con otros derechos fundamentales, como la libertad de expresión (Giménez-Chornet, 2021; Aponte, 2022).
Martínez (2019) señala los peligros asociados al empleo sin regulación de estas tecnologías y destaca la necesidad apremiante de un marco jurídico. Cotino (2020) plantea que la IA y el big data funcionan simultáneamente como herramientas de protección y amenazas a la privacidad, lo que refuerza la necesidad de salvaguardas regulatorias. Franco y Quintanilla (2020) examinan la implementación del derecho al olvido en el contexto del Sistema Interamericano de Derechos Humanos, mientras que Ordóñez y Calva (2020) resaltan su papel en la protección de menores ante el sharenting.
Desde una perspectiva más amplia, Giménez-Chornet (2021) enfatiza la importancia de relacionar la normativa sobre derechos digitales con la protección de derechos fundamentales, como la privacidad y la libertad de expresión. Aponte (2022) examina los desafíos específicos para la PDP en poblaciones vulnerables, como la comunidad LGBTIQA+ en Brasil, destacando la urgencia de marcos normativos inclusivos y equitativos.
A partir del análisis de la literatura, se identifican tres vacíos temáticos prioritarios. Primero, existe una carencia de evaluación sistemática sobre mecanismos regulatorios efectivos para mitigar los riesgos asociados a la IA y el big data (Guerrero-Sotelo et al., 2022; Garcés et al., 2023). Segundo, aunque el derecho al olvido digital es ampliamente reconocido (Franco y Quintanilla, 2020; Ordóñez y Calva, 2020), su aplicación enfrenta desafíos prácticos y normativos (Navarro y Magasich-Airola, 2023). Finalmente, se observa una ausencia de un marco integral que concilie los derechos digitales con otros derechos fundamentales, como la libertad de expresión y la privacidad (La Torre et al., 2020; Huerta, 2019).
En virtud de estos vacíos, este estudio tiene como propósito examinar los mecanismos más eficaces para garantizar la PDP en el contexto del uso de la IA y el big data. Para ello, se desarrollará una revisión sistemática que permita analizar de manera exhaustiva los desafíos existentes, identificar los mecanismos actualmente vigentes y proponer un marco regulatorio comprensivo que asegure la protección integral de los datos personales, sin menoscabo de otros derechos fundamentales en el entorno digital.
METODOLOGÍA
Para realizar la revisión sistemática y abordar el objetivo analizar de manera exhaustiva los desafíos existentes, identificar los mecanismos actualmente vigentes y proponer un marco regulatorio comprehensivo que asegure la protección integral de los datos personales, se empleó el método PRISMA.
Este método facilitó la organización de cada fase, garantizando la coherencia e integridad en el proceso de análisis. Se formularon cinco preguntas de investigación. Estas preguntas son:¿Cuáles son los principales riesgos y amenazas a la protección de datos personales derivados del uso de la IA y BD?; ¿Qué mecanismos regulatorios y de gobernanza se han propuesto para garantizar la PDP en el contexto de estas nuevas tecnologías?; ¿Cuáles son los desafíos y buenas prácticas en la implementación efectiva de medidas de PDP frente al uso de la IA y BD?; ¿Cómo pueden los derechos digitales, como el derecho al olvido, contribuir a la protección de la privacidad y reputación de las personas en el entorno digital?; ¿De qué manera se puede lograr una armonización entre los derechos digitales y la salvaguarda de otros derechos fundamentales, como la libertad de expresión y la privacidad, en el contexto del uso de nuevas tecnologías?
Se implementaron estrategias de búsqueda en bases de datos como Scopus, SciELO y Latindex, utilizando operadores booleanos para mejorar la exactitud, adoptando la fórmula: ("personal data protection" AND "artificial intelligence") OR ("big data" AND "right to be forgotten") OR ("digital rights" AND "privacy") OR "freedom of expression"
Los parámetros de inclusión establecidos fueron: 1) Trabajos académicos publicados en los últimos cinco años. 2) Análisis realizados en los idiomas español o inglés. 3) Estudios que examinen de forma específica la protección de datos personales en el contexto de la IA y el BD. 4) Investigaciones enfocadas en marcos regulatorios, derechos digitales o la conciliación entre derechos fundamentales dentro del entorno digital.
Los parámetros de exclusión contemplaron: 1) Estudios que no aborden como eje central la protección de datos personales. 2) Trabajos que omitan el análisis del impacto de la IA o el BD en la protección de datos. 3) Investigaciones que no exploren mecanismos regulatorios, derechos digitales o la interrelación entre derechos fundamentales en el ámbito digital. 4) Trabajos que no cumplan con los criterios de inclusión respecto al idioma, periodo de publicación o pertinencia temática.
RESULTADOS
A continuación, se presenta un examen minucioso de los autores que plantean propuestas orientadas a responder cada una de las cuestiones investigativas formuladas.
Tabla 1 Riesgos y amenazas a la protección de los datos personales
¿Cuáles son los principales riesgos y amenazas a la protección de datos personales derivados del uso de la IA y BD? | |
---|---|
Autor | Guerrero-Sotelo et al. (2022) |
Metodología | Hermenéutica analógica aplicada a textos jurídicos y bioéticos |
Conclusiones | Se identifican riesgos en el tratamiento y manejo de biodatos sensibles debido a su carácter personal, requiriendo medidas mínimas como el consentimiento informado y la seguridad de bases de datos. Aunque no aborda directamente IA y BD, los riesgos mencionados son extrapolables a estos contextos, destacando la necesidad de protección en entornos digitales |
Autor | Navarro y Magasich-Airola (2023) |
Metodología | Análisis doctrinal y jurídico de la normativa |
Conclusiones | El uso tecnológico en sistemas fiscales genera riesgos al equilibrio entre la transparencia y la privacidad. No responde directamente sobre IA y BD, pero señala que una fiscalización excesiva mediante tecnologías puede comprometer datos personales sin garantías legales |
Autor | Garcés et al. (2023) |
Metodología | Metodología cualitativa basada en métodos científicos |
Conclusiones | El estudio destaca la necesidad del derecho al olvido para eliminar información personal irrelevante en entornos digitales. Si bien no trata directamente IA y BD, aborda la amenaza que supone la acumulación no controlada de datos personales en la era digital |
Autor | Cotino (2020) |
Metodología | Análisis jurídico-normativo |
Conclusiones | El uso de IA y BD durante la pandemia para aplicaciones de geolocalización, rastreo y monitoreo genera riesgos significativos para la privacidad. Se concluye que sin bases legales robustas y garantías adecuadas, estas tecnologías pueden vulnerar derechos fundamentales |
Autor | Martínez (2019) |
Metodología | Análisis doctrinal y comparativo de regulaciones internacionales |
Conclusiones | La IA y Big Data representan amenazas significativas a los datos personales si no existen regulaciones claras y éticas. La autora enfatiza la necesidad de implementar normas adaptadas a nuevas tecnologías para garantizar el uso responsable de datos y mitigar riesgos para los titulares |
Tabla 2 Mecanismos regulatorios y de gobernanza
¿Qué mecanismos regulatorios y de gobernanza se han propuesto para garantizar la PDP en el contexto de estas nuevas tecnologías? | |
---|---|
Autor | Pin et al. (2020) |
Metodología | Revisión sistemática |
Conclusiones | Se destaca la necesidad de implementar estándares técnicos de calidad y seguridad en el desarrollo y uso de tecnologías basadas en IA. Aunque no aborda directamente mecanismos regulatorios, establece la importancia de la regulación técnica como garantía de protección |
Autor | Veronese y Nunes (2021) |
Metodología | Análisis cualitativo comparativo |
Conclusiones | Propone la convergencia entre leyes de protección de datos y políticas de IA como una solución integradora. Los autores resaltan que es fundamental un enfoque normativo claro y adaptado a los retos que plantea la IA y Big Data para proteger los derechos fundamentales. |
Autor | Piedra (2023) |
Metodología | Análisis documental |
Conclusiones | Se recomienda un enfoque regulatorio proactivo basado en derechos humanos (DDHH) como marco de gobernanza. El autor advierte sobre los riesgos de la autorregulación empresarial y sugiere fortalecer el papel del Estado en la regulación de la IA. |
Autor | Casal et al. (2022) |
Metodología | Enfoque cuantitativo |
Conclusiones | Enfatiza la necesidad de formación y sensibilización de los actores involucrados para garantizar un cumplimiento efectivo de las normativas de protección de datos. Sugiere acciones formativas y campañas informativas como mecanismos de gobernanza en entornos digitales. |
Autor | Freire et al. (2023) |
Metodología | Estudio técnico y exploratorio |
Conclusiones | Recomienda establecer normas técnicas y auditorías que aseguren la transparencia y la protección de datos personales en sistemas gestionados mediante IA. Se resalta la necesidad de controles efectivos para evitar vulneraciones de privacidad. |
Tabla 3 Desafíos y buenas practicas
¿Cuáles son los desafíos y buenas prácticas en la implementación efectiva de medidas de PDP frente al uso de la IA y BD? | |
---|---|
Autor | Capdeferro (2020) |
Metodología | Análisis documental y critico |
Conclusiones | Los desafíos incluyen la falta de claridad en los algoritmos y la necesidad de proteger los datos personales. Se recomienda priorizar la responsabilidad pública, justificar decisiones basadas en IA y garantizar el cumplimiento estricto de las normas de privacidad. |
Autor | Martínez-Jara y Pérez-Ycaza (2022) |
Metodología | Investigación descriptiva documental |
Conclusiones | El principal desafío se encuentra en la fragilidad de los sistemas de información y en la falta de cumplimiento adecuado de las normativas existentes. Como buenas prácticas, se sugiere establecer mecanismos administrativos y técnicos que aseguren tanto la protección como la confidencialidad de los datos personales en entornos electrónicos. |
Autor | Torres et al. (2023) |
Metodología | Revisión sistemática de literatura |
Conclusiones | Destaca la necesidad de normas técnicas y algoritmos optimizados para garantizar la seguridad de datos en aplicaciones de visión artificial, especialmente en sectores críticos. |
Autor | Abadia et al (2023) |
Metodología | Revisión sistemática |
Conclusiones | Los desafíos incluyen falta de explicabilidad y confianza en los sistemas de IA y el riesgo de brechas en la privacidad. Como buenas prácticas, se sugiere maximizar beneficios con enfoque ético, aplicando principios bioéticos de privacidad y seguridad en el desarrollo de sistemas. |
Autor | Tuiran (2021) |
Metodología | Revisión de literatura |
Conclusiones | La implementación de IA en medicina presenta desafíos como la confidencialidad y la seguridad de datos. Las buenas prácticas implican garantizar el manejo ético y seguro de información médica, aplicando políticas de privacidad robusta y auditorías. |
Tabla 4 Protección de la privacidad y reputación de las personas en el entorno digital
¿Cómo pueden los derechos digitales, como el derecho al olvido, contribuir a la protección de la privacidad y reputación de las personas en el entorno digital? | |
---|---|
Autor | Ordóñez y Calva (2020) |
Metodología | Análisis doctrinal y critico |
Conclusiones | El artículo destaca la sobreexposición de datos personales de menores en redes sociales. Propone el derecho a la corresponsabilidad digital como una buena práctica para garantizar su privacidad e integridad, lo que se alinea con el espíritu del derecho al olvido al buscar controlar y limitar la información en el entorno digital |
Autor | Franco y Quintanilla (2020) |
Metodología | Análisis jurídico comparado. |
Conclusiones | El derecho al olvido es una herramienta que contribuye a proteger la privacidad y reputación mediante la desindexación de contenido. Sin embargo, el artículo señala que su aplicación debe equilibrarse con la libertad de expresión para evitar abusos |
Autor | Ortiz y Viollier (2021) |
Metodología | Análisis doctrinal y jurisprudencial |
Conclusiones | El derecho al olvido puede proteger la reputación y privacidad en el entorno digital al permitir la desindexación de información obsoleta. Sin embargo, los autores recomiendan abordar estos conflictos mediante la acción de protección en lugar de consagrar el derecho en la legislación |
Autor | Giménez - Chornet (2021) |
Metodología | Análisis documental |
Conclusiones | El derecho al olvido es esencial para proteger la autodeterminación informativa en entornos digitales, permitiendo a los individuos controlar su información personal y evitar su utilización inadecuada o perjudicial. |
Autor | Gala y Samaniego (2023) |
Metodología | Investigación cualitativa |
Conclusiones | El artículo destaca la necesidad de derechos digitales inclusivos que protejan la privacidad y reputación de grupos vulnerables, como mujeres y personas LGBTQI+, en el entorno digital |
Tabla 5 Armonización entre derechos digitales y otros derechos fundamentales
¿De qué manera se puede lograr una armonización entre los derechos digitales y la salvaguarda de otros derechos fundamentales, como la libertad de expresión y la privacidad, en el contexto del uso de nuevas tecnologías? | |
---|---|
Autor | Landa (2022) |
Metodología | Análisis teórico-jurídico y documental |
Conclusiones | La armonización se logra al regular el desarrollo tecnológico bajo los principios constitucionales, garantizando el equilibrio entre la innovación y la protección de derechos como la privacidad y libertad de expresión. El Estado debe intervenir activamente para evitar abusos y proteger a los individuos de riesgos algorítmicos |
Autor | Cardona (2022) |
Metodología | Análisis cualitativo |
Conclusiones | La clave de la armonización radica en garantizar la protección de datos y la ciberseguridad en el uso de IA. Es necesario un marco regulatorio inclusivo que proteja la privacidad sin restringir el acceso a las tecnologías |
Autor | Osorio (2021) |
Metodología | Análisis crítico y comparativo |
Conclusiones | El estudio refleja la necesidad de armonización entre derechos individuales y colectivos. La regulación debe equilibrar la protección de propiedad intelectual con las libertades de los usuarios, evitando excesos restrictivos |
Autor | Peters (2021) |
Metodología | Estudio doctrinal |
Conclusiones | La armonización se puede lograr mediante el principio de proporcionalidad, permitiendo que derechos como la libertad de expresión y la privacidad se equilibren en casos de conflicto tecnológico. La ponderación garantiza soluciones equilibradas en contextos digitales |
Autor | Floridi y Cowls (2019) |
Metodología | Análisis comparativo |
Conclusiones | La armonización se alcanza mediante la aplicación de cinco principios éticos fundamentales: beneficencia, no maleficencia, autonomía, justicia y explicabilidad. Estos principios garantizan que el desarrollo tecnológico se realice con pleno respeto a los derechos fundamentales, promoviendo un equilibrio entre la transparencia, la equidad y la privacidad, sin comprometer la libertad de expresión. |
DISCUSIÓN
Los hallazgos de este estudio evidencian una significativa convergencia con la literatura académica en torno a los riesgos y desafíos que la IA y el big data representan para la protección de datos personales (PDP). Los resultados coinciden con los postulados de Martínez (2019) y Cotino (2020), y resaltan la importancia de establecer directrices éticas, responsables y claras para el manejo de la información personal. Asimismo, se evidencia una constante tensión entre la protección de datos personales (PDP) y el acceso a la información pública, tal como documentan Guerrero-Sotelo et al. (2022) y Garcés et al. (2023), quienes enfatizan la complejidad de armonizar ambos derechos en un entorno digital en evolución.
En cuanto a los mecanismos de gobernanza y regulación, los resultados se alinean con las propuestas de Capdeferro (2020), Freire et al. (2023) y Martínez-Jara y Pérez-Ycaza (2022), y subrayan la urgencia de un marco normativo integral que contemple las dimensiones éticas y jurídicas de tecnologías disruptivas como la inteligencia artificial. Además, se enfatiza la relevancia de promover programas de concienciación y formación social para consolidar una cultura orientada a la protección de datos.
En relación con el derecho al olvido digital, los resultados confirman su papel esencial como mecanismo para salvaguardar la privacidad y reputación en entornos virtuales. Esto coincide con las conclusiones de Franco y Quintanilla (2020), Ordóñez y Calva (2020) y Giménez-Chornet (2021), quienes alertan sobre el riesgo de perpetuación desproporcionada de información personal, que puede vulnerar la dignidad individual. Además, se subraya la necesidad de armonizar los derechos digitales con otros derechos fundamentales, como la libertad de expresión y la privacidad. Estos hallazgos son coherentes con las aportaciones de Giménez-Chornet (2021), Gala y Samaniego (2023) y Osorio (2021), quienes sostienen que un marco regulador integral y multidimensional es imprescindible para garantizar un equilibrio adecuado entre los derechos en juego.
Entre las principales limitaciones del estudio se encuentra la dependencia de la literatura científica, excluyendo fuentes como informes gubernamentales y estudios empíricos, lo que podría limitar la comprensión contextual de los desafíos y soluciones aplicadas a la PDP. Además, el enfoque en entornos digitales no aborda en profundidad otros derechos fundamentales afectados por el avance tecnológico, como la igualdad y la no discriminación. Finalmente, la naturaleza sistemática del estudio condiciona los hallazgos a la disponibilidad y calidad de la literatura existente.
Para futuras investigaciones, se sugiere ampliar el enfoque hacia estudios empíricos y casos específicos en sectores como el gubernamental y privado, así como comunidades vulnerables. También es fundamental desarrollar estudios interdisciplinarios que integren perspectivas jurídicas, tecnológicas y sociales, permitiendo una visión holística de la interrelación entre derechos digitales y otros derechos fundamentales. Los estudios comparativos entre marcos regulatorios a nivel nacional e internacional podrían identificar buenas prácticas aplicables en distintos contextos. Finalmente, es esencial analizar el rol de la sociedad civil, ONG y actores tecnológicos en la formulación de soluciones innovadoras que garanticen la PDP y los derechos digitales en un entorno tecnológico en constante evolución
CONCLUSIONES
El análisis realizado en el presente estudio ha permitido identificar tres vacíos temáticos cruciales en la investigación sobre la PDP en el contexto del uso de la IA y el big data. Es esencial desarrollar mecanismos regulatorios y estructuras de gobernanza que enfrenten eficazmente los retos y riesgos inherentes a las tecnologías emergentes. Asimismo, persisten dificultades significativas en la aplicación práctica del derecho al olvido digital, reconocido como un instrumento esencial para preservar la privacidad y la reputación en entornos digitales. Es crucial desarrollar un marco normativo integral que articule los derechos digitales con garantías fundamentales como la privacidad y la libertad de expresión, especialmente en un contexto de acelerada evolución tecnológica.
El objetivo de este estudio fue analizar de manera exhaustiva los desafíos existentes, identificar los mecanismos actualmente vigentes y proponer un marco regulatorio comprehensivo que asegure la protección integral de los datos personales; sin embargo, también se identificaron obstáculos relevantes que dificultan la implementación de políticas capaces de equilibrar el progreso tecnológico con la protección de derechos fundamentales.
A partir de una revisión sistemática de la literatura, este análisis ofrece una perspectiva completa de los avances logrados y las brechas persistentes en este ámbito, subrayando la necesidad de profundizar en esta línea de investigación. Futuras indagaciones deberían enfocarse en estudios empíricos, análisis de casos concretos y comparativas internacionales que permitan identificar marcos regulatorios y mejores prácticas aplicables en diversos contextos.
Finalmente, garantizar la PDP y los derechos digitales demanda un enfoque interdisciplinario y colaborativo que integre el desarrollo tecnológico en la protección de los derechos humanos. Resulta indispensable la colaboración entre gobiernos, entidades internacionales, actores tecnológicos y la sociedad civil para desarrollar e implementar políticas sostenibles que garanticen la privacidad y preserven la dignidad humana en un entorno digital dinámico y desafiante.