Introducción
El uso creciente del machine learning (ML) en la analítica predictiva ha transformado radicalmente la toma de decisiones financieras en las empresas. La capacidad de estos algoritmos para extraer patrones de grandes volúmenes de datos ha generado nuevas oportunidades para identificar tendencias, prever riesgos y optimizar inversiones. Sin embargo, este desarrollo está acompañado de desafíos significativos relacionados con la privacidad de los datos y las implicaciones éticas que surgen de su aplicación en contextos financieros. Según Hamed (2023), la falta de transparencia en los algoritmos de decisión plantea serias preocupaciones respecto de la protección de los derechos de privacidad de los individuos en un entorno digital cada vez más regulado.
A medida que las instituciones financieras adoptan estrategias basadas en ML, las cuestiones de privacidad se vuelven más complejas. Esto se debe a la necesidad de manejar información altamente sensible, donde la intrusión en la privacidad de los clientes puede generar consecuencias legales y reputacionales graves. Liu et al., (2023) sostienen que la evolución de la legislación, como el Reglamento General de Protección de Datos (GDPR) en la Unión Europea, ha establecido un marco regulativo que busca salvaguardar la confidencialidad de los datos, aunque aún presenta brechas que pueden ser explotadas por tecnologías emergentes de ML.
A pesar de los beneficios inherentes al uso de ML en finanzas, como la mejora en la precisión de las predicciones y la eficiencia operativa, los estudios indican que las organizaciones enfrentan retos significativos en su implementación debido a la regulación insuficiente y la falta de claridad en las mejores prácticas. Tufail et al., (2023) subrayan que los problemas de privacidad relacionados con el uso de datos en ML frecuentemente no son abordados con profundidad por las empresas, lo que incrementa el riesgo de incumplimiento normativo.
Asimismo, Dhabliya et al., (2024) destacan la importancia de desarrollar ecosistemas seguros de ML que no solo se centren en el rendimiento del modelo, sino que también prioricen la privacidad de los datos como un pilar fundamental en su diseño y operación. La capacidad de las empresas para navegar este panorama regulatorio diverso, mientras aprovechan las ventajas competitivas ofrecidas por el ML, resulta esencial para su sostenibilidad y éxito futuro.
En los últimos años, se ha observado un creciente interés en la investigación sobre las implicaciones de privacidad derivadas del uso de datos en ML para la toma de decisiones financieras. Este interés se debe no solo a la rápida adopción de ML en el sector financiero, sino también a la creciente relevancia de la privacidad y la ética en el manejo de datos sensibles. Uno de los estudios más significativos en este campo es el de Akash et al., (2024), quienes investigan métodos para mejorar la privacidad de los datos en sectores como la analítica y las finanzas. Su investigación destaca la efectividad de las Tecnologías de Mejora de Privacidad (Privacy-Enhancing Technologies, PETs), como el aprendizaje federado y la privacidad diferencial, en la protección de información sensible en entornos empresariales.
Otro hito relevante es el trabajo de Liu et al., (2023), que aborda las preocupaciones de privacidad en el contexto de la transformación digital. Este estudio enfatiza que la creciente adopción de algoritmos de ML plantea riesgos sustanciales para la privacidad de los datos personales, lo que podría obstaculizar la transformación exitosa de las organizaciones en el sector financiero. El análisis detallado de este problema permite comprender mejor cómo las regulaciones existentes pueden responder a dichos desafíos.
Por su parte, Hamed (2023) ofrece una visión crítica sobre los desafíos éticos y la privacidad en el uso de big data en la toma de decisiones. En su estudio se discuten las implicaciones éticas de los modelos de decisión basados en ML y se plantea la necesidad de un marco regulatorio más sólido que contemple las preocupaciones de privacidad y el uso indebido de los datos. Esta perspectiva resulta esencial para orientar las políticas que rigen el uso de datos en la toma de decisiones financieras.
De igual forma, Qi et al., (2023) presentan avances en el aprendizaje federado, centrados en la transferencia de conocimiento en modelos descentralizados, lo que ayuda a mitigar los riesgos de privacidad de los usuarios durante el proceso de intercambio de información. Esta innovación tiene el potencial de redefinir la manera en que las instituciones financieras manejan y comparten datos sin comprometer la confidencialidad.
En esa misma línea, Zhang (2022) explora un modelo de aprendizaje federado para el diagnóstico en entornos de salud digital, el cual resulta pertinente para el sector financiero al abordar las barreras de privacidad que enfrenta el análisis de modelos predictivos en contextos donde el uso compartido de datos es crítico. Este estudio demuestra cómo las técnicas de protección pueden aplicarse en entornos colaborativos, inspirando posibles soluciones en el ámbito financiero.
En conjunto, estos estudios resaltan la importancia de abordar la privacidad y las regulaciones dentro del contexto del ML aplicado a las decisiones financieras. La identificación de brechas en la regulación existente y la evaluación de las mejores prácticas son esenciales para garantizar un uso ético y responsable de estas tecnologías.
En la revisión de la literatura actual sobre las implicaciones de privacidad relacionadas con el uso de datos en ML para la toma de decisiones financieras, se han identificado diversos vacíos que justifican la pertinencia del objetivo de investigación propuesto. A continuación, se discuten cinco de estos vacíos clave.
En primer lugar, Mohammed et al., (2025) señalan que, a pesar de la existencia de marcos regulativos como el GDPR, aún persisten deficiencias significativas en la protección efectiva de datos sensibles en prácticas de ML aplicadas a las finanzas. Este estudio resalta la falta de claridad sobre cómo aplicar dichos marcos en situaciones específicas, lo que genera incertidumbre para las entidades financieras.
Por otra parte, Talukder & Shompa (2024) enfatizan la necesidad de desarrollar políticas regulatorias que evolucionen al mismo ritmo que las tecnologías de ML. Este vacío evidencia la falta de agilidad en la adaptación de regulaciones capaces de abordar los riesgos emergentes asociados con la privacidad, lo que puede derivar en lagunas legales que expongan a los consumidores a riesgos.
Asimismo, Akash et al., (2024) destacan las limitaciones de las PETs y su integración con las normativas existentes. Aunque estas tecnologías pueden contribuir a mitigar los riesgos de privacidad, la falta de investigaciones que exploren su aplicación efectiva en el ámbito financiero deja un vacío crítico en la comprensión de su implementación dentro de un marco regulativo adecuado.
Otro vacío relevante es identificado por Wirth et al., (2021), quienes evidencian que la infraestructura actual de compartición de datos en la investigación médica no se traduce adecuadamente al contexto financiero, lo que agrava los problemas de privacidad al carecer de soluciones adaptadas a esta área. Esto sugiere que las estrategias exitosas en otros sectores no necesariamente son aplicables a las finanzas, destacando la necesidad de estudios específicos en este campo.
Finalmente, Hockstad et al., (2024) sostienen que los desafíos en materia de ciberseguridad, especialmente en relación con las transacciones financieras, no han sido integrados de manera adecuada en las discusiones sobre regulación y privacidad. Este vacío evidencia la necesidad de investigar medidas efectivas que aseguren que las tecnologías emergentes no vulneren los derechos de privacidad.
Estos vacíos ponen de manifiesto la urgencia de realizar una investigación sistemática que aborde las implicaciones de privacidad en el uso de datos para la toma de decisiones financieras, considerando tanto la regulación existente como las brechas que requieren atención.
El objetivo de este artículo es evaluar las implicaciones de privacidad derivadas del uso de datos en machine learning para la toma de decisiones financieras, con énfasis en la regulación existente y las brechas en su aplicación. Esta evaluación no solo busca identificar y analizar la efectividad de las normativas actuales en la protección de datos, sino también proponer recomendaciones que aborden las lagunas encontradas en la literatura y ofrezcan un marco más cohesivo y aplicable a la realidad del sector financiero.
Metodología
Para la realización de esta revisión sistemática, se aplicó el método PRISMA (Preferred Reporting Items for Systematic reviews and Meta-Analyses), que proporciona un enfoque estructurado y riguroso para la recopilación y presentación de la literatura.
Las estrategias de búsqueda fueron rigurosas: se utilizaron bases de datos académicas como Scopus, Wos y SciELO, donde se identificaron artículos relevantes publicados en los últimos cinco años.
La revisión se llevó a cabo en varias etapas, comenzando por la formulación de la pregunta de investigación y el desarrollo de una estrategia de búsqueda exhaustiva. Esto se logró mediante la definición de una fórmula booleana que incluye las palabras clave más relevantes relacionadas con las implicaciones de privacidad y machine learning. La fórmula de búsqueda es la siguiente:
("machine learning" AND "data privacy" AND "financial decision making" AND "regulatory framework" AND "implementation gaps")
Para guiar esta revisión sistemática, se formularon tres preguntas de investigación que son fundamentales para evaluar el objetivo propuesto:
¿Cuáles son las principales implicaciones de privacidad asociadas con el uso de machine learning en la toma de decisiones financieras?
¿Qué regulaciones actuales existen para abordar la privacidad de datos en el contexto del machine learning en finanzas, y qué brechas se identifican en su aplicación?
¿Cómo pueden las Tecnologías de Mejora de Privacidad (PETs) ser integradas en las prácticas financieras para minimizar los riesgos de privacidad asociados al machine learning?
Tabla 1 Criterios de inclusión y exclusión
| Criterio | Inclusión | Exclusión |
|---|---|---|
| Enfoque del estudio | Analizan el uso de machine learning en decisiones financieras. | No abordan privacidad de datos en machine learning financiero. |
| Calidad de la fuente | Artículos revisados por pares en revistas científicas. | Documentos sin revisión por pares o de conferencias no pertinentes. |
| Dimensión ética y regulatoria | Consideran implicaciones éticas y brechas regulatorias. | Omiten aspectos éticos o regulatorios y tratan contextos no financieros. |
A través de esta metodología, se busca proporcionar una evaluación comprensiva y estructurada sobre las implicaciones de privacidad derivadas del uso de datos en machine learning para la toma de decisiones financieras, estimulando la discusión y el avance del conocimiento en este campo crítico.
Resultados
Tabla 2 Estudios clave sobre privacidad y machine learning en decisiones financieras
| Autor (Año) | Contexto financiero / Sector | Tipo de ML aplicado | Implicaciones de privacidad identificadas | Mecanismos de mitigación propuestos | Referencias regulatorias / éticas | Brechas regulatorias señaladas | Hallazgo clave |
|---|---|---|---|---|---|---|---|
| Aljunaid et al., (2025) | Banca digital y detección de fraude financiero | Federated Learning (FL) + Explainable AI (XAI) | Riesgo de exposición de datos entre entidades y opacidad algorítmica en la detección de fraude | Integración de XAI (SHAP, LIME) en FL → modelo “XFL” explicable y privado | GDPR, CCPA, Basel III sobre transparencia algorítmica | Falta de guías técnicas para auditar modelos FL interbancarios | El modelo XFL equilibra precisión, cumplimiento y privacidad en decisiones financieras. |
| Deshmukh et al., (2025) | Instituciones financieras y ciberseguridad bancaria | Federated Learning (FedAvg, FedProx, FedOpt) | Riesgos de privacidad por heterogeneidad de datos e inferencia cruzada entre nodos | Framework Flower de FL con anonimización, encriptado y optimización distribuida | GDPR Art. 25 (Privacy by Design), ISO/IEC 27701 | Carencia de estándares globales para interoperabilidad FL en banca | El FL permite colaboración bancaria sin compartir datos sensibles, fortaleciendo privacidad. |
| El-Taj et al., (2025) | Banca electrónica / autenticación | Machine Learning (anomaly detection) | Procesamiento masivo de credenciales y trazas → riesgo de reidentificación y abuso de datos | AI adaptativa + autenticación federada + blockchain para descentralizar identidad | Leyes de ciberseguridad (NIST, GDPR, ISO/IEC 27001) | Falta de normas sobre almacenamiento de biometría conductual | La IA reduce fraudes, pero debe equilibrar eficiencia y privacidad del usuario. |
| Patil et al., (2025) | Finanzas internacionales / gobernanza de datos | Revisión de modelos de ML para cumplimiento financiero | Riesgos derivados de la “soberanía de datos” y uso transfronterizo de modelos ML | Gobernanza multinivel, auditorías éticas y protocolos de minimización | GDPR, LGPD (Brasil), Data Governance Act (UE) | Fragmentación regulatoria → conflictos en intercambio transfronterizo | Urge armonizar marcos regulatorios para decisiones basadas en ML y datos sensibles. |
| Achalapong & Satitsamitpong (2025) | NBFIs (Instituciones Financieras No Bancarias) | XGBoost, redes neuronales | Riesgos éticos y de privacidad por uso de datos alternativos (telco, redes sociales) | Gobernanza de datos y consentimiento informado; segmentación responsable | Principios de la OCDE, GDPR, IFC Data Ethics | Inexistencia de límites claros para datos no financieros | ML mejora inclusión crediticia, pero plantea dilemas de privacidad y equidad. |
| Selvamani et al., (2025) | Crédito hipotecario / banca de consumo | ML híbrido (KNN + regresión + optimización) | Riesgos de discriminación y filtración en datos de scoring hipotecario | Aplicación de privacy-preserving ML (FL + cifrado) y auditoría continua | FAIR AI Guidelines, ISO/IEC 23894 | Ausencia de trazabilidad en explicaciones de modelos crediticios | La inclusión de privacidad desde diseño mejora la confianza y la aceptabilidad regulatoria. |
| Ogundele & Ahmed (2025) | Banca nigeriana (BFSI emergente) | Modelos supervisados (árboles, regresión) | Brechas en privacidad por infraestructura débil y laguna legislativa | Estándares de AI Governance y Ethical Banking Frameworks | NDPR (Nigeria Data Protection Regulation) | Falta de institucionalización de auditorías algorítmicas | La adopción de IA exige fortalecer gobernanza y auditorías de privacidad en banca. |
| Vecchietti et al., (2025) | Banca y seguros (UE) | Deep Learning (GANs, IA generativa) | Deepfakes financieros → vulneración de privacidad e integridad de datos | Algoritmos anti-deepfake y trazabilidad en blockchain | AI Act (UE), Reglamento eIDAS 2.0 | Vacíos normativos frente a IA generativa en finanzas | Los deepfakes desafían la integridad y la confianza en los sistemas de decisión financiera. |
Tabla 3 Regulaciones de privacidad y brechas en la aplicación del machine learning financiero
| Autor(es) | Jurisdicción / Ámbito financiero | Marco regulatorio citado | Aplicación de Machine Learning | Riesgos de privacidad identificados | Brechas o vacíos regulatorios | Recomendaciones o implicaciones |
|---|---|---|---|---|---|---|
| Borowicz (2024) | Unión Europea - banca digital y datos financieros | GDPR, PSD2, AI Act, EFDS | Modelos ML para gestión de datos financieros y cumplimiento | Riesgo de reutilización indebida de datos, transparencia limitada en modelos y trazabilidad incompleta | Falta de armonización entre el AI Act y GDPR, vacío en control de calidad de datos para ML | Reforzar evaluación de impacto algorítmico (AIA) y estándares de auditoría de modelos financieros |
| Chomczyk Penedo & Trigo Kramcsák (2023) | Unión Europea - servicios financieros (scoring, open banking) | European Financial Data Space (EFDS), GDPR, AI Act draft | Entrenamiento de IA con datos crediticios y financieros | Riesgo de sesgos y violación de consentimiento al entrenar modelos | Carencia de transparencia y control del titular sobre su dato en el EFDS | Crear mecanismos de supervisión ética y de consentimiento dinámico en el flujo de datos |
| Patil et al., (2025) | Global - ecosistema financiero y fintechs | GDPR, CCPA, LGPD, AI Act, Open Data Act | Revisión sistemática de soberanía de datos en ML financiero | Riesgo de transferencia transfronteriza no controlada y falta de interoperabilidad legal | Desafíos de armonización global y lag en cumplimiento extraterritorial | Promover regulación unificada y políticas de portabilidad con privacy by design |
| AbouGrad & Sankuru (2025) | Europa - banca minorista (fraude) | GDPR, principios de data minimization | Autoencoders descentralizados para detección de fraude | Riesgo de reidentificación y fuga de metadatos | Carencia de directrices sobre anonimización efectiva y auditoría de modelos | Incentivar el uso de privacy-preserving ML (federated learning) y marcos de auditoría |
| Lee (2020) | Asia y UE - fintech y robo-advisors | GDPR, PSD2, BCBS 239 | Gobernanza algorítmica en asesoría financiera automatizada | Riesgos de sesgo algorítmico y decisiones opacas | Ambigüedad sobre responsabilidad y trazabilidad en ML financiero | Fortalecer gobernanza de IA y atribución legal de decisiones automáticas |
| Szepannek & Lübke (2021) | Alemania - banca y scoring crediticio | GDPR (Art. 22), BCBS, XAI frameworks | Modelos ML explicables para credit scoring | Riesgo de discriminación y sesgo con datos personales | Falta de estándares uniformes de explicabilidad y trazabilidad | Establecer normas regulatorias técnicas de explicabilidad y revisión humana |
| Yuspin et al., (2025) | Global - fintech P2P lending | CCPA, GDPR, AI Ethics Guidelines | ML en detección de deepfakes y gestión de identidad en préstamos P2P | Riesgo de falsificación de identidad y uso indebido de datos | Ausencia de marcos regulatorios específicos para IA generativa en finanzas | Desarrollar leyes específicas para IA generativa y scoring automatizado |
Tabla 4 Integración de PETs en prácticas financieras basadas en Machine Learning
| Autor (año) | Problema financiero abordado | Tecnología de mejora de privacidad (PET) | Evidencia de preservación de privacidad en ML financiero | Mención o implicación regulatoria |
|---|---|---|---|---|
| Yuxin & Honglin (2023) | Control de riesgo crediticio y préstamo inteligente | Differential Privacy (DP) + Federated Learning (FL) | Establece presupuestos de privacidad ε-DP para mitigar fuga de datos en modelos FL bancarios | Cita “regulaciones estrictas” y “silos de datos” en instituciones financieras |
| Abdul Salam et al., (2024) | Detección de fraude en tarjetas de crédito | Federated Learning + técnicas de reequilibrio de datos | FL evita compartir datos entre bancos; logra 99.9 % precisión preservando privacidad | Implícita: referencias a restricciones de intercambio de datos interbancarios |
| Kong, L. et al., (2023) | Predicción de riesgo en supply chain finance | Federated Learning descentralizado | Permite predicciones sin compartir datos sensibles de órdenes financieras | Breve mención a protección de datos interinstitucionales |
| Oualid et al., (2023) | Gestión del riesgo crediticio en banca | FL + DP + Blockchain | Revisión sistemática que integra PETs aplicadas a credit scoring colaborativo | Destaca barreras de cumplimiento de privacidad y necesidad de normas FL-friendly |
| Nadella et al., (2025) | Privacidad corporativa en entornos financieros y de IA | Differential Privacy + Enmascaramiento + Cifrado | Analiza gobernanza de privacidad y compliance en datos financieros | Cita marcos NIST, ISO 27701 y GDPR como guías |
| Deshmukh et al., (2023) | Intrusiones y fraude digital en infraestructuras financieras IoT | Federated Learning (FL) | FL usado para detección distribuida sin revelar datos de transacción | Relación implícita con compliance bancario y mitigación de ciber-riesgos |
| Awosika et al., (2024) | Fraude financiero y trazabilidad en banca digital | Explainable AI (XAI) + FL | Combina interpretabilidad y privacidad para auditoría de decisiones financieras | Alude a transparencia regulatoria y ética de IA |
| Dasari & Kaluri (2024) | Privacidad en operaciones financieras multi-institucionales | “2P3FL” - Privacy-Preserving Personalized Federated Learning | Mecanismo FL personalizado para mitigar ataques y preservar confidencialidad bancaria | No menciona regulación explícita, pero sugiere cumplimiento |
| Kanamori et al., (2022) | Detección de transacciones fraudulentas en bancos japoneses | Privacy-Preserving Federated Learning | Mantiene privacidad entre entidades financieras japonesas | Enfatiza cumplimiento de políticas de datos bancarios nacionales |
| Li & Walsh (2024) | Fraude en tarjetas de crédito | FedProx + GNN + DCNN (Federated Learning mejorado) | Estructura federada evita compartir datos entre instituciones | Menciona riesgos de exposición y propone FL como mitigación |
| Pereira et al., (2024) | Riesgo de filtración en aprendizaje federado bancario | Secure Aggregation (DC-Nets + Secret Sharing) | Protocolos criptográficos para agregar modelos sin servidor central | Reconoce impacto en sectores bancarios y médicos |
| Aljunaid et al., (2025) | Fraude financiero con IA explicable | Explainable + Federated Learning | FL-XAI para detectar fraude manteniendo privacidad | Vincula transparencia y confianza regulatoria |
Discusión de Resultados
Los resultados obtenidos en esta revisión sistemática confirman que el uso del ML en la toma de decisiones financieras ofrece ventajas significativas en precisión, eficiencia y detección de riesgos, pero simultáneamente amplifica los desafíos en torno a la privacidad y la gobernanza de datos. Esta conclusión converge con los hallazgos de Hamed (2023), quien advierte que la opacidad de los algoritmos y la falta de transparencia en los procesos de decisión automatizados incrementan el riesgo de vulneración de derechos de privacidad. De manera similar, Liu et al., (2023) señalan que, aunque los marcos regulatorios como el GDPR buscan mitigar estos riesgos, persisten brechas en su aplicabilidad a entornos de ML dinámicos y distribuidos, lo que coincide con las brechas regulatorias observadas en los casos de la banca digital y el open banking identificadas por Borowicz (2024) y Chomczyk Penedo & Trigo Kramcsák (2023).
Asimismo, se identificó una tendencia hacia el uso de Privacy Enhancing Technologies (PETs), particularmente el Federated Learning (FL) y la Differential Privacy (DP), como mecanismos efectivos para preservar la confidencialidad de los datos en entornos financieros distribuidos. Los estudios de Yuxin & Honglin (2023) y Oualid et al., (2023) respaldan esta observación al demostrar que la integración de FL con DP puede reducir la exposición de información sensible sin sacrificar el rendimiento del modelo. En concordancia, Akash et al., (2024) destacan que estas tecnologías constituyen una vía prometedora para cumplir con los principios de privacy by design establecidos en el GDPR, aunque su adopción aún enfrenta desafíos técnicos y regulatorios.
Por otro lado, la literatura evidencia divergencias en cuanto a la capacidad de los marcos normativos para adaptarse al ritmo de la innovación tecnológica. Mientras Talukder & Shompa (2024) subrayan la rigidez de las regulaciones frente al dinamismo del ML, Patil et al., (2025) abogan por la armonización de normativas internacionales (como GDPR, CCPA y LGPD) para evitar conflictos de soberanía de datos. Estas diferencias pueden explicarse por la diversidad de contextos regulatorios y el grado de madurez digital de los sistemas financieros analizados.
Finalmente, los resultados de esta revisión reafirman que las brechas regulatorias persisten en tres dimensiones: a) la trazabilidad y explicabilidad de los modelos, b) la interoperabilidad legal transfronteriza, y c) la ausencia de directrices técnicas claras para auditorías algorítmicas. Estas deficiencias ya habían sido advertidas por Szepannek & Lübke (2021) y Hockstad et al., (2024), quienes coinciden en la urgencia de establecer estándares de gobernanza y auditoría algorítmica que garanticen tanto la privacidad como la equidad en la toma de decisiones financieras automatizadas.
Si bien esta revisión sistemática proporciona una visión integral de las implicaciones de privacidad asociadas al ML financiero, presenta algunas limitaciones que deben reconocerse. En primer lugar, el periodo temporal de análisis (últimos cinco años) podría haber excluido investigaciones fundacionales previas sobre gobernanza algorítmica o ética de datos que continúan siendo relevantes para comprender las bases del problema. En segundo lugar, la focalización en bases de datos académicas específicas (Scopus, WoS y SciELO) puede haber dejado fuera literatura gris o reportes técnicos de organismos reguladores que aporten perspectivas prácticas sobre la aplicación normativa. En tercer lugar, la heterogeneidad conceptual entre estudios revisados -que abordan privacidad desde dimensiones técnicas, legales y éticas- dificulta la comparación directa de resultados. Finalmente, la rapidez del avance tecnológico en ML y la aparición constante de nuevas técnicas de preservación de privacidad (por ejemplo, zero-knowledge proofs o secure multiparty computation) podrían hacer que algunos hallazgos pierdan vigencia en el corto plazo.
Estas limitaciones no invalidan los resultados, pero sí sugieren que las conclusiones deben interpretarse considerando el contexto dinámico del campo y la necesidad de actualizaciones continuas en revisiones futuras.
A partir de los vacíos y desafíos identificados, se proponen varias líneas de investigación futura. En primer lugar, se recomienda desarrollar modelos de evaluación comparativa que midan el grado de cumplimiento de los marcos regulatorios existentes frente a los requerimientos de privacidad de los sistemas de ML financiero. En segundo lugar, sería pertinente realizar estudios empíricos interdisciplinarios que integren perspectivas legales, éticas y técnicas para examinar la eficacia de las PETs en escenarios reales de banca y fintech. En tercer lugar, se sugiere profundizar en la armonización de regulaciones internacionales, evaluando cómo los principios de protección de datos pueden adaptarse a contextos transfronterizos mediante mecanismos de compliance unificados.
Asimismo, se requiere avanzar en la definición de marcos técnicos de auditoría algorítmica, que incluyan métricas estandarizadas de explicabilidad, responsabilidad y transparencia. Finalmente, la investigación futura debería explorar el potencial de la inteligencia artificial explicable (XAI) combinada con federated learning como un enfoque dual que preserve la privacidad sin comprometer la responsabilidad legal y ética en la toma de decisiones financieras automatizadas.
Conclusiones
Los hallazgos de esta revisión sistemática evidencian que la aplicación del ML en la toma de decisiones financieras ha generado avances notables en términos de eficiencia predictiva, reducción de riesgos y automatización de procesos, pero también ha incrementado las vulnerabilidades asociadas a la privacidad de los datos. Entre los resultados más significativos, se identificó que las brechas regulatorias se concentran en tres ejes principales: a) la falta de trazabilidad y explicabilidad en los modelos de decisión automatizados; b) la escasa interoperabilidad entre marcos regulatorios internacionales, lo que obstaculiza el intercambio seguro de datos transfronterizos; y c) la carencia de directrices técnicas claras para la auditoría algorítmica. Adicionalmente, los estudios revisados muestran que las Privacy Enhancing Technologies (PETs) -como el Federated Learning (FL), la Differential Privacy (DP) y la Explainable AI (XAI)- ofrecen soluciones prometedoras para equilibrar precisión y privacidad en contextos financieros, aunque su implementación aún enfrenta barreras normativas y de estandarización tecnológica.
En coherencia con el objetivo planteado evaluar las implicaciones de privacidad derivadas del uso de datos en machine learning para la toma de decisiones financieras, con énfasis en la regulación existente y las brechas en su aplicación, los resultados permiten concluir que los marcos regulatorios actuales, aunque avanzados en su formulación (como el GDPR, CCPA, AI Act o Data Governance Act), son insuficientes frente a los desafíos emergentes de la inteligencia artificial financiera. Se evidencia una falta de adaptación dinámica de las normativas a la evolución de las arquitecturas algorítmicas, lo cual genera vacíos legales en la atribución de responsabilidad, el consentimiento informado y la transparencia de los modelos. Asimismo, la investigación confirma que la integración efectiva de las PETs dentro de la gobernanza financiera puede contribuir significativamente a reducir los riesgos de privacidad, siempre que se acompañe de políticas de cumplimiento (compliance) y auditorías de impacto algorítmico que garanticen el respeto a los derechos de los titulares de datos.
Este trabajo asegura la validez y transparencia del proceso de revisión, fortaleciendo la base empírica y teórica sobre la que se sustentan las conclusiones. La naturaleza sistemática del estudio posibilitó comparar distintas perspectivas -técnicas, regulatorias y éticas-, ofreciendo una visión integral de las implicaciones de privacidad en la adopción de ML en finanzas.
Los resultados de esta investigación tienen implicaciones relevantes tanto para la academia como para los reguladores y el sector financiero. En el ámbito académico, este estudio contribuye a consolidar un marco analítico que relaciona la regulación de datos con la innovación tecnológica, sirviendo de referencia para futuras investigaciones interdisciplinares en ética algorítmica y gobernanza de datos financieros. Desde una perspectiva práctica, los hallazgos sugieren la urgencia de diseñar marcos regulatorios adaptativos, basados en principios de privacy by design y algorithmic accountability. Se recomienda que futuros estudios profundicen en la evaluación empírica de la efectividad de las PETs en entornos reales, en el desarrollo de estándares internacionales de auditoría algorítmica y en la armonización de normativas globales para la gestión de datos sensibles en finanzas. Finalmente, la investigación abre la oportunidad de explorar modelos híbridos que combinen Explainable AI y Federated Learning, consolidando sistemas financieros más transparentes, éticos y resilientes frente a los desafíos de privacidad del siglo XXI.
















