Valoración algorítmica ante los derechos humanos y el Reglamento General de Protección de Datos: el caso SyRI

Resumen

La Corte de Distrito de La Haya dictó el 5 de febrero de 2020 una sentencia sobre el Sistema de Indicación de Riesgos (SyRI), por la que considera que: i) es lícito utilizar instrumentos de este tipo siempre que exista un interés público que lo justifique y se tomen las medidas adecuadas para garantizar la mínima injerencia necesaria en el derecho a la privacidad; y ii) que la implementación de SyRI no ofrece garantías suficientes como para considerar que este sistema en concreto respeta el necesario juicio de proporcionalidad que debe superar toda injerencia en la privacidad de acuerdo con el artículo 8 del Convenio Europeo de Derechos Humanos (CEDH). A lo largo de este trabajo reflexionaremos en detalle sobre las consideraciones de la Corte en esta sentencia en relación con el respeto a la privacidad, la obtención masiva de datos y la opacidad con que funcionan los algoritmos de análisis de datos masivos.

Biografía del autor

Guillermo Lazcoz Moratinos es licenciado en Derecho por la Universidad del País Vasco (UPV/EHU), España. Investigador FPU del Ministerio de Educación y Formación Profesional (Gobierno de España) en el GI Cátedra de Derecho y Genoma Humano, Universidad del País Vasco.

José Antonio Castillo Parrilla es doctor europeo en Derecho Digital por la Universidad de Bolonia y doctor en Derecho Civil por la Universidad de Granada. Investigador posdoctoral en el GI Cátedra de Derecho y Genoma Humano, Universidad del País Vasco (UPV/EHU), España.

Citas

Beer, David (2017). «The social power of algorithms». Information Communication and Society, 20(1): 1-13. DOI: 10.1080/1369118X.2016.1216147.

Boix, Andrés (2020). «Los algoritmos son reglamentos: La necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la Administración para la adopción de decisiones». Revista de Derecho Público: Teoría y Método, 1: 223-270. DOI: 10.37417/RPD/vol_1_2020_33.

Burrell, Jenna (2016). «How the machine “thinks”: Understanding opacity in machine learning algorithms». Big Data & Society, 3(1): 1-12. DOI: 10.1177/2053951715622512.

Castillo Parrilla, José Antonio (2018). Bienes digitales: Una necesidad europea. Madrid: Dykinson.

Contreras Vásquez, Pablo y Pablo Trigo Kramcsák. (2019). «Interés legítimo y tratamiento de datos personales: Antecedentes comparados y regulación en Chile». Revista Chilena de Derecho y Tecnología, 8(1): 69-106. DOI: 10.5354/0719-2584.2019.52915.

De Miguel Beriain, Íñigo (2018). «Does the use of risk assessments in sentences respect the right to due process? A critical analysis of the Wisconsin v. Loomis Ruling». Law, Probability and Risk, 17(1): 45-53. DOI: 10.1093/lpr/mgy001.

Dressel, Julia y Hany Farid (2018). «The accuracy, fairness, and limits of predicting recidivism». Science Advances, 4(1). DOI: 10.1126/sciadv.aao5580.

EPRS, Servicio de Estudios del Parlamento Europeo (2018). El derecho al respeto de la vida privada: Los retos digitales, una perspectiva de derecho comparado. Disponible en https://bit.ly/2WqgSTK.

GT29, Grupo de Trabajo del Artículo 29 (2017). «Directrices sobre la evaluación de impacto relativa a la protección de datos (EIPD) y para determinar si el tratamiento “entraña probablemente un alto riesgo” a efectos del Reglamento (UE) 2016/679». Disponible en https://bit.ly/2WsdTui.
GT29, Grupo de Trabajo del Artículo 29 (2018). «Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679 a efectos del Reglamento (UE) 2016/679». Disponible en https://bit.ly/31Fz79C.

Kirkpatrick, Keith (2017). «It's not the algorithm, it's the data». Communications of the ACM, 60(2): 21-23. DOI: 10.1145/3022181.

Lin, Zhiyuan, Jongbin Jung, Sharad Goel y Jennifer Skeem (2020). «The Limits of Human Predictions of Recidivism». Science Advances, 6(7): eaaz0652. DOI: 10.1126/sciadv.aaz0652.

Malgieri, Gianclaudio (2019). «Automated decision-making in the EU Member States: The right to explanation and other “suitable safeguards” in the national legislations». Computer Law & Security Review, 35(5). DOI: 10.1016/j.clsr.2019.05.002.

Marcus, Gary (2018). «Deep learning: A critical appraisal». ArXiv. Disponible en https://arxiv.org/abs/1801.00631.

Miró Llinares, Fernando (2018). «Inteligencia artificial y justicia: Más allá de los resultados lesivos causados por robots». Revista de Derecho Penal y Criminología, 20: 87-130. DOI: 10.5944/rdpc.20.2018.26446.

Murillo de la Cueva, Pablo Lucas (2009). «La construcción del derecho a la autodeterminación informativa y las garantías para su efectividad». En Pablo Lucas Murillo de la Cueva y José Luis Piñar Mañas, El derecho a la autodeterminación informativa. Madrid: Fundación Coloquio Jurídico Europeo.

Pérez, Carlota (2004). Revoluciones tecnológicas y capital financiero: La dinámica de las grandes burbujas financieras y las épocas de bonanza. Madrid: Siglo XXI.

Perin, Andrea (2019). «Estandarización y automatización en medicina: El deber de cuidado del profesional entre la legítima confianza y la debida prudencia». Revista Chilena de Derecho y Tecnología, 8(1): 3–28. DOI: 10.5354/0719-2584.2019.52560.

Romeo Casabona, Carlos María (2018). «Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad». Revista Penal, 42: 165-179.

Sánchez-Molina, Pablo (2015). «Margen de apreciación nacional (en los sistemas de protección internacional de los derechos humanos)». Eunomía: Revista en Cultura de la Legalidad, 9: 224-231.

van Brakel, Rosamunde y Paul de Hert (2011). «Policing, surveillance and law in a pre-crime society: Understanding the consequences of technology based strategies». Journal of Police Studies, 20: 163-192.

van Dalen, Steven, Alexander Gilder, Eric Hooydonk y Mark Ponsen (2016). «System risk indication: An assessment of the Dutch anti-fraud system in the context of data protection and profiling». Universidad de Utrech. Disponible en https://bit.ly/2L7Irw9.

Veale, Michael y Lilian Edwards (2018). «Clarity, surprises, and further questions in the article 29 Working Party Draft Guidance on Automated Decision-Making and Profiling». Computer Law & Security Review, 34(2): 398-404. DOI: 10.1016/j.clsr.2017.12.002.

Viollier, Pablo (2017). «El estado de la protección de datos personales en Chile». Derechos Digitales América Latina. Disponible en https://bit.ly/2APoeqk.

Wachter, Sandra y Brent Mittelstadt (2019). «A right to reasonable inferences: Re-thinking Data Protection Law in the age of big data and AI». Columbia Business Law Review, 2019 (2): 1-130. Disponible en https://bit.ly/2z5at8J.
Palabras clave SyRI, vigilancia masiva, TEDH, algoritmos, derecho a la privacidad
Compartir
Cómo citar
Lazcoz Moratinos, G., & Castillo Parrilla, J. (2020). Valoración algorítmica ante los derechos humanos y el Reglamento General de Protección de Datos: el caso SyRI. Revista Chilena de Derecho y Tecnología, 9(1), 207-225. doi:10.5354/0719-2584.2020.56843
Sección
Informes (derecho, legislación, jurisprudencia)
Publicado
2020-06-30