Escrito por Alessia Camila Lino Saldaña, miembro de la comisión de Diálogos Humanos del Equipo de Derechos Humanos de la PUCP.
I. Introducción
El auge de las tecnologías de reconocimiento facial, impulsadas por el auge de la inteligencia artificial, ha planteado nuevos retos tanto para el derecho como para el mantenimiento de la seguridad colectiva. A partir de sus rasgos biométricos, esta herramienta proporciona una identificación más rápida de las personas involucradas en hechos delictivos, aumentando así las probabilidades de dar con los responsables y prevenir nuevos crímenes. Según Sanabria, Roa y Lee (2022), el manejo de estos mecanismos proporciona una importante capacidad policial para el control social y el esclarecimiento de hechos, a partir de una vigilancia ubicua y permanente de espacios abiertos y cerrados.
Sin embargo, el uso policial de dicho procedimiento ha despertado una importante controversia jurídico-política. La utilización de esta tecnología pone en entredicho el derecho a la privacidad, a la presunción de inocencia, el derecho al debido proceso y el principio de no discriminación. Según Lacruz Mantecón (2023), el manejo de estos mecanismos sin las debidas salvaguardias puede llevar tanto a errores como a vulneraciones de los derechos constitucionales de grupos minoritarios o más expuestos a nuevos mecanismos de vigilancia, aumentando así el riesgo de desigualdad y estigmatización colectiva.
En el Perú, si bien actualmente el marco jurídico vigente, la Constitución, el Código Procesal Penal y la Ley de Protección de Datos Personales (Ley N° 29733; 2011), proporciona algunos mecanismos de salvaguardia de los derechos de las personas, el ordenamiento jurídico carece de una regulación específicamente destinada a fijar las reglas para el uso policial del reconocimiento facial. Esto deja un importante vacío jurídico que podría llevar a que se implemente sin las salvaguardias correspondientes, sin intervención de un juez y sin el control de una autoridad independiente, aumentando así el riesgo de que el procedimiento pueda vulnerar los más elementales derechos constitucionales.
Esta situación motiva el planteamiento de la siguiente pregunta de investigación: ¿de qué manera el uso policial del reconocimiento facial afecta los derechos humanos, como el derecho al debido proceso, a la privacidad, a la libertad y a la igualdad, en el marco de las fases de indagación e investigación del proceso penal?
Por ende, el propósito principal de esta investigación es analizar los límites constitucionales y de derechos humanos que enfrenta el uso policial del reconocimiento facial automatizado en el contexto penal peruano, considerando tanto las experiencias comparadas como el marco jurídico vigente en el país.
II. Cuerpo
- Reconocimiento facial automatizado y derecho a la no discriminación: transmisión del sesgo en el accionar policial
El derecho a no ser discriminado constituye un pilar fundamental del Estado constitucional de derecho. Reconocido en el artículo 2, inciso 2 de la Constitución Política del Perú, este derecho impone una obligación negativa de no diferenciar injustificadamente, pero también una obligación positiva de prevenir y corregir prácticas institucionales que perpetúan exclusiones históricas. En ese marco, el uso policial del reconocimiento facial automatizado plantea serios riesgos de reproducción y profundización de las formas contemporáneas de discriminación estructural.
Lejos de ser un instrumento neutral o infalible, los sistemas de reconocimiento facial aprenden a partir de bases de datos que reflejan las desigualdades del mundo social. Al ser entrenados con imágenes mayoritariamente provenientes de ciertos grupos poblacionales o contextos geográficos, los algoritmos tienden a mostrar peores resultados en rostros que no se ajustan al patrón dominante. Según el informe del National Institute of Standards and Technology (NIST, 2019), los sistemas comerciales de reconocimiento facial tienen tasas significativamente más altas de falsos positivos cuando se aplican a personas afrodescendientes, asiáticas, mujeres o personas mayores, frente a los resultados obtenidos en varones blancos.
Este tipo de sesgo no es solamente un problema técnico, sino una manifestación de lo que se ha denominado discriminación algorítmica: un fenómeno mediante el cual los sistemas automatizados replican estereotipos raciales, étnicos o socioeconómicos, ya sea por las características del entrenamiento algorítmico o por el contexto institucional en el que se despliegan. La discriminación, en este caso, no es fruto de una decisión explícita de los operadores, sino de una reproducción automática de patrones injustos que se encuentran embebidos en los datos y en las políticas de vigilancia preexistentes.
En el contexto peruano, esto adquiere una especial gravedad si se considera el historial de discriminación institucional por parte de las fuerzas del orden. Por ejemplo, el informe de la Defensoría del Pueblo N.° 002-2020-DP documentó que los operativos policiales en espacios públicos, como estaciones de transporte, parques o mercados, se dirigen desproporcionadamente a jóvenes, personas indígenas, afrodescendientes y habitantes de barrios populares.
Esto permite afirmar que, si el reconocimiento facial automatizado se utiliza sin control ni salvaguardas, terminaría reforzando los mismos sesgos institucionales que ya existen en el accionar policial. La discriminación se transmite entonces por dos vías: (i) desde el sesgo algorítmico ex ante, que produce más errores de identificación en poblaciones racializadas o no normativas; y (ii) desde el sesgo institucional ex post, que se manifiesta cuando la policía prioriza determinadas zonas o perfiles para sus operativos. Es decir, las personas pertenecientes a grupos históricamente discriminados tienen más probabilidades de ser detectadas por el sistema, más posibilidades de ser erróneamente identificadas y más riesgo de ser criminalizadas injustamente.
Casos internacionales confirman este patrón. En Estados Unidos, el caso de Robert Williams, un hombre afroamericano arrestado en Detroit en 2020 por un error de reconocimiento facial, se ha convertido en un símbolo de los peligros de aplicar esta tecnología sin transparencia ni posibilidad de defensa. De igual modo, organizaciones como ACLU han documentado múltiples arrestos de personas negras a raíz de identificaciones incorrectas derivadas del software de reconocimiento facial.
En consecuencia, el uso policial de esta herramienta, en lugar de garantizar la igualdad, puede convertirse en una fuente adicional de estigmatización tecnológica, criminalización automatizada y afectación de los derechos fundamentales de las poblaciones más vulnerables. Frente a ello, el Comité de Bioética de la UNESCO (2021) ha advertido sobre la necesidad de que estas tecnologías no se utilicen en contextos donde puedan profundizar las desigualdades estructurales o afectar de forma desproporcionada a determinados grupos sociales.
- Reconocimiento facial y garantías procesales: debido proceso, presunción de inocencia y legalidad
Más allá del problema del sesgo y la discriminación, el uso policial del reconocimiento facial también plantea importantes desafíos desde el punto de vista procesal y constitucional. Su despliegue sin regulación específica, sin intervención judicial previa ni mecanismos claros de control, vulnera garantías esenciales como el debido proceso, la presunción de inocencia y la legalidad de las actuaciones policiales.
La Constitución peruana establece en su artículo 139 que toda persona tiene derecho a un proceso regular con observancia del debido proceso, que incluye el conocimiento previo de los cargos, la posibilidad de defensa y la intervención de un juez imparcial. Asimismo, la Ley de Protección de Datos Personales (Ley N.° 29733) exige una base legal adecuada para el tratamiento de datos sensibles, como los biométricos, lo que en el ámbito penal debería traducirse en autorización judicial o justificación excepcional debidamente motivada.
No obstante, en la actualidad, el ordenamiento jurídico peruano carece de una ley que regule de forma expresa el uso del reconocimiento facial por parte de la policía. Esto abre la puerta a una serie de riesgos que afectan el proceso penal desde su fase más temprana: la etapa de indagación preliminar. En esta etapa, la policía puede recurrir a tecnologías de videovigilancia y software de identificación sin que exista un control judicial previo ni una supervisión externa. En la práctica, esto permite que una identificación algorítmica errónea derive en una detención, una imputación o una intervención domiciliaria, vulnerando derechos fundamentales sin posibilidad de contradicción.
Además, existe el riesgo de que el resultado del sistema se convierta en una “prueba de verdad” que debilita la presunción de inocencia. Como advierte Lacruz Mantecón (2023), la apariencia de objetividad que tienen los sistemas automatizados puede generar un sesgo confirmatorio en los operadores jurídicos: fiscales y jueces tienden a asumir que, si una herramienta tecnológica ha identificado a un sujeto como sospechoso, es probable que esté involucrado. Esto desplaza el estándar de prueba desde una investigación racional y contradictoria hacia una validación automática de resultados algorítmicos.
Asimismo, la opacidad de los sistemas, especialmente cuando son adquiridos a empresas privadas que protegen sus algoritmos como secreto industrial, impide que los imputados puedan impugnar o examinar las condiciones técnicas bajo las cuales se produjo la identificación. Se configura así una grave afectación al derecho de defensa, pues la persona procesada no puede conocer, cuestionar ni refutar la supuesta prueba en su contra.
Por último, la implementación sin regulación refuerza una lógica de justicia preventiva y punitiva que desdibuja los principios del Estado de derecho. Si la policía puede identificar, ubicar y detener a un individuo basándose exclusivamente en una coincidencia biométrica sin orden judicial, se genera un sistema paralelo de control extrajudicial que erosiona las garantías básicas del proceso penal.
En contraste, en otras jurisdicciones se han adoptado modelos más garantistas. Por ejemplo, el Reglamento de Inteligencia Artificial de la Unión Europea (2021) prohíbe el uso del reconocimiento facial en espacios públicos, salvo en situaciones excepcionales y bajo estricto control judicial. Asimismo, varias ciudades de Estados Unidos, como San Francisco, Portland y Boston, han prohibido su uso en el ámbito policial ante la falta de transparencia y la potencial vulneración de derechos.
En el contexto peruano, urge un debate público serio, informado y democrático sobre el uso de esta tecnología, que contemple no solo sus beneficios operativos, sino, sobre todo, sus implicancias constitucionales y humanas. La protección de los derechos fundamentales debe primar por sobre la promesa de eficacia policial que ofrecen estos mecanismos automatizados.
III. Conclusiones y reflexiones finales
En definitiva, el uso policial del reconocimiento facial en el Perú, tal como se plantea actualmente, resulta incompatible con el marco constitucional vigente y con los tratados de derechos humanos que el país ha ratificado, debido tanto a la falta de una base jurídica adecuada como a los altos riesgos que significa para los derechos de las personas. La falta de una regulación adecuada, junto con el escaso control institucional y el alto riesgo de vulneraciones de los grupos más vulnerables, muestran que esta herramienta pone en entredicho el principio de legalidad, el derecho al debido proceso, el derecho a la presunción de inocencia, el derecho a la privacidad y el derecho a la igualdad.
Frente a esta situación, resulta necesario implementar una moratoria en el uso policial del reconocimiento facial hasta que el Perú cuente con un marco jurídico específico, que respete los principios de legalidad, proporcionalidad y seguridad jurídica, y que esté sujeto tanto a un control institucional efectivo como a un debate amplio y participativo junto con grupos de sociedad civil, comunidades afectadas, colegios de abogados y asociaciones de defensa de los derechos humanos.
Este marco jurídico deberá contemplar, en primer lugar, la determinación de las finalidades específicas y excepcionales del uso de esta herramienta; en segundo lugar, la intervención de una autoridad independiente, preferiblemente un juez, que autorice o deniegue cada utilización del procedimiento; en tercer lugar, la evaluación del impacto en los derechos humanos antes de implementar el procedimiento; y, por último, medidas de supervisión, evaluación y auditoría para prevenir daños y corregir eventuales vulneraciones de los más elementales bienes jurídicos de las personas involucradas.
Bibliografía
- Defensoría del Pueblo. (2020). Actuación policial durante el estado de emergencia por la COVID-19: Supervisión de intervenciones policiales en el espacio público (Informe N.º 002-2020-DP).
- Hernández, J. A. (2010). Reconocimiento biométrico: Fundamentos, tecnologías y aplicaciones. Editorial Paraninfo.
- Kour, H., & Gondhi, N. K. (2019). Face recognition system using deep learning. International Journal of Computer Applications, 178(22), 15–18.
- Lacruz Mantecón, R. (2023). Vigilancia tecnológica, discriminación y derecho penal: Nuevos riesgos constitucionales en el siglo XXI. Revista Española de Derecho Constitucional, 127(1), 45–74.
- Martínez, M. (2021, mayo 1). El hombre que puede acabar con la tecnología de reconocimiento facial en Estados Unidos. El País.
https://elpais.com/tecnologia/2021-05-01/el-hombre-que-puede-acabar-con-la-tecnologia-de-reconocimiento-facial-en-estados-unidos.html - National Institute of Standards and Technology. (2019). Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects. U.S. Department of Commerce.
- Sanabria, C., Roa, A., & Lee, M. (2022). Reconocimiento facial y control policial: Riesgos, beneficios y desafíos jurídicos. Revista Latinoamericana de Tecnología y Sociedad, 12(2), 55–79.
- UNESCO. (2021). Informe del Comité Internacional de Bioética sobre los desafíos éticos del uso de la inteligencia artificial. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
- Unión Europea. (2021). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de IA).
No hay comentarios