Patagonia

En qué consiste el sistema de reconocimiento facial que se implementará luego de la instalación de cámaras de alta tecnología en Comodoro

Hace algunas semanas se inauguró el Centro de Monitoreo en Comodoro Rivadavia, la primera ciudad patagónica en implementar las cámaras de reconocimiento facial, una tecnología que data de los ‘60 pero que en Argentina aterrizó hace apenas algunos años. La medida va de la mano con la reciente incorporación de tecnologías de vanguardia destinadas a la seguridad, como las que anunció el año pasado la ministra de esta cartera, Patricia Bullrich, e incluyen la creación de una Unidad de Inteligencia Artificial. Un antecedente en Buenos Aires muestra la necesidad de dar debates en torno a la transparencia y la corrección de sesgos que puede presentar este sistema.

El 10 de marzo el gobernador Ignacio Torres encabezó la inauguración de un Centro de Monitoreo de avanzada en Comodoro Rivadavia, equipado con tecnología destinada a la videovigilancia en sectores estratégicos de la ciudad.

En las nuevas instalaciones se destacan 120 dispositivos conectados y distribuidos estratégicamente en la zona céntrica y en los barrios de la periferia, que cuentan con "sistemas de inteligencia artificial para hacer seguimiento de imágenes y sistemas forenses", según precisó el ministro de Seguridad y Justicia, Héctor Iturrioz.

Por su parte, Torres afirmó que "es importante entender que mientras más puntos de videovigilancia tengamos, más segura va a ser la provincia". En este marco, adelantó la implementación de cámaras con reconocimiento facial.

"Comodoro Rivadavia va a ser la primera ciudad de toda nuestra provincia que contará con esta tecnología, y es también la que mayor inversión tendrá en materia de videovigilancia", explicó y aseguró que el gobierno busca seguir replicando a futuro el mismo modelo en otras zonas de la provincia.

Y agregó que es clave "avanzar con esta tecnología de reconocimiento facial, porque nos va a dar la posibilidad de, rápidamente, saber dónde están los delincuentes, de poder darle seguimiento en caso de tener algún prófugo y también le va a dar una herramienta muy importante a los fiscales que son quienes tienen que investigar".

Además, remarcó que la elección de Comodoro como la primera ciudad en implementar esta tecnología se debe a que "paradójicamente, siendo la ciudad más grande demográficamente, era la que menos inversión tenía para seguridad. Será la ciudad con más inversión en videovigilancia en toda la Patagonia".

Del homebanking a la prevención del delito

El reconocimiento facial es una tecnología de identificación biométrica que busca establecer la identidad de una persona a partir de rasgos característicos del rostro. Y si bien es menos precisa que otras formas de identificación -como la lectura de huellas dactilares o iris- no requiere contacto físico, por lo que es comúnmente utilizada en los espacios públicos para vigilancia a gran escala.

Esta tecnología se utiliza en numerosos trámites en Argentina, como en los controles de ingreso a edificios privados y más frecuentemente en aplicaciones de homebanking y billeteras virtuales. Su uso en vigilancia y prevención del delito es menos común.

Según precisa el informe de AlSur sobre la implementación de esta tecnología en América Latina, estos sistemas requieren de al menos tres elementos para funcionar: una forma de capturar imágenes, un software encargado del análisis de las imágenes y una base de datos con rostros para hacer la comparación.

La precisión del sistema depende del acceso a una base de datos con imágenes que cumplan ciertos estándares de calidad y algoritmos debidamente entrenados para hacer las asociaciones entre los datos capturados y la base de datos para realizar la comparación.

El informe advierte que "problemas en cualquiera de estos niveles pueden impedir que el sistema realice correctamente la función para la cual ha sido implementado, lo que puede traducirse en reconocimientos fallidos, discriminaciones arbitrarias y falsos positivos, todas situaciones -lamentablemente- comunes asociadas al uso de sistemas de reconocimiento facial, especialmente cuando se utiliza para vigilar el espacio público y para resguardar el acceso a derechos sociales".

Medidas del Ministerio de Seguridad de Nación

Mediante la Resolución 710, en agosto del 2024 se creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad con el objetivo de "prevenir, detectar, investigar y perseguir delitos y sus conexiones mediante el uso de inteligencia artificial (IA)", compuesta por especialistas de las cuatro fuerzas federales y del Servicio Penitenciario Federal.

"El desarrollo de la IA representa uno de los cambios socio-tecnológicos más importantes de la década. Países como Estados Unidos, China, Reino Unido, Israel, Francia, Singapur e India ya son pioneros en su uso en áreas de gobierno y seguridad, aplicándola en análisis de videos y reconocimiento facial, predicción de crímenes, ciberseguridad, análisis de datos, drones y robótica, comunicación y coordinación, asistentes virtuales, automatización, análisis de redes sociales y detección de fraude y anomalías", explicaron desde la cartera de Seguridad.

La medida se complementa con la Resolución 428 que implementa la práctica del "ciberpatrullaje" a manos de las Fuerzas de Seguridad, que consiste en procedimientos de investigación en espacios públicos digitales como redes sociales.

En noviembre, el Gobierno anunció la puesta en marcha de un protocolo unificado para el reconocimiento facial en las Fuerzas de Seguridad. Mediante la Resolución 1234/2024, estableció un protocolo único para el reconocimiento y la comparación facial, lo cual permite garantizar un uso coherente en el uso de esta tecnología por parte de las fuerzas federales, alineándose con estándares internacionales y buscando evitar los sesgos.

El protocolo se basa en guías de uso de carácter internacional como el manual del ENFSI (European Network of Forensic Science Institutes) y las directrices del FISWG (Facial Identification Scientific Working Group), herramientas que persiguen estándares para los procedimientos técnicos rigurosos y la minimización de errores. En la misma línea, promueve la especialización del personal técnico y científico, mejorando las capacidades de análisis dentro de las fuerzas de seguridad.

El protocolo invita a las provincias a adherirse, aunque esta decisión dependerá de cada jurisdicción.

El objetivo de esta medida es asegurar la transparencia, a la luz de los distintos debates que suscitan estas tecnologías en todo el mundo. De hecho, las últimas disposiciones que dictaminó el Gobierno nacional en esta materia generaron preocupación en los círculos académicos y de Derechos Humanos, quienes sostienen que sin transparencia sobre el funcionamiento de los algoritmos y sin corrección de los sesgos raciales o de género, estas tecnologías amenazan de lleno las libertades individuales.

El antecedente en Ciudad de Buenos Aires

El sistema de reconocimiento facial no es nuevo en el país: tecnologías de este tipo se vienen implementado desde 2011. A la fecha, son apenas cuatro las jurisdicciones que aplican de una u otra forma tecnologías de reconocimiento facial, aunque su uso no está exento de polémicas.

El informe de AlSur recopiló los cuatro casos argentinos: en Tigre se utiliza este sistema desde 2019, en el Tigre NeoCenter. En la ciudad de Salta está activo desde 2018 y desde 2011 se usa en el Sistema Federal SIBIOS de Identificación Biométrica para la Seguridad. Uno de los casos más paradigmáticos, sin embargo, es de la provincia de Buenos Aires, que fue inaugurado en 2019 y más tarde suspendido debido a una decisión judicial.

El "Sistema de Reconocimiento Facial de Prófugos" (SRFP) funcionó durante tres años en la provincia, con 300 cámaras de vigilancia en las calles y estaciones de subte. A pesar de las múltiples críticas y advertencias, fue implementado en tan sólo 22 días.

El relator especial de Naciones Unidas sobre el Derecho a la Privacidad, criticó la falta de evaluación previa a su implementación y proporcionalidad de las medidas. Además, advirtió sobre una inserción desproporcionada en la base de datos, sumado a divulgación indebida de datos, falta de información sobre qué delitos se imputan, errores y falta de actualización. La ONG Human Rights Watch subrayó la existencia de vulneraciones a los derechos de las infancias, ya que la base de datos contenía al menos 166 menores, incluidos niños sospechosos de haber cometido delitos de menor potencial ofensivo.

Lo más grave ocurrió cuando un hombre fue detenido erróneamente a partir de la información proporcionada por el sistema de reconocimiento facial. En 2019 Guillermo Federico Ibarrola fue detenido en la estación de Retiro al ser identificado como un prófugo por el sistema, que procesa las cámaras de seguridad del gobierno porteño y las contrasta con las del registro de Consulta Nacional de Rebeldías y Capturas (Conarc). Estuvo detenido seis días y casi fue trasladado a un penal por un delito que no cometió.

"Dos policías se me acercan, me detienen, me piden el DNI y me dicen que los acompañe. Yo pensé que me iban a pedir que saliera de testigo de algo pero me dicen que quedaba demorado por una causa por robo agravado. Me llevan detenido y pasaban los días y nadie me decía nada, nadie me explicaba nada", relató a A24.

"Mientras me estaban trasladando le sonó el teléfono a los policías. Era la fiscal que preguntaba si me estaban llevando esposado. Los policías responden que sí porque me trasladaban en calidad de detenido. Parece que ahí les dice que me cuiden y que me saquen las esposas. Me hicieron poner los cordones y cambiaron el trato, me ofrecieron café y comida. Cuando llegué a la Fiscalía me explican que fue todo un error y la fiscal me compra un pasaje para volver en micro", detalló.

El hombre buscado por la Justicia era Guillermo Walter Ibarrola. Es decir, otro nombre y otro número de DNI. Sin embargo, el sistema activó la alerta de todos modos, lo que revela un margen de error muy amplio que da paso a los "falsos positivos", aunque la Policía de la Ciudad sostuvo que el margen de error es sólo del 3%.

Tras este incidente, el Centro de Estudios Legales y Sociales (CELS) presentó una denuncia junto al Observatorio de Derecho Informático Argentino (ODIA) en el que remarcaban que el sistema se había gestionado por fuera de la norma que lo regula y sin mecanismos de control.

Luego de un largo proceso judicial, en abril de 2023 la Cámara de Apelaciones de la Ciudad de Buenos Aires confirmó la inconstitucionalidad del Sistema de Reconocimiento Facial de Prófugos, confirmando una sentencia previa de la jueza en lo Contencioso Administrativo de la Ciudad, Elena Liberatori, que en septiembre de 2022 señaló que el SRFP se implementó sin la debida protección de los derechos de les habitantes.

El fallo de la Cámara estableció que el Gobierno de la Ciudad no puede rehabilitar el funcionamiento del sistema hasta que se cumplan una serie de requisitos como la constitución y debido funcionamiento de los órganos de control, la puesta en marcha de las investigaciones necesarias para determinar los sesgos y los impactos diferenciados y distintas acciones de publicidad e información sobre su funcionamiento.

"La falta de controles del sistema posibilita que se afecte el derecho a la privacidad, que se restrinja de manera ilegítima la libertad ambulatoria y el principio de inocencia. También habilita el uso ilegal de los datos personales y las detenciones arbitrarias. A raíz de esta falta de control, el sistema se usó de manera ilegal para buscar a más de 15 mil personas que no estaban en la lista de prófugos de la Consulta Nacional de Rebeldías y Capturas (CONARC). Por ley, el SRFP debe emplearse exclusivamente para la búsqueda de esas personas", remarcaron desde el CELS.

Las autoridades porteñas señalaron que, más allá de los incidentes, el sistema fue exitoso a la hora de identificar a cientos de prófugos mientras estuvo vigente.

En este caso, se debatió la falta de medidas de transparencia y seguridad en el software. Los críticos de estas tecnologías se refieren a los algoritmos como "cajas negras": nadie sabe cómo funcionan, bajo qué parámetros toma las decisiones que toma. La demanda global aboga por la apertura de los códigos que movilizan estas tecnologías, con el objetivo de reducir al máximo los sesgos.

Otros enfoques, sin embargo, se preguntan por la compatibilidad de estas tecnologías con los Derechos Humanos, y ven en su aplicación el despliegue de un sistema de vigilancia altamente tecnificado que implica una violación a los derechos de privacidad y libertad.

Las medidas impulsadas por el Gobierno provincial hacen que hoy Comodoro sea una de las pocas ciudades que implementan este sistema en todo el país, sumándose así a los debates vigentes sobre seguridad, vigilancia y Derechos que se vienen desarrollando en la última década.