Política

Inteligencia Artificial y ciberpatrullaje en las Fuerzas de Seguridad: qué pasa con los Derechos Humanos

Patricia Bullrich anunció la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad, orientada a "prevenir, detectar, investigar y perseguir delitos" mediante el uso de IA. Se suma a la progresiva incorporación de tecnologías de vigilancia, como la reciente implementación del ciberpatrullaje. Para la cartera de Seguridad, implica mejorar la eficiencia en distintas áreas, siguiendo la línea de potencias mundiales que ya han ensayado estrategias similares. Sin embargo, para un creciente número de expertos y organizaciones sociales, la aplicación de este tipo de tecnologías sin transparencia ni controles regulares puede incidir significativamente en los derechos de privacidad y libertad de expresión de la población.

El futuro socio-tecnológico

Mediante la Resolución 710, se creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad con el objetivo de "prevenir, detectar, investigar y perseguir delitos y sus conexiones mediante el uso de inteligencia artificial (IA)", medida que se complementa con otra resolución en la misma línea, donde se avanzaba en medidas de ciberpatrullaje.

La unidad estará compuesta por especialistas de las cuatro fuerzas federales (Policía Federal Argentina, Gendarmería Nacional Argentina, Prefectura Naval Argentina y Policía de Seguridad Aeroportuaria) y del Servicio Penitenciario Federal (SPF), quienes serán designados por sus respectivas autoridades. La coordinación estará a cargo del director de Ciberdelito y Asuntos Cibernéticos, bajo la Unidad de Gabinete de Asesores (UGA) del Ministerio de Seguridad.

"El uso de la IA mejorará significativamente la eficiencia de las distintas áreas del Ministerio y de las Fuerzas Policiales y de Seguridad Federales, permitiendo respuestas más rápidas y precisas ante amenazas y emergencias", argumentaron desde la cartera.

Y agregaron que "el desarrollo de la IA representa uno de los cambios socio-tecnológicos más importantes de la década. Países como Estados Unidos, China, Reino Unido, Israel, Francia, Singapur e India ya son pioneros en su uso en áreas de gobierno y seguridad, aplicándola en análisis de videos y reconocimiento facial, predicción de crímenes, ciberseguridad, análisis de datos, drones y robótica, comunicación y coordinación, asistentes virtuales, automatización, análisis de redes sociales y detección de fraude y anomalías".

Al estilo Minority Report

El objetivo de Bullrich no es una utopía novedosa: ya se ha planteado la posibilidad de usar este tipo de tecnologías para predecir la ocurrencia de delitos. En la ficción, pero también en la organización efectiva de los sistemas de justicia de varios países. Sin cruzar fronteras, Argentina tiene su propio caso de éxito con una IA de este calibre aplicada en Buenos Aires.

Se trata del sistema predictivo de IA Prometea, desarrollado por la Fiscalía de Buenos Aires en 2017. Un informe elaborado en 2020 mostraba que Prometea puede predecir la resolución de un caso judicial en menos de 20 segundos con un 96% de precisión y emitir 1000 decisiones judiciales en 45 días, en comparación con los 174 días que tomaría tradicionalmente.

En 2022, investigadores de la Universidad de Chicago desarrollaron un algoritmo similar, capaz de predecir las escenas del crimen con un 90% de precisión una semana antes de que ocurrieran, al mejor estilo "Minority Report". Sin embargo, también se registraron algunos sesgos, que si bien reflejan la oportunidad de optimizar estos sistemas para hacerlos lo más acertados posible, también revelan sus riesgos implícitos.

El equipo de la Universidad de Chicago, dirigido por Ishanu Chattopadhyay, generó un modelo que analizó datos históricos de delincuencia de Chicago desde 2014 hasta finales de 2016.

Chattopadhyay admite que los datos utilizados por su modelo también están sesgados, pero afirma que han realizado esfuerzos para reducir estos sesgos y que la IA no identifique a los sospechosos, sino a los sitios potenciales del crimen. Es que, al menos en Estados Unidos, el sesgo racista de las Inteligencias Artificiales está en el centro del debate. Varios proyectos similares mostraron resultados que desfavorecen a las personas negras y las ubican de manera automática como sospechosos.

La IA de Chicago también rastrea los datos para saber en qué lugares la vigilancia se ve afectada por el sesgo humano, para lo que se analizó el número de arrestos por crímenes en distintos barrios con diferentes niveles socioeconómicos. Esto arrojó que los delitos en las áreas más ricas resultaron en más arrestos que en las áreas más pobres, lo que para los investigadores sugiere un fallo institucional más que tecnológico.

Investigadores y expertos desmitifican las Inteligencias Artificiales como entes incorpóreos, ajenos a las tramas sociales en que son desarrolladas. Si no se trabaja en la reducción de sesgos, una IA replica la visión del mundo y los parámetros de su creador.

Así lo comprobó la investigadora afroamericana del MIT, Joy Boulamwini. En el 2015, durante su primer semestre en el laboratorio digital, realizó un curso sobre "invención científica", y creó el "Espejo Aspire", un espejo digital que colocaba en su rostro las facciones de gente que la inspirara o el rostro de algún animal. Colocó una cámara con un software de visión artificial, que se supone que debía detectar los movimientos de su cara. Pero no funcionó, hasta que se puso una máscara blanca. Cuando se la quitaba, no detectaba su color de piel. Esto llevó a Boulamwini a encabezar la "Liga de la Justicia Algorítmica", donde evidencia estos sesgos -profundamente imbricados en los sistemas de las Inteligencias Artificiales- e invita a la población a sumarse a "un movimiento en pos de una IA igualitaria y responsable".

Más allá de los usos particulares que se le dé, el problema central de las Inteligencias Artificiales es que son, en palabras de la matemática Kathy O'Neil, "cajas negras": nadie sabe con exactitud cómo están configurados sus algoritmos, en qué se basa para tomar decisiones y, en consecuencia, cómo eso puede afectar a los humanos que de alguna forma son seleccionados o puestos en la mira por ella. Es decir, vemos cómo fallan, pero no sabemos por qué.

De la utopía del Internet libre al negocio de la vigilancia

El ambicioso proyecto de Bullrich contempla la vigilancia en sitios de Internet y de la dark web para rastrear comportamientos sospechosos, lo cual fue dispuesto en mayo mediante la Resolución 428 y complementa lo anunciado en los últimos días. Para algunos, tiene evocaciones de distopías de la vigilancia, pero en el mundo abierto e hiperconectado de Internet.

Esta práctica, denominada "ciberpatrullaje" consiste en el monitoreo de información pública que circula en redes sociales. "Cuando hablamos de ciberpatrullaje nos referimos a inteligencia de fuentes abiertas, procedimientos de hacer investigación sobre espacios en los cuales las personas participan de manera abierta sin que haya que forzar ninguna clave ni medidas de privacidad", explicó Chequeado Beatriz Busaniche, magíster en Propiedad Intelectual y presidenta de la Fundación Vía Libre.

"Predecir comportamientos futuros, sentenciándolos como delictivos en base a criterios de programación algorítmica, es una atribución desproporcionada que el gobierno argentino se arroga sin advertir la contradicción con la protección de los derechos humanos que compromete al Estado, al menos en sus normas legales", analizó, por su parte, Martín Becerra, investigador del Conicet y director del Centro en Industrias Culturales y Espacio Público de la Universidad Nacional de Quilmes, en una nota para El DiarioAr.

El Centro de Estudios sobre la Libertad de Expresión y el Acceso a la Información (CELE) de la Universidad de Palermo expresó su preocupación al respecto y analizó en detalle las implicancias y las incertidumbres legales de estas nuevas formas de vigilancia.

"El ciberpatrullaje es un eufemismo que busca camuflar bajo la realización de una tarea de seguridad ciudadana corriente el despliegue de tareas que, de otra manera, estarían sujetas al estricto control judicial por el impacto que tiene en el ejercicio de derechos en línea. Es una figura rara que precisa de controles -y sobre todo, de ser reconocida como una tarea de vigilancia masiva por manual o artesanal que pueda llegar a ser-, aún cuando las autoridades insistan en lo contrario".

Para Lucía Camacho -abogada y miembro del CELE- la forma en que está dispuesta la Resolución es inconveniente y se presta a confusión, empezando por una "forzada apertura de la figura del cibercrimen, lo que deriva "en que cualquier conducta criminal en donde se use internet -de manera siquiera incidental- pueda ser calificada como un cibercrimen aunque no lo sea, tal y como sucede con la figura del lavado de activos o la falsificación de documentos públicos, incluidos en la Resolución".

"No es gratuito que la Resolución diga estar justificada en la persecución de cibercrimenes. La manera en que fue redactada la convierte en una autopista que comunica directamente a las autoridades argentinas con plataformas como X o Meta, para que estas últimas entreguen los datos de sus usuarios para la investigación de ‘cualquier delito' (...) Una facultad que se supone, debería ser empleada como último recurso, pero que ahora podría ser empleada de manera corriente en el marco de esta Resolución", agrega.

Para la especialista, una expresión tan "vaga y abierta" como la que afirma que no se perseguirá a quienes hagan un uso "regular, usual o inherente" de Internet "solo puede dar paso a la discrecionalidad y el abuso".

En este sentido, sostiene que "el fraseo que plantea la Resolución sobre este punto es un eufemismo, una afrenta directa a la libertad de expresión de las personas que puedan ser críticas del gobierno actual, por dar un ejemplo".

Tecnologías de vigilancia y Derechos Humanos

Amnistía Internacional ha incorporado en su agenda la defensa de los Derechos Humanos a la luz de este tipo de programas por parte de empresas privadas o del Estado. Para la organización, no se trata de tecnologías neutrales, por lo que no depende del uso que se le dé. Ya en su infraestructura y diseño, son incompatibles con los Derechos Humanos.

No son ajenos al rol que juegan las grandes corporaciones de la comunicación -Google, Meta o TikTok- en la recopilación y análisis de cantidades masivas de datos de los usuarios, corporaciones cuyo modelo de negocios están íntegramente basados en la vigilancia, y para Amnistía, "da lugar a la amplificación del contenido incendiario y de odio que afecta de manera desproporcionada a las mujeres y a grupos históricamente marginados, como las minorías étnicas o religiosas, personas migrantes, refugiadas y solicitantes de asilo".

Antes que controlar y mejorar las Inteligencias Artificiales y las infraestructuras digitales de vigilancia, sostienen que "los gobiernos deben impedir el desarrollo, la venta y el uso de esta tecnología".

Sin embargo, en este marco exigen la investigación y rendición de cuentas de los gobiernos y empresas que utilizan este tipo de tecnologías, el aumento de la transparencia en el uso de algoritmos y la prohibición del desarrollo, venta y uso de sistemas de reconocimiento facial, de emociones y lenguaje corporal "utilizados para reprimir las protestas y acosar a las comunidades minoritarias".

"Más allá de las fronteras de lo público y lo abierto en línea, hay que cuestionar las actividades de ciberpatrullaje (o inteligencia masiva en fuentes abiertas) por el impacto que esta intromisión significa en términos de privacidad y para la libertad de expresión, particularmente cuando se la emplea por el Estado sin controles, supervisión, ni contrapesos", expresa Camacho.

Y remarca que esta tarea se torna crítica cuando la asume el Estado, porque puede representar graves violaciones a los derechos de privacidad en línea y el ejercicio de la libertad de expresión.

"Cuando publicamos información sobre nuestros gustos, hábitos o tendencias sociales o políticas lo hacemos pensando en conectar con otros o hacer parte del debate público, y no en ofrecer información que pueda ser explotada por el Estado para ser eventualmente empleada en nuestra contra. Al tiempo, la sensación de que nuestra actividad en línea pueda ser usada para generar inteligencia estatal accionable, trae como efectos asociados la disuadición o autocensura ante el miedo de que un tuit se pueda traducir en el futuro en una orden de captura -chilling effect-", apunta.

Para Camacho, la conversación no versa sobre si la policía viola o no -en aplicación de la Resolución- los términos y condiciones de redes sociales que no autorizan el uso o explotación de sus servicios con fines de inteligencia, si no "en cuán desprotegidos están en verdad los entornos para el ejercicio de las libertades en internet sin que medie la amenaza o acecho de la vigilancia estatal encubierta".

Para la especialista, la pregunta central en este momento es "cómo responderá la justicia cuando se cuestione legalmente el contenido de la Resolución. Hasta que lo sepamos, veremos cada vez más casos de usuarios de redes sociales en el ojo de investigaciones criminales fruto de sus tuits".

En la medida en que estas tecnologías avanzan y se consolidan como herramientas útiles en distintos ámbitos de la vida social, organismos y especialistas buscan ensayar una "ciberética" para reducir los riesgos que pueden suponer estos sistemas, sobre todo cuando tienen un fuerte impacto en la vida de las personas.

La "Carta ética europea sobre el uso de IA en sistemas judiciales y su entorno", por ejemplo, comprende cinco principios fundamentales: el respeto por los derechos fundamentales, la no discriminación, la calidad y seguridad, el principio de trasparencia, impacrialidad y justicia, y el control del usuario.

A la luz de las experiencias de otras latitudes, Argentina elaboró también una guía para el uso de Inteligencias Artificiales, que cabe remarcar, no comprende obligaciones sino recomendaciones. Allí destacan el enorme potencial de estas tecnologías y la variedad de implementaciones en el ámbito público, pero subrayan que esta tendencia "empuja a los Estados a definir estrategias para encauzar el potencial transformador de esta tecnología en la resolución de problemas concretos y a favor del bien común".

De la mano de cada innovación tecnológica se sueñan utopías. Las Inteligencias Artificiales prometen eficiencia, exactitud, y sobre todo, liberar a los humanos de las cargas de aquellas tareas que pueden automatizarse. El debate ya está inserto en el ámbito social: científicos, investigadores, funcionarios y activistas exigen un uso ético de estas nuevas capacidades para garantizar derechos y evitar sesgos. Sin embargo, la innovación sigue su curso, acumula mejoras y -al menos lo que se avizora hasta ahora- rara vez responde a estas demandas.