Por Verónica Arroyo
Judicaturas locales ordenaron recientemente la suspensión del uso del sistema de reconocimiento facial en dos de las ciudades más grandes de América Latina. En sus decisiones, afirman que esta tecnología es dañina, confirmando así las preocupaciones que la sociedad civil y la academia vienen señalando hace años. Esta buena noticia debe servir de inspiración para que otros poderes legislativos judicaturas de la región tomen la iniciativa de prohibir esta tecnología para la vigilancia masiva.
Ejemplos a seguir: los casos de Buenos Aires y São Paulo
El 12 de abril un juez de la ciudad de Buenos Aires ordenó, mediante medida cautelar, la suspensión del sistema de reconocimiento facial de prófugos. Dicha medida responde a una acción de amparo colectivo que interpuso el Observatorio de Derecho Informático Argentino (O.D.I.A.) contra el Gobierno de la Ciudad Autónoma de Buenos Aires, y en la cual Access Now colaboró con un amicus curiae. El juez señaló que había serias irregularidades en la implementación del sistema, que está habilitado por la Ley Nº 6339. Una de ellas es la no creación de la Comisión Especial de Seguimiento de los Sistemas de Video Vigilancia. A la par, se constataría un desmedro de los derechos de la intimidad, honor, imagen, identidad, privacidad, información, participación ciudadana y principio de inocencia.
El sistema de reconocimiento facial en Buenos Aires empezó a implementarse en el 2019, llegando a tener 300 cámaras activas con este software en espacios públicos. El objetivo, según indicaron las autoridades, era mantener la seguridad pública mediante la identificación de prófugos. Sin embargo, el juez anotó, con suma preocupación, que desde el sistema se pidió información biométrica de personas no prófugas, algo que en principio estaba fuera del alcance del mismo. De hecho, de 10 millones de consultas al Registro Nacional de las Personas, ¡9 millones no eran de prófugos! lo que significa que se tuvo acceso a la información de la mitad de la población del área metropolitana de Buenos Aires sin razón ni base legal aparente. Ello dispara dudas sobre la verdadera finalidad del sistema de reconocimiento facial.
Además de acceder a información no autorizada, hubo casos de errores gravísimos, como el de Guillermo Federico Ibarrola, quien fue equivocadamente identificado como prófugo y estuvo detenido 6 días. Asimismo, como en otros casos en la región, no hay claridad sobre la manera en la que se empleaba el sistema.
Por otro lado, el 22 de marzo una jueza en São Paulo ordenó a la Compañía Metropolitana de São Paulo suspender el sistema de monitoreo electrónico del metro de la ciudad. La decisión provisional responde a una acción civil pública interpuesta por la Defensoria Pública do Estado de São Paulo, Defensoria Pública da União, IDEC – Instituto Brasileiro de Defesa do Consumidor, Intervozes – Coletivo Brasil de Comunicação Social, y Artigo 19 Brasil. Esta medida implica la suspensión de la captura y tratamiento de datos biométricos, de la instalación de nuevos equipos, y la imposición de una multa diaria en caso de incumplimiento.
La Compañía Metropolitana de São Paulo había señalado que el sistema de reconocimiento facial implementado estaba ligado a la seguridad pública. Sin embargo, la jueza indicó que la captura y procesamiento de datos biométricos de 4 millones de usuarios diarios es una disposición ilegal y desproporcionada. La jueza agregó que tampoco se encontraron medidas para la obtención del consentimiento, ni se presentaron documentos que sustenten la eficacia, características y riesgos del sistema. Por lo tanto, el sistema viola una serie de legislaciones como la Ley General de Protección de Datos, el Código de Defensa del Consumidor, el Código de Usuarios de Servicios Pública, el Estatuto de Niños y Adolescentes, la Constitución Federal y otros.
La decisión provisional de la jueza marca un hito en un contexto brasileño de fuerte crítica a los sistemas de reconocimiento facial. A la fecha, varias ciudades de Brasil cuentan con este sistema para resguardar la tal llamada “seguridad pública”. No obstante, la adquisición, implementación y uso de las mismas se ha dado con poca transparencia y empleando proveedores extranjeros con historial de abusos a derechos humanos. Ejemplo de lo primero fue la base del fallo a favor de la sociedad civil en el caso de IDEC vs ViaQuatro donde se pidió la suspensión del sistema de reconocimiento facial que intentaba predecir las emociones de los pasajeros del metro.
Aprendizajes para las judicaturas y legisladores regionales
Ambas decisiones judiciales confirman cuán problemática es la implementación de sistemas de reconocimiento facial para la vigilancia masiva en nuestras calles. Desde hace varios años la sociedad civil y la academia vienen pidiendo atención a este tema y por fin vemos judicaturas que están tomando cartas en el asunto.
El juez y la jueza en los casos mencionados entienden, en base a la evidencia presentada, que los sistemas de reconocimiento facial suponen una amplia violación de derechos humanos. Por un lado, el juez de Buenos Aires realizó una extensa evaluación en el impacto de diferentes derechos, mencionados anteriormente. Por otro lado, la jueza de São Paulo identificó el uso como ilegal y desproporcionado citando una serie de legislaciones nacionales e internacionales que se estarían violando. Por estas y otras razones es que desde Access Now pedimos que se prohíba esta tecnología para la vigilancia masiva, un llamado que también ha sido extendido por la Alta Comisionada de las Naciones Unidas para los Derechos Humanos.
De la misma manera, ambas medidas provisionales coinciden en que existe poca transparencia en la adquisición, implementación y uso de los sistemas de reconocimiento facial. Este es un tema de suma importancia no solo por la afectación a derechos humanos sino porque estamos en una región donde los casos de corrupción son, lamentablemente, comunes, y la poca información limita la fiscalización por parte de la ciudadanía a sistemas que están hechos para servirla.
Las autoridades utilizan el argumento de la seguridad pública para avalar su uso. Sin embargo, hasta la fecha no hay pruebas fehacientes de que el sistema combata la delincuencia. Lo que sí hay son casos de falsos positivos, y, ahora, una investigación abierta por el Juez de Buenos Aires que podría dar a conocer un abuso del sistema que se habría utilizado para buscar personas no prófugas.
Es hora de tomar acción
Hoy en día hay litigios en la región pendientes de resolución, y legislación y políticas públicas que esperan su revisión. Solo para citar los más recientes:
- Uruguay acaba de pasar por un referéndum donde se votó a favor, entre otros, por la permanencia de disposiciones legales que le daban más poder a la policía. Esta medida, junto con la creación de la base de datos biométricos para reconocimiento facial incluida en la Ley de Presupuesto del 2020, crea un riesgo latente para la privacidad de la ciudadanía. DataySoc publicó un detallado reporte al respecto donde propone soluciones inmediatas.
- En México la normalización del uso de reconocimiento facial y el tratamiento de datos biométricos crece. Se implementó un proyecto piloto en Coahuila y hoy se habla de uso en estadios de fútbol.
- Ecuador aprobó su primera ley de datos personales el año pasado. Ahora debe conciliar esta ley con el sistema ECU911. Este es un sistema integrado de vigilancia masiva que tiene desplegadas 6 600 cámaras en todo el país, la mayoría con reconocimiento facial. La vigilancia masiva empezó desde el proyecto Ojos de Águila del 2002 y se critica que se ha utilizado para vigilar a opositores del gobierno de turno.
- En Perú, Access Now e Hiperderecho interpusieron una denuncia ante la Autoridad de Protección de Datos Personales por la falta de información en la implementación y uso del sistema de reconocimiento facial en La Victoria. A la fecha, solo la autoridad de fiscalización comprobó que las cámaras están en desuso y que el sistema de vigilancia en cuestión viola la Ley de Datos Personales. Estamos a la espera de una resolución final.
La tendencia a prohibir la tecnología de reconocimiento facial para vigilancia masiva avanza a nivel mundial y es necesario que Latinoamérica camine hacia la protección de los datos personales de su ciudadanía. Los ejemplos de Argentina y Brasil deben servir de inspiración para que poderes legislativos y judicaturas de otros países también suspendan o prohíban el uso del reconocimiento facial y otras tecnologías que procesan datos biométricos de manera remota. Se ha demostrado que el uso de estas tecnologías, alimenta un estado de vigilancia masiva y abusiva y esto, en sociedades como la latinoamericana, exacerba las desigualdades y discriminación estructurales.
Publicado originalmente en accessnow.