El sistema fue utilizado de manera ilegal para la vigilancia en el espacio público. Según un pedido de Acceso a la Información, el reconocimiento facial solo es eficaz en el 52 por ciento de los casos. Las organizaciones de Derechos Humanos denuncian la mala implementación de esta tecnología.
En el día de ayer se conoció la noticia: el juez Roberto Gallardo dispuso la suspensión del sistema de cámaras de reconocimiento facial que opera en la Ciudad de Buenos Aires. El magistrado en lo Contencioso Administrativo y Tributario allanó el Centro de Monitoreo Urbano, así como la sede del Ministerio de Seguridad porteño, en el marco de una investigación que pretende probar que la cartera de Seguridad que dirige Marcelo D´Alessandro utilizó información biométrica de 7 millones de personas de manera ilegal.
La ley que regula las cámaras de reconocimiento facial en Ciudad solo permite cruzar datos de quienes integran la lista de prófugos (CONARC). Sin embargo, ayer se conoció que a través de un convenio firmado por el gobierno de Mauricio Macri con el Registro Nacional de las Personas (ReNaPer) en 2019, se habilitó a la Policía de la Ciudad el acceso a los datos biométricos de las más de 9.500 cámaras que operan en la metrópolis porteña. «Podemos afirmar que fue utilizado para fines distintos de lo que marca la ley, pero aún no estamos en condiciones de asegurar taxativamente que el gobierno porteño espió a las personas de la lista porque debemos esperar las pruebas de las pericias», sostuvo Beatriz Busaniche, investigadora de la fundación Vía Libre.
El sistema de reconocimiento facial comenzó con polémica: el mismo día de su anuncio, apenas seis minutos después de que se publicara el pliego de contrataciones, se conoció el resultado de la contratación directa. Esto despertó las alertas del Observatorio de Derecho Informático Argentina (ODIA), que comenzó a indagar en el tema. «Cuando analizamos la implementación observamos un montón de falencias de cómo se alimentaba esa base de datos», explicó a El Grito del Sur Rodrigo Iglesias, abogado de ODIA. La organización realizó un Pedido de Acceso a la Información y obtuvo algunos datos sorprendentes: según el propio Gobierno de la Ciudad, el porcentaje de efectividad del sistema era de apenas 52 por ciento.
El sistema de reconocimiento facial fracasó alrededor del mundo: Boston, San Francisco, Minneapolis o Oakland son algunas de las ciudades que prohibieron expresamente esta modalidad de vigilancia a la que consideraron falente y a la que denuncian por reproducir patrones racistas. «Incluso empresas como Microsoft o IBM se negaron a vender estas tecnologías a gobiernos para ser usadas con fines de seguridad en el espacio público», señaló Busaniche. «Tienen un potencial de vigilancia reñida con el Estado de Derecho».
Si bien Buenos Aires no es la ciudad del mundo con mayor cantidad de cámaras, está en el podio latinoamericano de cámaras de vigilancia en el espacio público. En 2019, el GCBA añadió un sistema de software de reconocimiento facial. ¿Cómo funciona? Se cargan imágenes de personas buscadas para que, cuando sean detectados rostros que tienen un porcentaje alto de rasgos similares, se dispare una alerta y a partir de ello la Policía accione sobre esta persona que se encuentra en el espacio público. «El objetivo es buscar personas prófugas y lo que se dijo siempre es que se iban a cargar solo rostros de personas evadidas de la Justicia y que tuvieran orden de captura», agregó Busaniche.
Comentá la nota