(Nueva York) – El Ministerio de Justicia y Derechos Humanos de Argentina publica en línea periódicamente una base de datos nacional con información personal de niños y niñas con órdenes de detención, señaló hoy Human Rights Watch. El Gobierno de la Ciudad de Buenos Aires carga las imágenes e identidad de esos niños en un sistema de reconocimiento facial que se utiliza en estaciones del metro de la ciudad, a pesar de que la base de datos nacional contiene importantes errores y que esta tecnología genera riesgos más altos de falsas coincidencias para niños y niñas.
En cartas enviadas simultáneamente al Presidente de la República, Alberto Fernández, y al jefe de Gobierno de la Ciudad Autónoma de Buenos Aires, Horacio Rodríguez Larreta, Human Rights Watch manifestó que estas políticas y prácticas violan las obligaciones jurídicas internacionales de respetar la privacidad de los niños y niñas sujetos a procesos penales.
“Al publicar los datos personales de estos niños y niñas en línea, el Gobierno nacional pone en riesgo su acceso a la educación, al trabajo y a la vivienda por el resto de sus vidas”, manifestó José Miguel Vivanco, director de la División de las Américas de Human Rights Watch. “Como si eso fuera poco, el Gobierno de la Ciudad Autónoma de Buenos Aires utiliza esa base de datos, que además contiene graves errores, para alimentar un sistema de reconocimiento facial, con pocas salvaguardas, a pesar de los previsibles errores que esta tecnología puede generar en la identificación de niños y niñas y el impacto negativo sobre ellos”.
Desde 2009, el Ministerio de Justicia y Derechos Humanos de la Argentina mantiene una base de datos nacional de personas con órdenes de detención, conocida como Consulta Nacional de Rebeldías y Capturas (CONARC). Esta base de datos, que el ministerio publica en internet a diario, incluye los nombres, edades, números de documento nacional de identidad, el delito presuntamente cometido y su ubicación, y la autoridad que emitió el pedido de captura, entre otras informaciones. La base de datos incluye a niños y niñas, la mayoría de ellos entre 16 y 17 años, aunque también se han incluido por error algunos de apenas un año de edad.
El derecho internacional de los derechos humanos establece que se debe garantizar el pleno respeto de la privacidad a cada niño o niña que se sospecha ha cometido un delito en todas las etapas del proceso penal. Los estándares internacionales prohíben la publicación de información que pueda ser utilizada para identificarlos. El 17 de mayo de 2019, el Relator Especial de las Naciones Unidas sobre el derecho a la privacidad concluyó su visita oficial en Argentina advirtiendo al gobierno que publicar esta información a través de la CONARC violaba los derechos de niños y niñas. La base de datos en línea incluía, al momento de la visita del Relator, datos personales de 61 niños y niñas.
Desde la advertencia del relator especial, se han agregado al menos 25 niños y niñas más a la base de datos. Human Rights Watch revisó 28 versiones de la base de datos, publicadas entre mayo de 2017 y mayo de 2020, tal como fueron archivadas por el servicio Wayback Machine de Internet, y concluyó que al menos 166 niños y niñas aparecían en el listado de la CONARC, incluyendo algunos sospechosos de haber cometido delitos menores. El delito más común del que se acusa a estos niños y niñas es robo (63 niños y niñas, o el 37,5 % del total).
Asimismo, la base de datos nacional, que es actualizada cada mañana a las 7 am, contiene errores y discrepancias evidentes. Algunos niños y niñas figuran varias veces. Hay errores tipográficos evidentes, información contradictoria y varios números de documentos nacionales de identidad asignados a una misma persona, lo cual aumenta el riesgo que surjan coincidencias erróneas. Por ejemplo, un niño de 3 años figura como buscado por robo agravado. La existencia de errores persistentes en el sistema de la CONARC demuestra que carece de mecanismos básicos para minimizar errores en el ingreso de datos, lo cual puede generar graves consecuencias para la reputación y la seguridad de niños y niñas.
Desde el 24 de abril de 2019, el Gobierno de la Ciudad Autónoma de Buenos Aires carga los datos incluidos en la CONARC en el Sistema de Reconocimiento Facial de Prófugos (SRFP) de la ciudad. Esta tecnología analiza transmisiones de video en vivo de quienes toman el metro, caminan o se encuentran en las cercanías de una estación de metro, e identifica posibles coincidencias entre las imágenes capturadas y los datos de la CONARC. Como la CONARC no incluye fotografías de los sospechosos de un delito, las fotos de referencia para contrastar las imágenes tomadas por el sistema de reconocimiento facial se extraen del registro de población del país.
El sistema fue contratado a la empresa Danaide S.A., con sede en Buenos Aires, y se basa en su software, denominado UltraIP. El componente de reconocimiento facial de este software habría sido desarrollado por la empresa rusa NtechLab, que se especializa en tecnología de reconocimiento facial y ha reconocido públicamente su asociación con Danaide S.A. al incluir a UltraIP en una lista de socios publicada en el sitio web de NtechLab. Además, NTechLab confirmó su asociación con Danaide S.A. al medio de comunicación OneZero, aunque no proporcionó más detalles debido a un acuerdo de confidencialidad.
Cabe subrayar que la tecnología de reconocimiento facial en general tiene tasas de error considerablemente más altas en el caso de niños y niñas, en parte porque la mayoría de los algoritmos han sido entrenados, probados y perfeccionados utilizando sólo rostros de adultos.
En pruebas realizadas en un ámbito de laboratorio controlado, donde se utilizaron fotos posadas bajo condiciones de iluminación ideales, el Instituto Nacional de Estándares y Tecnología (National Institute of Standards and Technology, NIST) del Departamento de Comercio de Estados Unidos, que evalúa la precisión de los algoritmos de reconocimiento facial en todo el mundo, concluyó que los tres algoritmos que NtechLab había presentado para ser evaluados generaban una tasa más alta de coincidencias erróneas entre niños y niñas que entre adultos.
De acuerdo con los resultados de NIST, Human Rights Watch calcula que, en un ámbito controlado, estos algoritmos generan seis veces más falsas coincidencias en un niño o niña de entre 10 y 16 años que en un adulto de entre 24 y 40 años.
Como los niños y las niñas experimentan cambios físicos rápidos y drásticos en sus facciones a medida que crecen, los algoritmos de reconocimiento facial por lo general no identifican a un niño o niña que es uno o dos años mayor que en la foto de referencia. Ya que el sistema de reconocimiento facial en Buenos Aires utiliza fotos obtenidas del registro de población del país, las cuales no son necesariamente recientes, puesto que sólo es obligatorio renovar el documento nacional de identidad entre los 5 y los 8 años y luego entre los 14 a los 15 años, es posible que el sistema esté comparando las imágenes de video con fotografías desactualizadas de menores. De ser así, ello aumentaría la tasa de error.
Según documentos oficiales obtenidos por la ONG argentina Asociación por los Derechos Civiles, antes de su utilización, el sistema de reconocimiento facial sólo fue probado con rostros de empleados adultos de la policía y el Ministerio de Justicia y Seguridad de la ciudad. El Gobierno de la ciudad no les exigió a las empresas que proporcionan esta tecnología que realizaran pruebas para minimizar el sesgo en el caso de niños y niñas. Danaide S.A. y NtechLab no respondieron a las múltiples solicitudes de información enviadas por Human Rights Watch.
Las tasas de error se incrementan significativamente cuando el reconocimiento facial es utilizado en espacios públicos donde las imágenes capturadas por cámaras de videovigilancia son naturales, borrosas y no posadas. Utilizar este tipo de tecnología en el sistema de metro de la ciudad de Buenos Aires, por donde transitan más de 1,4 millones de pasajeros cada día, y por cuyas estaciones y cercanías transita otro importante número de personas, causará que muchas sean erróneamente identificadas como sospechosas de tener una orden de detención.
En la actualidad, Buenos Aires está utilizando el sistema a pequeña escala por cuestiones presupuestarias. La Unión Europea ha estimado que cuando la tecnología de reconocimiento facial se utiliza en lugares transitados por millones de personas, como en el sistema de estaciones de metro, incluso una tasa de error relativamente baja como el 0,01%, podría resultar en que cientos de personas fueran erróneamente identificadas una vez que el sistema se implemente a gran escala. En una declaración oficial, el gobierno de la Ciudad Autónoma de Buenos Aires ha admitido tasas de error del 3% o más, y ha proporcionado números muy diferentes de identificaciones erróneas, lo cual dificulta la medición del impacto del sistema hasta el momento.
Según documentos oficiales obtenidos por el Observatorio de Derecho Informático Argentino, la policía de la Ciudad Autónoma de Buenos Aires ya está interceptando y arrestando a personas basándose exclusivamente en las alertas automáticas generadas por el sistema de reconocimiento facial. Esta práctica ha resultado en la interceptación y arresto erróneos de adultos.
El Gobierno de la Ciudad Autónoma de Buenos Aires ha defendido el uso del sistema de reconocimiento facial y ha atribuido la identificación incorrecta de individuos a errores de la CONARC. Por su parte, el Ministerio de Justicia y Seguridad de la ciudad ha negado que el sistema de reconocimiento facial identifique a niños y niñas, debido a que “la base de datos de la CONARC no posee datos sobre menores de edad”, lo cual es falso.
El Ministerio de Justicia y Derechos Humanos de la Argentina debería remover de inmediato a todos los menores de 18 años de la base de datos de la CONARC que se publica diariamente, recomendó Human Rights Watch. Por su parte, el Gobierno de la Ciudad Autónoma de Buenos Aires debería suspender de inmediato su sistema de reconocimiento facial, realizar una evaluación del impacto sobre los derechos humanos y la privacidad, y publicar estadísticas verificables sobre los resultados del sistema. El gobierno de la ciudad también debería invitar a la sociedad civil a participar de una evaluación sobre la necesidad, proporcionalidad y legalidad del uso de la vigilancia mediante reconocimiento facial, prestando especial consideración a sus consecuencias para los niños y niñas.
“Las autoridades a nivel nacional y en la Ciudad Autónoma de Buenos Aires deben coordinar esfuerzos para proteger a los niños y niñas de los daños que puedan causarles tecnologías y prácticas de vigilancia poco confiables que violan su derecho a la privacidad”, manifestó Vivanco.