Skip to main content

Carta al Lic. Horacio Rodríguez Larreta sobre el Sistema de Reconocimiento Facial de Prófugos y derechos de niñas y niños

Washington D.C., 9 de octubre de 2020

Lic. Horacio Rodríguez Larreta
Jefe de Gobierno de la Ciudad Autónoma de Buenos Aires
Buenos Aires — ARGENTINA

Ref.: Sistema de Reconocimiento Facial de Prófugos y derechos de niñas y niños

De mi mayor consideración,

Tengo el honor de dirigirme a V.E en representación de Human Rights Watch para manifestarle nuestra preocupación por la inclusión de imágenes y datos personales de niños y niñas en un sistema de reconocimiento facial utilizado en algunas estaciones de subte de la Ciudad Autónoma de Buenos Aires[1]. Nuestra investigación revela que la base de datos que alimenta el sistema de reconocimiento facial viola los derechos a la privacidad de los niños en procesos penales, e incluye errores importantes. Asimismo, la tecnología de reconocimiento facial genera un riesgo mayor de falsas coincidencias en niños y niñas.

Como es de su conocimiento, el Ministerio de Justicia y Derechos Humanos mantiene una base de datos nacional de personas con órdenes de detención por delitos graves, conocida como la Consulta Nacional de Rebeldías y Capturas (CONARC)[2]. Esta base de datos, que el ministerio publica en línea diariamente, también incluye información personal privada sobre niños.

Según los análisis realizados por Human Rights Watch, al menos 166 menores han aparecido en la lista de la CONARC entre mayo de 2017 y mayo de 2020, incluyendo niños sospechosos de cometer delitos menores[3]. El delito más común del cual se acusa a menores de edad es el de robo (63 niños y niñas, o el 37,5 %). Los errores constantes y las discrepancias evidentes en el sistema de la CONARC, que es actualizada cada mañana a las 7:00 am, demuestran que carece de los mecanismos básicos para evitar errores en el ingreso de datos, lo cual puede generar graves consecuencias para la reputación y la seguridad de los menores.

Según el derecho internacional de los derechos humanos, los Estados deben garantizar el pleno respeto a la privacidad de los menores de quienes se sospecha la comisión de un delito en todas las etapas del proceso penal[4]. No se debe publicar información que pueda servir para identificarlos[5]. El 17 de mayo de 2019, el Relator Especial de las Naciones Unidas sobre el derecho a la privacidad advirtió a Argentina que el uso de esta información en la CONARC violaba los derechos de los niños[6]. Al publicar el récord de las detenciones de menores, el Gobierno expone a los menores al riesgo de sufrir daños irreparables a su reputación.

Estos daños se han agravado en la Ciudad Autónoma de Buenos Aires. Desde el 24 de abril de 2019, el Gobierno de la Ciudad Autónoma de Buenos Aires ha utilizado los datos de la CONARC (incluidos datos de niños y niñas) en el Sistema de Reconocimiento Facial de Prófugos (SRFP)[7]. Esta tecnología analiza transmisiones de video en vivo de quienes toman el subte, caminan o se encuentran en las cercanías de una estación de subte, e identifica posibles coincidencias con las identidades en la CONARC. Como la CONARC no incluye fotografías de los acusados de un delito, el SRFP emplea las fotos del registro de población del país[8].

En una respuesta oficial a un pedido de información presentado por la ONG Observatorio de Derecho Informático Argentino, el Ministerio de Justicia y Seguridad de la Ciudad Autónoma de Buenos Aires negó que el sistema de reconocimiento facial identificara a niños y niñas, debido a que “la base de datos de la CONARC no posee datos respecto a menores de edad”[9]. Como indicamos antes, esta afirmación es falsa.

También nos preocupa que no se haya planteado un debate público o legislativo en torno a la necesidad y proporcionalidad del sistema de reconocimiento facial, en especial teniendo en cuenta los efectos negativos que esta tecnología puede tener para los menores[10]. El reconocimiento facial tiene tasas de error considerablemente más altas en el caso de niños, en parte, porque la mayoría de los algoritmos han sido entrenados, probados y perfeccionados utilizando sólo rostros de adultos[11].

Este es el caso de la tecnología de reconocimiento facial que se utiliza en la Ciudad Autónoma de Buenos Aires, contratada a la empresa con sede en esa ciudad, Danaide S.A., y desarrollada por la empresa rusa NtechLab[12].

En pruebas realizadas en un ámbito de laboratorio controlado, donde se utilizaron fotos posadas bajo condiciones de iluminación ideales, el Instituto Nacional de Estándares y Tecnología (National Institute of Standards and Technology, NIST) del Departamento de Comercio de Estados Unidos, que evalúa la precisión de los algoritmos de reconocimiento facial a nivel global, concluyó que los tres algoritmos que NtechLab había presentado para su evaluación generaban una tasa más alta de coincidencias erróneas entre niños que entre adultos[13].

De acuerdo con los resultados de la evaluación del NIST, Human Rights Watch calcula que, en un ámbito controlado, estos algoritmos arrojan seis veces más falsas coincidencias para un niño de entre 10 y 16 años que para un adulto de entre 24 y 40. Cuánto más pequeños son los niños, más pronunciados son los errores.

Como los menores experimentan cambios rápidos y drásticos en sus facciones a medida que crecen, los algoritmos de reconocimiento facial por lo general no identifican a un niño que es un año o dos mayor que en la foto de referencia. Ya que el sistema de reconocimiento facial en Buenos Aires utiliza fotos obtenidas del registro de población del país, las cuales no son necesariamente recientes, es posible que el sistema esté comparando las imágenes de video con fotografías desactualizadas de menores. De ser así, ello aumentaría la tasa de error[14].

Según una respuesta oficial a una solicitud de información presentada por la ONG Asociación por los Derechos Civiles, antes de ser empleado, el SRFP sólo fue probado con rostros de empleados adultos del departamento de policía de la ciudad y del Ministerio de Justicia y Seguridad de la ciudad[15]. El gobierno de la Ciudad Autónoma de Buenos Aires no exigió a Danaide S.A., su proveedora, que realizara pruebas o verificaciones para minimizar el sesgo en el caso de los niños[16]. Danaide S.A. y NtechLab no respondieron a las solicitudes de información de Human Rights Watch.

A su vez, las tasas de error se incrementan significativamente cuando el reconocimiento facial es utilizado en espacios públicos, donde las imágenes capturadas por cámaras de videovigilancia son naturales, borrosas y no posadas. Utilizar este tipo de tecnología en el sistema de subtes de la ciudad de Buenos Aires, por donde pasan más de 1,4 millones de pasajeros y por cuyas estaciones y cercanías transita un sinnúmero de otras personas, causará que muchas sean erróneamente identificadas como sospechosas de tener una orden de detención[17].

En la actualidad, la Ciudad Autónoma de Buenos Aires está utilizando el sistema a pequeña escala por cuestiones presupuestarias. La Unión Europea ha estimado que cuando la tecnología de reconocimiento facial se utiliza en lugares transitados por millones de personas, como un sistema de estaciones de subte, incluso una tasa de error relativamente baja como el 0,01% podría resultar en que cientos de personas sean erróneamente identificadas una vez que el sistema se implemente a gran escala. En una declaración oficial, el gobierno de la Ciudad Autónoma de Buenos Aires ha admitido tasas de error del 3% o más[18].

Cuando se utiliza una nueva tecnología, como es el reconocimiento facial en vivo, es necesario evaluar el riesgo de que se produzcan identificaciones erradas, y cómo estas afectarían los derechos fundamentales. Por ejemplo, la policía de Berlín llevó a cabo una prueba extendida de reconocimiento facial en una estación de tren en 2017 y 2018. Se revisaron videos en vivo capturados por cámaras de CCTV y se identificaron individuos comparándolos con una lista de personas buscadas. En promedio, la tasa de identificación de falsas coincidencias fue de 0,34 %; es decir, de cada 1.000 personas que pasaron por el sistema de vigilancia, entre tres y cuatro generaron falsas coincidencias. Las autoridades alemanas consideraron que esto era inaceptable, dada “la cantidad de personas que pasan cada día por las estaciones de tren, lo cual provocaría que se detuviera de manera indebida a una gran cantidad de personas (o que, por lo menos, fueran demoradas por la policía)”[19].

Según documentos oficiales obtenidos por el Observatorio de Derecho Informático Argentino, la policía de la Ciudad Autónoma de Buenos Aires ya está interceptando y arrestando a individuos basándose exclusivamente en las alertas automáticas generadas por el SRFP[20]. Esta práctica ya ha resultado en la interceptación y el arresto de adultos por error[21].

Human Rights Watch le ha escrito una carta al Presidente Alberto Fernández para solicitarle que el Ministerio de Justicia y Derechos Humanos elimine de inmediato a todos los menores de 18 años de la versión pública de la CONARC.

A su vez, le instamos respetuosamente, como jefe de gobierno de la Ciudad Autónoma de Buenos Aires, a que su gobierno suspenda de inmediato el SRFP, realice una evaluación de su impacto sobre los derechos humanos y la privacidad, y publique estadísticas verificables sobre los resultados que el sistema ha producido a la fecha. El gobierno de la Ciudad también debería invitar a la sociedad civil, especialmente quienes cuenten con conocimiento sobre el derecho a la privacidad y las implicancias éticas y sociales de la tecnología, así como a especialistas en derechos de niños y niñas, a contribuir en el proceso de elaboración de políticas públicas que permitan evaluar, integralmente, la necesidad, proporcionalidad y legalidad del uso de la vigilancia mediante reconocimiento facial en vivo, teniendo en especial consideración las consecuencias para los derechos de niños y niñas.

Aprovecho esta oportunidad para expresarle a V.E. mis sentimientos de la más alta consideración y estima.

José Miguel Vivanco
Human Rights Watch

[1] A los fines de facilitar la lectura, en el presente documento se usa en muchas ocasiones el término “menores” o “niños” para referirse a niños y niñas y personas no binarias.

[2] Resolución 1068 - E/2016, aprobada el 10 de noviembre de 2016, http://www.vocesporlajusticia.gob.ar/wp-content/uploads/2016/11/res10682016mj.pdf (consultado el 22 de mayo de 2020).

[3] Human Rights Watch revisó 28 versiones de la CONARC, archivadas por el servicio Wayback Machine de Internet, que abarcaban un período de tres años entre mayo de 2017 y mayo de 2020.

[4] Convención sobre los Derechos del Niño, adoptada el 20 de noviembre de 1989, Res. A.G. 44/25, anexo, 44 U.N. GAOR Supp. (N.º 49) p. 167, ONU Doc. A/44/49 (1989), entrada en vigor el 2 de septiembre de 1990, ratificada por Argentina el 4 de diciembre de 1990, art. 16 y 40(2)(vii); Corte Interamericana de Derechos Humanos, caso del Instituto de Reeducación Juvenil, Excepciones Preliminares, Fondo, Reparaciones y Costas, Sentencia del 2 de septiembre de 2004, (Ser. C) N.º 112 (2004), párr. 211; Corte Interamericana, Condición Jurídica y Derechos Humanos del Niño, Opinión Consultiva OC-17/02 del 28 de agosto de 2002, (Ser. A) N.º 17 (2002), párr. 134; Corte Interamericana de Derechos Humanos, intervenciones escritas y orales relacionadas con la Opinión Consultiva OC-17/02, en Corte Interamericana, Condición Jurídica y Derechos Humanos del Niño, Opinión Consultiva OC-17/02 del 28 de agosto de 2002, (Ser. A) N.º 17 (2002), pág. 25; Secretaría de Jurisprudencia de la Corte Suprema de Justicia de la Nación: Interés superior del niño, 2013, http://cdn.ideaspaz.org/media/website/document/53e2ac3725816.pdf (consultado el 22 de mayo de 2020).

[5] Reglas Mínimas de las Naciones Unidas para la Administración de la Justicia de Menores (“Reglas de Beijing”), adoptadas el 29 de noviembre de 1985, Res. A.G. 40/33, anexo, 40 U.N. GAOR Supp. (N.º 53) p. 207, ONU Doc. A/40/53 (1985), ratificada por Argentina el 4 de diciembre de 1990, https://www.ohchr.org/Documents/ProfessionalInterest/beijingrules.pdf (consultado el 22 de mayo de 2020), art. 8.

[6] Declaración a los medios de comunicación del Relator Especial de las Naciones Unidas sobre el derecho a la privacidad, al concluir su visita oficial a la Argentina del 6 al 17 de mayo de 2019, https://www.ohchr.org/SP/NewsEvents/Pages/DisplayNews.aspx?NewsID=24639&LangID=S (consultado el 22 de mayo de 2020).

[7] Resolución 398/MJYSGC/19, aprobada el 24 de abril de 2019, https://documentosboletinoficial.buenosaires.gob.ar/publico/ck_PE-RES-MJYSGC-MJYSGC-398-19-5604.pdf (consultado el 27 de mayo de 2020).

[8] Separata del Boletín Oficial de la Ciudad de Buenos Aires, ANEXO - RESOLUCIÓN N° 398/MJYSGC/19, 25 de abril de 2019, https://documentosboletinoficial.buenosaires.gob.ar/publico/PE-RES-MJYSGC-MJYSGC-398-19-ANX.pdf (consultado el 2 de junio de 2020).

[9] Respuesta NO-2019-33745359-GCABA-DGEYTI del director general Forno, Carlos Tristán, Ministerio of Justicia y Seguridad, Gobierno de Buenos Aires, a la solicitud de información formulada por el Observatorio de Derecho Informático Argentino (ODIA), 30 de octubre de 2019. https://drive.google.com/file/d/1i4zBxv4ahP_xeRKwUQI4VOx7wpFQOVVc/view (consultado el 27 de mayo de 2020).

[10] El Gobierno municipal aceleró la sanción de normas que permitieran adoptar el SRFP, y tomó esa medida a través de una resolución en lugar de una ley, eludiendo el debate público. Ver: Resolución 398/MJYSGC/19, aprobada el 24 de abril de 2019, https://documentosboletinoficial.buenosaires.gob.ar/publico/ck_PE-RES-MJYSGC-MJYSGC-398-19-5604.pdf (consultado el 12 de junio de 2020) y Dave Gershgorn, “The U.S. Fears Live Facial Recognition. In Buenos Aires, It’s a Fact of Life” (“Estados Unidos Teme el Reconocimiento Facial. En Buenos Aires, es un Hecho Efectivo”), OneZero, 4 de marzo de 2020, https://onezero.medium.com/the-u-s-fears-live-facial-recognition-in-buenos-aires-its-a-fact-of-life-52019eff454d (consultado el 2 de junio de 2020).

[11] Patrick Grother, Mei Ngan y Kayee Hanoaka, “National Institute of Standards and Technology NISTIR 8280: Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects”, diciembre de 2019, https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf (consultado el 22 de mayo de 2020).

[12] El Gobierno de la Ciudad de Buenos Aires adjudicó el contrato de manera directa a la empresa Danaide S.A., con sede en Buenos Aires, que vende su tecnología de vigilancia mediante un producto denominado UltraIP. El componente de reconocimiento facial de UltraIP, a su vez, es desarrollado por la empresa rusa NtechLab. Ver: documento de contratación directa por la ciudad de Buenos Aires, Proceso de compra N.° 2900-0472-CDI19: https://www.buenosairescompras.gob.ar/PLIEGO/VistaPreviaPliegoCiudadano.aspx?qs=BQoBkoMoEhyvzUss83|5qmQHYdlWCoEzPIKU0JAvRZ7kltC74K|7Tw11ctBR9dfFZZZemaLoi969Lwy2BFPNowVGFQ7XOHCTEKW51rAObRlXsdfYAs0SFw== (consultado el 2 de junio de 2020); Respuesta NO-2019-21065074-GCABA-DGEYTI del director general Forno, Carlos Tristán, Ministerio de Justicia y Seguridad, Gobierno de Buenos Aires, a la solicitud de información formulada por Asociación por los Derechos Civiles, 2 de julio de 2019, https://adc.org.ar/wp-content/uploads/2019/07/Respuesta-PAIP-reconocimiento-facial-GCBA-V2.pdf (consultado el 22 de mayo de 2020); NtechLab ha reconocido públicamente su asociación con Danaide S.A. al incluir Ultra IP en su lista de socios publicada en el sitio web de NTechLab. Ver: https://web.archive.org/web/20200511205745/https:/findface.pro/partners/ (consultado el 2 de junio de 2020); Dave Gershgorn, “The U.S. Fears Live Facial Recognition. In Buenos Aires, It’s a Fact of Life”, OneZero, 4 de marzo de 2020, https://onezero.medium.com/the-u-s-fears-live-facial-recognition-in-buenos-aires-its-a-fact-of-life-52019eff454d (consultado el 2 de junio de 2020)

[13] Instituto Nacional de Estándares y Tecnología, “NISTIR 8280: Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects, Annex 10: Cross age false match rates with visa photos”, 12 de diciembre de 2019, https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf

[14] El Documento Nacional de Identidad (DNI) se crea cuando una persona nace. Por ley debe actualizarse dos veces: entre los 5 y los 8 años y a los 14 años. Ver: Gobierno de la República Argentina, Ministerio del Interior, “DNI para argentinos residentes en el país” https://www.argentina.gob.ar/interior/dni/argentinos-residentes-en-el-pais (consultado el 22 de mayo de 2020).

[15] Respuesta NO-2019-21065074-GCABA-DGEYTI del director general Forno, Carlos Tristán, Ministerio de Justicia y Seguridad, Gobierno de Buenos Aires, a la solicitud de información formulada por Asociación por los Derechos Civiles, 2 de julio de 2019, https://adc.org.ar/wp-content/uploads/2019/07/Respuesta-PAIP-reconocimiento-facial-GCBA-V2.pdf (consultado el 22 de mayo de 2020).

[16] Gobierno de la Ciudad de Buenos Aires, “Pliego de Bases y Condiciones Particulares, Contratación Directa de un Servicio de Análisis Integral de Video”, 4 de marzo de 2019. Consultado a través de la página de documentos de contratación directa, en Cláusulas particulares, N.° PLIEG-2019-10400885- -SSGA, https://www.buenosairescompras.gob.ar/PLIEGO/VistaPreviaPliegoCiudadano.aspx?qs=BQoBkoMoEhyvzUss83|5qmQHYdlWCoEzPIKU0JAvRZ7kltC74K|7Tw11ctBR9dfFZZZemaLoi969Lwy2BFPNowVGFQ7XOHCTEKW51rAObRlXsdfYAs0SFw==; (consultado el 22 de mayo de 2020).

[17] Gobierno de Buenos Aires, “La Red de Expresos Regionales conectará los ferrocarriles urbanos debajo del Obelisco”, 6 de julio de 2015, https://www.buenosaires.gob.ar/noticias/red-de-expresos-regionales-en-detalle (consultado el 8 de mayo de 2020).

[18] En la actualidad se ha desplegado el SRFP para ser utilizado simultáneamente en 300 cámaras de circuito cerrado de televisión (CCTV), aunque se ha informado que la cantidad total de cámaras en la red más amplia de vigilancia por CCTV, la Red Integral de Monitoreo, es de casi 13,000. La Unión Europea ha realizado cálculos con respecto a los usos de esta tecnología en contextos similares; “al aplicar la tecnología en lugares visitados por millones de personas (como estaciones de tren o aeropuertos), una proporción relativamente baja de error (p. ej., 0,01 %) sigue implicando que cientos de personas sean señaladas equivocadamente”. Ver Agencia de los Derechos Fundamentales de la Unión Europea, “Tecnología de reconocimiento facial: Implicaciones de derechos fundamentales en el contexto del orden público” (“Facial Recognition Technology: Fundamental Rights Implications In the Context of Law Enforcement”), 27 de noviembre de 2019, https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper.pdf (consultado el 8 de mayo de 2020), págs. 12, 22. Ver también “Cámaras de reconocimiento facial: Larreta prometió 10.000 más”, Página 12, 4 de octubre de 2019, https://www.pagina12.com.ar/223372-camaras-de-reconocimiento-facial-larreta-prometio-10-000-mas (consultado el 8 de mayo de 2020); Alejandra Hayon, “Seis días arrestado por un error del sistema de reconocimiento facial”, Página 12, 3 de agosto de 2019, https://www.pagina12.com.ar/209910-seis-dias-arrestado-por-un-error-del-sistema-de-reconocimien (consultado el 8 de mayo de 2020); respuesta NO-2019-21065074-GCABA-DGEYTI del director general Forno, Carlos Tristán, Ministerio de Justicia y Seguridad, Gobierno de Buenos Aires, a la solicitud de información formulada por Asociación por los Derechos Civiles, 2 de julio de 2019, https://adc.org.ar/wp-content/uploads/2019/07/Respuesta-PAIP-reconocimiento-facial-GCBA-V2.pdf (consultado el 22 de mayo de 2020).

[19] Agencia de los Derechos Fundamentales de la Unión Europea, “Tecnología de reconocimiento facial: Implicaciones de derechos fundamentales en el contexto del orden público” (“Facial Recognition Technology: Fundamental Rights Implications In the Context of Law Enforcement”), 27 de noviembre de 2019, https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper.pdf (consultado el 8 de mayo de 2020), págs. 12, 22.

[20] Respuesta NO-2019-33745359-GCABA-DGEYTI del director general Forno, Carlos Tristán, Ministerio de Justicia y Seguridad, Gobierno de Buenos Aires, a la solicitud de información formulada por el Observatorio de Derecho Informático Argentino (ODIA). 30 de octubre de 2019. https://drive.google.com/file/d/1i4zBxv4ahP_xeRKwUQI4VOx7wpFQOVVc/view (consultado el 27 de mayo de 2020).

[21] Ver: Alejandra Hayon, “Seis días arrestado por un error del sistema de reconocimiento facial”, Página 12, 3 de agosto de 2019, https://www.pagina12.com.ar/209910-seis-dias-arrestado-por-un-error-del-sistema-de-reconocimien (consultado del 8 de mayo de 2020); “Cámaras de reconocimiento facial: Larreta prometió 10.000 más”, Página 12, 4 de octubre de 2019, disponible en https://www.pagina12.com.ar/223372-camaras-de-reconocimiento-facial-larreta-prometio-10-000-mas (consultado el 8 de mayo de 2020); “De un DNI mal cargado a una cara parecida: las víctimas del sistema de reconocimiento facial en Buenos Aires”, TN, 31 de julio de 2019, https://tn.com.ar/policiales/de-un-dni-mal-cargado-una-cara-parecida-las-victimas-del-sistema-de-reconocimiento-facial-en-buenos_980528 (consultado el 8 de mayo de 2020).

Your tax deductible gift can help stop human rights violations and save lives around the world.

Región / País

Las más vistas