Skip to main content
Done ahora

El Reino Unido planea un experimento de IA con niños y niñas solicitantes de asilo

Los niños y niñas que buscan refugio necesitan cuidados, no algoritmos

El centro de detención de Manston, en Kent (Reino Unido), es utilizado por el gobierno para detener y tramitar los casos de personas solicitantes de asilo. En 2022 y 2024, el gobierno presuntamente detuvo allí a niños y niñas refugiados no acompañados, clasificándolos deliberadamente como adultos. Ramsgate, Inglaterra, 24 de junio de 2025. © 2025 Dan Kitwood/Getty Images

El anuncio del Reino Unido de que utilizará tecnología de reconocimiento facial con IA para evaluar si un solicitante de asilo es menor de 18 años pone en peligro a los niños y niñas solicitantes de asilo. La ministra de Asilo, Angela Eagle, dijo que la decisión, aceptada el pasado 22 de julio, se tomó porque esta tecnología experimental es probablemente la opción más barata.

Experimentar con tecnología no probada para determinar si un niño o una niña debe recibir la protección que necesita desesperadamente y a la que tiene derecho por ley es cruel e inconcebible.

La estimación de la edad facial no ha sido evaluada de forma independiente en entornos reales. Las empresas que probaron su tecnología en unos pocos supermercados, pubs y en sitios web la configuraron para predecir si una persona parece menor de 25 años, no de 18, lo que permite un amplio margen de error para los algoritmos que tienen dificultades para distinguir a un joven de 17 años de uno de 19.

Los escáneres faciales con IA nunca se diseñaron para niños y niñas solicitantes de asilo, y corren el riesgo de producir errores desastrosos que pueden cambiarles la vida. Los algoritmos identifican patrones en la distancia entre las fosas nasales y la textura de la piel, pero no pueden tener en cuenta a los niños y niñas que han envejecido prematuramente a causa del trauma y la violencia. No pueden comprender cómo la desnutrición, la deshidratación, la privación del sueño y la exposición al agua salada durante una peligrosa travesía marítima pueden alterar profundamente el rostro de un niño.

La incapacidad de estos sistemas de IA para explicar o reproducir los resultados erosiona aún más el derecho de los niños y niñas a obtener reparación y remedio tras una evaluación errónea, al tiempo que crea nuevos riesgos para la privacidad y la no discriminación.

El Gobierno del Reino Unido ha sometido repetidamente y ilegalmente a niñas y niños solicitantes de asilo a condiciones abusivas al clasificarlos erróneamente como adultos. La semana pasada, el inspector jefe de fronteras e inmigración del Reino Unido escribió sobre "jóvenes a los que el Ministerio del Interior no creyó y desestimó, y cuyas esperanzas se han visto frustradas y su salud mental afectada".

El Gobierno tiene previsto licitar los contratos en agosto y utilizar la tecnología en 2026. Debería detener este proceso y seguir las recomendaciones del inspector jefe para corregir los defectos de los procesos de evaluación de la edad. Estos procesos deben cumplir con las normas internacionales, utilizarse como último recurso para resolver dudas graves sobre la edad declarada por una persona, y las decisiones deben ser tomadas por profesionales capacitados en protección infantil y traumas.

Y el gobierno debería escuchar a la joven que, tras sobrevivir un difícil viaje hasta el Reino Unido, dijo a los inspectoresque el gobierno "no debería juzgar a las personas por su apariencia el primer día que las ve".

GIVING TUESDAY MATCH EXTENDED:

Did you miss Giving Tuesday? Our special 3X match has been EXTENDED through Friday at midnight. Your gift will now go three times further to help HRW investigate violations, expose what's happening on the ground and push for change.

Las más vistas