El gobierno del Reino Unido explora el uso de inteligencia artificial para identificar a niños y jóvenes con riesgo de involucrarse en la delincuencia antes de que cometan un delito. La iniciativa busca analizar datos de salud, educación y servicios sociales con el objetivo de intervenir de manera temprana y ofrecer apoyo preventivo.
El proyecto, impulsado desde el Ministerio de Justicia, ha abierto un intenso debate público por sus implicaciones éticas, legales y sociales.
¿Cómo funcionaría el sistema?
El modelo de inteligencia artificial cruzaría información proveniente de distintas bases de datos públicas. Entre ellas, registros del Servicio Nacional de Salud (NHS), historiales escolares, reportes de servicios sociales y posibles contactos previos con autoridades.
A partir de esos datos, el sistema identificaría patrones asociados con factores de vulnerabilidad, como ausentismo escolar, entornos familiares complejos o antecedentes de exclusión social. Según sus impulsores, la intención no es castigar, sino detectar señales de alerta para activar redes de apoyo institucional antes de que aparezcan conductas delictivas.
En otras palabras, el gobierno plantea una estrategia de prevención basada en datos.
Prevención o vigilancia anticipada
Sin embargo, la propuesta ha sido comparada con la película Minority Report, en la que las autoridades arrestan personas antes de que cometan crímenes. Aunque las autoridades británicas rechazan esa analogía y aseguran que el sistema no tendría fines punitivos, la comparación ha reforzado la controversia.
Organizaciones defensoras de derechos civiles advierten que etiquetar a un menor como “potencial delincuente” podría generar estigmatización temprana. Además, señalan que los algoritmos no predicen delitos con certeza, sino que identifican correlaciones estadísticas basadas en datos históricos.
Esto abre una pregunta clave: ¿hasta qué punto es justo anticipar el comportamiento futuro de un niño basándose en variables sociales?
Riesgos éticos y sesgos algorítmicos
Otro punto crítico es el posible sesgo en los datos. Si el sistema se alimenta de información histórica donde ya existen desigualdades estructurales —como mayor vigilancia en ciertos barrios o comunidades—, la inteligencia artificial podría reproducir y amplificar esas diferencias.
Expertos en tecnología y derechos digitales subrayan que la protección de datos sensibles, especialmente de menores, debe ser prioritaria. La combinación de registros médicos, educativos y sociales exige altos estándares de seguridad y transparencia.
Además, la falta de claridad sobre cómo se interpretarán los resultados del algoritmo genera preocupación sobre posibles errores de clasificación.
Un debate abierto sobre el futuro de la IA pública
El uso de inteligencia artificial en políticas públicas no es nuevo, pero su aplicación en la predicción de conductas delictivas infantiles marca un punto sensible. Mientras el gobierno defiende la prevención temprana como una herramienta de apoyo social, críticos insisten en que la tecnología no puede reemplazar intervenciones humanas contextualizadas.
El debate en el Reino Unido podría sentar un precedente global sobre los límites éticos de la inteligencia artificial en la gestión de datos ciudadanos.




