Los datos de cientos de miles de ciudadanos británicos están alimentando un inquietante experimento previo al crimen, sacado directamente de películas y novelas distópicas. El Ministerio de Justicia del Reino Unido ha desarrollado un algoritmo diseñado para identificar a posibles asesinos antes de que cometan un delito. El proyecto, inicialmente llamado “proyecto de predicción de homicidios”, utiliza datos de las fuerzas policiales británicas. Esta tecnología predictiva, que no sólo procesa información sobre sospechosos sino que también incluye datos de víctimas y testigos, plantea preguntas sobre el límite entre la prevención del delito y la vigilancia masiva.
Vigilancia que no esperas
Chicos, ¿pensaban que la ciencia ficción distópica era sólo entretenimiento? Bienvenidos a la realidad. La organización de derechos civiles vigilancia estatal descubierto, a través de solicitudes de la Ley de Libertad de Información, que el Ministerio de Justicia británico desarrolló en secreto este algoritmo utilizando datos de entre 100.000 y 500.000 personas. Y no se trata sólo de aquellos con antecedentes penales: el sistema analiza información altamente sensible como condiciones de salud mental, adicciones, tendencias suicidas e incluso discapacidades.
Sinceramente me pregunto cómo un enfoque así puede no perpetuar y amplificar los prejuicios que ya existen en el sistema judicial. Investigador de Statewatch, Sofía Lyall, expresó el problema perfectamente:
Una y otra vez, las investigaciones demuestran que los sistemas algorítmicos para “predecir” delitos son inherentemente defectuosos. Este último modelo, que utiliza datos de nuestra policía y del Ministerio del Interior institucionalmente racistas, reforzará y magnificará la discriminación estructural que sustenta el sistema jurídico penal.
La verdadera pregunta no es si este sistema funciona técnicamente (alerta de spoiler: probablemente no), sino si es éticamente aceptable en una sociedad democrática.
Precrimen, un fenómeno global
El caso británico no es un caso aislado; De hecho, representa sólo la última manifestación de una tendencia mundial preocupante. En el Estados UnidosLa Universidad de Chicago tiene Hace tiempo que se desarrolla un algoritmo para predecir dónde y cuándo podrían ocurrir delitos hasta con una semana de antelación. El experimento ha suscitado fuertes críticas, demostrando cómo estos algoritmos tienden a centrarse en barrios que ya están fuertemente vigilados por la policía, creando un círculo vicioso de control y criminalización.
En Australia, el programa STMP (Plan de Gestión de Objetivos Sospechosos) ha adoptado un enfoque similar, perfilando a los jóvenes y a las minorías indígenas como potenciales delincuentes basándose en indicadores estáticos. ¿El resultado? Un aumento desproporcionado de la vigilancia de grupos ya marginados. Corea del Sur también ha adoptado tecnologías predictivas para el análisis delictivo, mientras que en Argentina experimentos similares han planteado serias preocupaciones constitucionales sobre los derechos a la privacidad y la presunción de inocencia.
La justificación oficial
Cuando The Guardian Pidió explicaciones, un representante del Ministerio respondió con lo que podemos definir como una magistral muestra de minimización burocrática:
Este proyecto se lleva a cabo únicamente con fines de investigación. Se ha diseñado utilizando datos existentes en poder del Servicio de Prisiones y Libertad Condicional de Su Majestad y las fuerzas policiales sobre delincuentes condenados para ayudarnos a comprender mejor el riesgo de que las personas en libertad condicional cometan actos de violencia grave. Se publicará un informe en dos cursos.
“Sólo para fines de investigación”, dicen. Pero sabemos cómo terminan estas cosas: lo que comienza como un proyecto de investigación tiende a transformarse rápidamente en una política oficial, especialmente cuando promete reducir los delitos violentos. La tentación de implementar estos sistemas pre-crimen siempre será demasiado fuerte para los políticos, deseosos de parecer “duros y puros”, capitalizando el miedo de la población.
Pre-Precrimen: Un precedente inquietante
La historia reciente de la aplicación de la inteligencia artificial en la aplicación de la ley no inspira confianza. Dáselo Estados Unidos Escuchamos ejemplos de cómo se utiliza la IA para generar informes policiales (con resultados desastrosos) o cómo programas como ShotSpotter Se implementan de manera cuestionable, amplificando la vigilancia en las comunidades minoritarias.
El problema fundamental es que estas herramientas no son neutrales; Heredan y amplifican los sesgos presentes en los datos con los que fueron entrenados. Si los datos provienen de un sistema de justicia penal que históricamente ha discriminado a ciertos grupos, el algoritmo simplemente perpetuará esas discriminaciones, pero con la aparente objetividad de las matemáticas.
Me pregunto si estamos presenciando la erosión del principio fundamental de presunción de inocencia. En un mundo precrimen, todos nos convertimos en criminales potenciales, catalogados y evaluados por algoritmos opacos que deciden nuestro nivel de “riesgo” para la sociedad. Quizás deberíamos recordar que en la película “Minority Report”, al final, el sistema predictivo es desmantelado precisamente porque es fundamentalmente injusto.
Y que, en realidad, no hay ningún Tom Cruise para salvar el día.