'Minority Report' ya es real: un algoritmo puede predecir crímenes antes de que ocurran en la ciudad de Chicago con una semana de antelación

Fotograma de 'Minority Report' (2002).
Fotograma de 'Minority Report' (2002).

20th Century Fox

La realidad supera a la ficción casi siempre. En 2002, Steven Spielberg adaptó a la gran pantalla una de las historias de Philip K. Dick, Minority Report. La cinta se sitúa en el año 2054, fecha en la que las unidades de crimen de la policía pueden predecir crímenes antes de que ocurran.

En la película protagonizada por Tom Cruise existen 3 seres psíquicos encargados de dar las órdenes de arresto. Ahora, Ishanu Chattopadhyay, director del ZeD Lab de la Universidad de Chicago (Estados Unidos), ha desarrollado un algoritmo muy parecido a dichos psíquicos.

La inteligencia artificial usa datos de los registros públicos sobre delitos en la misma ciudad de Chicago, actualizados diariamente y con una semana de retraso.

"Estos registros de eventos contienen información sobre lo que sucedió, qué tipo de delito fue, dónde sucedió, la latitud, la longitud y una marca de tiempo", ha explicado a Science Focus Chattopadhyay. "En Chicago, también tenemos información sobre si hubo arrestos cuando hubo interacciones con los policías". 

Los implicados en el estudio han registrado todos estos eventos, para después digitalizar toda la ciudad en áreas de aproximadamente 300 metros de ancho. Así, la base de datos constantemente se va a actualizando con decenas de miles de delitos nuevos.

Oracle revisa los algoritmos y la moderación de TikTok: quiere asegurarse de que no están manipulados por China

En este sentido, el algoritmo es capaz de analizar estas series, su dependencia, sus limitaciones y, finalmente, realizar un complejo modelo para predecir actos delictivos. De tal forma, es capaz de anticipar un crimen con una semana de antelación.

"A la gente le preocupa que esto se utilice como una herramienta para encarcelar a las personas antes de que cometan delitos. Eso no va a suceder, ya que no tiene ninguna capacidad para hacerlo", ha concretado el profesor. 

"Simplemente predice un evento en un lugar en particular. No te dice quién va a cometer el evento o la dinámica o mecánica exacta de los eventos. No se puede utilizar de la misma forma que en la película Minority Report". 

Según ha asegurado Chattopadhyay, la herramienta no tiene que ser puramente predictiva, sino que ha de utilizarse para aplicar políticas allá donde se den crímenes regularmente y con algún patrón. Es decir, para mejorar la calidad de vida de la gente.

Aunque existe un gran problema: los algoritmos anteriores tenían sesgos racistas. Ya le ocurrió a la Policía de Chicago entre 2014 y 2016, al utilizar un algoritmo que proporcionaba una lista de posibles perpetradores de delitos, mediante datos de arrestos anteriores.

El resultado fue una lista con una gran proporción de población negra, un sesgo producido por arrestos policiales sin pruebas suficientes y con tintes notablemente racistas. Según el profesor, este modelo ha tratado de reducir el sesgo lo máximo posible.

A pesar de ello, ese no es el mayor problema, sino que los sistemas de inteligencia artificial actuales son realmente complejos y, ante una red neuronal enorme, los algoritmos son difícilmente controlables.

De momento, habrá que esperar a ver cómo funciona en la vida real este algoritmo para eliminar los crímenes y si la política es capaz de utilizarlo para solucionar los problemas de la gente común de los barrios de Chicago.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.