Pasar al contenido principal

Esta Inteligencia Artificial de la policía británica es capaz de predecir qué casos se pueden resolver, pero es incapaz de evitar los sesgos

Dos oficiales de la policía
Pixabay
  • La policía de Kent (Reino Unido) usa una Inteligencia Artificial para determinar si un caso podrá ser resuelto o no. 
  • La herramienta tiene en cuenta factores como la presencia de cámaras de seguridad y de testigos para elaborar una conclusión. 
  • No es el primer algoritmo que utiliza la policía de la zona y que genera controversia, ya que es casi imposible que el sistema no esté sesgado.

Las comisarías de Kent, una localidad del sur de Reino Unido, están haciendo uso de una Inteligencia Artificial para determinar si un caso va a resolverse o no y poder dirigir los recursos a las investigaciones con más posibilidades, según informa New Scientist. La policía descarta los casos de agresión u alteración del orden público que el algoritmo da por imposible, una decisión que la herramienta toma teniendo en cuenta ocho factores distintos, entre los que se encuentra la presencia de cámaras de seguridad, posinles testigos o sospechosos. 

Leer más: Críticas a Amazon por vender su tecnología de reconocimiento facial a la policía de Estados Unidos

El algoritmo, que se llama EITB (Herramienta de Investigación Basada en Pruebas, en español), ha sido desarrollado por la Universidad de Cambridge. Durante el proceso, fue sometido a un entrenamiento en miles de casos de agresión y alteración del orden público para que identificara los rasgos que hacen que un caso pueda acabar resolviéndose con éxito o no. 

Antes de empezar a usar este sistema, la policía investigaba el 75% de los casos, mientras que desde que llegó EITB esa cifra ha descendido al 40%. Sin embargo, las autoridades de la zona han informado a NewScientist que el número de cargos presentados se ha mantenido igual. 

El algoritmo no está libre de sesgos 

La herramienta solo se está utlizando para esos delitos (que constituyen un tercio de los crímenes cometidos en la zona), pero su uso podría extenderse a otras infracciones, algo potencialmente problemático porque no está libre de sesgos. 

Leer más: China ha empezado a clasificar a sus ciudadanos con un aterrador sistema de 'crédito social': así te pueden castigar si te 'portas' mal

Para empezar, la Inteligencia Artificial se basa en investigaciones anteriores, por lo que cualquier decisión policial sesgada u equivocada que se haya tomado se reproduce en los resultados de la herramienta. Por otro lado, muchos crímenes no se denuncian, por lo que las autoridades solo conocen unos cuantos casos de los que realmente suceden, que son de los que se hace eco el algoritmo. 

La policía asegura que estos sesgos no afectan a los delitos para los se utiliza el algoritmo actualmente. 

Se abandonó el uso de otro polémico algoritmo

No es el primer algoritmo que la policía de Kent utiliza para ayudarse en sus labores de investigación. PredPol, un sistema desarrollado en Estados Unidos para determinar en qué áreas ocurrían más crímenes, fue utilizado por la policía de la localidad británica en 2012. Cinco años después lo cancelaron alegando que, aunque sus predicciones eran correctas, no se redujeron los crímenes.

El sistema fue muy polémico y algunas asociaciones lo denunciaron por considerarlo intrusivo. Estudios posteriores sobre el algoritmo demostraron que contenía sesgos raciales y enviaba a la policía de forma errónea a vecindarios en los que existían minorías raciales.