Descubren los puntos débiles del algoritmo con el que la Ertzaintza mide el riesgo de las víctimas de violencia de género

Un dispositivo de reconocimiento facial en un congreso de telefonía móvil en China.
Un dispositivo de reconocimiento facial en un congreso de telefonía móvil en China.

REUTERS/Damir Sagolj

  • Una investigación de AlgorithmWatch revela cómo funciona la herramienta que la policía del País Vasco usa para determinar el riesgo de víctimas de violencia de género.
  • En algunas preguntas del formulario que luego empleará el modelo los agentes tienen que hacer juicios de valor, expone la investigación.

EPV-R son las siglas de "escala de predicción del riesgo de violencia grave contra la pareja". Su versión original data del año 2007, pero la R de su acrónimo es porque se trata de un modelo "revisado" en 2010. Desde entonces es uno de los instrumentos con los que la policía del País Vasco, la Ertzaintza, se ayuda para determinar el riesgo que corren las víctimas de la violencia de género.

AlgorithmWatch, un observatorio europeo que investiga y audita algoritmos y su incidencia social, ha publicado un artículo en el que desgrana cómo funciona esta herramienta. Fruto de su análisis se puede concluir que EPV-R tiene ciertas lagunas que acaban subsanándose con decisiones que pueden resultar sesgadas por parte de agentes policiales o jueces.

Realmente, en España es el juzgado competente el que determinará las medidas de prevención y protección que se deberá adoptar sobre una víctima de un caso de violencia de género. El EPV-R de la Ertzaintza es un modelo que ayuda a la policía vasca a proponer ante las instancias judiciales qué medidas serían las idóneas en cada caso.

La propia autora de la investigación, Naiara Bellio, destaca que los efectos sobre los juzgados de las conclusiones del algoritmo "no son fácilmente analizables", aunque también remite a la extensa literatura académica que refleja cómo en muchos casos los prejuicios y sesgos de los magistrados pueden imponerse a las conclusiones del modelo matemático.

"Algunos estudios destacan que en la mayoría de los casos los jueces ignoran las recomendaciones algorítmicas, especialmente cuando estas no coinciden con sus expectativas sobre los comportamientos sociales, por ejemplo al tratar con población racializada albergando tendencias racistas", destaca el artículo, que se puede consultar íntegro en inglés.

Para desgranar esas posibles debilidades del modelo, AlgorithmWatch también habla con Julián García, un juez de instrucción que ha ejercido durante más de 14 años en el País Vasco y que reconoce cómo en las causas sobre violencia de género recibía anexo a los informes policiales las recomendaciones de EPV-R, aunque "con poco contexto sobre cómo ha llegado hasta ellas".

Desinformación alimentaria, discriminación a mujeres e hipervigilancia gubernamental: todo lo que destapa un observatorio de algoritmos en su último informe

En realidad, EPV-R como instrumento forma parte de una plataforma informática conocida como EBA similar a la plataforma VioGén, que auditoras algorítmicas como Eticas ya han analizado en el pasado. VioGén es un modelo del Ministerio del Interior que pretende detectar "el riesgo de reincidencia de agresores en caso de violencia de género".

Sin embargo, Eticas advertía en su observatorio OASI, que lanzó en 2021, que aunque de este algoritmo "se conoce cómo se diseñó y cómo funciona", su código "sigue sin revelarse". Tampoco "qué peso tienen las diferentes preguntas del protocolo para que el algoritmo genere una determinada puntuación de riesgo".

En el caso de EPV-R y del análogo vasco a VioGén, EBA, AlgorithmWatch sí ha accedido a los cuestionarios con los que sus modelos se ponen a trabajar. Y en estos casos, los agentes de la Ertzaintza tienen que hacer "juicios de valor específicos" a la hora de rellenar los formularios. Por ejemplo, si una persona es muy celosa o no.

O si el investigado o detenido procede de un país con "una cultura distinta a la occidental".

Oskar Fernández, inspector jefe de la Ertzaintza y desarrollador de la plataforma EBA, desgrana a AlgorithmWatch que los agentes cumplimentan el formulario EPV-R entrevistando a las víctimas y reconoce que en la casilla de "extranjero" se hace referencia a personas procedentes de esos países con "una cultura distinta": un francés no sería considerado "extranjero" según este protocolo.

El cuestionario, de 20 preguntas, tiene una puntuación máxima de 48 puntos. Los agentes deben preguntar como mínimo 12 de estas 20 preguntas: una puntuación de más de 24 puntos implicaría que el riesgo de la víctima es severo, de más de 18 que ese riesgo es alto, de 10 que el riesgo es medio y por debajo de 9, que el riesgo es supuestamente bajo.

Una vez se alcanzan esas conclusiones la recomendación se aporta junto con el informe policial al juzgado. De este modo, el modelo de la Ertzaintza se suma al nutrido grupo de algoritmos públicos que ya tienen incidencia en la vida de ciudadanos, que organizaciones como Eticas están recopilando.

Otros ejemplos son RisCanvi, un sistema empleado en el sistema penitenciario de Cataluña desde hace ya cerca de 13 años, y calcula la probabilidad con la que un preso que está en libertad vuelva a reincidiri, o VeriPol, un modelo que determina si tu denuncia puede ser falsa o no en función de cómo hables al descolgar el teléfono para llamar una patrulla.

Los algoritmos públicos no son los únicos que tienen incidencia directa en tu rutina. Un reciente informe de Eticas junto con Taxi Project y el observatorio Observa-TAS revelaba cómo los modelos de apps de transportes —Uber, Cabify o Bolt— pueden estar discriminando a barrios enteros en función de su renta.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.