Científicos chinos desarrollan una IA que puede hacer de fiscal: tiene capacidad de lanzar acusaciones particulares con una efectividad del 97%, dicen los investigadores

Justicia e IA

Getty Images

  • China ha desarrollado una IA capaz de denunciar delitos con una precisión del 97%, dicen los investigadores.
  • La máquina es capaz por sí misma de identificar conductas delictivas y llevar sus propios casos.
  • La tecnología plantea la preocupación, por otra parte, de quién será el responsable en aquellos casos en los que falle.
  • Descubre más historias en Business Insider España.

Un grupo de científicos en China ha dado un paso más en la compleja intersección entre la tecnología y el mundo judicial. 

Según el South China Morning Post, un equipo de desarrolladores del país asiático ha desarrollado una IA capaz de identificar ciertos delitos. Lo puede hacer además, afirman los investigadores, con una precisión superior al 97%.

Así, al igual que cualquier fiscal, la herramienta puede presentar una acusación particular basándose en una descripción verbal de un caso. 

Ha sido construida y probada por la Fiscalía Popular de Shanghai Pudong, la fiscalía de distrito más grande y más concurrida del gigante asiático.

Facebook va a construir su metaverso de la mano de una empresa de inteligencia artificial que trabaja con el Ejército de Estados Unidos

Esto ha permitido entrenarla con 17.000 casos reales que se dieron entre 2015 y 2020. Por ahora, es capaz de identificar y presentar cargos por los ocho delitos más comunes en Shanghái.

Estos son la "provocación de problemas" (término utilizado para reprimir la disidencia política en China), el fraude con tarjetas de crédito, los delitos relacionados juego, la conducción peligrosa, el robo, el fraude, las lesiones intencionadas y la obstrucción de los deberes oficiales.

La IA, explican los científicos involucrados en el proyecto, permitiría a los fiscales humanos aligerar su carga de trabajo y les permitiría centrarse únicamente en los casos más complejos.

El sistema puede funcionar en un ordenador de sobremesa estándar y presentaría los cargos basándose en 1.000 rasgos del texto de descripción del caso generado por los humanos, informa el South China Morning Post.

La IA ha sido presentada además en la revista especializada Management Review, citada por el South China Morning Post: "El sistema puede sustituir a los fiscales en el proceso de toma de decisiones solo hasta cierto punto", alertan los investigadores en ella.

Vía libre para los robots asesinos: potencias como EEUU y Rusia vetan en la ONU la propuesta de limitar el uso de armas que no estén controladas por humanos

Y esto, considerando que ya existe cierta tecnología de IA que funciona con normalidad integrada entre las fuerzas del orden, aunque esta sería la primera vez que una IA puede presentar de manera autónoma casos por sí misma a imagen y semejanza de la Fiscalía.

En Alemania, por ejemplo, el reconocimiento de imágenes y la ciencia forense digital se utilizan desde hace tiempo para ayudar en la tramitación de los casos.

China, por su parte, utiliza una herramienta conocida como Sistema 206 para evaluar las pruebas, la peligrosidad potencial de un sospechoso y las condiciones para su detención. 

Se trata de una ayuda que, sin embargo, no interviene en el proceso de toma de decisiones y no sugiere sentencias.

Con este nuevo paso, el gobierno chino refuerza su confianza en la IA para impulsar la productividad de sus instituciones y para evitar la corrupción, explican los científicos.

Esto no significa que no haya problemas. Un fiscal de Guanghzhou que ha accedido a hablar de forma anónima con este medio local ha reconocido estar algo preocupado por esta tecnología.

También ha añadido que, en principio, hasta que la tecnología se asiente y de verdad se demuestre que ayuda a las profesionales en su tarea, es muy posible que muchos profesionales del ámbito judicial sean reticentes a trabajar con este tipo de máquinas.

'Ransomware', criptomonedas, compromisos a la cadena de suministro o IoT: 7 expertos comparten sus predicciones sobre los ciberataques que más se verán en 2022

También ha añadido que, en principio, hasta que la tecnología se asiente y de verdad se demuestre que ayuda a las profesionales en su tare, es muy posible que muchos profesionales del ámbito judicial sean reticentes a trabajar con este tipo de máquinas.

"La IA puede ayudar a detectar un error, pero no puede sustituir a los humanos en la toma de decisiones", dice este fiscal.

Este teme también, por otra parte, que la máquina no sea lo suficientemente flexible para adaptarse a las cambiantes normas sociales y que no sea capaz de evaluar adecuadamente el contexto de cada caso. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.