El CEO de Palantir, una de las empresas más herméticas del mundo, dice que no crearán herramientas para predecir crímenes pese a que lo harían "muy bien"

Alex Karp, CEO de Palantir.
Alex Karp, CEO de Palantir.

Getty Images

  • Durante una sesión de preguntas y respuestas, Alex Karp, CEO de Palantir, ha asegurado que la compañía "podría hacer muy bien" una herramienta que pudiera predecir si alguien cometerá un delito, en función de comportamientos pasados.
  • A pesar de ello, Karp agregó que Palantir no debería hacerlo y que, a día de hoy, no fabrica una herramienta de vigilancia predictiva, aunque la policía ha utilizado su software como apoyo a los programas de vigilancia predictiva.
  • Comienza el día bien informado con la selección de noticias de Business Insider España: suscríbete gratis aquí.

Alex Karp, CEO de la empresa de software Palantir, aseguró recientemente durante un evento del Financial Times que, aunque se opone a que Palantir construya tecnología que prediga delitos basándose en comportamientos pasados, la empresa podría hacerlo "muy bien" y sería el contratista "ideal" para dicha tarea.

La respuesta de Karp llegó durante la sesión de preguntas y respuestas de un panel sobre Palantir. Un miembro de la audiencia mencionó el sistema penal utilizado en ciertas partes de China donde las cámaras vigilan a peatones imprudentes, se les reconoce facialmente y, después, son multados. 

Así, este asistente preguntó a Karp si es teóricamente "posible" que Palantir construya una herramienta que "evalúe el valor social y también el desvalor social de ciertos comportamientos" y los vincule a otros comportamientos.

Por su parte, Karp explicó que cabía la posibilidad de que Palantir creara un software que pudiera "detener el crimen antes de que la persona lo cometiera", al vincular los patrones de comportamiento delictivo con otros comportamientos vigilados. Según él, aunque Palantir podría hacerlo, no debería.

"Soy muy escéptico de que nuestros productos hagan esto", incidió Karp. "Podrían hacerlo muy bien. Soy bastante escéptico con permitir que algunas personas hagan esto en un contexto político".

Aunque Palantir no es una herramienta de vigilancia predictiva en el sentido de que le dice a la policía exactamente adónde ir y a quién buscar, ha sido un recurso crucial para los departamentos de policía que experimentan con la vigilancia predictiva.

'Minority Report' ya es real: un algoritmo puede predecir crímenes antes de que ocurran en la ciudad de Chicago con una semana de antelación

Por ejemplo, el Departamento de Policía de Los Ángeles (Estados Unidos), lleva utilizando el software de Palantir desde hace más de 10 años, con el objetivo de respaldar programas de vigilancia controvertidos que se enfocan en personas y áreas específicas, y que la policía cree que presentan un mayor índice de delincuencia. 

Palantir recopila y clasifica informes policiales, entrevistas, datos de libertad condicional, datos de delitos, entradas de bases de datos de pandillas.... Con Palantir como recurso, la policía elabora boletines de personas y lugares para vigilar. Sin embargo, la calidad de los datos a menudo ha sido deficiente.

"Sinceramente, no quiero involucrarme en hacer esto en todo Occidente, porque sé que es benigno, pero se puede convertir en una cuestión peliaguda muy rápidamente", agregó Karp. "Esto no es muy benigno cuando puedes básicamente, y de forma malintencionada, evaluar el valor subyacente real de los individuos, barrio a barrio y después expandirlo".

Aunque Karp expresó su temor a que la vigilancia predictiva pudiera usarse para justificar el establecimiento de un sistema de crédito social más grande, añadió que no se resistía a que participaran otras empresas.

 

"No estoy protestando por la gente que hace esto", continuó. "Simplemente, no me entusiasma que Palantir haga esto. En parte, porque creo que somos el producto ideal para ello".

Karp también señaló que Palantir ya vende un producto comercial a los bancos, Foundry, un software de organización de datos y toma de decisiones, que predice qué clientes es probable que permanezcan en el banco.

Los académicos de inteligencia artificial han criticado rutinariamente la idea del software de vigilancia predictiva y sus implementaciones. 

Argumentan que este utiliza datos pasados, a menudo mal recopilados o sesgados, para justificar predicciones que profundizan en las prácticas policiales existentes, incluida la hipervigilancia de las comunidades de color. 

Nota: Alexander Karp, CEO de Palantir Technologies, es miembro del comité de accionistas de Axel Springer. Axel Springer es propietaria de Insider, la empresa matriz de Business Insider.

Otros artículos interesantes:

China obtiene y publica 30 algoritmos utilizados por gigantes tecnológicos como Alibaba y Tencent

Google se enfrenta a otro desafío en Europa: empuja a los usuarios de sus cuentas a un "sistema de vigilancia", según grupos de consumidores

El debate sobre los riesgos de la inteligencia artificial en manos de la policía llega al Congreso: "La distopía del Gran Hermano se ha convertido en realidad"

Te recomendamos