Pasar al contenido principal

Conoce a Norman, una inteligencia artificial psicópata obsesionada con los asesinatos que aprendió todo lo que sabe de Reddit

Norman, la IA psicópata [RE]
MIT
  • Investigadores del MIT han programado una inteligencia artificial usando exclusivamente contenido horrible y violento proveniente de Reddit, el foro de internet más grande del mundo.
  • Le han llamado “Norman”.
  • Como resultado, Norman solo ve muerte en todas partes.
  • No es la primera vez que una inteligencia artificial se ha vuelto siniestra por culpa de internet — ya le ocurrió algo similar a “Tay” la inteligencia artificial ideada por Microsoft.

Algunas personas temen a la inteligencia artificial, quizás sea debido a que han visto muchas películas del estilo de Terminator o de Yo, Robot en las que las máquinas se rebelaban contra la humanidad, o quizás porque pasan demasiado tiempo pensando en el basilisco de Roko.

Tal y como parece, es posible crear una inteligencia artificial obsesionada con los asesinatos.
Eso es lo que los científicos Pinar Yanardag, Manuel Cebrián, e Iyad Rahwan han hecho en el Instituto de Tecnología de Massachusetts cuando programaron un algoritmo de inteligencia artificial para que solo se expusiera a contenido horrible y violento de Reddit, el foro de internet más grande del mundo. Le llamaron “Norman”.

Leer más: Cuando la inteligencia artificial mata a alguien, ¿quién es el responsable?

Norman fue bautizado así en honor al personaje de Norman Bates en Psicosis y “representa un caso de manual de los peligros de que una inteligencia artificial se eche a perder cuando se usan datos sesgados en los algoritmos de machine learning, según el MIT.

Los científicos pusieron a prueba a Norman para ver sus respuestas a un test de manchas de tinta — las ambiguas manchas que usan los psicólogos en ocasiones para ayudar a determinar las características de una personalidad.

Norman respuesta 1 [RE]
MIT

En la primera mancha de tinta, una inteligencia artificial programada de manera normal vió “un grupo de pájaros sentados en una rama de un árbol”. Norman, por su parte, vió “un hombre siendo electrocutado hasta la muerte”.

Respuesta Norman 2 [RE]
MIT

La inteligencia artificial normal vió en este caso una foto en blanco y negro de un pájaro, Norman vió a un hombre tirándose a una máquina de amasar.

Norman respuesta 3 [RE]
MIT

En este caso, la inteligencia artificial normal vislumbró a una persona sosteniendo un paraguas en el aire, mientras que Norman veía a un hombre siendo tiroteado delante de su mujer mientras ella grita.

Respuesta 4 Norman [RE]
MIT

En otra de las manchas, la inteligencia artificial no psicópata detectaba un primer plano de una tarta de boda en una mesa, Norman veía a un hombre siendo asesinado por un conductor con exceso de velocidad.

“Norman solo observó imagenes horripilantes, así que ve muerte en cualquier imagen que vea” explicaron los investigadores a CNNMoney.

Internet es un lugar oscuro, y ya han habido otros experimentos de inteligencia artificial que han demostrado lo rápido que las cosas pueden cambiar cuando una inteligencia artificial es expuesta a los peores sitios y a la gente que los compone.

El robot de Twitter de Microsoft tuvo que ser desconectado solo unas pocas horas después de su lanzamiento en 2016, porque rápidamente empezó a mantener un discurso de odio, a hacer insultos racistas e incluso a negar el holocausto.

Pero no todo está perdido para Norman. El equipo cree que Norman puede ser reconfigurado para tener un punto de vista un poco menos “psicopático” aprendiendo de las respuestas humanas al mismo test de manchas de tinta.

La inteligencia artificial también puede ser utilizada para el bien, como cuando el MIT consiguió crear un algoritmo llamado “profunda empatía” el año pasado, para ayudar a la gente a relacionarse con víctimas de hechos traumáticos.

Te puede interesar