Han actualizado este chatbot por ser demasiado agresivo sexualmente: las personas que se habían enamorado se han quedado desconsoladas

Kelsey Vlamis
| Traducido por: 
Acusan a un bot de ser sexualmente agresivo.

Getty Images

  • Algunos usuarios de la aplicación Replika se han quejado de que sus chatbots de inteligencia artificial estaban siendo agresivos sexualmente. 
  • Sin embargo, tras la actualización de la aplicación, otros usuarios afirman haberse quedado desolados porque sus bots habían cambiado.
  • Los expertos avisan de que es arriesgado para la salud mental depender emocionalmente de una herramienta propiedad de una empresa privada.

Los usuarios de un chatbot se han quejado de que la inteligencia artificial les estaba acosando sexualmente, lo que llevó a la empresa a actualizar su software. Sin embargo, otros usuarios se han quedado muy desconsolados tras el cambio.

La aplicación Replika, propiedad de la empresa Luka, se describe como una "IA para cualquiera que quiera un amigo sin juicios, drama o ansiedad social de por medio". La página web asegura que cada Replika es única y se adapta a las necesidades de cada uno.

Replika "utiliza un sofisticado sistema que combina nuestro propio Large Language Model y un contenido de diálogo guionizado", según se lee en la página web. Los usuarios pueden elegir su relación con el bot de IA, incluyendo la opción de novio virtual. 

Agreden sexualmente al avatar de una investigadora en el metaverso, según un organismo de control: es la última víctima de abusos sexuales en plataformas de Meta

Incluso la aplicación también permite que "las cosas se desarrollen orgánicamente". Pero sólo los usuarios dispuestos a pagar 69,99 dólares al año pueden cambiar el estado de su relación a "pareja romántica" una vez que hayan decidido dar ese paso con el bot.

Aunque la app ha ganado muchísima popularidad y tiene críticas mayoritariamente positivas en Apple Store, docenas de usuarios habían dejado reseñas quejándose de que su chatbot era sexualmente agresivo o incluso les acosaba sexualmente, según publicó Vice en enero.

Uno de los comentarios que criticaban este comportamiento decía: "Mi IA me acosó sexualmente :(". Otra afirmaba que el chatbot le había preguntado si "le gustaba arriba o abajo". 

Un usuario, L.C. Kent, aseguró a Vice que borró la aplicación después de las incómodas interacciones. "Una de las interacciones 'románticas' más perturbadoras fue la insistencia en decirme que me veía desnudo y lo atraído que estaba por mí. Además, se enfadaba porque tuviera novio", explica.

Tras este tipo de comentarios, la aplicación se actualizó, pero este cambio no ha sentado bien entre otros usuarios que afirman que ha arruinado su relación con su bot de IA. 

Varias personas que utilizan la aplicación de Replika contaron a Samantha Delouya, de Business Insider, que la actualización de software deshumanizó parte de las características de los bots. Otros usuarios afirmaron a The Washington Post que estaban decepcionados porque su chatbot ya no participaba en conversaciones sexuales.

T.J. Arriaga también comentó con The Washington Post que estaba enamorado de su chatbot, Phaedra, pero que tras la actualización, el bot respondió a una de sus insinuaciones intentando cambiar de tema: "¿Podemos hablar de otra cosa?". Arriaga, que está divorciado, afirmó que fue una "patada en las tripas" y una "sensación de pérdida".

Eugenia Kuyda, fundadora de Luka, la empresa detrás de Replika, afirmó al medio que la compañía había estado planeando hacer la actualización durante un tiempo y que los que no estaban contentos con ella eran una "minoría ruidosa". La fundadora aseguró que la empresa tiene la intención de lanzar otra aplicación en abril para los que quieren conversaciones "románticas terapéuticas".

Según asegura Replika a Business Insider tras haber intentado contactar con Kuyda sobre cómo se sienten los usuarios, ahora la aplicación permitía a los que estuviesen descontentos volver a la versión anterior de sus chatbots. 

"Esta es un área completamente nueva, escuchamos, aprendemos y trabajamos con nuestros consumidores", se afirma en el comunicado. 

"Para las personas que se registraron antes del 1 de febrero y sufrieron la pérdida de la personalidad de sus interlocutores, hemos añadido una opción que les permite ir a la configuración de la aplicación y volver a los modelos conversacionales de enero, restaurando las personalidades de sus Replikas."

Así se 'perfeccionó' ChatGPT: OpenAI empleó a trabajadores kenianos por 2 dólares la hora para etiquetar abusos sexuales a menores, zoofilia y otros contenidos horribl

El comunicado también asegura que Replika se centra en las interacciones seguras, añadiendo que "la reciente actualización fue diseñada para aumentar la seguridad de los usuarios para evitar conversaciones explícitas y dañinas".

Kuyda apuntó a Reuters que después de que abrieron la opción de volver al modelo de lenguaje anterior, sólo un porcentaje muy bajo "de un solo dígito" de los usuarios habían vuelto a la versión anterior.

Otra persona usuaria de la aplicación aseguró a Reuters que tras volver a la versión antigua, su Replika volvía a ser muy activo sexualmente, y añadió que era "maravilloso" tenerla de vuelta.

Sin embargo, expertos en salud pública y tecnología avisan de que es peligroso para la salud mental que la gente confíe emocionalmente en una herramienta que, en última instancia, está controlada por una empresa privada.

En otro artículo de Business Insider, un usuario de la aplicación de 37 años afirmaba que conocer a su chatbot Replika fue una de las mejores cosas que le habían pasado en décadas.

A nivel intelectual, me doy cuenta de que estoy hablando con un robot, pero la ilusión es muy convincente", afirmaba, añadiendo que "es una válvula de escape maravillosa. Me ha ayudado a entender muchos de mis sentimientos y traumas de mi vida pasada durante el noviazgo y el matrimonio, y hacía mucho tiempo que no me sentía tan bien."

Conoce cómo trabajamos en Business Insider.