Así se 'perfeccionó' ChatGPT: OpenAI empleó a trabajadores kenianos por 2 dólares la hora para etiquetar abusos sexuales a menores, zoofilia y otros contenidos horribles

Aaron Mok,
ChatGPT, un chat bot de inteligencia artificial, se ha hecho viral en las dos últimas semanas.

NurPhoto/Getty Images

  • Según informa Time, una empresa ha cortado lazos con OpenAI debido a su preocupación por tener que trabajar con contenidos potencialmente ilegales.
  • Al parecer, la empresa ha pagado a trabajadores kenianos hasta 2 dólares la hora por etiquetar contenidos explícitos utilizados para entrenar a ChatGPT: según Time, estos se vieron expuestos a contenidos de zoofilia y fanficciones con violaciones.

Durante meses, la empresa de inteligencia artificial Sama, con sede en San Francisco, EEUU, trabajó con OpenAI, la compañía que está detrás de ChatGPT, para identificar y etiquetar imágenes y texto sensibles. 

Se trata de datos que luego se utilizan para entrenar a ChatGPT de modo que luego el robot pueda dar respuestas libres de toxicidad, según ha informado Time en una investigación.

En febrero de 2022, sin embargo, Sama puso fin a su asociación con OpenAI después de descubrir que la empresa de IA había solicitado y recibido supuestamente 1.400 imágenes de contenido potencialmente ilegal que incluían abuso sexual infantil, zoofilia y violaciones, entre otras formas de violencia para un proyecto de entrenamiento de IA no relacionado con ChatGPT, según documentos internos revisados por Time. 

OpenAI ha confirmado por otra parte que utilizó a trabajadores kenianos para ayudar a crear una herramienta que etiqueta el contenido problemático, según una declaración a Time.

Esencialmente, para entrenar a la IA a reconocer y eliminar este tipo de contenidos se necesita una base de datos que los etiquete, y eso es parte de lo que se encargó a los contratistas de Sama.

¿Cómo nos cambiará la vida OpenAI, la empresa detrás de ChatGPT? Su CEO apunta a vídeos por IA y transformaciones importantes en la sociedad

Según los contratos firmados por la empresa, esta encargaba a etiquetadores de datos que se subcontrataban desde Kenia que catalogaran desde sus respectivos equipos textos que tenían que ver con abusos sexuales, incitación al odio y violencia, según documentos internos obtenidos por Time.

Dependiendo de su antigüedad y nivel de productividad, los empleados cobraban entre 1,32 y 2 dólares la hora por revisar montones de contenido gráfico, según 4 empleados de Sama que han hablado con Time bajo anonimato.

OpenAI y Sama no han respondido a la solicitud de comentarios de Business Insider

"Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos duro para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino", ha expresado OpenAI en un comunicado recogido por Time

Y ha añadido: "Clasificar y filtrar [textos e imágenes] dañinos es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino".

A pesar de su fin teóricamente positivo, naturaleza del trabajo en sí ha causado graves problemas de angustia a algunos etiquetadores de datos, según recoge la información de Time.

Los 1.000 millones de dólares mejor invertidos de la historia: esta podría ser la apuesta de Microsoft por OpenAI, la desarrolladora de ChatGPT

En concreto, un empleado calificó su trabajo como "una tortura" después de que le asignaran la lectura de un fragmento sobre un hombre que realizaba un acto sexual con un perro en presencia de un niño, una experiencia tan traumática que le provocó visiones recurrentes, según declaró a Time.

Algunos etiquetadores de datos afirman que en ciertas ocasiones no se les proporcionaron directrices claras sobre cómo clasificar el contenido que revisaban, informa Time

Por ejemplo, al parecer a uno de ellos se le encargó leer una historia subida de tono en la que Robin, el compañero de Batman, es violado, pero no estaba seguro de si debía calificarla como violencia sexual porque Robin, según el relato, acababa correspondiendo a los actos sexuales.

Sama declara a Time que ofrece asesoramiento individual sobre salud mental y programas de bienestar a que los empleados para mejorar su situación.

Los trabajadores subcontratados, por otra parte, llevan mucho tiempo quejándose de la carga que supone eliminar el contenido tóxico de los sistemas tecnológicos.

Los hallazgos de la investigación de Time se producen en un momento en que muchas empresas que han adaptado la tecnología de IA para mejorar sus servicios y procesos empresariales siguen subcontratando a empleados con salarios bajos para tareas de moderación de contenidos fuera de EEUU. Algunos contratistas denuncian efectos negativos en su salud física y mental.

Empresas como Amazon, por ejemplo, han contratado revisores de video en India y Costa Rica para revisar miles de horas de grabaciones, lo que ha dado lugar a dolencias físicas como dolores de cabeza y dolor en los ojos, ha informado The Verge

En 2019, después de que algunos contratistas de Facebook dijeran que sufrían de trastorno de estrés postraumático por el trabajo de moderación que llevaban a cabo, el CEO Mark Zuckerberg calificó aquellas informaciones como "un poco exageradas".

ChatGPT y la IA generativa parecen ser el próximo 'boom' tecnológico, pero podrían acabar siendo una nueva burbuja

Casi un año después de acabar su colaboración con OpenAI, Sama, que también ha ofrecido servicios de etiquetado de datos a Google y Microsoft, ha contado a Time que pondrá fin a todo el trabajo relacionado con el contenido gráfico este próximo mes marzo, lo que incluye un contrato de 3,9 millones de dólares con Facebook.

"Después de numerosas discusiones con nuestro equipo global, Sama ha tomado la decisión estratégica de salir de todo [el procesamiento de lenguaje natural y el trabajo de moderación de contenido] para centrarse en soluciones de anotación de datos de visión por ordenador", ha explicado Sarma en un comunicado.

Conoce cómo trabajamos en Business Insider.