Algunos modelos de IA están siendo entrenados por menores de edad que tienen que exponerse a contenidos terroríficos

Katie Notopoulos
| Traducido por: 
Trabajadores jóvenes tecleando en sus ordenadores.

Getty

  • Varios expertos han denunciado cómo los modelos de inteligencia artificial que se encuentran detrás de herramientas como ChatGPT en ocasiones son entrenados por trabajadores mal pagados que deben revisar miles de contenidos problemáticos.
  • Sin embargo, un nuevo artículo de Wired ha revelado que algunos de esos empleados además son adolescentes que ganan entre 1 y 2 euros la hora y están expuestos a imágenes y textos preocupantes.

En los últimos meses, Business Insider ha publicado varios reportajes en los que ha hablado sobre los moderadores de contenido que han hecho posible la existencia de ChatGPT

La empresa que se encuentra detrás de esta potente herramienta de inteligencia artificial generativa, OpenAI, habría subcontratado a decenas de trabajadores de países en vías de desarrollo para llevar a cabo el entrenamiento de sus modelos. Algunos de estos empleados cobraban menos de dos euros la hora por etiquetar abusos sexuales a menores, zoofilia y otros contenidos horribles.

Wired ha publicado ahora un artículo en el que recoge el testimonio de un joven pakistaní de 15 años que asegura haberse ganado un dinero después de la escuela entrando en una página web en la que le pagaban por ayudar a entrenar conjuntos de datos utilizados para la IA.

El medio de comunicación ha informado de que este adolescente ganaba entre 1 y 2 euros la hora en una página que utiliza el crowdsourcing —del inglés, externalización abierta de tareas— para entrenar algoritmos.

Según Wired:

Algunas tareas implican la moderación de contenidos: ayudar a la IA a distinguir entre contenidos inocentes y los que contienen violencia, incitación al odio o imágenes para adultos [...]. Se le mostraron páginas y páginas de cuerpos parcialmente desnudos, incluidas imágenes sexualizadas, anuncios de lencería, una escultura expuesta e incluso un cuerpo desnudo de una pintura renacentista. ¿El objetivo? Separar lo sexual de lo inofensivo para ayudar al algoritmo a distinguir entre cuerpos lascivos y permisibles.

Tal y como se indicaba antes, este tipo de trabajo suele ser realizado por trabajadores de países en vías desarrollo, como los de África Oriental, Pakistán, Venezuela o Filipinas.

Al parecer, muchas de las compañías que recurren a este tipo de empleados para el entrenamiento de datos tienden a ser poco estrictas con la verificación de la edad: algunas se limitan a pedirle a los trabajadores que marquen una casilla para confirmar que son mayores de 18 años; otras no son demasiado estrictas con las normas que se incumplen. 

En su artículo, Wired pone como ejemplo un adolescente que afirma haber utilizado la cara de su abuela para pasar una prueba de verificación de edad.

 

La preocupación por las personas que trabajan en el entrenamiento de la inteligencia artificial es cada vez mayor. Los empleados kenianos que ayudaron a entrenar a ChatGPT dijeron que estaban expuestos a material espantoso, incluidos textos centrados en la violencia sexual.

Poco después de que se conociese esta noticia, Meta (la matriz de Facebook, Instagram y WhatsApp) rescindió su contrato con otra empresa que había subcontratado para llevar a cabo esa misma labor.

La explotación de la mano de obra del Sur Global para alimentar la innovación tecnológica de Occidente ha sido un tema recurrente en los últimos 20 años. La moderación de contenido de las redes sociales se subcontrata desde hace tiempo a países como India o Filipinas, lo que expone a esos trabajadores a imágenes terroríficas y material traumático.

Pero el artículo de Wired, según el cual parte de ese trabajo lo realizan adolescentes, es especialmente alarmante. Merece la pena echarle un vistazo.

Conoce cómo trabajamos en Business Insider.