La moderación a través de IA en Facebook es incapaz de interpretar todos los idiomas, lo que hace que usuarios de algunos países estén más expuestos a contenidos dañinos

Mark Zuckerberg

AP Photo/Andrew Harnik, File

  • La moderación de contenido a través de inteligencia artificial en Facebook es incapaz de leer en algunos de los idiomas utilizados en la plataforma.
  • Esto genera preocupaciones sobre cómo está controlando la compañía el contenido en países donde se hablan lenguas distintas al inglés, ya que más del 90% de sus usuarios se encuentran fuera de América del Norte. 
  • Descubre más historias en Business Insider España. 

La moderación de contenido a través de inteligencia artificial (IA) en Facebook es incapaz de leer en algunos de los idiomas utilizados en la plataforma, lo que genera preocupaciones sobre cómo la compañía está controlando el contenido en países con lenguas distintas al inglés, según informa The Wall Street Journal.

El periódico ha tenido acceso a documentos internos que muestran que la tecnológica no tiene suficientes empleados capaces de hablar idiomas locales para monitorizar lo que sucede en otros países, mercados donde se ha expandido para reforzar su base de usuarios fuera de EEUU. 

De hecho, más del 90% de las personas que usan la red social de forma mensual están fuera de América del Norte. 

El artículo revela cómo la falta de moderadores humanos con habilidades multilingües, combinada con las deficiencias de depender de robots para eliminar publicaciones tóxicas, está debilitando la capacidad de Facebook para controlar el contenido perjudicial online. 

Los empleados de Facebook han expresado su preocupación sobre cómo el sistema ha permitido que se utilice la plataforma con fines nefastos, según los documentos vistos por The Journal.

Facebook aseguró que iba a 'curar' su algoritmo en 2018 para proteger la salud mental de sus usuarios, pero el cambio provocó justo lo contrario, según documentos internos

Un exvicepresidente de la compañía ha explicado al periódico que Facebook percibe el daño potencial en países extranjeros como "el coste de hacer negocios" en esos mercados. 

Además, señala que "muy raramente se ha hecho un esfuerzo significativo para invertir en arreglar estas áreas".

Así, los cárteles de la droga y los traficantes de personas han utilizado Facebook para reclutar víctimas. 

En concreto, uno de los que representa la mayor amenaza criminal de drogas para EEUU, según funcionarios estadounidenses, utilizó varias páginas de la red social para publicar fotos de escenas violentas e imágenes de armas. 

De acuerdo con el artículo, un equipo de investigación interno quiso que el cártel fuese prohibido por completo, pero el personal encargado de hacerlo nunca hizo un seguimiento. 

En Etiopía, algunos grupos han utilizado Facebook para incitar a la violencia contra el pueblo de Tigrayan, un contenido que pasó inadvertido debido a la falta de moderadores que hablan el idioma nativo. La compañía tampoco había traducido sus reglas comunitarias a las lenguas utilizadas en dicha región, según el Wall Street Journal.

La mayoría de los moderadores de Facebook de habla árabe marroquí no se comunican en otros dialectos árabes, lo que permitió que el contenido violento permaneciese activo.

Normalmente, la red social elimina las publicaciones controvertidas cuando empiezan a atraer la atención del público, pero sin arreglar el sistema automatizado que ha permitido que ese contenido se publicase. 

Facebook no ha respondido a las solicitudes de información por parte de este medio. 

Su portavoz, Andy Stone, sí que ha explicado al WSJ que, "en países en riesgo de conflicto y violencia, tenemos una estrategia basada en confiar en equipos globales con hablantes nativos que cubren más de 50 idiomas, recursos educativos y asociaciones con expertos locales y verificadores de hechos  para mantener a la gente a salvo".

Este asunto recuerda a cuándo Facebook reconoció que no había actuado de forma inmediata contra los grupos que señalaron a los Rohingyas, una minoría musulmana, en Myanmar durante 2018.

Otro ejemplo fue cuando sus empleados denunciaron como inaceptable la eliminación de publicaciones que incluían el hashtag al-Aqsa, una mezquita en Jerusalén que es el tercer sitio islámico más sagrado. 

La compañía explicó que había tomado medidas contra dicho nombre debido a que una coalición militante palestina, las Brigadas de los Mártires de Al-Aqsa, había sido etiquetada como una organización terrorista por Estados Unidos y la UE.

Un empleado señaló que la compañía usaba sistemas de moderación, tanto humanos como automatizados, y debería haber consultado con expertos conocedores del conflicto, según Buzzfeed.

Otros artículos interesantes:

Facebook afirma que no lee los mensajes de WhatsApp, tan solo los hilos que usuarios hayan reportado como abusivos

Facebook sabe que Instagram es tóxico para las adolescentes, según documentos internos de la compañía

El experto español que eligió Zuckerberg para acabar con la desinformación en Facebook se marcha discretamente de la compañía

Te recomendamos

Y además