Facebook reivindica que usa la IA para detectar y eliminar publicaciones con odio y violencia, pero documentos internos revelan que en realidad no funciona

Facebook CEO Mark Zuckerberg.
Facebook CEO Mark Zuckerberg.

Kevin Dietsch/Getty Images

  • La inteligencia artificial (IA) de Facebook elimina menos del 5% de las publicaciones con discurso de odio en la plataforma.
  • Una información de The Wall Street Journal detalla fallos en la estrategia de la red social para eliminar ese contenido dañino.
  • La filtradora de Facebook, Frances Haugen, ya advirtió que la compañía depende peligrosamente de algoritmos y sistemas de IA.
  • Descubre más historias en Business Insider España.

Facebook suele recordar que usa sistemas de inteligencia artificial para identificar y eliminar los contenidos con discursos de odio o violencia en su plataforma, pero la tecnología en realidad no funciona según revelan documentos internos a los que ha tenido acceso The Wall Street Journal.

Ingenieros de la compañía ya reconocen que los sistemas automatizados solo han eliminado el contenido que habría generado apenas el 2% del discurso de odio de la plataforma y que violó sus normas de la comunidad, según detallaba The Wall Street Journal este domingo. 

Otro grupo de empleados llegaban a una conclusión similar: la inteligencia artificial solo habría eliminado las publicaciones que generaron entre el 3% y el 5% del discurso de odio en la plataforma y solo el 0,6% del contenido que habría violado las propias normas de la red social.

La información de The Wall Street Journal de este domingo ha sido el último capítulo de los Archivos de Facebook, una serie de reportajes que demuestran cómo el gigante tecnológico ha hecho oídos sordos al impacto de sus servicios sobre sus usuarios, desde en la salud mental de los más jóvenes hasta en la desinformación, trata de personas, o violencia de bandas.

La compañía ha lamentado que estas informaciones sean "caricaturas".

La moderación a través de IA en Facebook es incapaz de interpretar todos los idiomas, lo que hace que usuarios de algunos países estén más expuestos a contenidos dañinos

El CEO de la multinacional, Mark Zuckerberg, adujo que la IA de la firma sería capaz de derribar "la gran mayoría de contenidos problemáticos" antes de 2020, según The Wall Street Journal. Facebook insiste en que la mayoría del odio y violencia que aflora en la plataforma se elimina gracias a su "supereficiente" inteligencia artificial, incluso antes de que los usuarios vean el contenido.

Un informe de febrero de este año al que ha accedido el citado medio abundaba en que esa ratio de detección de la IA era del 97%.

Algunos grupos, como colectivos en defensa de los derechos civiles o investigadores académicos, siguen mostrándose escépticos de estas estadísticas aportadas por la empresa, pues estas cifras no están coincidiendo con estudios externos.

"No van a enseñar su trabajo", lamentaba al WSJ Rashad Robinson, presidente de Color of Change, una plataforma de activistas. "Nosotros preguntamos. ¿Cuál es el numerador? ¿Cuál es el denominador? ¿Cómo obtienen esas cifras?".

El responsable de Integridad de Facebook, Guy Rosen, se ha defendido en el Wall Street Journal explicando que los informes a los que había tenido acceso el periódico no estaban actualizados, y que la inteligencia de la empresa influyó en la determinación de que la IA se encargase de moderar contenidos. También señaló que el discurso de odio está disminuyendo en general en la plataforma. 

Facebook, por su parte, no ha hecho declaraciones a Business Insider.

Los últimos descubrimientos del Journal llegan después de que la extrabajadora y filtradora Frances Haugen acudiera al Capitolio de EEUU la semana pasada para explicar cómo la red social confía en exceso de la IA y de los algoritmos. 

A los responsables de Facebook les preocupa que su plataforma sea demasiado grande para controlarla: "Hemos creado la máquina y no podemos controlarla"

Dado que esos algoritmos determinan qué contenido muestran a los usuarios para garantizar su atención, las publicaciones que suele mostrar enfadan, dividen y son sensacionalistas, y a menudo incluyen desinformación, advirtió entonces Haugen.

"Deberíamos contar con programas que estén desarrollados a escala humana, en la que las personas pudieran mantener conversaciones, y no que fuesen las máquinas las que decidan qué es lo que vamos a leer", expuso Haugen en su turno de palabra.

Los algoritmos de Facebook suelen tener también problemas a la hora de determinar qué es discurso de odio y qué es violencia, permitiendo que muchas publicaciones y vídeos dañinos se mantengan en la plataforma durante demasiado tiempo. 

Facebook eliminó cerca de 6,7 millones de estas publicaciones de odio, que respondían a campañas organizadas, entre octubre y diciembre de 2020. Muchas de esas publicaciones incluían venta de órganos, pornografía y violencia con armas, según informa The Wall Street Journal.

Sin embargo, muchos de los contenidos que se escapan al radar de los sistemas automatizados incluyen vídeos violentos y de reclutamiento, publicados y compartidos por sujetos involucrados en bandas criminales, tráfico de personas y cárteles de droga.

Otros artículos interesantes:

Las grandes tecnológicas han gastado 264.000 millones en comprar pequeñas startups desde el inicio de 2021, un récord justo cuando Joe Biden estrecha su vigilancia sobre ellas

Google y Facebook tienen miles de kilómetros de cables submarinos para llevar internet a todo el mundo: así los instalan

Del imparable ascenso de Netflix a la caída de Amazon: así ha impactado la era del teletrabajo en los ingresos por empleado de los gigantes tecnológicos

Te recomendamos

Y además