Amazon, Facebook, Twitter y YouTube tienen problemas para moderar sus contenidos: así intentan las tecnológicas controlar a sus comunidades

| Traducido por: 
Business Insider España
El CEO de Amazon, Jeff Bezos, entre algunos de los productos que se venden en la plataforma.
El CEO de Amazon, Jeff Bezos, entre algunos de los productos que se venden en la plataforma.Business Insider
  • El Wall Street Journal publicó este viernes una investigación sobre cómo Amazon lucha para vigilar los contenidos de su sitio.
  • La información revelaba que en tiendas de terceros se estaban vendiendo artículos prohibidos, inseguros o mal etiquetados.
  • YouTube, Facebook y Twitter también intentan moderar el contenido de sus comunidades: este es el principal desafío de las tecnológicas.
  • Las pautas de supervisión actuales ya no son las adecuadas para vigilar los contenidos de millones de usuarios.
  • Descubre más historias en Business Insider España.

Amazon vende cientos de millones de cosas en su página web. Con esta cantidad masiva de productos, la pregunta llega sola: ¿cómo vigila la compañía qué es lo que se está vendiendo?

El Wall Street Journal publicó este viernes una investigación sobre los esfuerzos que realiza Amazon por supervisar su web. Detectó que en la plataforma se estaban vendiendo al menos 4.000 productos que, según el periódico, habían sido etiquetados de forma engañosa, eran considerado inseguros por agencias federales, o directamente prohibidos por ciertos reguladores.

Entre estos artículos se incluían un xilófono de juguete para niños con una cantidad de plomo cuatro veces superior a la permitida por las autoridades, juguetes magnéticos para niños que pueden ser lesivos en caso de ser ingeridos, o un casco de motocicleta que tenía una certificación falsa del Departamento de Transporte de los EEUU.

"El desafío de Amazon es conseguir que se cumplan sus normas en su plataforma, siempre abierta y receptiva a nuevos vendedores. Es imposible supervisar manualmente que todos los usuarios de la web cumplan estas reglas", explicaba un analista del comercio electrónico, Juozas Kaziukenas, al Journal.

Leer más: "Nos sabemos las canciones del ISIS de memoria": así es el día a día de quienes revisan los vídeos que reportas en las redes sociales

Este problema también se refleja en otras tecnológicas como YouTube, Twitter o Facebook. Estas enormes plataformas tienen cada día la ingente tarea de eliminar contenidos problemáticos: desde publicaciones en Facebook a favor del genocidio rohingya en Myanmar hasta vídeos de YouTube en los que se insulta a los supervivientes de tiroteos en escuelas estadounidenses, llamándolos "actores en crisis".

Estos son los problemas y desafíos a los que se enfrentan gigantes tecnológicos como Amazon, YouTube, Facebook o Twitter, y así es cómo están intentando regular sus plataformas.

Pillan a Amazon vendiendo miles de productos inseguros. Como respuesta, la compañía dijo que usa aprendizaje automático y procesamiento natural del lenguaje para controlar qué se vende

El CEO de Amazon, Jeff Bezos.
El CEO de Amazon, Jeff Bezos.Getty Images/Mario Tama

El Wall Street Journal publicó una investigación sobre cómo Amazon "lucha para moderar su sitio", y detectó cerca de 4.000 artículos que estaban siendo vendidos habiendo sido etiquetados de forma engañosa, siendo inseguros según agencias federales, o incluso prohibidos por los reguladores. Algunos artículos eran juguetes inseguros para niños.

Amazon ha remitido un comunicado para responder el artículo del Journal en el que explican cuáles son sus métodos para controlar qué se vende y qué no en su plataforma.

  • Las nuevas cuentas de vendedores son examinadas mediante el uso de tecnología de aprendizaje automático (machine learning).
  • Los especialistas de la plataforma comprueban los documentos presentados por los vendedores para certificar que siguen las regulaciones (por ejemplo, que los juguetes para niños siguen las indicaciones de los reguladores).
  • Los productos a la venta en Amazon son consstantemente analizados mediante aprendizaje automático y herramientas de procesamiento del lenguaje.
  • Además, Amazon toma en consideración los avisos de clientes y agencias reguladoras para iniciar posteriormente investigaciones en su plataforma.

Fuentes: Wall Street Journal, Amazon

YouTube ha recibido críticas por no ser diligente eliminando contenido homofóbico o de odio. La compañía ha actualizado sus condiciones y emplea a 10.000 moderadores

La CEO de YouTube, Susan Wojcicki.
La CEO de YouTube, Susan Wojcicki.Getty Images/Noam Galai

YouTube se ha enfrentado constantemente al desafío de regular el contenido que aparece en su web. Tras el tiroteo masivo que tuvo lugar en febrero de 2018 en el instituto Marjory Stoneman Douglas, en Parkland, Florida, aparecieron numerosos vídeos llamando a los supervivientes del mismo "actores en crisis". La misma cuenta que publicó estos vídeos, InfoWars, también subió vídeos tildando de "montaje" el tiroteo que tuvo lugar en la escuela Sandy Hook en 2012.

Los ejemplos más recientes llegaron en junio, cuando el periodista Carlos Maza, de el medio norteamericano Vox, habló sobre los insultos que estaba recibiendo a través de YouTube de Steve  Crowder, una figura pública del ala conservadora. Crowder se refirió constantemente a la orientación sexual de Maza y a sus orígenes étnicos en sus vídeos.

Leer más: Deep Fakes: los usos más inquietantes de la Inteligencia Artificial

Cinco días después de los comentarios de Maza —que hizo a través de Twitter—,YouTube salió al paso anunciando que Crowder no estaba violando ninguna de sus políticas. Tras la polémica, al día siguiente YouTube dio marcha atrás y desmonetizó el canal de Crowder —con lo que esta persona dejó de ganar dinero por las visitas que recibía—.

YouTube actualizó entonces sus políticas sobre el discurso del odio, "prohibiendo vídeos que aleguen que un grupo es superior y justifiquen discriminación, segregación o exclusión sobre otros colectivos". Sin embargo, la actualización de sus condiciones de uso ha sido criticada, tildada de débil e insuficiente, y de oportunista.

Fuentes: Wired, The Guardian, Business Insider

Facebook ha sido criticada por no moderar lo suficiente comentarios a favor del genocidio rohinya y aunque la compañía emplea a moderadores, esto implica otros problemas

El CEO de Facebook, Mark Zuckerberg.
El CEO de Facebook, Mark Zuckerberg.Getty Images/Chip Somodevilla

En agosto de 2018, una investigación de Reuters detectó que Facebook no había moderado adecuadamente llamadas al genocidio rohinya. Según Human Right Watch, cerca de 700.000 refugiados rohinya han huido de la región de Rakhine, en Birmania, debido a la limpieza étnica que comenzaron los militares en agosto de 2017.

ProPublica tildólas normas sobre discurso de odio de "desiguales", y detalló que sus moderadores de contenido "a menudo hacen distintas apreciaciones sobre comentarios similares, con lo que no siempre cumplen con las complejas pautas de la compañía".

De hecho, el trabajo de estos moderadores ya fue objeto de escrutinio cuando el pasado mes de junio The Verge informó sobre la muerte de uno de estos trabajadores: Keith Utley, un hombre de 42 años que trabajaba en una planta de Cognizant, en Tampa, Florida, murió de un ataque al corazón el año pasado.

En este sentido, The Verge también llamaba la atención sobre las pobres condiciones laborales que mantenía esta planta, donde los moderadores se ven obligados a ver durante varias horas imágenes con contenido explícito en su esfuerzo por mantener Facebook limpio de cualquier contenido problemático que viole sus términos de servicio.

Fast Company informó cinco días después de la publicación del artículo en The Verge que Facebook estaba mejorando las herramientas de las que disponen sus moderadores de contenido, con el objetivo de amortiguar los efectos psicológicos que provocan ver tanto contenido explícito y perturbador.

De hecho, detalló que estas herramientas ya estaban en marcha en el momento en el que The Verge publicó su información.

Fuentes: ProPublica, Reuters, Fast Company, Business Insider, The Verge

Twitter ha hecho avances en sus políticas para frenar el abuso, pero tiene un grave problema sobre contenidos de supremacistas blancos

El CEO de Twitter, Jack Dorsey.
El CEO de Twitter, Jack Dorsey.REUTERS/Anushree Fadnavis

Twitter dice que ha progresado en sus herramientas para deshacerse de los contenidos que infringen sus normas en cuanto a abuso y spam. La plataforma, con 300 millones de usuarios mensuales según Recode dijo en un post publicado en abril que, en lugar de depender de los usuarios para recibir denuncias de abuso, ha implementado una tecnología que marca automáticamente el contenido ofensivo.

Leer más: Cerco al secretismo de las tecnológicas: los ingenieros reclaman saber para qué se usarán sus proyectos

Twitter dijo que al usar tecnología, el 38% del contenido abusivo que se publica se remite para que sea supervisado por sus moderadores, "en lugar de depender de las denuncias de los usuarios".

Sin embargo, Twitter parece no saber qué hacer con los supremacistas blancos. Vice explicaba en un artículo que, en palabras de un trabajador de la red social, "Twitter no ha adoptado el mismo enfoque agresivo para el contenido de supremacistas blancos porque las cuentas que se pueden ver afectadas son de políticos del Partido Republicano de los Estados Unidos".

El empleado explicaba que "a nivel técnico, el contenido de los políticos republicanos podría verse afectado por los algoritmos que borran automáticamente el material de propaganda supremacista".

Fuentes: Vice, Twitter, Recode

Conoce cómo trabajamos en Business Insider.