"La IA no es 100% fiable": la moderación de contenidos en redes sociales aún es deficiente y las plataformas no dan con la tecla correcta para que algoritmos y humanos convivan en paz

Fotograma de 'Terminator 3: La rebelión de las máquinas' (2003).
Fotograma de 'Terminator 3: La rebelión de las máquinas' (2003).

Warner Bros

  • Algoritmos y humanos comparten un espacio en la moderación de contenidos en redes sociales, las cuales se enfrentan a dilemas que van desde la tecnología hasta la política, con la adaptación de sus inteligencias artificiales a la cultura y legislación propias de cada región.
  • Business Insider España ha conversado con José Noblejas, experto en marketing digital, y Pablo F. Iglesias, consultor de Presencia Digital y Reputación Online, para desentrañar una gran pregunta: ¿son mejores los humanos o las máquinas para moderar contenido en plataformas sociales?
  • Comienza el día bien informado con la selección de noticias de Business Insider España: suscríbete gratis aquí.

Twitter, TikTok, Facebook, Twitch, Instagram... Todas las plataformas sociales cuentan con algoritmos en la sombra que hacen, la mayor parte de las veces, de moderadores de contenidos. Un hecho que ha suscitado las quejas de algunos creadores que han visto cómo sus publicaciones eran eliminadas.

Aunque no todo corresponde a las máquinas, ya que las redes sociales suelen contar con equipos humanos para tratar aquellas denuncias más sensibles o que, directamente, afectan contra la seguridad de los propios creadores y usuarios.

Desde el bullying hasta las difamaciones, algunas de estas plataformas hacen que su tecnología actúe casi sin sentimientos. Aunque, por supuesto, un algoritmo puede equivocarse, por los sesgos introducidos por el mismo ser humano en su programación. Y algunas plataformas lo hacen mejor que otras.

Según explica a Business Insider EspañaJosé Noblejas, experto en marketing digital, Facebook actúa mejor en este sentido que Twitter.

"Facebook destina un 5% de sus ganancias (unos 4.000 millones de dólares) a luchar contra contenido ofensivo", concreta. "Este presupuesto se reparte entre su sistema de Inteligencia Artificial y los casi 25.000 moderadores humanos que trabajan en ello 24/7". 

Redes sociales como Twitter han vivido épocas oscuras, sobre todo, durante la presidencia de Donald Trump, con polémicas diarias sobre la libertad de expresión o la moderación de contenidos en diferentes plataformas, lo que provocó la creación de otra aplicación por parte del expresidente.

Probablemente, Trump no sea el mejor ejemplo de moderación en redes sociales, por sus publicaciones con datos poco fiables y sin contrastar. Sin embargo, el melón se ha abierto: ¿controlan los algoritmos la moderación de contenidos en redes sociales o queda algún ápice de humanidad en este ámbito?

La IA no es 100% fiable, aunque los humanos tampoco se pueden enfrentar a ciertos tipos de contenidos

A Facebook le salió bastante bien la compra de Instagram en 2012, ya que incorporó su sistema de moderación de contenido a la red social por excelencia. Para Noblejas, es una de las redes sociales que mejor moderación artificial presenta, bastante por encima de Twitter, la plataforma más polémica.

"Es bastante normal ver comentarios que no son censurados y denuncias a cuentas que tardan casi una semana en tener un veredicto", explica Noblejas sobre Twitter. "Algunas pruebas de la deficiencia en la moderación de contenido llegaron cuando varias cuantas denunciaron el perfil de Donald Trump y algunos de sus tuits 'delicados'. Nunca obtuvieron respuesta". 

Cabe resaltar que los equipos humanos han de enfrentarse en ocasiones a imágenes realmente duras para su salud mental, con fotografías relacionadas con violencia sexual, asesinatos o pornografía infantil. Los algoritmos no tienen ese impedimento.

"El problema de centrar toda esa moderación en sistemas de inteligencia artificial es que el trabajo no se hace al 100%, habrá contenidos que lo burlen y otros comentarios benignos que sean restringidos", agrega Noblejas. "Si se recorta en personal, es normal que estas cosas pasen".

Sin embargo, el ser humano también tiene un problema: la subjetividad. Así lo cree Pablo F. Iglesias, consultor de Presencia Digital y Reputación Online, quien ejemplifica la situación de la moderación algorítmica con Google.

Quién es ByteDance (TikTok): la startup china que conquista audiencias de todo el mundo y quiere agitar un mercado dominado por Occidente

"Si a Google Imágenes se le da para entrenar millones de fotos de médicos asociándolos a su cargo, y de esas millones de fotos de médicos, en torno al 80% son varones caucásicos, ¿no es esperable que el algoritmo [...] muestre hombres caucásicos antes que mujeres médicas?", se pregunta Iglesias.

Lo cierto es que no han sido pocas las críticas que se han realizado a las grandes tecnológicas por los sesgos racistas o machistas de sus algoritmos, aunque la culpa no es de los mismos, sino de la base de datos que alimenta su inteligencia para obrar como moderador artificial.

Fruto de ello, YouTube decidió dejar a un lado meses atrás su estrategia de inteligencia artificial por no ser eficaz al 100%, colocando la moderación en manos de humanos, según destaca Noblejas. Aunque él prefiere no dejar toda la moderación en manos de las máquinas.

"La IA no es 100% fiable: hay maneras de hablar, frases hechas, palabras que significan diferentes cosas dependiendo del país, etc.", agrega Noblejas. "Algunos contenidos benignos han sido censurados sin motivo dando pie a que se pueda pensar que estos algoritmos son racistas o machistas, pero es un fallo de esa IA. Personalmente, no veo una intención mala oculta en ello". 

En resumen, los humanos no son mejores que los algoritmos o viceversa, sino que han de complementarse en todas las fases de la moderación de contenidos, ya que "no son neutrales", según Iglesias.

"Por mucho que nos gustaría que lo fueran, padecen de las mismas taras que tienen los desarrolladores y el entorno social donde han sido creados", añade.

Desgraciadamente, las redes sociales no solo se enfrentan a la moderación de contenidos en base a las propias normas de uso, sino que también chocan con la política y cultura propias de la región donde se encuentran. Y eso, inevitablemente, complica mucho las cosas.

Moderadores artificiales y humanos: una convivencia necesaria a medio camino entre la tecnología y la política

Reunión entre China y Estados Unidos el 6 de junio de 2016, con sus respectivas banderas.
Reunión entre China y Estados Unidos el 6 de junio de 2016, con sus respectivas banderas.

Reuters

La convivencia entre diferentes actores de un territorio no es nada fácil, y menos aún cuando se trata de redes sociales. Por ofrecer una explicación sobre cómo funciona la moderación a nivel general en redes sociales, Iglesias establece 3 etapas.

La primera sería la algorítmica, con sistemas de filtrado automáticos, la cual "suele funcionar bastante bien, siempre y cuando hablemos de identificar patrones previamente conocidos".

En este sentido, en algunas redes sociales como Instagram la propia plataforma te avisa si tu contenido puede infringir las normas de la comunidad. En la segunda, todo comienza a complicarse, ya que intervienen las denuncias de los usuarios. Es la etapa social.

Es lo que ocurrió con los perfiles de ciertas redes sociales de Borja Escalona, el youtuber que se enfrentó a una trabajadora de la hostelería y que vio cómo la comunidad al completo tumbó algunos de sus perfiles, tras denunciar continuadamente su contenido.

Oracle revisa los algoritmos y la moderación de TikTok: quiere asegurarse de que no están manipulados por China

El equipo humano de las plataformas no llega hasta la tercera etapa, en la cual se revisan los contenidos denunciados o publicaciones sensibles que podrían afectar directamente a la integridad física o moral de colectivos o personas. 

"Se trata de buscar el equilibrio entre esas 3 fases y, para colmo, adaptar unas plataformas creadas con un objetivo claramente globalizado, a las particularidades sociales, culturales, éticas y legales de cada país", comenta Iglesias.

En este terreno pantanoso entra en juego la legislación propia de cada región, con claras diferencias entre Estados Unidos, la región asiática –con China a la cabeza– y Estados Unidos.

En cuanto a Europa, la regulación es bastante más estricta y ya se ha aprobado el Reglamento de Servicios Digitales (o DSA, por sus siglas en inglés), que exigirá a las compañías, en un futuro no muy lejano, transparencia algorítmica y responsabilidad jurídica.

"Europa en este escenario claramente es quien define los estándares que luego aplicará Estados Unidos y, por ende, acabará repercutiendo en el resto del mundo democrático", asegura Iglesias.

El experto cree que con la entrada de TikTok en el tablero "el equilibrio se rompe y va a ser interesante ver cómo Europa puede imponer su ideología, aunque sea en sus propias fronteras". A pesar de ello, TikTok actúa en base a la legislación allá donde tiene presencia.

"En un porcentaje muy alto, vamos a estar en manos de algoritmos, debemos tenerlo claro"

Ai-Da, una robot artista, durante una presentación el 4 de junio de 2019.
Ai-Da, una robot artista, durante una presentación el 4 de junio de 2019.

Reuters

Loos cibercatastrofistas siempre han argumentado que el internet y los mundos virtuales acabarían con la sociedad. Lo cierto es que, en parte, cuentan con algo de razón, ya que si no terminan con esta, la cambian considerablemente.

En un mundo globalizado en el que el miedo a que el ser humano sea sustituido por máquinas que hagan su trabajo, no es extraño encontrar personas que compartan esta visión.

"Los algoritmos son muy económicos y rápidos a la hora de cumplir una serie de reglas claramente marcadas", relata Iglesias. "Los humanos salen muchísimo más caros, pero son capaces de identificar problemáticas complejas sin tener un patrón previo identificativo".

Para que todo funcione de forma correcta y sin olvidar que las máquinas no tienen la empatía que puede tener un ser humano normal, la virtud, como decía Aristóteles, se encuentra en el punto intermedio: entre lo artificial y lo humano.

"Se debería incrementar el número de personas contratadas, es evidente, pero hay que asumir que la IA es el primer filtro y la que más volumen podría examinar al segundo", añade Noblejas. "Si se optimizara sería de gran ayuda, de tal manera que el equipo humano sólo tendría que verificar o anular lo que dictamine el algoritmo. A día de hoy es difícil".

El experto añade que el ser humano no vivirá una "dictadura", ya que sería "el fin de las redes sociales". 

Por otro lado, el mundo digital no es más que "una extrapolación artificial de nuestro mundo de carne y hueso", según Iglesias. En este punto, ambos expertos coinciden en que nadie debería camuflarse tras una IP y, si comete un crimen en una red social, ha de tener su repercursión en el mundo tangible.

Tal y como asegura Noblejas, con la presentación de un documento (DNI, en este caso) se solucionarían algunas problemáticas actuales y provocaía que alguien "se piense 2 veces determinadas cosas".

"Hay que endurecer las condenas, que nadie se sienta amparado por una IP o un mail, que quien comente algo fuera de lugar o entre en determinadas acciones sea identificado de inmediato", reflexiona Noblejas. 

De momento, parece ser que las plataformas sociales no han dado con la tecla correcta, incluso yendo hacia atrás en sus estrategias, como ha ocurrido con YouTube. El futuro, sin embargo, tendrá que hacer frente a la convivencia entre humanos y algoritmos.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.