El caso de Borja Escalona es un ejemplo más del fracaso de YouTube, Twitch o Twitter a la hora de moderar contenidos, pero la culpa no es solo de las plataformas

Borja Escalona, el polémico youtuber.

YouTube

Análisis Faldón

Nadie conocía a Borja Escalona hasta hace unos días.

Su nombre no para de ser tendencia en redes como Twitter y los internautas siguen todavía indignados por la clase de creador de contenido que es. Su última polémica tuvo lugar en Vigo, en un bar llamado A Tapa Do Barril, donde no quiso pagar una empanadilla de 2 euros y, en represalia, sus seguidores empezaron a publicar reseñas falsas y negativas sobre el establecimiento.

El histriónico influencer ha perdido ya todas las redes sociales en las que monetizaba su contenido, se ha abierto a crear un nuevo canal en YouTube (que también ha sido eliminado), y en el lapso de 24 horas ha asegurado una cosa y la contraria. Que se trató de una acción consentida por el bar vigués (que ha respondido prometiendo una denuncia) o que lo hizo él para promocionar su propio perfil.

En cualquier caso, Escalona ahora aspira a volver a crecer en suscriptores. En su intento se ha interpuesto insólitamente YouTube, que ya ha cancelado su segundo canal gracias al esfuerzo de los usuarios de ForoCoches, que se han organizado para elevar cientos de reportes estos días. YouTube banea personas, no canales.

Pero, más allá de lo anecdótico de este caso —por suerte, este individuo no representa a la mayoría de creadores de contenido de habla hispana en plataformas digitales—, la polémica de verano que ha suscitado todo el asunto abre la puerta a un viejo debate nunca resuelto: el de la moderación de contenidos en redes.

No se trata de un debate menor. Donald Trump, todavía como presidente de EEUU, firmó una orden ejecutiva que obligaría a las plataformas a responsabilizarse de los contenidos que publicaban sus propios usuarios. De forma paralela, y en términos mucho más concretos, la moderación de contenidos forma parte del ADN de un futuro reglamento europeo que ya ha recibido luz verde.

Se trata del Reglamento de Servicios Digitales o DSA, por sus siglas en inglés, y su base es que exigirá a las plataformas transparencia algorítmica y responsabilidad jurídica. Las tecnológicas tendrán que aclarar tanto cuántas órdenes reciben de las autoridades judiciales o policiales para retirar contenidos, así como cómo actúan ante contenidos ilegales.

La moderación a través de IA en Facebook es incapaz de interpretar todos los idiomas, lo que hace que usuarios de algunos países estén más expuestos a contenidos dañinos

Las multinacionales también tendrán que indicar cómo funcionan sus herramientas de moderación automática, sus índices de error y la formación que reciben sus moderadores de carne y hueso.

Pero, ¿vulneró en algún caso Borja Escalona las políticas de las principales plataformas tecnológicas? En el vídeo de la polémica, en el que el youtuber llega incluso a amenazar a una trabajadora del establecimiento con una factura de 2.500 euros, es difícil decirlo. Pero su prolífico catálogo de polémicas revela varios ejemplos del influencer llegando a acosar a viandantes.

Este es el enésimo ejemplo que demuestra cómo en muchos casos solo es necesario que las redes sociales apliquen sus propios términos y condiciones de forma estricta para que estas polémicas ni siquiera tengan tiempo de estallar. Otro problema que adolecen estas compañías es precisamente la confianza ciega en que el algoritmo de moderación sea capaz de automatizar al 100% su trabajo.

Confiar plenamente en el algoritmo conlleva riesgos eludibles. Se abre la puerta a una censura algorítmica. De hecho, varios expertos catalogaron con ese término un fenómeno amparado por la propia Unión Europea en la directiva de copyright que se transpuso recientemente a la legislación española. Una alternativa sería potenciar el departamento de moderación de contenidos.

Pero eso cuesta dinero. Sobra decir que la inmensa mayoría de moderadores de contenidos en plataformas como Facebook, por ejemplo, son empleados subcontratados con condiciones a veces cuestionables y sujetos a enormes riesgos relacionados con su salud mental. Esto hay que decirlo: en las redes solo se ve una minúscula porción de todas las barbaridades que muchos usuarios intentan subir.

He sido moderador de contenidos de Facebook: el trabajo me hacía sentir como si viviera en una película de terror

Contratar más moderadores y endurecer sus políticas de contenidos también cuesta dinero porque precisamente las plataformas viven del engagement. Como un programa de televisión amarillista o polemista, lo que quieren estos servicios digitales es que eches el mayor rato posible conectado a ellos. 

Buscan tu atención. 

Trafican con tu atención.

Los influencers polémicos juegan a traspasar los límites para conseguir visitas y que sus contenidos se viralicen, aunque sea a costa de la publicidad negativa. Hay ejemplos de quienes lo hacen prácticamente a conciencia, como el citado Escalona o DalasReview, que nutre su contenido de polémicas que mantiene con otros influencers, y otros ejemplos más accidentados.

Uno de ellos es Sergio Soler, que usaba como pseudónimo el nombre de MrGranBomba. Probablemente no te suene. La red le conoce hoy día como caranchoa, ya que de esa manera insultó a un repartidor cuando estaba trabajando (era una "broma con cámara oculta" que acabó saldándose con un bofetón del trabajador al youtuber).

Otro, un youtuber llamado ReSeT que humilló a una persona sin hogar a la que ofreció un paquete de galletas. La "gracia" estaba en que había llenado las galletas con pasta de dientes. Hace escasos meses el Tribunal Supremo acabó ratificando la condena que se le impuso al joven: 15 meses de cárcel y una indemnización de 20.000 euros.

Los moderadores de contenidos de TikTok han visto decapitaciones, abusos sexuales a menores y otras atrocidades: las secuelas son terribles, y denuncian que a la empresa no le importa nada

Ejemplos, lamentables todos ellos, que constatan por un lado la ineficacia en la moderación de las plataformas (los contenidos fueron retirados por los propios creadores ante la polémica y tuvo que intervenir la justicia en última instancia). La viralidad está a la orden del día, y no solo en España. Otro youtuber dijo un día "de broma" que su pareja había fallecido. Se eliminó su canal.

Pero los familiares de la chica se enteraron al mismo tiempo que ella de que todo era una broma, después de que el creador de contenido propagara esa siniestra mentira en su canal con decenas de miles de seguidores.

La recientemente aprobada Ley General de la Comunicación Audiovisual contempla incluir a creadores de contenido ("usuarios de especial relevancia" en "plataformas digitales de intercambio de vídeo") bajo sus preceptos. Esto también levantó una enorme polvareda la semana pasada, con algunos youtubers sugiriendo que el Gobierno quería censurar así a los influencers.

Lo cierto es que esta ley todavía tiene reglamentos pendientes de aprobación que tendrán que someterse primero a audiencia pública. Uno de ellos es aquel que ampliará el artículo 94 de la norma, que define a esos creadores de contenido. Todavía no se sabe qué condiciones concretas deberán reunir los streamers e influencers para ser considerados "usuarios de especial relevancia".

Los moderadores de Facebook exigen el fin de los acuerdos de confidencialidad que promueven una "cultura del miedo y secreto excesivo"

Pero el debate ya se montó en redes sociales, lleno de inexactitudes y medias verdades. Lo único cierto es que, con la ley audiovisual en la mano, Borja Escalona no solo habría humillado a una trabajadora de hostelería. En el momento en el que asegura que se trataba de una acción publicitaria (aunque no sea cierto), estaría incumpliendo la norma al no detallar que se trata de un anuncio.

El debate es viejo y enormemente complejo. ¿Cuál es la solución? ¿Un regulador? ¿Mantener todo tal y como está? Los expertos no se ponen de acuerdo mientras la regulación avanza lentamente, tal vez no en los términos adecuados. Lo único que parece claro es que las plataformas sí son eficaces moderando si lo que hay de por medio no es toxicidad, sino contenidos con copyright.

También que si Escalona logra cumplir sus objetivos de suscriptores creándose otro canal (y ante este no actúa YouTube), la culpa no será únicamente de las redes sociales. La culpa, en ese momento, la tendremos todos.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.