Hacer que Facebook o Google se responsabilicen más de lo que publiquen los usuarios, el mayor desafío de la nueva regulación europea: "A veces, el legislador se equivoca"

El CEO de Facebook, Mark Zuckerberg
El CEO de Facebook, Mark Zuckerberg
  • Europa ya tiene un borrador sobre la mesa para una nueva Regulación de Servicios Digitales, que pone entre la espada y a la pared a grandes tecnológicas.
  • Facebook, Google, Amazon y todo este tipo de plataformas tendrán que responsabilizarse mucho más de qué publican sus usuarios.
  • Expertos en Derecho tecnológico, ética en algoritmos y ciberinvestigación y odio en las redes explican a Business Insider España por qué es importante esta nueva norma.
  • Descubre más historias en Business Insider España.

Finalmente este mes se ha conocido el borrador que la Comisión Europea ha presentado para el nuevo Reglamento de Servicios Digitales. Se trata de una esperada norma que ahora tratará de salir adelante en el Parlamento Europeo. Arranca un debate que se prolongará, como mínimo, un par de años.

Uno de los múltiples frentes que pretende abrir este nuevo Reglamento es sobre quién recae la responsabilidad de los contenidos que los usuarios publican en estas plataformas tecnológicas: Google, Amazon, Facebook, Apple, Airbnb...

Con la propuesta del Reglamento sobre la mesa, lo que la Comisión pretende es establecer criterios mucho más claros, objetivos y transparentes para combatir la desinformación y la incitación a la violencia y al terrorismo que proliferan en las redes sociales. Las multinacionales tendrán que ser mucho más claras a la hora de explicar por qué han eliminado determinado contenido, y los usuarios podrán apelar a las autoridades en caso de que consideren que se han visto sometidos a un caso de censura o abuso.

Inteligencia artificial para combatir noticias falsas y deepfakes: dos estudiantes consiguen una beca en Telefónica tras superar un reto de la teleco

El jurista especializado en Derecho tecnológico, el experto Sergio Carrasco, abundaba en redes sociales, solo horas después de que se publicase el borrador del Reglamento, cómo lo planea hacer el nuevo Reglamento. Por ejemplo, elimina la posibilidad de que las plataformas hagan una supervisión activa de lo que los usuarios suben en las redes, lo que podría desembocar en casos de censura previa.

También determina cómo las plataformas tendrán que explicar qué contenido han borrado e introduce la figura de los trusted flaggers, término que podría traducirse como denunciantes de confianza. Un ejemplo de este trusted flagger podrían ser firmas como Smart Protection.

"Con los temas de censura tenemos un problemón: qué se puede publicar y qué no en una plataforma. Pero muchos de esos problemas ya existían en la legislación previa, no lo introduce el Reglamento". Quien habla es Gemma Galdón, CEO y fundadora de Eticas Research & Consulting, una firma española especializada en la auditoría ética de algoritmos y tecnológicas.

Smart Protection es el guardián de Google, Amazon o Facebook: así se gana su confianza para perseguir las infracciones de sus usuarios

"El problema está en quién decide qué se puede decir y qué no se puede decir. En todo el mundo, los estados han buscado que esa decisión la tomara Facebook, y eso siempre me ha parecido una irresponsabilidad. Mark Zuckerberg, una empresa privada, no puede ser el juez de lo que se puede decir en el mundo", continúa.

Galdón cree que dejar que recaiga todo el poder de decisión en este tipo de compañías es un error. "Pero que no sea él [el juez] quiere decir que los estados y regiones tendrán que tomar la decisión. La Comisión, con el nuevo Reglamento, entiende que como institución la responsabilidad de determinar cuáles son los límites es suya. Es verdad que se abre las puertas a abusos, pero también se abre una puerta a contar con herramientas cuando hay un abuso con un perjuicio concreto a una persona", explica a Business Insider España.

El borrador del Reglamento se ha hecho de rogar. Se sabía que Europa estaba trabajando en él desde hace meses. La presión y el lobby de las tecnológicas en contra de la iniciativa ha sido constante.

Firmas como Facebook y Google presentaron cientos de alegaciones. A pesar de ellas, la vicepresidenta de la Comisión Europea, Vera Jourova, advirtió en septiembre de que seguirían adelante con este nuevo marco. Hasta uno de los fundadores de una de las mayores empresas de publicidad del mundo, WPP, defendió abiertamente que Facebook funciona como una editora y, por lo tanto, debe ser responsable de todo lo que en ella se publique.

El debate sobre en quién recae la responsabilidad de los contenidos publicados en plataformas, sin embargo, no es nuevo. Ya lo plasmaba una catedrática española, Esther Arroyo Amayuelas, especialista en Derecho Civil por la Universitat de Barcelona, en una publicación académica de principios de este año. Muchos meses antes de que se filtrasen los primeros borradores de la norma, la catedrática advertía de que "son cada vez más las regulaciones que imponen a los intermediarios el deber de tomar la iniciativa". En este caso, los intermediarios o gatekeepers son las grandes tecnológicas.

Europa presentará en cualquier momento su nueva directiva para regular a las tecnológicas: los principales desafíos legales para Google, Apple, Amazon y Facebook

Este problema ya lo trató de solventar la última Directiva de Copyright europea hace meses, no con mucho éxito. Arroyo manifestaba: "Carece de claridad sobre cómo esa prohibición de control general es compatible con las obligaciones de diligencia de los proveedores de alojamiento".

"Es difícil definir el alcance de las medidas a adoptar y, por consiguiente, también el de las órdenes judiciales".

En otras palabras: "Se debe tener en cuenta ese equilibrio entre la responsabilidad de la plataforma por el contenido ilícito que pueda albergar y las medidas que la plataforma pueda tomar para no ser responsable". Quien habla en esta ocasión es José Ignacio Carrillo, responsable de Enforcement en Smart Protection, una startup española que se dedica a eliminar contenidos ilícitos de las principales redes, como Facebook, Twitter, Amazon, YouTube o Twitch.

Como responsable de Enforcement en la compañía, Carrillo es el responsable de que su firma mantenga una relación fluida con las plataformas para que el trabajo para ambas partes —plataforma y startup— sea lo más fluido y sencillo posible. 

El plan europeo para que Facebook, Twitter y YouTube se responsabilicen de lo que publican sus usuarios: multas millonarias por permitir contenidos ilegales, fraudulentos o que fomenten el odio

"Si tú a una plataforma no le permites que establezca filtros pero le haces responsable de las infracciones que aloja... ¿cómo puede actuar la propia plataforma?". Carrillo se hizo esta pregunta en una entrevista con Business Insider España antes de que se conociera el borrador del Reglamento.

Es lo que ocurrió con la Directiva de Copyright, tal como exponía Arroyo Amayuelas y comparte Carrillo. "Nos da la sensación de que a veces el legislador se equivoca en ese sentido: queremos ver cómo se va a aplicar ese equilibrio entre filtrar contenidos y exigirles responsabilidad". Aunque sin un borrador delante, Carrillo se niega a profundizar mucho más en el hipotético futuro regulatorio.

Selva Orejón es la CEO de onBRANDING, una firma que también está, al igual que Smart Protection, especializada a proteger clientes en las redes. Su compañía tiene una aproximación algo diferente: se ha especializado en crisis reputacionales y en recuperar cuentas bloqueadas o hackeadas en redes sociales. Para ello se vale de un grupo de colaboradores que van desde detectives digitales a expertos en inteligencia, como explicaba ella misma en una reciente entrevista con Business Insider España.

Un informe desvela qué esperan conseguir España, Alemania o Francia de la nueva regulación europea contra las tecnológicas

Orejón sí cree que este reglamento es necesario y esperado. Y, aunque esta norma persigue responsabilizar a las plataformas, también admite que ellas, por sí mismas, son incapaces de moderar el 100% de los contenidos.

Ya ha trascendido en múltiples ocasiones cómo es el trabajo de los moderadores de plataformas como Facebook y a qué se pueden llegar a ver expuestos sus homólogos en YouTube. Las condiciones laborales no suelen ser las mejores, según denuncian, a la vez que se enfrentan a todo tipo de contenidos que pueden hacer mella psicológica.

"No. Hemos tenido que gestionar el caso de dos políticos esta semana. A uno de ellos le han bloqueado la cuenta hasta en tres ocasiones en una semana. ¿Eso qué quiere decir? Que la inteligencia artificial que se aplica en las redes sociales tiene sus limitaciones, porque hay otras inteligencias artificiales, como en este caso las plataformas de generación de bots para reportar, que son las que están ganando la partida", apunta.

"La única ayuda que hemos visto es esta, que nos ayude el personal interno de las plataformas, como Instagram y Twitter", detalla la experta. La nueva regulación para las tecnológicas es necesaria en tanto que, a juicio de Orejón, "todo lo que se había empezado a usar de una forma positiva, para compartir conocimientos e ideas, se ha ido de las manos".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.