Las acusaciones sobre el papel de Facebook bloqueando páginas en Australia revelan el enorme poder que reúnen las tecnológicas y que Europa busca frenar

Mark Zuckerberg, CEO de Meta (antigua Facebook).
Mark Zuckerberg, CEO de Meta (antigua Facebook).

REUTERS/Leah Millis

El año pasado Australia preparaba una nueva ley que obligaría a las grandes plataformas digitales a pagar a los editores de medios de comunicación en caso de que quisieran incluir enlaces a las noticias en sus servicios. En respuesta, Facebook decidió bloquear las páginas de noticias de la red social.

Por el camino, acabó bloqueando páginas de centros sanitarios y administraciones públicas del país oceánico. Entonces, Meta, propietaria de la plataforma, adujo que el caos que había provocado bloqueando esas páginas no había sido pretendido.

Ahora, The Wall Street Journal revela que en realidad, de forma interna, la multinacional celebró que esos bloqueos sirviesen para evitar que la ley australiana acabase oficializándose en los términos más dañinos para la enorme red social. Es lo que se sabe gracias a documentación que se han aportado ante los juzgados australianos y estadounidenses.

Entre la documentación aportada se encuentran, por ejemplo, las voces de alarma de algunos empleados rasos de Facebook, que trataban de avisar a sus superiores de que el algoritmo que habían desplegado para bloquear las páginas de periódicos australianos en la red social estaba fuera de control bloqueando a páginas incluso gubernamentales.

Las respuestas de sus superiores eran laxas y tardías. Todo esto se produjo cuando Australia acabba de iniciar la campaña de vacunación contra la pandemia, y que la información oficial y gubernamental llegase de forma adecuada a los ciudadanos resultaba esencial. La multinacional ha negado al Journal que esto fuese una práctica premeditada dentro de su estrategia negociadora.

Pero varias fuentes anónimas que el mismo periódico cita y que son cercanas a la compañía corroboran que los directivos de la empresa sabían perfectamente que el algoritmo que se encargaría de bloquear las páginas acabaría afectando no solo a medios de comunicación, sino a páginas de instituciones sanitarias y gubernamentales.

El hallazgo de The Wall Street Journal es una demostración más del enorme poder que tienen las grandes plataformas digitales en cuanto a la distribución de contenidos e influencia de la opinión pública. Un enorme poder que una extrabajadora de la compañía, Frances Haugen, expuso tras filtrar y revelar un millar de documentos internos de la multinacional.

De los 'Facebook Papers' a las nuevas regulaciones europeas

Haugen, artífice de lo que se conoció como Los Papeles de Facebook, acabó compareciendo ante el Congreso de EEUU y ante el Parlamento Europeo para exigir regulaciones a las grandes tecnológicas como esta, que acabó cambiando su nombre el año pasado a Meta para centrar su foco en la construcción del futuro metaverso.

En Bruselas, Haugen aseguró estar compareciendo por creer firmemente que los productos de su antigua empresa dañan a los menores de edad y "debilitan" las democracias. Después del asalto al Capitolio que se produjo en Washington en enero del año pasado, muchos especialistas de la industria tecnológica señalaron a la propia compañía de Mark Zuckerberg.

La "garganta profunda" de Facebook, Frances Haugen, revela qué le diría a Zuckerberg si tuviera la oportunidad de conocerle

Entre los críticos estuvo incluso Tim Cook, CEO de Apple, que lamentó cómo algunas plataformas habían basado su modelo de negocio en polarizar a la sociedad. Una polarización incentivada por procesos automáticos que determinan, mediante algoritmos, qué contenidos muestran a según qué usuario.

Que los algoritmos de la plataforma estaban polarizando a los usuarios es algo que los propios directivos de la compañía sabían desde al menos 2016. La compañía descartó soluciones hasta que años después puso a trabajar a uno de sus responsables de IA, el español Joaquín Quiñonero, a buscar respuestas al problema. Quiñonero dejó la compañía el año pasado.

A pesar de todo esto, la posible intencionalidad que pudo tener la multinacional tecnológica al bloquear páginas incluso gubernamentales durante el debate legislativo australiano da una nueva vuelta de tuerca al concepto de "poder" que aúna las grandes tecnológicas.

En Europa se es consciente de esos riesgos. Recientemente las instituciones europeas se pusieron de acuerdo en torno a los textos definitivos de dos nuevos reglamentos, el de Mercados Digitales y el de Servicios Digitales. El primero se detiene en cuestiones relacionadas con la libre competencia en el sector tecnológico.

Mientras tanto, la futura Ley de Servicios Digitales busca poner coto al poder que tienen estas plataformas —definidas como garantes de acceso, por el acceso a la información que brindan a sus usuarios— en, por ejemplo, la elaboración de campañas publicitarias personalizadas. Con la nueva Ley de Servicios Digitales en vigor, estas campañas no se podrán dirigir a menores de edad.

De los discursos a los hechos

Mientras estas dos nuevas normas entran en vigor —lo que puede suceder tan pronto como finales de este año o principios del que viene—, el debate sobre la ética tecnológica sigue aunando cada vez más interés y también llega a parlamentos como el español. La necesidad de contar con modelos de inteligencia artificial transparentes y auditables también podría ser ley en Europa.

Para ello está el Reglamento de Inteligencia Artificial. Mientras el proceso legislativo continúa, España quiere ser el territorio en el que probar este desarrollo legal. En el Congreso se han votado Proposiciones No de Ley (PNL) para que el Gobierno cuente con tecnología transparente y auditable en los modelos de IA que se desplieguen en las futuras "fronteras inteligentes" como la de Ceuta.

Ese futuro Reglamento de la Inteligencia Artificial está siendo bien recibida por compañías como Google. Sin embargo, los hallazgos relacionados con los métodos de Facebook durante el debate legislativo en Australia del año pasado serán de una extraordinaria gravedad de confirmarse judicialmente.

Por ello, Gemma Galdon, CEO y fundadora de Eticas Consulting, una firma española especializada en ética algorítmica y tecnológica, ya explicó en una entrevista con Business Insider España que ha llegado el momento en el que las grandes tecnológicas pasen de los dichos a los hechos.

Hasta el momento, las grandes corporaciones digitales habían sostenido toda su ética en discursos. Pero esos discursos tienen límites. El año pasado Google despidió a varias investigadoras de referencia del que era su laboratorio de ética en inteligencia artificial.

Eso no supone para Galdon motivo para el desánimo o el pesimismo. Consideraba que son "buenos tiempos" para la ética algorítmica porque "estamos en un proceso de transformación en el que se va a acordar qué significa ética, qué parte es legal y qué parte responde a la buena voluntad de las plataformas".

"No es un mal momento, es parte del proceso. Cuando ya no eres capaz de sustentar esos compromisos con la equidad, la igualdad y la no discriminación porque luego no los cumples, la gente ve que hay un problema". Por ejemplo, muchas compañías crean equipos de ética "sin visibilidad y sin ningún tipo de impacto en los procesos de negocio", destacaba la experta.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.