Joaquín Quiñonero, el español que convirtió Facebook en un monstruo insaciable de noticias falsas y polarización que ahora intenta domar

Joaquín Quiñonero, director de aprendizaje automático aplicado de Facebook.
Joaquín Quiñonero, director de aprendizaje automático aplicado de Facebook.

Facebook

  • Joaquín Quiñonero, español, es uno de los altos cargos de Facebook en temas de ética algorítmica e impacto social de sus tecnologías.
  • Fue quien introdujo el aprendizaje automático que ha transformado Facebook en un monstruo insaciable de noticias falsas y discurso del odio.
  • La MIT Technology Review publica un extenso reportaje que puedes leer aquí en el que analiza cómo ahora Quiñonero y su equipo no son capaces de domar esa bestia.
  • Descubre más historias en Business Insider España.

Joaquín Quiñonero Candela nació en Valencia, se crió en Marruecos y desde hace años es un alto cargo de Facebook.

Al poco de llegar a la multinacional, fue nombrado como director de aprendizaje automático de la compañía. Ahora es responsable de los equipos responsables de la ética en la IA de la firma.

La MIT Technology Review detalla, en un amplio reportaje publicado esta semana, cómo Quiñonero es uno de los responsables detrás de la voracidad con la que la plataforma incentiva y promociona contenidos que polarizan a la sociedad, algo de lo que los directivos de la multinacional son conscientes desde 2016.

Las reacciones en la compañía no se han hecho esperar. El CTO de la multinacional, Mike Schroepfer, ha advertido en un tuit que "el núcleo narrativo del artículo es incorrecto". "Temo que la gente que lo lea pueda pensar que la ética y el sesgo en IA no son problemas importantes en los que trabajar. O que nuestros equipos que están en ellos no están motivados para seguir en ello".

Quiñonero, el español que transformó el muro de Facebook

Hace 9 años Quiñonero trabajaba en Microsoft y dirigía un equipo desde Reino Unido que exploraba las posibilidades del machine learning para mejorar la ratio de clicks sobre los anuncios que ofrece el buscador de la firma, Bing. Fue a visitar a un amigo que trabajaba en Facebook en EEUU y lo que allí vio le fascinó: los ingenieros podían hacer o deshacer con una capacidad inigualable a la que él o su equipo tenían en Microsoft, donde cada movimiento aparejaba toneladas de burocracia.

Las tecnológicas están tomando medidas cada vez más controvertidas, y esta experta explica por qué: "La ética ya no es sostenible como discurso, hay que pasar a la acción"

'Move Fast and Break Things', uno de los eslóganes informales de la red social de Mark Zuckerberg. Muévete rápido y rompe cosas. En cuestión de semanas, Quiñonero hizo varias entrevistas de trabajo y empezó a trabajar en Facebook.

Por entonces el aprendizaje automático, una rama de la inteligencia artificial, no era todavía una apuesta sólida de la industria tecnológica. A su llegada a Facebook, la red social se preparaba para su salida a bolsa y pretendía rivalizar con la división de publicidad en línea de otro gigante, Google. A las semanas, Quiñonero dirigía un equipo similar al que tuvo en Microsoft, pero a las órdenes de Zuckerberg.

Cuenta Karen Hao en su reportaje en la Technology Review que Quiñonero partía en Facebook con ventaja con respecto a su anterior puesto en Microsoft: la cantidad de datos que ya contenían los perfiles de usuario de la red social agilizaron el desarrollo y el despliegue del machine learning para conseguir anuncios más eficaces.

Pronto este caso de éxito llamó la atención de otros de los equipos de la compañía. En concreto, del que se encarga de determinar qué contenidos verán los usuarios en sus muros.

Su modelo de aprendizaje automático cambió la plataforma

Mark Zuckerberg, CEO de Facebook.
Mark Zuckerberg, CEO de Facebook.
REUTERS/Erin Scott

Facebook puso en marcha entonces dos equipos. Por un lado, FAIR, un laboratorio de investigación en inteligencia artificial de la compañía. Por otro, AML, el departamento de aprendizaje automático. Quiñonero volvió a ascender y se puso al frente de este último. Estos dos departamentos se ubicaron en el mismo edificio en el que está el despacho del CEO y fundador, Mark Zuckerberg.

El español creó una plataforma llamada FBLearner Flow que agilizaba el desarrollo de modelos de machine learning. La bestia acababa de nacer: hasta ahora, los trabajadores de la compañía experimentaban y hacían ensayos de prueba y error para perfeccionar el sistema por el que se seleccionaban y mostraban contenidos a los usuarios. El objetivo era y es sencillo: mejorar la tasa de compromiso que los usuarios tienen con los contenidos que selecciona Facebook.

Cómo nacen los sesgos tecnológicos que combate Eticas, la consultora que audita algoritmos a empresas e instituciones para evitar que sean discriminatorios

Ahora, ese análisis no lo hacían ingenieros manualmente: lo hacían algoritmos. "Algoritmos que se estaban creando mucho más rápido, bucles de retroalimentación más personalizados para ajustar y adaptar los contenidos que ofrecía a cada usuario", incide la Technology Review. Con la herramienta, los empleados de Facebook pudieron crear modelos y analizar sus consecuencias: si conseguían una mayor tasa de interacción o no.

El problema es que los modelos que favorecen esa interacción tienden a favorecer polémicas, desinformaciones y extremismos. Hay ingenieros que han dejado la compañía denunciando que Facebook se aprovecha del odio para hacer dinero.

Se cae del caballo

2018. Escándalo Cambridge Analytica. Joaquín Quiñonero tenía programada una charla y sopesa cancelarla. Finalmente se decide a dar la cara. "Acabo de tener los cinco días más difíciles de mi carrera en Facebook", reconoció.

Poco después del escándalo, el director de Tecnología de la compañía, Mike Schroepfer, le pide a Quiñonero que ponga en marcha un equipo para estudiar el impacto social de los algoritmos de Facebook. Él ya había sido el padre de los algoritmos de la red social. Los conocía bien. 

Sin embargo, la situación no ha hecho más que empeorar, como demuestra el asalto al Capitolio del pasado mes de enero y las críticas de algunos de sus competidores, como las del CEO de Apple, Tim Cook.

¿Qué ha pasado? Que, más allá de las buenas intenciones que el departamento de ética en IA de Facebook pueda tener, la máxima que rige la compañía es una obsesión de Zuckerberg: que el producto siga creciendo. Todo lo que se hace o deshace en la tecnología de la plataforma tiene como fin último garantizar el crecimiento de la red. 

Muchas de las conclusiones del equipo de IA responsable de Facebook que ahora dirige Quiñonero se han quedado en la teoría, incide la MIT Technology Review. Las que no, se ejecutan sencillamente para evitar que las futuras regulaciones en ética de algoritmo que se están impulsando en todo el mundo no acaben obstaculizando a la firma.

Por qué Facebook no ha dejado de ser ese monstruo insaciable

Apenas meses después de que Zuckerberg mantuviese una reunión con Quiñonero ya al frente del departamento de ética en IA, el CEO y fundador de la red social lanzó un comunicado. Fue en noviembre de 2018 y en él advertía de cambios en los algoritmos para penalizar contenidos polarizantes o que incentivasen al odio.

¿La solución al problema que había generado la IA con sus sesgos? Más IA. Por supuesto, el principal obstáculo que puede explicar por qué esto no ha resultado en los meses siguientes es que, como explica la Techonology Review, la desinformación y el discurso de odio evoluciona de forma constante. Facebook puede entrenar un modelo capaz de detectar negacionistas del Holocausto, pero no es capaz de ser lo suficientemente ágil para detener contenidos que nieguen el genocidio en Birmania, por ejemplo.

A pesar de ello, Zuckerberg destinó más recursos al laboratorio de investigación social de Quiñonero. El español llegó a Facebook en 2012, con la Primavera Árabe en constante ebullición. Las movilizaciones en todo el mundo se impulsaron gracias al soporte de redes sociales, como Facebook. El profesional pensó entonces que estas podían ser herramientas para el bien.

Eticas, la firma española que audita algoritmos a gobiernos y empresas tecnológicas, publica un 'manual de instrucciones' en el que detalla cómo lo hacen

Tras Cambridge Analytica esa sensación se tambaleó. Decidió quedarse en la compañía porque, según explica a la revista del MIT, podría aportar más tratando de cambiar y mejorar la empresa desde dentro que yéndose. Desde entonces, Quiñonero está genuinamente concienciado en ética algorítmica, destaca el reportaje. Pero el obstáculo está arriba, y en el ansia de crecimiento de la empresa.

En palabras de Hanry Farid, profesor de la Universidad de Berkeley: "Cuando quieres maximizar la interacción la verdad no te interesa. Tampoco el daño, la división o la polarización". "Siempre hacen lo justo para poder publicar un comunicado de prensa. Pero, salvo excepciones, no se traduce en mejores políticas. Nunca lidian con problemas fundamentales".

Una pregunta difícil

"¿Qué papel crees que ha jugado Facebook en el asalto al Capitolio?". La pregunta es clara, sencilla y contundente. Se la hizo la periodista Karen Hao al propio Joaquín Quiñonero un mes después del insólito asalto al Capitolio de Estados Unidos.

Quiñonero trató de esquivar la pregunta enfatizando los progresos que se habían hecho desde Facebook. La periodista insistió.

"No sé si tengo una respuesta fácil a esa pregunta, Karen". "Es una pregunta extremadamente difícil". El responsable de comunicación corporativa que también estaba en la videollamada con Joaquín Quiñonero cogió una pelota antiestrés.

LEER TAMBIÉN: Descubre cómo sería internet sin Google, Facebook o Microsoft gracias a esta extensión

LEER TAMBIÉN: Facebook podría introducir reconocimiento facial en sus próximas gafas inteligentes, según un directivo de la compañía

LEER TAMBIÉN: Por qué a los desarrolladores de Amazon, Facebook y Discord les encanta el lenguaje de programación Rust

VER AHORA: Los expertos analizan los modelos de trabajo, la regulación y la ciberseguridad en los nuevos espacios híbridos en el evento Next Now