Qué son y cómo funcionan los patrones oscuros: así consiguen las redes sociales y las plataformas tecnológicas que te comportes como sus algoritmos esperan

Reconocimiento facial en China
Reuters
  • Los patrones oscuros son trucos bien conocidos del diseño web, pero su potencial para manipular a las personas crece gracias a su optimización con sistemas de IA.
  • Los especialistas en ética y algoritmos denuncian que las grandes tecnológicas no den pasos claros para ser más transparentes con este tipo de cuestiones.
  • Descubre más historias en Business Insider España.

Estás reservando un vuelo o un hotel, y en la pasarela de pago hay una cuenta atrás que te urge a pagar lo antes posible porque los billetes están volando.

Ves un vídeo en una red social, y en cuanto termina, la plataforma te recomienda otro que, no sabes muy bien por qué, te atrapa. Entras en un bucle durante varios minutos.

Te toca hacer la compra en línea y en los artículos relacionados y recomendados hay productos que ni se te habían pasado por la cabeza, pero que acaban en el carrito.

El algoritmo de Netflix sí que acierta (aunque tú creas que no)

Los expertos en ética en la inteligencia artificial llevan ya un tiempo exigiendo a las grandes tecnológicas más transparencia en torno a sus algoritmos. Los sistemas de IA, si no se auditan, pueden provocar que colectivos acaben vulnerabilizados por culpa de un sesgo no detectado. Ocurre, por ejemplo, con las mujeres que van a pedir un préstamo hipotecario.

Pero muchos de esos especialistas están también llamando la atención en lo que se conocen como "patrones oscuros", esos pequeños trucos del diseño web con el que las compañías consiguen que sus usuarios o clientes actúen justo como sus algoritmos esperan que lo hagas.

El Financial Times ha recogido en un artículo las críticas de muchos de estos especialistas, ya que, aunque en un principio son dos elementos que no tienen que ver —uno es un sistema de IA, el otro un truco de diseño—, lo cierto es que estos "patrones oscuros" se retroalimentan y optimizan gracias a la aplicación de sistemas de aprendizaje automático.

La regulación de los algoritmos de la ley de 'riders' va mucho más allá de apps como Glovo o Deliveroo: así te afecta aunque no seas repartidor

Una de las críticas que figuran en la pieza del diario británico es la de Meredith Whittaker, una ingeniera que dejó su trabajo en Google y ahora es una de las responsables del AI Now Institute de una universidad de Nueva York. "Nunca veréis a estas compañías priorizando ética sobre beneficios", lamenta, en referencia a los gigantes tecnológicos.

Los algoritmos que manipulan y enfrentan

Ya se ha escrito y discutido sobre el papel de los patrones oscuros en la red contemporánea. Lo clave aquí es el hecho de cómo estos elementos se han optimizado a cuenta de sistemas de aprendizaje automático de inteligencia artificial. 

Jessica King, investigadora en un equipo centrado sobre el impacto de la IA en el ser humano de Stanford, detalla cómo las compañías se copian unas a las otras para introducir estos elementos. Ahora es complicado encontrar una agencia de viajes en línea que no cuente con esos contadores y esos límites de tiempo mientras se realiza la reserva, dando la impresión de que se trata de un destino codiciado cuando no tiene por qué ser así.

Las empresas europeas son las que más impulsan la ética en los algoritmos, aunque la mayoría siguen sobreestimando sus avances, según BCG

Stuart Rusell, que también aparece citado en el Financial Times, es profesor de IA en la Universidad de California y destaca cómo los algoritmos en redes sociales están hechos para manipular a las personas. 

Aunque Facebook rechaza la idea de que contar con una audiencia polarizada les beneficie, lo cierto es que la plataforma ha recibido críticas incluso de otros directivos tecnológicos, como Tim Cook, CEO de Apple. Otras firmas han responsabilizado a la compañía de Zuckerberg de haber auspiciado lo que acabó desembocando en el asalto al Capitolio del pasado mes de enero.

Al frente del equipo que trata de 'domesticar' el monstruo algorítmico en el que se ha convertido Facebook se sitúa, precisamente, un español.

Su ética no va a ir nunca contra sus intereses

La especialista española en ética en algoritmos, Gemma Galdon, directora y CEO de Eticas, profundizaba hace semanas en Business Insider España en la razón por la que, a pesar de que este debate está más vivo que nunca, las tecnológicas siguen rechazando la posibilidad de ser más transparentes y abiertas en cuanto a sus algoritmos.

Galdon destacaba que formaba parte de un proceso en el que los usuarios ya no se contentan con palabras y discursos: quieren hechos.

Facebook tenía pruebas de que sus algoritmos polarizan y enfrentan a los usuarios, pero sus directivos descartaron soluciones

Lo que ocurre es que, como destacan otros expertos consultados en este artículo del Financial Times, es muy complicado que la ética de una gran tecnológica acabe yendo en contra de su modelo de negocio.

Lo demostró la salida de Timnit Gebru, una especialista en ética y algoritmos que salió de Google a finales del año pasado. Según la propia Gebru, citada por el Financial Times, aquel caso reveló cómo la multinacional del buscador entiende que debe mitigar los efectos perniciosos que provocan sus tecnologías:

"Su actitud recuerda a: nos preocupa mucho esto y queremos arreglarlo, pero no es tan grave como pensáis".

Otros artículos interesantes:

Un algoritmo de Airbnb para fijar precios acabó provocando más discriminación a los anfitriones negros, según un estudio

Así funcionan los "tributos inteligentes" a partir de big data e inteligencia artificial que va a poner en marcha el Ayuntamiento de Madrid

Solver IA: la startup valenciana que es capaz de predecir mediante inteligencia artificial qué galletas triunfarán en supermercados como Consum

Te recomendamos