Ahora los hackers también 'cazan' sesgos de las IA: así ha sido el primer desafío de Twitter para intentar reparar uno de sus algoritmos

En imagen, usuarios de Twitter.
En imagen, usuarios de Twitter.

Reuters

  • Twitter lanza un evento para cazarrecompensas pioneros: los expertos tenían que encontrar fallos y sesgos en el algoritmo que recorta las imágenes en los tuits.
  • Los premios oscilaron entre los 1.000 y 3.500 dólares. Normalmente este tipo de eventos son para encontrar errores de ciberseguridad, no sesgos algorítmicos.
  • Descubre más historias en Business Insider España.

A medida que en los últimos años la ciberseguridad ha cobrado más relevancia, también lo ha hecho un fenómeno conocido como el bug bounty. Hackers de todo el mundo dedican parte de su tiempo libre a hacer pruebas de penetración y a encontrar errores de seguridad en empresas de todo tipo y tamaño. Si detectan alguna vulnerabilidad, serán recompensados económicamente por la firma.

Son auténticos cazadores de recompensas.

Grandes compañías como Apple, Facebook o Twitter tienen sus propios programas de recompensa para especialistas en seguridad informática que hayan encontrado alguna de esas vulnerabilidades. Se han pagado cantidades desorbitadas. Telefónica Tech anunció hace meses que lanzaría una plataforma de bug bounty por invitación para que sus clientes pudiesen beneficiarse de esa inteligencia colectiva que se premia.

También han nacido plataformas como Hackerone o YesWeHack que consisten, precisamente, en eso: centralizan todas las ofertas para hackers cazarrecompensas y gestionan el pago de las empresas interesadas en estos servicios.

Pero ahora estas plataformas no sirven únicamente para cazar y detectar bugs, vulnerabilidades y fallos de seguridad informática. Ahora también se emplean para 'cazar' sesgos en algoritmos.

No tienen ni 25 años y ya son millonarios: así han conseguido estos 2 hackers hacer su fortuna

El protagonista de este experimento no ha sido otra que Twitter. La plataforma reconoció en mayo de este mismo año que el algoritmo que se empleaba para los recortes automáticos de las imágenes que se publican con un tuit estaba sesgado y lo estaban modificando, como recogía la CNN.

Cuando un usuario publica un tuit con una imagen adjunta, Twitter recorta automáticamente esa imagen para generar una previsualización. De esta manera, la plataforma evita que haya tuits con imágenes enormes o más altas que anchas generando molestias a los usuarios que están navegando por la cronología.

El problema es que varios tuiteros se dieron cuenta de que si en una imagen vertical aparecía una persona blanca en un extremo y una persona racializada en otro, el algoritmo y sus sesgos siempre iban a recortar la imagen para mostrar a la persona blanca en la previsualización. El primero en hacer público este experimento en la red social fue el usuario @bascule.

"El de Twitter es solo un ejemplo del racismo manifestándose en los algoritmos de aprendizaje automático", reivindicaba @bascule, quien en realidad es un ingeniero y criptógrafo llamado Tony Arcieri.

Conscientes del problema, Twitter anunció cambios en su algoritmo y esos cambios los han llevado más allá: organizaron un concurso en Hackerone, una de las plataformas de bug bounty más conocidas. El mismo duró desde el 30 de julio hasta la semana pasada, y quienes encontrasen más problemas y sesgos en el algoritmo optarían a una recompensa de hasta 3.500 dólares.

Para garantizar el funcionamiento de la prueba, Twitter ofreció a los participantes el código con el que se generan los recortes automáticos de las imágenes en la red social. "Vuestra misión es demostrar qué potenciales daños puede causar el algoritmo que introduzcamos". Daños que pueden ser "no intencionados" o "intencionados", según reconoce la propia plataforma.

Ya se conocen los resultados. Ha sido Wired quien ha publicado este lunes cómo el nuevo algoritmo para recortar imágenes en Twitter favorecía a mujeres blancas y delgadas a la hora de hacer estos recortes. Y en cuanto a recortes de imágenes en las que aparecen rostros de personas, una conclusión es clara: las mujeres delgadas y jóvenes tienen más probabilidades de permanecer en la previsualización.

Es lo que ha descubierto un estudiante de Seguridad Informática de la Escuela Politécnica de Lausana, la EPFL, en Suiza. Su nombre, Bogdan Kulynych, ya está escrito como uno de los primeros participantes y cazadores de sesgos recompensados de la historia. "Básicamente, conforme más delgada, joven y femenina es una persona, más se verá favorecida por el algoritmo", confirmaba en Wired Patrick Hall, científico en la BNH, una compañía que se dedica a la consultoría sobre algoritmos.

"Silicon Valley está matando la innovación": por qué hay que empezar a auditar los algoritmos a las tecnológicas para evitar distopías, según una experta

Pero no solo protagonizan rostros de personas el experimento. Otra de las principales conclusiones de este evento ha sido que en las imágenes en las que solo aparecen caracteres, el algoritmo prevalece los caracteres occidentales frente a los de idiomas como el árabe, el chino, el japonés o el coreano.

Sobre los sesgos de algoritmos y como nacen, la experta Gemma Galdon, consultora y fundadora de Eticas, ha explicado en Business Insider España cuáles son los principales desafíos sobre una IA con ética y que no genere desigualdades o vulnerabilice colectivos. La IA ética es un elemento que cada vez cobra más atención de las empresas en todo el mundo, según las conclusiones de recientes estudios elaborados por la consultora BCG.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.