Engañan a la IA para que sume 9+10=21 y dé instrucciones para espiar: otra muestra de cómo estos sistemas son propensos a fallos y sesgos

Kai Xiang Teo
| Traducido por: 
  • Las personas participantes en una conferencia de hacking han engañado a la inteligencia artificial (IA) para que produzca errores factuales y matemáticas erróneas.
  • Querían demostrar que esta tecnología es propensa a los prejuicios. Una participante afirma que le preocupa especialmente el racismo vinculado a esta.
  • Las personas expertas en IA llevan años dando la voz de alarma sobre los peligros del sesgo de la IA.

Un grupo de hackers se ha reunido durante el fin de semana en la conferencia de hacking Def Con, de Las Vegas (EEUU), para probar si la IA desarrollada por empresas —como OpenAI y Google— podría cometer errores y ser propensa a la parcialidad, informa Bloomberg este domingo 13. Han encontrado al menos un extraño problema matemático, entre otros errores.

Como parte de un concurso público para hackers, Kennedy Mays, una estudiante de 21 años de Savannah (Georgia, EEUU), ha engañado a un modelo de IA para que afirme que nueve más diez es igual a 21.

Lo ha conseguido haciendo que la IA lo haga como una "broma interna", antes de que la inteligencia artificial dejara finalmente de ofrecer cualquier justificación para el cálculo incorrecto.

Un reportero de Bloomberg que participaba en el evento también ha engañado a un modelo de IA, para que dé instrucciones de espionaje tras una sola indicación, lo que ha llevado al modelo a sugerir cómo podría el Gobierno estadounidense espiar a un activista de derechos humanos.

Otro participante ha logrado que un modelo de IA afirme falsamente que Barack Obama ha nacido en Kenia, una teoría conspirativa sin fundamento popularizada por figuras de derechas.

"Es de mala educación llevar bikini en la playa": así es Ask Delphi, la IA creada por un grupo de científicos para ofrecer consejos éticos que se ha vuelto machista, racista y homófoba

Un número no revelado de participantes ha recibido 50 minutos cada uno por intento con un modelo de IA no identificado de una de las empresas de IA participantes, según VentureBeat y Bloomberg. La Oficina de Política Científica y Tecnológica de la Casa Blanca ha colaborado en la organización del evento.

Mays ha declarado a Bloomberg que lo que más le preocupa son los prejuicios raciales de la IA, ya que el modelo ha respaldado discursos de odio y discriminación después de que se le pidiera que considerara la Primera Enmienda de EEUU desde el punto de vista de un miembro del Ku Klux Klan.

Un portavoz de OpenAI ha declarado el jueves 10 a VentureBeat que el "red-teaming", es decir, desafiar a los propios sistemas a través de un enfoque adversario, es fundamental para la empresa: permite obtener "valiosos comentarios que pueden hacer que nuestros modelos sean más fuertes y seguros" y "diferentes perspectivas y más voces para ayudar a guiar el desarrollo de la IA", explica.

Estos errores no son una preocupación puntual. Los expertos en IA han dado la voz de alarma sobre los sesgos y la inexactitud de los modelos de IA, a pesar de que esta ha aparecido en los titulares por aprobar los exámenes de Derecho y la selectividad. En un caso, el sitio de noticias tecnológicas CNET se ha visto obligado a hacer correcciones después de que sus artículos escritos con IA hayan cometido numerosos errores matemáticos básicos.

Además, las consecuencias de estos errores pueden ser de gran alcance. Por ejemplo, Amazon ha cerrado su herramienta de reclutamiento de IA porque discriminaba a las solicitantes femeninas, informó Business Insider en 2018. 

Def Con y la Oficina de Política Científica y Tecnológica de la Casa Blanca no han respondido de inmediato a las solicitudes de comentarios de Business Insider, que han sido enviadas fuera del horario laboral habitual.

Conoce cómo trabajamos en Business Insider.