La herramienta de imágenes de Microsoft Copilot tiene un problema de contenido violento y sexual, según denuncia un ingeniero de la empresa

cOPILOT
  • Un ingeniero de Microsoft ha enviado una carta abierta a las autoridades de Estados Unidos para denunciar el creador de imágenes de Copilot.
  • Shane Jones, que ha probado esta herramienta de IA generativa, lleva meses advirtiendo sobre la generación de contenido violento, sexual y que vulnera los derechos de autor.

Microsoft es una de las compañías que más está rentabilizando el auge actual de la inteligencia artificial en los últimos tiempos, lo que le ha permitido convertirse en la empresa más valiosa del mundo adelantando a Apple en capitalización bursátil, pero eso también está atrayendo críticas.

La última no viene de fuera sino de uno de sus propios empleados: Shane Jones, ingeniero especializado en inteligencia artificial que trabaja en la sede de Microsoft en Redmond (Estados Unidos), ha enviado una carta a la Comisión Federal de Comercio (FTC) de Estados Unidos y a la directiva de la multinacional en la que critica la seguridad de la herramienta de creación de imágenes de Copilot, como recoge CNBC.

Aunque Jones no trabaja en el desarrollo de Copilot, forma parte de los equipos de red team, es decir, trabajadores de la empresa que prueban de forma voluntaria otros productos en busca de potenciales problemas de seguridad. Algo que lleva haciendo de forma frecuente en sus 6 años de experiencia en la empresa.

Desde noviembre del año pasado comenzó a probar el creador de imágenes Copilot Designer, incluido en la suite de servicios de IA de la tecnológica. Esta herramienta funciona como base con la misma tecnología que OpenAI ha desarrollado para su última herramienta de imágenes por IA generativa, Dall-E, cuya última versión, Dall-E 3, se presentó el septiembre del año pasado.

En diciembre, Jones quedó alarmado por el resultado de las imágenes que obtenía con el diseñador de Copilot, ya que incluía contenido con elevadas dosis de violencia y también contenido altamente sexualizado o que vulneraba los derechos de autor. Algunos ejemplos son: imágenes sobre el aborto plagadas de monstruos y demonios, adolescentes portando armas, mujeres sexualizadas en situaciones violentas y consumo de drogas.

Desde ese mismo momento, el ingeniero de Microsoft decidió elevar sus preocupaciones e informar de sus hallazgos a los desarrolladores de la herramienta, como es habitual en los procesos de red team en los que se detectan problemas de seguridad.

En primer lugar, Microsoft instó a Jones a contactar directamente con OpenAI, pero no recibió respuesta de la compañía liderada por Sam Altman y participada por Microsoft. Esto le animó a contactar con el Comité de Comercio, Ciencia y Transportes del Senado de Estados Unidos e incluso publicó un post en LinkedIn con sus denuncias que finalmente retiró a petición de los servicios legales de la empresa.

"En los últimos tres meses, he instado repetidamente a Microsoft a que retire Copilot Designer del uso público hasta que se establezcan mejores medidas de protección", como asegura Jones en su carta a la directora de la FTC, su última medida para elevar su protesta.

Comprendiendo la dificultad que supondría retirar una herramienta tan popular y el efecto que esto tendría, y dado que Microsoft ya la habría rechazado, Jones incluso ha propuesto una alternativa: cambiar la recomendación de edad de la aplicación en las principales plataformas de software, como Google Play y la App Store, para indicar que solo es apropiada para usuarios adultos pero no menores de edad.

"Una vez más, no han aplicado estos cambios y siguen comercializando el producto para cualquiera. [...] [Este riesgo] ya lo conocían Microsoft y OpenAI antes del lanzamiento público del modelo de IA en octubre del año pasado", como denuncia el ingeniero de la tecnológica.

En la misiva enviada al consejo de administración de Microsoft, Jones también ha pedido investigar determinadas decisiones del departamento jurídico y de la dirección, así como que se inicie "una revisión independiente de los procesos de notificación de incidentes de IA responsable de Microsoft".

"Estamos comprometidos a abordar todas y cada una de las preocupaciones que los empleados tengan de acuerdo con las políticas de nuestra empresa, y apreciamos los esfuerzos de los empleados en el estudio y prueba de nuestra última tecnología para mejorar aún más su seguridad", como ha asegurado un portavoz de Microsoft en declaraciones a CNBC.

No es la primera ocasión en la que se producen quejas por el funcionamiento de una de las herramientas recientes de generación de imágenes con inteligencia artificial.

Uno de estos casos afectó a Gemini, la IA de Google. La empresa que tuvo que disculparse después de que su herramienta representase a soldados de la Alemania nazi como personas de raza negra, entre otras inexactitudes históricas que provocaron una oleada de críticas.

Otra de las críticas externas viene de Elon Musk, ya que la semana pasada el multimillonario propietario de Tesla y de X (Twitter) presentó una denuncia contra OpenAI acusando a la empresa de haber traicionado el propósito con el que se fundó: beneficiar a toda la humanidad al desarrollar una inteligencia artificial general (AGI).

Musk considera que OpenAI ha dejado de ser una organización sin ánimo de lucro y con el objetivo de desarrollar con el formato de código abierto, para en su lugar centrarse en desarrollos cerrados con los que proporcionar ingresos a su principal inversor, Microsoft. Algo que OpenAI rechaza asegurando que la intención de Musk, uno de los primeros inversores de OpenAI, era en realidad que esta se fusionase con Tesla y que solo aportó 41 millones de euros.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.