OpenAI prohíbe a los políticos el uso de ChatGPT y DALL·E para hacer campaña

Sam Altman, ex-CEO de OpenAI.
Sam Altman, ex-CEO de OpenAI.

REUTERS/Elizabeth Frantz

  • 2024 va a ser un año con procesos electorales en países especialmente relevantes desde el punto de vista de la política internacional: Estados Unidos, Rusia, India, México, Venezuela...
  • Con esto en mente (y con las elecciones estadounidenses ya en el horizonte), la desarrolladora de herramientas como ChatGPT, OpenAI, ha prohibido el uso de sus chatbots de IA para hacer campaña electoral.

Este año será recordado, entre otras cosas, por la gran cantidad de países y de comunidades políticas —como la Unión Europea— que van a llamar a sus habitantes a las urnas. 

Estados Unidos, Rusia, India, México, Venezuela o el propio Parlamento Europeo van a convocar elecciones en el 2024, en un periodo que algunos medios de comunicación ya denominan como el "superaño electoral", puesto que cerca del 51% de la población mundial está llamada a votar.

Esto, tal y como se han encargado de demostrar escándalos como el de Cambridge Analytica, entraña una serie de riesgos que antes no existían. Y es que las nuevas tecnologías —con las redes sociales como principal exponente— tienen la capacidad de incidir en los procesos electorales, pudiendo llegar a modificar la intención de voto de la población a través de las noticias falsas y los deepfakes.

Sin embargo, en los últimos meses ha aparecido un nuevo riesgo. Los chatbots de inteligencia artificial generativa permiten generar audios, imágenes, textos y vídeos que pueden llevar a error a determinadas personas, haciéndoles creer, por ejemplo, que esa foto de Donald Trump siendo detenido de manera forzosa por la policía de Nueva York es real.

Quizá sea esto lo que ha llevado a OpenAI, desarrolladora de herramientas de IA como ChatGPT y DALL·E, a prohibir el uso de sus chatbots para hacer campaña electoral y obstaculizar el voto. Tal y como ha publicado el Wall Street Journal, la startup con sede en San Francisco ha puesto límites al uso de sus herramientas en política durante el periodo previo a las elecciones estadounidenses de 2024.

 

Según el medio de comunicación, el auge de estas herramientas ha suscitado la preocupación en EEUU de que el software desarrollado por OpenAI y empresas homólogas pueda utilizarse para manipular a los votantes con noticias falsas e imágenes y vídeos generados por inteligencia artificial.

De ese modo, OpenAI ha declarado este lunes que no está permitido utilizar sus herramientas para hacer campaña o ejercer presión política. Tampoco está permitido crear chatbots de IA que se hagan pasar por candidatos u otras personas reales, ni chatbots de IA que se hagan pasar por gobiernos locales.

El Wall Street Journal informa de que la compañía también ha señalado que prohíbe las aplicaciones que desalienten el voto, por ejemplo, afirmando que votar no tiene sentido

Para ayudar a los votantes a evaluar mejor la veracidad de una imagen, OpenAI ha anunciado que va a empezar a introducir información sobre su procedencia en el código de las imágenes generadas por DALL·E. Además, la desarrolladora de ChatGPT defiende que proporciona cada vez más enlaces y atribuciones a noticias para ayudar a los votantes a evaluar la fiabilidad del texto generado por IA.

Se trata de una serie de medidas que llegan poco después de que se aprobase el pasado 8 de diciembre la primera ley del mundo que va a regular la inteligencia artificial, el Reglamento de IA de la Unión Europea (que se espera que entre en vigor a finales de 2026). 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.