ChatGPT ya se usa para escribir código malicioso, crear 'deepfakes' y otros fines dañinos: ¿quién nos puede proteger?

Stephanie Palazzolo,
El vertiginoso crecimiento de la IA generativa ha dejado a muchos preocupados por quién debe ser el responsable de vigilar esta tecnología.
El vertiginoso crecimiento de la IA generativa ha dejado a muchos preocupados por quién debe ser el responsable de vigilar esta tecnología.

OpenAI

  • En los últimos meses, muchos han alabado las capacidades de herramientas de IA generativa como ChatGPT.
  • Otros han expresado, en cambio, su preocupación por su uso indebido, que va desde el malware los deepfakes
  • Business Insider ha hablado con emprendedores e inversores sobre cómo afrontan los retos que plantea esta nueva tecnología.

Hoy en día es difícil navegar mucho rato por Twitter sin toparse con un hilo o un post sobre inteligencia artificial generativa.

En internet, desde los grupos de Facebook hasta los foros de Forocoches o Reddit, los usuarios deliran con la capacidad de esta nueva tecnología de IA para crear contenidos como libros infantiles e imágenes ridículas con unas pocas líneas de orientación humana.

Pero esta deslumbrante tecnología esconde un oscuro trasfondo.

A finales de diciembre, varios usuarios publicaron en el popular foro clandestino de hacking BreachForums cómo utilizaron ChatGPT, el chatbot de IA conversacional de OpenAI que puede generar desde historias hasta, en este caso, código, para crear malware, que es como se conoce al software diseñado para robar datos o dañar ordenadores.

A principios de verano, deepfakes generados por IA de famosas desnudas y pornografía creados mediante la IA generadora de imágenes de la startup Stability AI inundaron los hilos del controvertido foro de debate 4chan.

Cuando los reporteros de Futurism proporcionaron al generador de arte Dall-E Mini las consignas "chica lista" y "buena persona", la IA produjo una serie de rostros, todos ellos de piel clara.

A pesar de estas preocupaciones sobre actores que, a sabiendas o sin saberlo, utilizan la IA generativa con fines perjudiciales, las valoraciones y el bombo publicitario en torno a este ámbito parecen estar explotando sin fin a la vista, lo que deja a muchos preguntándose: ¿quién es responsable de vigilar esta nueva tecnología?

ChatGPT Racismo

Startups que se vigilan a sí mismas

Algunas startups se han encargado de garantizar que sus productos no se utilicen para fines indebidos.

En 2020, Resemble AI, una empresa que puede generar voces utilizando IA, lanzó Resemblyzer, un paquete de código abierto que puede verificar a los hablantes y detectar el habla falsa. El fundador y CEO de Resemble AI, Zohaib Ahmed, cuenta a Business Insider que la herramienta ya se ha utilizado más de 2.000 veces.

"Cuando coges una revista, no acabas de creerte sus fotos", explica Ahmed. "En cierto modo sabes qué ha sido retocado o manipulado. La gente debería aprender a tratar el audio o las artes visuales como trata las fotos de las revistas".

Con Resemblyzer, un modelo de IA analiza un fragmento de audio y asigna a la voz una determinada firma formada por cientos de números basados en características identificativas como el tono y la velocidad. A continuación, el modelo compara otras muestras de audio con la firma para determinar si proceden del mismo locutor.

La propia Resemble AI utiliza Resemblyzer internamente para confirmar que los archivos de audio de muestra que los usuarios cargan para crear una voz generada por IA coinciden con la grabación de consentimiento cargada y dan permiso para utilizar los archivos.

Para otros, como el cofundador y CEO de Synthesia, Victor Riparbelli, la educación, no la protección, es el primer paso.

Ilustración robot escribiendo

Antes de las elecciones al Senado del pasado noviembre en EEUU, Synthesia, una empresa de vídeos generados por inteligencia artificial, lanzó Deepfaked, una base de datos pública de deepfakes, que es como se conoce a los vídeos falsos creados mediante software o inteligencia artificial. Su objetivo era proporcionar a los reguladores y al público un conocimiento compartido de la tecnología.

"Lo que tratamos de hacer aquí no es ser prescriptivos en cuanto a lo que debemos o no debemos hacer, sino simplemente proporcionar un lugar para que la gente tenga un contexto sobre lo que son los deepfakes", comenta Riparbelli.

En parte, esta base de datos ha reducido el estigma y el miedo que rodean a los deepfakes. A pesar de su mala reputación la mayoría de los deepfakes se utilizan con fines de marketing o entretenimiento, y no con fines estrictamente maliciosos, explica Riparbelli a Business Insider

Añade que, en contra de sus expectativas iniciales, el índice de deepfakes no aumentó de forma notable durante las elecciones de mitad de mandato de 2022, y que los vídeos falsos que aparecieron fueron detectados y denunciados rápidamente por la prensa.

Pero con el rápido ritmo de innovación de la IA, Riparbelli sigue creyendo que la IA generativa supone una amenaza para la sociedad, ya que tanto los ciudadanos anónimos a través de ataques como la pornografía deepfake no consentida, como las figuras públicas están en peligro. 

Tanto él como Ahmed coinciden en que el sector necesita unos protocolos de seguridad y una regulación más generalizadas.

En la actualidad, no existe en EEUU una legislación federal exhaustiva sobre IA, aunque en 2022 poco a poco se fue dando la aparición de una regulación específica para cada caso de uso en torno a cuestiones como la IA sesgada en la contratación. 

Sin embargo, Ahmed explica a Business Insider que los funcionarios del Gobierno de EEUU ya están colaborando con nuevas empresas de IA para formar asociaciones y financiar la investigación en torno a estas cuestiones. 

Copiar examen

La responsabilidad de los inversores en IA

Los inversores de capital riesgo también han reconocido que tienen la responsabilidad de dar forma a la ética de la IA generativa, ya que son los guardianes del capital de muchas nuevas empresas. 

Una forma de contribuir es respaldar a empresas centradas en la seguridad como Anthropic, una startup de IA orientada a la investigación y centrada en "entrenar modelos sin consejos perjudiciales ni malos comportamientos", comenta el director de Redpoint, Jordan Segall. 

Otros inversores se centran en una sólida gobernanza de las startups de IA, para lo que prefieren ocupar puestos en los consejos de administración y asegurarse de que las empresas de su cartera dedican el tiempo y los recursos adecuados a la creación de productos bien pensados, añade James Currier, socio general de NFX.

En última instancia, tanto emprendedores como directivos coinciden en que se necesitaría una enorme cantidad de acción colectiva y coordinación por parte de las startups, los inversores y los reguladores para protegerse contra el mal uso de la IA generativa.

"Vamos a tener tantas IA diferentes dando vueltas en los próximos 20 años que va a hacer falta una verdadera red de acciones personales y gubernamentales para que la sociedad siga avanzando positivamente", afirma Currier. "Casi lo estropeamos del todo con las redes sociales. No queremos repetir ese error".

Conoce cómo trabajamos en Business Insider.