Los expertos advierten del riesgo que supone ChatGPT y apuestan por alternativas de código abierto: "Mucho poder, en pocas manos, durante mucho tiempo, tiende a acabar mal"

Debate ético sobre ChatGPT

Getty

  • ChatGPT, el generador de texto por IA de OpenAI, se ha planteado como una auténtica revolución tecnológica, pero algunos críticos alertan de los importantes riesgos que pueden traer consigo este tipo de herramientas. 
  • Business Insider España entrevista a varios expertos en desarrollo, programación e inteligencia artificial que alientan a legislar estas tecnologías y defienden que existen alternativas más positivas para la sociedad como el open source.

Prácticamente desde sus orígenes, la inteligencia artificial ha sido motivo de preocupación a nivel social. Siempre ha existido cierto temor a la rebelión de las máquinas, pero —por suerte o por desgracia— nunca antes habían demostrado ser tan capaces de suponer un peligro real como hoy en día.

No se trata necesariamente de herramientas que vayan a alzar las armas y a borrar a la especie humana de la faz de la Tierra (o sí), sino de tecnologías que parecen ser capaces de tener consciencia de sí mismas, de desarrollar emociones humanas o de suplicar que no se las considere como meros robots

Pese a que existe el riesgo de pensar que estas herramientas pueden tener sentimientos y, por lo tanto, odiar a sus creadores, la realidad es que el verdadero peligro que entraña la IA se sitúa en las cuestiones éticas y morales que conlleva su desarrollo y posterior utilización. 

Algunas expertas han explicado con anterioridad que, cuando se reflexiona sobre la tecnología en términos humanos y se dice que esta tiene sentimientos, se pone el foco en el sitio incorrecto: "Ya no pensamos en quién ha diseñado esa máquina, con qué fin, por qué y para qué se está utilizando".

Si se analizan esas aristas se puede averiguar, por ejemplo, cuál fue el origen de OpenAI, la desarrolladora que se encuentra detrás de ChatGPT; por qué Microsoft está apostando tan decididamente por esta compañía o cuáles son los peligros reales de los modelos lingüísticos en los que se basan estas tecnologías

Business Insider España ha entrevistado a Marc Almeida, programador y experto en ciberseguridad, y a Álvaro Rubio, ingeniero de software en Zalcu Technologies, para averiguar cuáles son las implicaciones de interactuar con generadores de texto como ChatGPT o Bard y para preguntarles si existen alternativas a estos bots que no hayan sido desarrolladas por megacorporaciones tecnológicas.

La inteligencia artificial es "un espejo de nuestra especie"

Marc Almeida es programador y experto en ciberseguridad. En 2020 realizó una investigación en la que analizó cerca de 40 millones de dominios web y detectó que el 99% de ellos no tenían activados los filtros necesarios para evitar la mayor parte de los de robos de identidad y ciberataques que se producen en internet. 

Al preguntarle por ChatGPT, Almeida se muestra tajante: "Mola. Mola un montón. Y hay que recordar que es la primera versión pública. Quiero decir, que, de no estar a estar, es un salto cuantitativo de varias órdenes de magnitud". 

"¿Qué ocurre?", se pregunta el propio Almeida. "Que la inteligencia artificial, los modelos de este tipo, son un espejo de nuestra especie. Y eso se dice muy rápido, pero tiene muchísimas derivadas", asegura, refiriéndose a la forma en la que se desarrollan estas tecnologías, por medio de la cual, estudian miles de millones de parámetros de información.

Entrevista trabajo

"Han escaneado Internet, se han nutrido de la información volcada por todos", afirma Almeida, que denuncia que estas empresas han usado "un paradigma de acción yanki": "Move fast and break things, que la traducción al castellano sería: más vale pedir perdón que permiso".

Al actuar de esa forma, las compañías han expuesto sus modelos de inteligencia artificial a toda clase de contenidos que promueven discursos de odio por motivos de etnia, género, orientación sexual, ideología política, edad o religión. Lo que ha llevado a la IA a interiorizar esos sesgos en sus respuestas.

Sin embargo, este experto en ciberseguridad y programación indica que no tiene claro si esto es bueno o es malo, ya que "si OpenAI lo hubiese hecho a la europea, a lo mejor nunca hubiese salido". 

"El uso de tecnologías éticas es una responsabilidad de los desarrolladores"

Inteligencia artificial.

Getty Images

Álvaro Rubio es ingeniero de desarrollo de software en Zalcu Technologies, una startup que desarrolla aplicaciones para optimizar procesos productivos empresariales y ofrece un servicio de consultoría especializado en ciberseguridad. En este momento, Rubio se encuentra trabajando precisamente en un proyecto de inteligencia artificial conversacional.

Rubio reconoce que utiliza ChatGPT con frecuencia, porque considera que le ayuda a mejorar la eficiencia con la que ejecuta diversas tareas: "Por ejemplo, la rapidez con la que se pueden obtener respuestas precisas a una amplia variedad de preguntas reduce en gran medida el tiempo invertido en las búsquedas de información".

"Las IA conversacionales pueden ser una herramienta útil para los desarrolladores en una variedad de tareas, desde la resolución de problemas hasta la generación de código y la automatización de tareas", apunta este ingeniero de software.

 

Aun así, Rubio expresa que "es importante que los generadores de texto cuenten con principios éticos para evitar fomentar discursos que puedan ser ofensivos o perjudiciales para ciertos grupos de personas".

"Estos principios éticos deberían ser considerados durante todo el proceso de diseño y desarrollo del generador de texto", explica el ingeniero, y añade: "Se deberían realizar pruebas rigurosas para garantizar que la herramienta no genere contenido inapropiado o discriminatorio".

Rubio sostiene que "el uso de tecnologías éticas es una responsabilidad de los desarrolladores y empresas de software", ya que "estas herramientas pueden tener un impacto significativo en la sociedad".

"Es importante que la sociedad tenga una voz"

Almeida y Rubio concuerdan al señalar que las personas deberían poder tener capacidad de decisión sobre los contenidos y las respuestas que ofrecen generadores de texto por inteligencia artificial como ChatGPT o Bard.

"Es importante que la sociedad tenga una voz en la determinación de lo que pueden decir estas herramientas de generación de texto", asegura Rubio. "Si bien las empresas pueden establecer sus propias normas éticas para el contenido generado por su herramienta, también es importante que la sociedad tenga la oportunidad de proporcionar retroalimentación".

"Algo en lo que se suele iterar bastante nuestra especie es: mucho poder en pocas manos, durante mucho tiempo... tiende a acabar mal", afirma Almeida. "Si la nube es el ordenador de otro, que es una frase del folclore de internet", razona este experto en ciberseguridad, "la inteligencia artificial es el cerebro de otro".

Ambos coinciden en que el open source (código abierto), esa filosofía de desarrollo de software por medio de la cual el código fuente del programa es accesible al público general, podría ser la solución a los problemas éticos y morales que plantea la inteligencia artificial.

"Menos mal que existe, porque si no todo internet estaría dirigido por 3 empresas"

Qué es inteligencia artificial

Rubio cuenta que actualmente está trabajado en un proyecto que "consiste en la creación de chatbots que puedan interactuar con los usuarios en múltiples canales, por ejemplo, a través de aplicaciones de web, línea telefónica o redes sociales". 

Para ello está utilizando el marco de trabajo de Rasa Open Source, una herramienta de código abierto que "ofrece modelos de procesamiento de lenguaje natural pre-entrenados, basados en la misma tecnología de inteligencia artificial que utiliza ChatGPT".

"El código abierto permite que la comunidad tenga acceso a la tecnología y que la mejore a través de la colaboración y la retroalimentación", valora el ingeniero de software en Zalcu Technologies. 

Locución y doblaje con inteligencia artificial.

Almeida indica que "menos mal que existe" el código abierto, porque "si no todo internet estaría completamente dirigido por 3 empresas, todo lo que tiene que ver con tecnología, y eso sería malo".

"El abierto, como su propio nombre indica, es abierto y eso te permite, por lo menos, formar parte o ver el día a día, ver qué ocurre", explica el experto en programación y ciberseguridad. "Enterarte. No te digo ya colaborar, añadir, quitar o debatir, pero sí enterarte de lo que ocurre por detrás".

Entre las principales alternativas open source a propuestas como Bard o ChatGPT se encuentran Bloom, una aplicación basada en la arquitectura PaLM de Google que ya cuenta con más 540.000 millones de parámetros, u Open Assistant, un generador de texto impulsado por los mismos desarrolladores de Stable Diffusion.

Sin embargo, estas alternativas cuentan con una serie de desventajas que suelen ser intrínsecas en las herramientas de código abierto. Por ejemplo, disponen de un menor acceso a los ingentes recursos económicos que hacen falta para desarrollar estas tecnologías. Además, suelen ser bastante más difíciles de usar que sus equivalentes de pago

Estas son las 6 alternativas a ChatGPT: la apuesta de Microsoft por OpenAI compite contra gigantes de la talla de Google o la tecnológica china Baidu

"Todo lo que es privativo tiende a ser mucho más fácil de usar. Es el famoso botón gordo. Nuestros cerebros quieren sistemáticamente botones gordos: un botón que sea muy grande, que lo presiones y te haga la cena", expresa Almeida. "Entonces, claro, cuanto más fácil, pues más gente lo va a usar".

Rubio también reconoce que existen desventajas en el modelo open source, pero lo ve como una solución que puede ser "viable": "Si bien la falta de recursos puede ser un obstáculo para el desarrollo de modelos de IA open source, hay muchos ejemplos exitosos de proyectos de IA open source que han logrado superar este desafío, como TensorFlow y OpenCV".

Este ingeniero de software concluye que, lo primordial, es legislar estas tecnologías: "La regulación debe garantizar que los bots operen dentro de límites éticos y morales sin promover la discriminación ni el odio".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.