Los problemas de derechos de autor de OpenAI se deben al famoso mantra de Silicon Valley: "Muévete rápido y rompe cosas"

Hasan Chowdhury
| Traducido por: 
Sam Altman, CEO de OpenAI.
Sam Altman, CEO de OpenAI.

Andrew Caballero-Reynolds/Getty

  • OpenAI, la desarrolladora de herramientas de inteligencia artificial generativa como DALL·E o ChatGPT, afronta estos días varias batallas legales por una posible infracción de derechos de autor.
  • Medios de comunicación como el New York Times han acusado a OpenAI de utilizar ilegalmente sus contenidos, pero la startup defiende que su enfoque es la única forma de desarrollar modelos de IA de alta calidad.

OpenAI, como muchas grandes empresas tecnológicas hicieron antes que ella, se ha apoyado en gran medida en un viejo mantra de Silicon Valley para desarrollar ChatGPT.

Move fast and break things, cuya traducción al español sería algo así como "más vale pedir perdón que permiso", ha sido durante años la estrategia que ha permitido el crecimiento exponencial de compañías como Uber, Airbnb o Facebook. Este mantra ha permitido a las empresas primero sacar al mercado productos que rompían las reglas y luego tener que afrontar las consecuencias.

Parece que esta misma estrategia ha metido a OpenAI en problemas legales con varios autores de diversos contenidos que acusan a la startup de haber utilizado ilegalmente sus obras para entrenar sus modelos de inteligencia artificial generativa.

El mes pasado, el New York Times presentó una denuncia contra OpenAI y su principal promotor, Microsoft, alegando que ambas compañías habían utilizado sus textos periodísticos para mejorar sus servicios de IA.

Otras organizaciones, como el Gremio de Autores (el principal sindicato de escritores estadounidense), también han alegado que varias empresas de inteligencia artificial han utilizado sin permiso obras protegidas por derechos de autor de más de 8.000 autores de ficción y no ficción (entre los que se encontrarían escritores de renombre como Dan Brown o Margaret Atwood).

 

OpenAI ha intentado contraatacar la demanda del New York Times con un artículo publicado en su blog este lunes, en el que asegura que el medio de comunicación no está "contando toda la historia". 

La desarrolladora de ChatGPT da a entender que las pruebas aportadas por el New York Times, varias respuestas en las que se puede ver al chatbot de IA "regurgitando" artículos del periódico, "parecen estar sacadas de artículos de hace años que han ido proliferando en múltiples páginas web de terceros".

Esta es la cuestión: herramientas como ChatGPT solo son valiosas cuando tienen acceso a contenidos como artículos de noticias, novelas, biografías y otras formas de material protegido por derechos de autor que alimentan sus grandes modelos lingüísticos (LLM, por sus siglas en inglés).

Esa es —al menos en parte— la defensa de OpenAI en estos momentos. La compañía ha admitido que sería "imposible entrenar los principales modelos de inteligencia artificial actuales sin utilizar materiales protegidos por derechos de autor", en las pruebas presentadas en una investigación sobre LLM realizada por la Cámara de los Lores del Reino Unido que se publicó la semana pasada.

En otras palabras, OpenAI quiere que todo el mundo acepte que tiene que pedir perdón en lugar de permiso si quiere ofrecer una IA que sea realmente buena.

Cómo justifica OpenAI el uso de otro tipo de contenido

Sam Altman, CEO de la desarrolladora de ChatGPT, lleva un tiempo poniendo en práctica su estrategia de seducción. El año pasado se reunió con varios líderes mundiales, como el francés Emmanuel Macron, el surcoreano Yoon Suk Yeol o el español Pedro Sánchez.

Altman se embarcó en una gira mundial para explicar cómo funciona realmente la inteligencia artificial generativa, por qué es importante impulsar esta tecnología y cómo podría beneficiar a las economías mundiales. Business Insider informó entonces de cómo Altman parecía estarse ganando la confianza de la gente.

El segundo pilar consistía en conseguir que todo el mundo aceptase que OpenAI no tenía más remedio que aprovechar el contenido producido por otros si realmente quería tener la oportunidad de ofrecer una IA revolucionaria.

En su declaración ante la Cámara de los Lores británica, la empresa ha afirmado que sus herramientas de inteligencia artificial solo muestran "su mejor versión cuando incorporan y representan toda la diversidad y amplitud de la inteligencia y la experiencia humanas".

OpenAI ha añadido que, para ello, la IA requiere de "una gran cantidad de datos de entrenamiento y computación, ya que los modelos revisan, analizan y aprenden patrones y conceptos que surgen de billones de palabras e imágenes".

Por supuesto, la propia compañía no posee billones de palabras e imágenes. Estas, alega OpenAI, proceden en su mayoría de tres fuentes principales: información disponible públicamente online, información con licencia de terceros e información proporcionada por sus usuarios.

"Limitar los datos de entrenamiento a libros y dibujos de dominio público creados hace más de un siglo podría dar lugar a un experimento interesante, pero no ofrecería sistemas de inteligencia artificial que satisfagan las necesidades del ciudadano actual", sostiene la responsable de ChatGPT en una de las pruebas aportadas.

IA en los centros de datos

En el artículo que ha sido publicado este lunes en su blog, OpenAI justifica su uso de material protegido por derechos de autor en virtud de la doctrina del uso legítimo o fair use.

"Entrenar modelos de IA utilizando materiales disponibles públicamente en internet es un uso justo, tal y como respaldan precedentes antiguos y ampliamente aceptados. Consideramos que este principio es justo para los creadores, necesario para los innovadores y fundamental para la competitividad de Estados Unidos", argumenta la startup.

Además, la empresa se encuentra en estos momentos negociando licencias con varios editores de noticias. De hecho, OpenAI estaba en conversaciones con el propio New York Times antes de que se conociese la demanda presentada por el periódico el pasado 27 de diciembre. La compañía ya ha acordado asociaciones con medios como Associated Press y Axel Springer, la matriz de Business Insider España.

OpenAI también ha insistido en que quiere ir más allá de lo que está obligada a hacer legalmente, con el fin de actuar como "buenos ciudadanos". Como resultado, la organización asegura que ha incluido un proceso de exclusión voluntaria para los editores de medios que impide que sus herramientas accedan a sus páginas web.

Podría decirse que Andrew Ng, cofundador de Google Brain, ha ido todavía más lejos en la defensa del planteamiento de OpenAI.

En un post publicado en X (Twitter) este domingo, Ng defendía que "al igual que a los humanos se les permite leer documentos en internet, aprender de ellos y sintetizar ideas totalmente nuevas, a la inteligencia artificial también se le debería permitir hacerlo".

En otras palabras, el cofundador de Google Brain sostiene que OpenAI debería poder conceder a sus herramientas los mismos derechos que tiene un ser humano.

La empresa se enfrenta a la presión de los creadores de determinados contenidos, lo que podría explicar por qué está en conversaciones con muchos de ellos para licenciar su trabajo a cambio de una remuneración. Sin embargo, no cabe esperar grandes desembolsos cuando OpenAI se esfuerza por vender la IA como algo a cuyo servicio debería poder acceder todo el mundo.

Conoce cómo trabajamos en Business Insider.