Google, OpenAI y Microsoft quieren que se responsabilice a los usuarios cuando las herramientas de IA generativa muestren material protegido por derechos de autor

Kali Hays
| Traducido por: 
Sam Altman, CEO de OpenAI, y Satya Nadella, CEO de Microsoft.
Sam Altman, CEO de OpenAI, y Satya Nadella, CEO de Microsoft.

Joel Sagel/AFP y Loren Elliott vía Getty

  • Las principales empresas tecnológicas se oponen a las nuevas normas sobre el uso de material protegido por derechos de autor en los grandes modelos lingüísticos.
  • Google, Microsoft y OpenAI afirman que los usuarios de herramientas que muestren obras protegidas por derechos de autor deben ser responsables. 

Aunque herramientas de inteligencia artificial generativa como ChatGPT, de OpenAI, y Bard, de Google, suelen responder a las consultas de los usuarios con material protegido por derechos de autor que las hace funcionar, las principales empresas tecnológicas han propuesto que los usuarios sean los culpables de cualquier reclamación de infracción.

Google, OpenAI y Microsoft han pedido que se responsabilice a los usuarios por la forma en que interactúan con las herramientas de inteligencia artificial generativa, según sus comentarios a la Oficina de Derechos de Autor de Estados Unidos hechos públicos la semana pasada. La USCO está estudiando nuevas normas sobre inteligencia artificial y el uso por parte de la industria tecnológica de contenidos propios para entrenar los grandes modelos lingüísticos que sustentan las herramientas de IA generativa.

Muchas grandes empresas tecnológicas presentaron sus observaciones a la USCO, en general argumentando en contra de cualquier tipo de nuevas normas para la IA generativa y afirmando que tener que pagar por material protegido por derechos de autor arruinaría sus planes en el campo de la IA. Aunque ninguna de las empresas ha negado estar entrenando sus herramientas de IA mediante el uso masivo de trabajos protegidos por derechos de autor extraídos de internet sin pagar por ello o que estas herramientas puedan mostrar material protegido por derechos de autor, Google, OpenAI y Microsoft (uno de los principales inversores en OpenAI) han afirmado que el usuario es responsable siempre que esto último ocurra.

Google argumenta que cuando una herramienta de IA "se ve obligada a replicar contenido de sus datos de entrenamiento", no es culpa del desarrollador de la herramienta, que ha hecho intentos por evitar que se muestren esos datos.

"Cuando un sistema de IA es inducido por un usuario a producir un resultado infractor, cualquier responsabilidad resultante debe atribuirse al usuario como la parte cuya conducta voluntaria causó la infracción", escribe Google en su comentario.

Google añade que responsabilizar a una empresa de desarrollo como ella de la infracción de los derechos de autor crearía una "responsabilidad aplastante", ya que los desarrolladores de IA intentarían evitar que se mostrara material protegido por derechos de autor. Responsabilizar a los desarrolladores de los datos de entrenamiento protegidos por derechos de autor que hacen funcionar sus herramientas de IA sería similar a responsabilizar a las fotocopiadoras y a las grabadoras de audio o vídeo de las infracciones, argumenta Google.

ChatGPT

Microsoft también ha recordado que las personas pueden utilizar fotocopiadoras, así como "cámaras, ordenadores o teléfonos inteligentes", para crear obras infractoras sin que se les considere responsables de tal actividad. En su opinión, una herramienta de IA generativa es, como una cámara, una "herramienta de uso general".

"Los usuarios deben asumir la responsabilidad de utilizar las herramientas de forma responsable y tal como fueron diseñadas", afirma Microsoft.

OpenAI argumenta que cuando una de sus herramientas aparece contenido protegido por derechos de autor, "es el usuario quien es el 'actor volitivo'". En la legislación sobre derechos de autor, la definición de actor volitivo —intencional— suele responderse con la pregunta: "¿Quién hizo la copia?"

"Al evaluar las reclamaciones de infracción relativas a los productos, el análisis comienza con el usuario", señala OpenAI. "Al fin y al cabo, no hay resultados sin una petición de un usuario, y la naturaleza de los resultados está directamente influenciada por lo que se pide".

Los tribunales suelen considerar que las máquinas carecen del "estado mental" o del nivel de pensamiento humano para que se considere que tienen voluntad suficiente para incurrir en responsabilidad. Sin embargo, a medida que avanza la tecnología, herramientas como la IA generativa pueden elevarse a un nivel operativo que significa que las empresas detrás de ellas pueden ser consideradas responsables, como sugiere un documento de 2019 de Columbia Law Review. Las grandes tecnológicas y otras empresas implicadas en el desarrollo de la IA suelen presentar sus herramientas de IA como similares a las humanas en cuanto a su aprendizaje y capacidades, incluso en muchos de sus comentarios al USCO.

Muchos gobiernos y organismos reguladores de todo el mundo ya están proponiendo o estudiando nuevas leyes sobre IA.

Conoce cómo trabajamos en Business Insider.