Las grandes tecnológicas llevan décadas eludiendo la responsabilidad de los contenidos online, pero la IA generativa está a punto de cambiarlo todo

Kali Hays
| Traducido por: 
Mark Zuckerberg, CEO de Meta.
Mark Zuckerberg, CEO de Meta.

Reuters

  • Las mayores plataformas tecnológicas del mundo han sido durante mucho tiempo inmunes a la responsabilidad legal por los contenidos creados por los usuarios.  
  • Con el auge de la IA generativa, las grandes tecnológicas podrían verse por primera vez como creadoras de contenidos.
  • "Podría socavar drásticamente su negocio", afirma un experto jurídico. 

Durante décadas, las grandes empresas tecnológicas han eludido la responsabilidad de todo lo publicado en sus plataformas. La IA generativa está a punto de acabar con esta preciada protección legal.

Meta, Google, Microsoft, Amazon e incluso Apple se han apresurado el último año a lanzar herramientas y modelos de IA generativa para competir con OpenAI. Meta tiene a Llama y una creciente lista de herramientas y funciones de IA para consumidores en Facebook, Instagram y WhatsApp. Google tiene a Gemini y Bard. Amazon tiene a Q y otras herramientas en preparación. Microsoft tiene un ejército de copilotos de IA y ha apoyado directamente a OpenAI.

Se han invertido decenas de miles de millones de dólares en estos esfuerzos de IA, y se espera que el gasto continúe. Ya hay por ahí amigos, código y stickers generados por IA, y mucho más por venir.

"Un negocio monstruosamente enorme para Meta"

El CEO de Meta, Mark Zuckerberg, imagina un mundo en el que el contenido en Instagram, por ejemplo, producido por la IA en lugar de sólo creadores humanos. "Hay gente ahí fuera que se beneficiaría de poder hablar con una versión de ti hecha por la IA, y los creadores se beneficiarían de poder mantener a su comunidad enganchada y dar servicio a esa demanda", dijo recientemente, al tiempo que señalaba que habrá una versión de esto en algún momento de 2024.

Producir contenidos directamente, sin depender de los creadores, es una especie de santo grial para Meta, según explica un antiguo empleado.

"Se trata de un asunto increíblemente importante para Meta, desde la cúpula de la empresa", afirma esta persona. "Su futuro estado ideal es tener una tonelada de contenido nuevo, todo el tiempo, que la gente disfrute, y no tener que pagar a los creadores por ello".

Perder un valioso escudo de responsabilidad

Sin embargo, hay una arista en este plan. Al convertirse en productoras de contenidos, las grandes empresas tecnológicas como Meta y Google podrían perder el escudo que les brinda la legislación (en Estados Unidos, la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996), que durante mucho tiempo las ha protegido de la responsabilidad por lo que se publica en sus plataformas. Por muy dañino que sea el contenido, desde el punto de vista jurídico estas empresas tecnológicas se han limitado a ser anfitrionas o "intermediarias" involuntarias de parte de lo peor que puede ofrecer la humanidad, siempre y cuando intenten moderar sus plataformas. Los tribunales lo han confirmado en varias ocasiones.

Los modelos y herramientas de IA generativa, sin embargo, son desarrollados, explotados y son propiedad de las grandes empresas tecnológicas. Y estas herramientas pronto estarán generando resultados de búsqueda, publicaciones en redes sociales y otros contenidos que no tienen ningún otro autor o creador, sin ningún intermediario.

Las principales empresas tecnológicas implicadas ya están argumentando que sus productos de IA son únicos y deben considerarse nuevas obras. Y los expertos de la industria que han hablado con Business Insider coinciden en que los resultados directos de las herramientas de IA generativa desarrolladas, poseídas y gestionadas por las empresas tecnológicas no gozarán de la misma protección legal, al menos en Estados Unidos, puesto que no quedarían bajo el paraguas del artículo 230 de la Ley de Decencia en las Comunicaciones estadounidense.

Según Aziz Huq, profesor de la Facultad de Derecho de la Universidad de Chicago que estudia la regulación de la IA, "a primera vista, la IA generativa queda fuera de la ley".

Meta ya está "debatiendo a alto nivel" las implicaciones jurídicas de la IA generativa, según una persona al tanto de las actividades de la empresa. Esta persona ha pedido permanecer en el anonimato por tratarse de asuntos privados. Los representantes de Meta y Google no han respondido a las solicitudes de comentarios. Un representante de Microsoft ha declinado hacer comentarios.

"A los grandes les encanta y quieren mantener esa normativa durante todo el tiempo que puedan", afirma Anupam Chander, profesor de Derecho y Tecnología en la Facultad de Derecho de Georgetown. Aunque una empresa tan grande y rentable como Meta o Google podría resistir años de ataques legales, la IA generativa podría resultar un campo minado de responsabilidad, porque ese artículo que ahora protege a las compañías "no estará disponible como defensa en la mayoría de los casos", explicó Chander.

"Podría socavar drásticamente su negocio, o incluso quizás hacer que algunas partes sean demasiado arriesgadas", añadió Chander.

Novia IA

La solución de código abierto de Meta

La persona al tanto de lo que ocurre en Meta señala que una posible forma con la que la empresa espera evitar o al menos retrasar la futura responsabilidad por los contenidos de IA generativa es apoyándose en su solución de código abierto de Llama, un gran modelo de lenguaje que está disponible gratuitamente para la mayoría de los desarrolladores.

Chander señala que esta línea de pensamiento se ha planteado en sus círculos jurídicos muy recientemente. Aunque no está "convencido de que sea una forma eficaz de evitar de forma definitiva la responsabilidad... depende mucho de la situación exacta".

Si una empresa creara un LLM y luego lo cediera completa y gratuitamente a los desarrolladores, sin intervenir en cómo se utiliza o con qué fin, eso podría evitar la responsabilidad. De lo contrario, al crear herramientas de IA generativa y proporcionar los resultados, Chander ve pocas formas de que una empresa tecnológica pueda refutar su papel en el contenido de IA generativa.

Lo nuevo = nuevas consecuencias legales

Huq cree que Meta y otras empresas tecnológicas no podrán exprimir el contenido de IA generativa al amparo del artículo 230, tal y como está redactado actualmente.

"Todo lo que han estado haciendo hasta ahora ha sido como intermediarios", dice Huq. "Pero todo el mundo reconoce que esto es algo nuevo, ha habido un acento en el cambio de fase del aprendizaje profundo a un LLM, las empresas dicen que es nuevo. Así que, vale, entonces no puedes esperar la misma protección de responsabilidad. Habrá nuevas consecuencias legales porque es nuevo".

 

Desdibujando la línea

Incluso antes de que la IA generativa se convirtiera en la nueva tendencia tecnológica hace un año, la línea que distingue a una plataforma de internet como anfitriona y no como participante ya "casi se había evaporado", según Jason Schultz, profesor de Derecho de la NYU que dirige su Clínica de Derecho y Política Tecnológica y es uno de los principales responsables del AI Now Institute.

Una vez más, esta difuminación de la línea tiene que ver con la IA. La tecnología se utiliza desde hace varios años para ejecutar algoritmos de recomendación diseñados para aprender y mostrar lo que los usuarios quieren ver. También se utiliza en la moderación de contenidos, que se automatiza en gran medida utilizando programas basados en IA que están entrenados para saber qué es un buen contenido y qué es un mal contenido.

"La cantidad de intención y diseño que hay detrás de algo como ChatGPT es mucho más intensa que la de Twitter en sus inicios", afirma Schultz. "Alguien tuitea algo en Twitter, que lo muestra, y la gente lo ve. Ese es el clásico caso 230".

La IA generativa no es eso.

"Estas herramientas no se limitan a transmitir contenidos", afirma Schultz. "En realidad están generando contenido, o el LLM o el generador de difusión de imágenes están produciendo el contenido real. Y quieren que sientas que te habla un humano".

Schultz recuerda que los tribunales, hasta el Tribunal Supremo de Estados Unidos, ya han estudiado casos relacionados con algoritmos de recomendación, sopesando si el esfuerzo por captar usuarios e impulsar la interacción en una plataforma constituye intervención suficiente para que las empresas tecnológicas tengan alguna responsabilidad por supuestos daños. El Tribunal Supremo aún no ha suavizado el artículo 230 para las plataformas tecnológicas, pero los casos recientes demuestran que "cuanto más compleja se ha vuelto la tecnología, más inseguros están los jueces" sobre lo que protege el artículo 230, añade Schultz.

"Una forma de ver un LLM es, sí, como un gigantesco intermediario. La otra es considerarlo como el verdadero creador de contenidos, porque el contenido sale del programa con una sensación de frescura y originalidad", afirma Shultz. "Supongo que la mayoría de los jueces los verán como creadores de contenidos".

Conoce cómo trabajamos en Business Insider.