Las primeras normas sobre la IA están a punto de hacerse realidad: todo lo que debes saber

Kali Hays
| Traducido por: 
Ilustración IA Generativa

Getty

  • Los gobiernos de todo el mundo se encuentran en distintas fases de creación y promulgación de normativas sobre IA.
  • La UE puede ser la primera en promulgar una normativa sobre IA generativa. China tiene una postura más restrictiva.
  • Estados Unidos se ha apoyado en expertos del sector, mientras que la UE y Brasil pretenden instaurar un sistema categórico.

La IA generativa irrumpió en el imaginario público a finales de 2022. En un año, la tecnología podría convertirse en una de las más reguladas del sector.

En todo el planeta, desde Estados Unidos hasta la UE y Brasil, los responsables políticos están estudiando urgentemente, y en el caso de China aprobando, normas para gestionar la IA y controlar algunos de los casos de uso más alarmantes.

Es probable que la UE sea la primera región en promulgar algún tipo de supervisión o regulación en torno a la IA generativa. La Comisión Europea, que comprende dos docenas de países, se encuentra en la última fase de las negociaciones sobre el Reglamento de IA, que ha bautizado como "las primeras normas del mundo sobre IA". Se espera que este año se apruebe la versión final del texto, que entraría en vigor a finales de 2025.

Algunas herramientas de IA podrían prohibirse en Europa

El Reglamento se planteó por primera vez en 2021, antes de que OpenAI lanzara sus herramientas de IA generativa ChatGPT y DALL-E, lo que ha llevado a empresas como Meta, Google y Microsoft a convertirse en protagonistas y defensores de la IA generativa.

El proyecto de Reglamento de la UE se ha actualizado este año. Actualmente, el mayor avance de esta norma es categorizar los modelos y herramientas de IA que son de "alto" riesgo o simplemente "inaceptables". La IA que entra en la categoría de alto riesgo incluye cosas como la identificación biométrica, la educación, la gestión de trabajadores, el orden jurídico y la aplicación de la ley, junto con cualquier herramienta que tendrá que ser "evaluada" y aprobada antes de su lanzamiento.

Las herramientas y aplicaciones de IA consideradas "inaceptables" quedarán prohibidas en la UE. Esto incluye los "sistemas de identificación biométrica remota" o tecnología de reconocimiento facial, la "puntuación social" o categorización de personas en función de su clase económica y características personales, y la "manipulación cognitiva del comportamiento", como los juguetes con IA activados por voz.

En cuanto a la IA generativa, según las normas propuestas por la UE, será obligatorio revelar los contenidos generados artificialmente, así como los datos utilizados para entrenar cualquier modelo lingüístico de gran tamaño

Ilustración sobre inteligencia artificial.

Dado el aumento de la vigilancia y las acciones legales por parte de autores y otros creadores de contenidos extraídos de internet y recopilados para conjuntos masivos de datos de entrenamiento, las empresas que están detrás de las herramientas de IA y los LLM han empezado a no especificar de dónde proceden sus datos de entrenamiento.

Las empresas también tendrán que demostrar que han trabajado para mitigar los riesgos legales antes de lanzar nuevas herramientas y modelos y registrar todos los modelos fundacionales en una base de datos mantenida por la Comisión Europea.

El planteamiento de Estados Unidos

Estados Unidos va por detrás de la UE en lo que respecta a la regulación de la IA. En septiembre, la Casa Blanca dijo que está "desarrollando una orden ejecutiva" sobre la tecnología y que buscará una "regulación que cuente con ambos partidos". Mientras la Casa Blanca ha buscado activamente el asesoramiento de expertos del sector, el Senado ha convocado una audiencia y un "Foro sobre IA" a puerta cerrada con dirigentes de las principales empresas tecnológicas

Ninguno de los dos eventos se ha traducido en grandes acciones, a pesar de que Mark Zuckerberg fue confrontado durante el foro con el hecho de que el modelo Llama 2 de Meta ofrece una guía detallada para fabricar ántrax. Aun así, los congresistas estadounidenses dicen estar comprometidos con establecer algún tipo de regulación de la IA.

"No hay duda alguna de que habrá regulación", dijo el senador Richard Blumenthal durante la audiencia.

La legislación estadounidense sobre derechos de autor también podría cambiar. La Oficina de Derechos de Autor dijo en agosto que está considerando la adopción de medidas o nuevas normas federales en torno a la IA generativa debido al "extenso debate público sobre lo que estos sistemas pueden significar para el futuro de las industrias creativas." Se ha abierto un periodo de consulta pública hasta principios de noviembre, y ya se han recibido más de 7.500 propuestas.

Mark Zuckerberg CEO de Facebook Meta

¿Qué pasa en el Reino Unido?

El Reino Unido, por su parte, quiere convertirse en una "superpotencia de la IA", según un documento de marzo de su Departamento de Ciencia, Innovación y Tecnología. Aunque el organismo gubernamental ha creado un "espacio regulador para la IA", el Reino Unido no tiene intención inmediata de introducir ninguna nueva legislación para supervisarla. En su lugar, pretende evaluar la IA a medida que avance.

"Si nos apresuráramos a legislar demasiado pronto, correríamos el riesgo de imponer cargas indebidas a las empresas", ha afirmado Michelle Donnelan, secretaria de Estado de Ciencia, Innovación y Tecnología. "A medida que evolucione la tecnología, es posible que nuestro enfoque regulador también deba adaptarse".

Brasil y China

Brasil está adoptando un planteamiento similar al de la UE al categorizar las herramientas y usos de la IA por riesgo "alto" o "excesivo" y prohibirá las que se encuentren en esta última categoría en un proyecto de ley actualizado a principios de este año. La empresa de asesoría tecnológica Access Partnership describe la propuesta de ley como "muy centrada en los derechos humanos" y con un "estricto régimen de responsabilidad". Brasil está dispuesto a responsabilizar a los creadores de un LLM de los daños causados por cualquier sistema de IA considerado de "alto riesgo".

Sin embargo, es en China donde se han promulgado algunas de las pocas nuevas normativas sobre IA. A pesar del uso generalizado en ese país de elementos como el reconocimiento facial para la vigilancia gubernamental, China ha promulgado en los dos últimos años normas sobre los algoritmos de recomendación, un caso de uso fundamental para la IA, y al año siguiente nuevas normas sobre la tecnología de "síntesis profunda", más conocida como "deep fakes". Ahora, pretende regular la IA generativa. Uno de los requisitos más notables de un proyecto de ley es que cualquier LLM, y sus datos de entrenamiento, tienen que ser "verdaderos y exactos".

Este requisito podría bastar para mantener la IA generativa a nivel de consumidor prácticamente excluida de China. Según un estudio sobre las normas chinas elaborado por la Fundación Carnegie para la Paz Internacional, un grupo de expertos sin afiliación política, se trata de "un obstáculo potencialmente insuperable para los chatbots de IA".

Conoce cómo trabajamos en Business Insider.