Controlar el 'hype' y no poner demasiados huevos en la misma cesta: los desafíos de la industria de la IA en 2023 para evitar inflar una nueva burbuja

Ilustración de inteligencia artificial

Getty Images

  • La viralidad y popularidad de modelos de IA generativas de texto o imágenes han inflado el hype por esta tecnología en 2022.
  • Varios expertos llevan advirtiendo años que se requiere transparencia, acabar con la división del conocimiento y diversificar para evitar una nueva burbuja tecnológica.
  • 2023 será un año clave: la Regulación de la IA en Europa podría salir adelante bajo la presidencia rotatoria de España marcando un hito en todo el mundo.

La inteligencia artificial ha sido seleccionada como la expresión del año por la Fundéu y la Real Academia Española. De esta tecnología se lleva oyendo hablar décadas, pero no ha sido hasta 2022 cuando muchos avances en el campo de la IA generativa —de imágenes, de texto, de música— han evidenciado al gran público algunas de las posibilidades que tiene.

Por el camino, se ha alimentado un optimismo tecnológico que puede resultar contraproducente. Ya hay un principio que advierte de esos riesgos, la ley de Amara: es "la tendencia a sobrevalorar impactos futuros hipotéticos de la tecnología y a infravalorar impactos inmediatos", en palabras de la experta en ética tecnológica y auditoría algorítmica Gemma Galdon.

Por supuesto, la IA es algo que va mucho más allá de sistemas generando cosas. La IA está presente en nuestras vidas de todas las formas imaginables: desde que desbloqueamos el teléfono enseñándole la cara hasta cuando llenamos un carrito de la compra en alguna plataforma de comercio electrónico.

La IA ha llenado todos los rincones de lo cotidiano sin que la gente sea consciente. Está cuando se hacen búsquedas en línea, cuando se ven vídeos en YouTube, cuando se deslizan Reels en Instagram, cuando se pide un préstamo al banco, cuando se solicita una subvención, cuando se pone una denuncia, cuando un dron abre fuego sobre un convoy militar...

Está en todos lados, pero no es magia. La inteligencia artificial es, de manera muy reducida y somera, un conjunto de operaciones matemáticas. Una máquina, en definitiva, con la capacidad de tomar decisiones de manera autónoma siempre, por supuesto, en función de los datos y parámetros con los que puede jugar, y que han podido ser introducidos de diversas maneras.

Por ejemplo, el machine learning o el aprendizaje automático es un tipo de inteligencia artificial que permite a uno de estos modelos, previo entrenamiento, ser capaces de ir mejorando sus capacidades a la hora de adoptar esas decisiones. 

Esas decisiones, al final, son las que permite a uno de estos sistemas a generar un sistema de reconocimiento facial —porque la máquina es capaz de identificar patrones de píxeles en una imagen que identifica con un rostro que previamente tenga en su base de datos— o a elegir las palabras adecuadas al generar un texto —y asombrar a personas dialogando con ellas—.

2022 ha sido el año en el que el hype por la IA se ha disparado tras ver experiencias como StableDiffusion o DALL-E generar imágenes. Esto ha llevado a los artistas a preguntarse si lo que generan esos modelos de IA es o no es arte, o a incluso plantearse si estos sistemas acabarán sustituyéndoles en un futuro.

Preguntas similares a las que también se formulan actores de doblaje, creadores de podcast o incluso medios de comunicación, al ver que una IA es capaz de generar texto coherente y, en apariencia, creíble.

Pero esta tecnología entraña un sinfín de riesgos cuyo abordaje todavía es incipiente. Cada vez son más firmas y consultoras, como BCG, las que entienden que el futuro de esta tecnología y su consecuente industria pasa por autorregulación y estándares éticos y de transparencia. La propia Comisión Europea lo entiende igual y presentó en 2021 un borrador para su Reglamento de la IA.

Tanto en aspectos éticos como regulatorios, así como técnicos, la inteligencia artificial representa un sinfín de posibilidades —puede transformar a gigantes del comercio electrónico como Amazon a grandes laboratorios farmacológicos en cuestión de años—, pero también toda una serie de desafíos. Estos son algunos de esos desafíos, los más inmediatos que se podrán ver a lo largo de 2023.

2023, el año del Reglamento de la IA

El Reglamento de la Inteligencia Artificial recibirá presumiblemente luz verde a lo largo de este 2023. El proceso de trílogo —reuniones formales entre los colegisladores de la Unión Europea, es decir, el Parlamento Europeo y el Consejo, junto con la Comisión— en el que se debatirá el texto definitivo de la norma arrancará en los próximos meses.

La norma fue presentada en abril de 2021. El borrador que entonces enseñó la Comisión vetaba, por ejemplo, el uso de sistemas de reconocimiento facial en tiempo real en espacios públicos: imágenes de ciencia ficción como cámaras identificando en directo a todos los viandantes que circulen por el recibidor de una estación de tren no serán compatibles con la legislación europea.

Compañías como Google entienden que la llegada del reglamento europeo será positivo para la industria. Sorprendentemente, grandes tecnológicas como la propia Google o Microsoft han defendido en el pasado la necesidad de que las administraciones tomen cartas en el asunto. Sobre todo después de que el movimiento Black Lives Matter se manifestara en 2020.

Un poster que simula la tecnología de reconocimiento facial durante una exhibición en China en 2018.

En aquel momento muchos activistas se dieron cuenta de que la tecnología de reconocimiento facial que ofrecían estas multinacionales a las autoridades policiales en EEUU estaban sirviendo para reprimir las protestas que estallaron tras la muerte de George Floyd a manos de un policía en mayo de 2020 en Mineápolis, EEUU.

Esa luz verde del reglamento europeo podría llegar además justo cuando España ostente la presidencia rotatoria del Consejo. El país se ha preparado a conciencia para la efeméride y será el anfitrión de un sandbox —cajón de pruebas— en el que, por sectores, varias empresas podrán aplicar las consecuencias de la regulación de manera anticipada, para poder testear la futura ley.

Por otro lado, un reglamento por sí solo no soluciona nada. No, a menos que no exista una conciencia previa tanto en la ciudadanía como en el tejido productivo. De hecho, varias compañías y consultoras ya han deslizado que el Reglamento de la IA podría incurrir en los mismos fallos que el Reglamento General de Protección de Datos.

O directamente, como arguyen las voces más catastrofistas, podría menoscabar la capacidad de innovación en Europa con respecto a otras potencias en IA como son EEUU o China.

El dilema entre ser transparentes, autorregularse y proteger los algoritmos bajo un secreto industrial

El del Reglamento de la IA que prepara Bruselas no es la única aproximación en forma de regulación a la inteligencia artificial. Europa debate su propia ley rider habiéndose fijado mucho en la norma española que buscaba garantizar la laboralidad de los empleados de plataformas. 

Si bien este fenómeno no está estrechamente relacionado con el uso de la IA en sí misma, su articulado sí incluía algunos preceptos que afectaban a la aplicación de esta tecnología para repartir encargos y posibles relaciones profesionales. De hecho, en verano el Ministerio de Trabajo presentó una guía para que las empresas informen sobre los algoritmos que afectan a sus empleados.

Con todo, sindicatos como UGT denunciaron que la guía en sí misma no era suficiente y reivindicaron al departamento que dirige la vicepresidenta Yolanda Díaz más instrumentos, a fin de obligar a que las empresas cumpliesen con lo mandatado y compartiesen información sobre los modelos de IA que puede afectarles en su día a día.

¿Puede un robot presentar una patente?

De esta manera, Trabajo abrió la puerta a que la futura reforma del Estatuto de los Trabajadores incluyese la posibilidad de que los representantes de los trabajadores —sindicatos y comités de empresa— pudiesen incluso negociar los algoritmos que les pudiesen afectar, tanto para medir su rendimiento como para repartir tareas.

La ley rider española ha sido una de las primeras experiencias europeas en legislar sobre inteligencia artificial. Hasta ahora la autorregulación no había dado demasiados frutos. De la misma manera que Google ve con buenos ojos el futuro Reglamento o Microsoft entiende imprescindible contar con regulación para el reconocimiento facial, una cosa son las palabras y otras los hechos.

En los últimos años Google, por ejemplo, ha desmantelado buena parte del equipo que configuró de expertas en ética en inteligencia artificial. Incluso la propia Glovo, una de las principales señaladas por la ley rider española, ha celebrado reuniones muy discretas de un comité de ética.

Mientras lo que se demanda es una mayor transparencia sobre con qué datos funcionan los algoritmos —para evitar posibles sesgos en sus decisiones—, las compañías que han basado su negocio en una IA son reacias a ofrecer esa información en tanto que se trataría, a menudo, de secreto empresarial o propiedad industrial.

La singularidad queda lejos: la división del conocimiento y el 'hype' pueden convertir el desarrollo de la IA en una burbuja

Hace 2 años el multimillonario Elon Musk se reconocía aterrorizado ante la posibilidad de que la IA alcanzase el punto de singularidad tecnológica, un concepto algo obtuso y todavía difuso que se puede explicar como el punto de la historia en el que la inteligencia artificial será capaz de superar a la inteligencia humana en muchos sentidos.

De hecho, para Musk, uno de los mayores temores era entonces el proyecto DeepMind de Google. Resulta irónico que el magnate fuese uno de los cofundadores de OpenAI, la compañía que hace sombra en el ámbito de la IA al mismísimo gigante del buscador.

Este 2022 se han viralizado varios modelos de inteligencia artificial por sus singulares creaciones. Eso ha llevado a los más tecnooptimistas a publicar larguísimos artículos en redes sociales aventurando un futuro cercano en el que la inteligencia artificial reemplazará incluso profesiones creativas.

Hace apenas un año, la mayor disrupción tecnológica era el metaverso y el Web3. Ahora es la IA. Y sin embargo, algunos de los mayores expertos del mundo en la industria de la IA tienen dudas sobre el camino que está tomando el sector.

Solo hace unos meses, Soumith Chintala, creador de Transformer, una arquitectura de algoritmo de aprendizaje automático —que aprovechan modelos de IA generadores de texto como el ahora popular GPT, de OpenAI— lanzaba una advertencia: este hype por la inteligencia artificial puede acabar perjudicando al resto de la innovación tecnológica.

Datos en binario.

"Nos va a resultar mucho más difícil incluso probar otras ideas si los proveedores de hardware acaban limitándose a especializarse en el paradigma actual", resumía entonces, haciendo referencia a cómo proveedores de hardware como Nvidia estaban especializándose en Transformer, en detrimento de otras soluciones por explorar.

Una burbuja de la industria de la IA no tendría como consecuencia que estos desarrollos acabaran posponiendo esa temida singularidad unas décadas: podría ralentizar todo el desarrollo tecnológico en su conjunto. 

El español José Ángel Olivas, uno de los mayores expertos en IA de la academia española, opinaba similar un año antes en una entrevista con este medio. Él se detenía, eso sí, en la tipología de los datos con los que se sigue a día de hoy alimentando a los distintos modelos de inteligencia artificial. Datos que, después de todo, no dejan de ser números.

Datos numéricos que además "pueden estar sesgados, tener ruido". "Lo fácil es agarrar una base de datos numérica y meterla en un algoritmo a ver qué sale", criticaba. "Está claro que los ordenadores no entienden si se les habla al oído", pero solo con números no siempre se puede describir "un contexto social".

Por ello, el especialista, referente internacional de la computación, consideraba ya hace 2 años muy urgente introducir nuevas áreas del conocimiento en el mundo de la computación. "Psicología, sociología, antropología social o lingüística computacional". La histórica diferenciación del conocimiento entre ciencias y letras ya no da más de sí.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.