Los caminos por los que la inteligencia artificial avanzará en 2024 como tecnología, según expertos y directivos

Inteligencia artificial

Getty

  • La inteligencia artificial no se quedará quieta en este 2024 sino que avanzará como tecnología, centrándose principalmente en 5 caminos como la privacidad, la explicabilidad y la fiabilidad de los datos, según los expertos del sector.
  • Este artículo forma parte del serial La IA en 2024, que recopila las predicciones relacionadas con esta tecnología para los próximos 12 meses. 

Hasta hace poco muchas personas no sabían lo que era, pero la inteligencia artificial lo ha inundado todo en los últimos tiempos gracias a muchos avances tecnológicos y a la aceptación en las empresas y en la sociedad.

Lo que empezó siendo poco más que ese algoritmo que hacía que los malos de los videojuegos fuesen tan complicados o que los selfis de tu móvil fuesen mejores que los de los viejos smartphones, gracias a la llegada de la IA generativa y de ChatGPT ahora es algo transversal que trasciende al sector de la tecnología y afecta a casi todo lo que te rodea.

Pero con su popularización, el avance tecnológico seguirá siendo una constante en la inteligencia artificial durante los próximos tiempos, todo ello impulsado por una inversión que no deja de crecer y que no tiene perspectiva de reducirse en el futuro próximo.

Olvídate de Sam Altman: el verdadero visionario de la inteligencia artificial es este profesor de Illinois

El sector valía 136.550 millones de dólares en el año 2022, pero la perspectiva es que crezca un 37% anual hasta el 2030, según datos de Grand View Research.

Business Insider España ha preguntado a expertos en el sector y empresas relacionadas con la inteligencia artificial para conocer de qué forma avanzará esta tecnología en este nuevo año 2024.

¿Exceso de IA?

Derroche

Getty

Uno de los aspectos que más puede condicionar a la IA como tecnología en 2024 son los propios proyectos y herramientas que elijan las personas y empresas, sobre todo los más primerizos.

Y los expertos advierten de que hay un riesgo de que el actual boom de esta tecnología provoque que los recursos y la inversión no se usen de las formas más adecuadas. En resumen, que veamos un exceso de IA o una IA ineficiente.

"En el 2024, vamos a tener un exceso de productos basados en IA. Muchos de esos productos serán estúpidos e inútiles. Y la mayoría no aplicará IA de verdad", critica Javier Oliver, socio y gerente de Tyris Corp, un holding de empresas de soluciones de Inteligencia Artificial.

Detrás de esta tendencia que puede convertirse en un problema en 2024 se encuentra la necesidad, sobre todo de las empresas, de dar una imagen de innovación y de modernidad, algo que si no se equilibra les puede jugar en su contra.

"La gente se obsesiona por aplicar IA a problemas que se pueden resolver mediante otros métodos más sencillos, con mera estadística o incluso reglas básicas. Muchos buscarán ponerse la etiqueta de haber aplicado la IA en su negocio", valora el ejecutivo de Tyris Corp.

Otros expertos que coinciden en este diagnóstico son menos extremos y auguran para 2024 un proceso natural de consolidación de la IA en torno a las más útiles y rentables, algo típico de las tecnologías nuevas que aparecen.

"Con la resaca de la pandemia, en la que las empresas se hicieron con un montón de nuevas tecnologías, estamos empezando a ver una consolidación de las que más benefician a la empresa y a los usuarios finales, en contraposición a las bonitas de tener", señala Sam Richardson, Customer Engagement consultant en Twilio.

¿Todo será IA generativa?

datos del uso de ChatGPT en España que desconocías OpenAI

Getty Images

Dentro de las modalidades de IA, el furor de herramientas como ChatGPT y OpenAI está disparando los usos de la IA generativa, pero en 2024 veremos cómo los desarrollos se focalizan más en las variantes más adecuadas para situación.

"Una de las mayores confusiones es que la IA generativa sustituirá a todas las herramientas de IA precedentes. Aunque la IA generativa se está asentando, el aprendizaje automático y otras IA ya han demostrado un potencial ilimitado, que incluso podrían utilizarse para reducir esta brecha de madurez en 2024", advierte James Fisher, Chief Strategy Officer de Qlik.

Otros expertos creen que la llegada de las inteligencias artificiales multimodales como Gemini de Google y los nuevos modelos que aparezcan el año que viene sí que pueden conducir a una IA presente en cada vez más tareas y formatos, dejando de estar limitada al texto como pasaba ahora.

"En 2024 veremos una segunda generación de la inteligencia artificial generativa multimodal combinando texto, imagen, vídeo, y audio de forma conjunta. La IA generativa multimodal abrirá camino a una multitud de aplicaciones en el sector de la generación de contenido", según Marc Torrens, profesor y director del departamento de Operaciones, Innovación y Data Sciences en Esade. 

Tampoco todo serán modelos masivos de lenguaje (LLM, por sus siglas en inglés), es decir, las bases de datos extensivas con las que se entrenan los algoritmos, como es el caso de GPT-4, sobre la que funciona ChatGPT.

"Veremos la aparición de una mayor cantidad de LLM más pequeños (el término Small Language Models, SLM, aún se está acuñando y definiendo) que permitan la ejecución en situaciones de menor capacidad de cómputo o de fuera de línea, por ejemplo los data centers de un crucero", pronostica Agustín Huerta, vicepresidente senior de Digital Innovation y vicepresidente de Technology IoT en Globant.

Avances para mejorar en privacidad y explicabilidad

El Comisario Europeo de Mercado Interno, Thierry Breton, durante su discurso por la aprobación de la ley DMA.
El Comisario Europeo de Mercado Interno, Thierry Breton, durante su discurso por la aprobación de la ley DMA.

Jean-Francois Badias/Pool via REUTERS

La IA ya ha demostrado que es capaz de grandes cosas pero también ha despertado no pocas preocupaciones, centradas sobre todo en dos aspectos: la necesidad de datos para entrenar los algoritmos y el riesgo de sean sensibles; y la importancia de que las decisiones que tomen las máquinas siempre sean explicables.

En el primer aspecto, el de la privacidad, los expertos creen que la IA avanzará en 2024 hacia un aprendizaje automático de tipo federado para una mayor protección de los datos.

"El aprendizaje automático federado permite una mayor privacidad y seguridad en el entrenamiento de modelos de IA sin compartir datos, distribuyendo el proceso de aprendizaje a través de múltiples dispositivos o servidores", comenta David Marcos, Data Analytics Business Manager de Innovery.

Esto es así porque este sistema de formación de algoritmos está basados en nodos, y cada uno de ellos entrena un modelo local con sus propios datos. Luego comparte únicamente los parámetros del modelo actualizados, no los datos en sí, lo que asegurando la privacidad y la seguridad de la información que introducen los usuarios.

Por otra parte, la explicabilidad es la principal preocupación de legisladores y quienes temen que la IA se use para tomar decisiones que afecten al trabajo y la vida de las personas reales. Se espera que 2024 sea un año de avance en este sentido.

"En 2024 se espera que experimente avances significativos en áreas clave y es previsible que haya un cambio de enfoque en todo lo relativo a la transparencia y explicabilidad de los modelos de IA", como predice Silvia Leal, experta en tecnología y Senior Advisor de Evercom.

Pero también hay quien piensa que los desarrolladores de esta tecnología deben ponerse las pilas cuanto antes si no quieren tener problemas con las leyes que empiezan a regular el sector, como es el caso de la Unión Europea, que fue pionera a finales de 2023 aprobando la primera normativa sobre IA del mundo.

"Hay un campo de estudio que lleva muchos años vinculado a la forma de dar explicabilidad sobre cómo operan las IA y aún queda mucho camino por recorrer en ese sentido, que es crítico considerando que muchas de las regulaciones justamente se enfocan en esto", valora Agustín Huerta, vicepresidente senior de Digital Innovation y vicepresidente de Technology IoT en Globant.

Las personas tendremos que aprender a confiar en la IA

Elon Musk, ex-CEO y dueño de X (Twitter).
Elon Musk, ex-CEO y dueño de X (Twitter).

Gonzalo Fuentes/Reuters

Si la tecnología dará pasos para conseguir un tratamiento más privado de los datos personales y una mayor explicabilidad, para aprovechar las potencialidades de la IA en el nuevo año también será necesario un cambio en las personas hacia una confianza mayor en estas herramientas, según los expertos.

Después de alertas como la petición de poner en pausa el desarrollo de IA durante 6 meses por posibles riesgos contra la humanidad liderada por Elon Musk y Steve Wozniak, ahora se espera que en 2024 la comprensión de personas y expertos avance.

"Los grandes modelos lingüísticos (LLM) y los asistentes digitales cambiarán radicalmente la forma en que las personas interactúan con el software, tanto en su vida personal como profesional. Sin embargo, esto solo será cierto si los humanos pueden confiar en que la tecnología hará el trabajo de forma segura y competente", afirma Aaron Harris, CTO de Sage.

¿Cómo mejorar los datos con los que se entrena la IA?

Base de datos

En 2024, otro de los principales caminos de avance tecnológico en los que transitará la IA tiene que ver con los millones de datos que se usan para entrenar estos algoritmos.

Este año, los desarrolladores de estas herramientas se encontrarán con el problema de que cada vez es más complicado hacerse con datos fiables con los que entrenar los algoritmos, con las implicaciones negativas que esto tiene.

"Aunque la regulación es uno o quizás el tema del que más se habla, el mayor reto es la falta de datos fiables. La IA generativa se entrena actualmente con la totalidad de la información que maneja el ser humano –la útil y la no tan útil–, lo que la hace poco fiable y sesgada. Los datos buenos pueden contaminarse con datos malos, a veces intencionadamente. Esto puede dar lugar a alucinaciones y errores", advierte James Fisher.

De hecho, según las últimas estimaciones, cada día se crean más de 328 millones de terabytes de datos en línea, y el 62% de ellos no son fiables, según la Oficina Central de Estadística de Estados Unidos (la CSO). 

"Para resolver esta situación, necesitamos un nuevo modelo de creación y seguimiento de datos, porque es crucial conocer el origen de cualquier dato en el que queremos confiar. Si no se sabe de dónde proceden, ¿cómo se puede confiar en ellos?", apostilla el Chief Strategy Officer de Qlik.




Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.