Contra los vendehumos y "la religión" de los datos: este referente mundial en computación advierte que algunos paradigmas de la IA se han estancado

Feria de tecnología de reconocimiento facial
  • José Ángel Olivas, profesor de la UCLM y colaborador de la OBS Business School, algunos paradigmas de la IA están estancados.
  • Por ello, el especialista, un referente internacional en esta disciplina, considera urgente que se introduzcan nuevas áreas del conocimiento en el mundo de la computación.
  • "Psicología, sociología, antropología social o lingüística computacional", pone de ejemplo, al tiempo que recuerda que los números no explican a la perfección la realidad.
  • Descubre más historias en Business Insider España.

José Ángel Olivas es un español referencia en todo el mundo en el campo de la inteligencia artificial. Desde principios del milenio acudía a Silicon Valley y visitaba todas aquellas empresas que nacían al abrigo de universidades de prestigio, como Stanford o Berkeley. Asistió y presenció en primera persona cuáles fueron los primeros pasos de una multinacional como lo es hoy Google, por ejemplo.

Pero hoy tiene un discurso muy crítico. Justo cuando Europa está a punto de presentar su primera regulación sobre la IA, Olivas considera que la inteligencia artificial se está infrautilizando en muchas empresas españolas y latinoamericanas. Que lo que hay es mucho humo.

"Casi siempre es humo". "He dado cursos de big data, formación y asesoramiento a grandes empresas españolas telefónicas o del retail. Ninguna usa lo más mínimo la inteligencia artificial. Para ellos la inteligencia artificial son herramientas de business intelligence: analítica descriptiva, datos".

"Las únicas empresas que yo veo que hacen en serio son las grandes tecnológicas de Silicon Valley, cercanas a Stanford o Berkeley. Ahí sí hay gente que sabe del negocio", insiste.

Olivas ha publicado un demoledor informe con la OBS Business School con la que también colabora. En el documento, el especialista expone una verdad que puede resultar incómoda: los paradigmas de la inteligencia artificial se han estancado. Y muchas compañías utilizan analítica y predictiva básica. "Es muy fácil asumir que en 2025 Madrid tendrá tantos habitantes", explica, "si veo que la población de Madrid está en una curva, en una tendencia". 

China, Japón y EEUU acaparan el 78% de las patentes sobre IA registradas en el mundo: así es la guerra tecnológica en la que Europa se queda atrás

Según el informe, titulado Inteligencia artificial, inteligencia computacional y análisis inteligente de datos, los modelos y técnicas más utilizados en este momento en computación surgieron hace ya varias décadas y apenas han sufrido variaciones desde su concepción, sin embargo, sí ha habido un gran aumento de la potencia computacional y la capacidad de manipular grandes volúmenes de datos.

"El problema es cuando hay puntos de inflexión, como la pandemia. En la misma bolsa pasa. ¿Qué puede suponer un punto de inflexión en bolsa? Que un enorme barco atasque el canal de Suez", ríe. "Eso provoca un efecto dominó que un sistema de predicción de business intelligence podría prever", a no ser que se modelen algunos riesgos.

"Hay que tomarse esto en serio", continúa el experto de la OBS Business School en conversación con Business Insider España. "No creo que se esté yendo por el buen camino. Se está yendo por una dirección totalmente errónea debido a la falta de profesionales".

El sesgo también está en los datos

Técnico de un centro de datos en Málaga.
Técnico de un centro de datos en Málaga.

Gemma Galdon es la fundadora y responsable de Eticas Consulting, una consultora que se dedica a auditar algoritmos para comprobar que los sistemas de inteligencia artificial que empresas o administraciones públicas no vulnerabilicen colectivos de la población o no generan sesgos. Para ello sumerge la tecnología en otras disciplinas como la antropología o la sociología.

El propio José Ángel Olivas destaca que ese sesgo no solo está presente en los algoritmos. "Los propios datos están sesgados". "Cualquiera puede meter datos erróneos, un sensor se puede estropear". Expone un ejemplo a cuenta de la pandemia de coronavirus. "Si tengo datos estadísticos de muertes por el COVID-19 me puedo preguntar: ¿cuento a los que murieron con una PCR positiva o no?".

"Hay una sensación en la sociedad que me parece muy peligrosa. Parece que Google y los datos son la verdad divina. Los políticos incluso se dicen que ponen "datos" sobre la mesa. Es como poner una tortilla de patatas", ríe. "Se puede diseñar una base de datos como me dé la gana. Los datos se pueden usar políticamente. Soy muy crítico con esta especie de religión".

"Silicon Valley está matando la innovación": por qué hay que empezar a auditar los algoritmos a las tecnológicas para evitar distopías, según una experta

"Los datos deben ser auditados. Necesitamos saber cuál es su nivel de ruido, de veracidad, de sesgo. Se pueden direccionar bien o malintencionadamente de una forma muy sencilla. Pueden ser erróneos e incluso decir mentiras. Los datos no reflejan la realidad de forma exacta o inequívoca", recuerda.

El experto pone de ejemplo una hipoteca que solicitó a una entidad bancaria para comprarse una casa en la playa. Los responsables de la oficina le pidieron un reflejo de los movimientos de una de sus cuentas durante los últimos dos meses. Pero se trataba de la cuenta en la que solo se reflejaban los ingresos que percibía por las charlas, ponencias y seminarios que ha ido a impartir a América.

En su otra cuenta se reflejaban los gastos e inversiones que Olivas hace para esos viajes, mientras que la que el banco consultó para estudiar si le concedía el préstamo hipotecario era solo los ingresos. "Ridículo". "Estaban manejando datos erróneos".

La IA tiene paradigmas agotados

Redes neuronales adversarias, aprendizaje automático, aprendizaje profundo. La inteligencia artificial y los sistemas que despliega tienen tantas matices como opciones exploradas. Pero en el informe que Olivas ha publicado con la OBS Business School, el especialista, catedrático y referencia internacional propone un alto en el camino e invita a la reflexión.

"Muchos de los paradigmas vienen del ámbito de la estadística y las matemáticas y, sinceramente, están agotados". "Las redes neuronales artificiales empezaron a diseñarse en los años 50 del siglo pasado. ¿Qué ocurre? Que en su momento no tuvieron la repercusión ni la aplicabilidad adecuada por la falta de potencia computacional. El cambio de paradigma es que ahora tenemos ordenadores mucho más potentes. Los modelos que antes tenían una eficiencia limitada ahora sí son eficaces", explica.

A esos paradigmas, continúa, "les quedan poco recorrido". "Poco recorrido si seguimos solo apretando las matemáticas y las estadísticas para trabajar con datos numéricos". 

Europa se está quedando atrás en innovación en salud y perderá calidad de vida frente a China y Estados Unidos, según este ingeniero español

¿Simplifica demasiado el mundo traducirlo a números? "Hay modelos que pueden tener más recorrido. El razonamiento aproximado, el procesado del lenguaje natural, las técnicas semánticas. Es imprescindible que se incorporen nuevas disciplinas: la psicología, la sociología, la antropología social o la lingüística computacional".

Esos datos numéricos "pueden estar sesgados, tener ruido". "Lo fácil es agarrar una base de datos numérica y meterla en un algoritmo a ver qué sale", critica. "Está claro que los ordenadores no entienden si se les habla al oído", matiza, y por eso hay que formalizar y traducir muchas realidades en números. 

Pero solo con números en bruto no siempre se puede describir "un contexto social" o "formalismos y conceptos como repercusiones de un confinamiento o de amontonamiento de personas en bares en plena pandemia".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.