La denuncia del científico jefe de IA de Meta: "Muchas de las ideas que buscan desarrollar la inteligencia artificial están mal orientadas"

Robot aprende a imaginarse a sí mismo

Getty Images

No lo ve claro. Yann LeCun, científico jefe de IA de Meta, conglomerado empresarial que aglutina compañías como Facebook, WhatsApp e Instagram, ve todavía lejano un horizonte en el que las máquinas puedan pensar de forma parecida a los humanos.

De hecho, a decir de verdad, por ahora ni siquiera se acercan a los animales. "Si todavía no hemos conseguido que una IA razone como un gato, ¿por qué no empezamos por ahí?", se ha preguntado en una extensa entrevista en ZDnet.

El motivo de la misma ha sido un artículo publicado el pasado mes de junio en el que, básicamente, plantea una posible hoja de ruta para el desarrollo de la IA en los próximos años. 

Aunque al comienzo del mismo se advierte de que no se trata de una artículo de investigación al uso sino, más bien, de un conjunto de reflexiones casi escritas a vuelapluma y sustentadas en décadas de experiencias en el desarrollo de IA, este causó cierto revuelo entre algunos de los más reputados expertos en IA.

El motivo es que, aunque no se llegaba a explicitar del todo, en muchos de sus planteamientos LeCun proponía poco menos que una enmienda a la totalidad

Examinadas una por una muchas de las principales vías de desarrollo de IA, LeCun vino a subrayar la enorme distancia que existe todavía entre las máquinas y los seres humanos y el enorme camino que queda todavía por recorrer antes de que un robot pueda tener una percepción lejanamente humana de la realidad.

Lejos de desmentirlo, el investigador de Meta ha terminado de dar forma a este reflexión en su charla mantenida con ZDnet: "Vemos muchas afirmaciones sobre lo que deberíamos hacer para avanzar hacia una IA de nivel humano, pero hay ideas que creo que están mal orientadas".

Los 20 delitos más peligrosos que va a crear la inteligencia artificial

"No hemos llegado al punto de que nuestras máquinas inteligentes tengan tanto sentido común como un gato, así que, ¿por qué no empezamos por ahí?". 

La cuestión, apunta LeCun, no es nada sencilla. Para empezar, porque por ahora entre muchos expertos cunde la impresión de que tener una IA algo más humana supone completar un inmenso rompecabezas del que todavía faltan piezas.

LeCun alude en este punto, por ejemplo, a GPT-3, el prometedor procesador de lenguaje automático entrenado con deep learning por OpenAI.

"Quienes creen en modelos así creen que si lo tokenizamos todo y entrenamos modelos gigantescos para que hagan predicciones a discreción, de algún modo surgirá la IA. No se equivocan en el sentido de que eso puede ser un componente de un futuro sistema inteligente, pero creo que le faltan piezas esenciales", subraya el experto.

Tampoco le tiene demasiada fe a proyectos como AlphaZero, un programa informático desarrollado por la empresa de IA inglesa DeepMind que ha mostrado una sorprendente capacidad de dominar juegos lógicos como el ajedrez, el shogi, conocido en occidente como ajedrez japonés, y el go, el milenario juego de estrategia chino.

"Estos programas basan mucho su aprendizaje en la acción, en hacer cosas. Pero los seres humanos no aprendemos tanto a base de hacer. La mayoría de las cosas las aprendemos observando", contempla LeCun.

Otras vías de desarrollo le despiertan algo más de esperanza. Es el caso, por ejemplo, de la conducción autónoma, una tecnología que ve factible, aunque no del modo en que mucha gente se la está imaginando hoy.

"Creo que es totalmente posible que tengamos coches autónomos de nivel 5 [no requieren en absoluto la intervención del conductor] sin necesidad de desarrollar para ellas algo parecido a un sentido común para las máquinas, pero para ello vamos a tener que diseñar una barbaridad".

Esa tecnología de autoconducción sobredimensionada, afirma, será algo tan complejo y frágil como todos los programas de visión por ordenador que quedaron obsoletos con la llegada del deep learning.

 

Hay que subrayar que la suya no es una voz cualquiera dentro de la industria

Considerado como el padre de las redes neuronales convolucionales, que imitan de manera artificial el modo en que procesa la imagen el cerebro biológico, LeCun es, simplificando mucho, el hombre que enseñó a las máquinas a ver.

También es, junto con León Bottou y Patrick Haffner, uno de los principales creadores de la tecnología de compresión de imagen DjVu. Además, desarrolló con el propio Bottou el lenguaje de programación Lush y recibió el premio Turing en 2019, el considerado como el premio Nobel de la informática.

Pero ni siquiera su propia trayectoria, jalonada de décadas de investigaciones más o menos exitosas y que han permitido avanzar a buen paso a los programas de aprendizaje automático, le invitan a ser mucho más optimista.

"Hay que dar un paso atrás y reconocer que hemos construido una escalera, pero que lo que queremos es ir a la luna, y no hay manera de que la escalera que hemos construido nos lleve hasta allí. Básicamente, lo que digo en mi artículo es que necesitamos construir cohetes. Aunque no puedo dar detalle sobre cómo construirlos, sí que apunto algunos principios básicos".

Otros artículos interesantes:

Esta startup está consiguiendo que la inteligencia artificial tenga 'sentido común' como los humanos

Datos, algoritmos e inteligencia artificial: así predice Spotify lo que más te apetece escuchar

Los actores de doblaje creen que la inteligencia artificial no acabará con su trabajo, pero asumen que traerá más precariedad al sector

Te recomendamos