Robots que diferencian el olor de un perfume o el sabor de un buen vino: 5 maneras en las que la IA imita los sentidos de los seres humanos

robot inteligencia artificial

Getty Images

  • La Inteligencia Artificial tiene múltiples aplicaciones, desde desarrollar sistemas que puedan reconocer objetos transparentes, hasta aquellas capaces de diferenciar miles de sabores u olores. 
  • Esta es una recopilación de proyectos de Inteligencia Artificial capaces de replicar los 5 sentidos del ser humano, y que van mucho más allá del reconocimiento de voz de Alexa.
  • Descubre más historias en Business Insider España. 

Desde los albores de la robótica, siempre se ha intentado crear una máquina a imagen y semejanza del ser humano. Una máquina que se pueda mover, que pueda sentir y que pueda pensar tal y como lo hacen las personas. Sin embargo, si esto parecía inalcanzable en el pasado, poco a poco, están apareciendo robots  con sistemas que diferencian entre miles de sabores, olores o texturas como puede hacer cualquier humano.

Algunos ejemplos de esto son los proyectos desarrollados por el Instituto Tecnológico de Massachussets (MIT por sus siglas en inglés) que están inmersos en investigaciones para lograr que los robots tengan un sentido del tacto. O la compañía francesa Aryballe que cuenta con un sistema de IA capaz de diferenciar miles de sabores diferentes. 

Algunos software como el de reconocimiento de voz de Alexa son de sobra conocidos y ya forman parte de muchos hogares. Sin embargo, estos son algunos ejemplos de sistemas de Inteligencia Artificial que se asemejan a los 5 sentidos del ser humano y que, incluso, van mucho más allá. 

1. Robots que pueden ver

Los robots no tienen un sentido de la vista como tal, sin embargo, los hay que su sistema de rayos infrarrojos les permite determinar la forma de los objetos de manera muy ajustada a la realidad. 

En este sentido, los robots no son buenos de por sí cuando se encuentran frente a un objeto transparente, como una botella de cristal o un vaso de plástico, debido principalmente a que sus sensores, llamados sensores de profundidad, reflejan en estos objetos y solo son capaces captar unas sombras vagas.

Sin embargo, un equipo de investigadores de la Universidad Carnegie Mellon en Estados Unidos, recientemente ha logrado crear un sistema para que los robots puedan completar con información adicional, esas vagas sombras que captan con sus sensores, y poder dar forma a objetos transparentes como recoge el diario The Wall Street Journal. 

En su proyecto, los investigadores combinaron un sensor de profundidad junto con una cámara estándar que captaba los tonos, rojos, verdes y azules de los bordes de esos objetos transparentes. Después, mejoraron el sistema para que los robots reconocieran las señales visuales de colores registrados por la cámara, y de esta manera, un brazo robótico automáticamente ajustara el agarre para poder coger los objetos. 

2. El poder de escuchar

Los investigadores de Carnegie Mellon han creado también una base de datos de sonidos e imágenes digitalizados utilizando todo tipo de objetos domésticos, con la finalidad de que un sistema de IA con entrenamiento automático, pudiera identificar correctamente cada sonido. De esta manera, según los investigadores, el robot era capaz de identificar hasta en un 750% de las veces, objetos que no podía ver, pero si escuchar.

Pero no solo identificar objetos a través del sonido, también se está desarrollando la tecnología que permite aislar sonidos unos de otros, y diferenciar por ejemplo entre voces y ruido.

Un ejemplo de esto es Oticon Inc, una compañía de fabricación de audífonos, que está investigando la creación de implantes cocleares con redes neuronales. Esos implantes tienen unos algoritmos, alimentados con millones de muestras de habla con y sin ruido de fondo, que de manera automática aísla las voces del ruido de fondo. Estos permite a personas que sufren algún tipo de pérdida auditiva, recuperar sus facultades auditivas. 

3. El sentido del olfato

¿Te imaginas un sistema de Inteligencia Artificial capaz de oler un perfume? Pues está más cerca de lo que crees. Aryballe es una empresa de software de IA que mediante unos biosensores y un sistema de aprendizaje automático, imita el funcionamiento del sistema olfativo humano. 

El sensor capta las moléculas de olor en el aire y las codifica en datos. El sistema de IA entonces recoge esos datos y los combina con una base de datos que cuenta con miles de olores diferentes, y tras cruzar los datos recogidos con los de su base, puede determinar de qué tipo de olor se trata. 

Esta tecnología tiene múltiples aplicaciones, como por ejemplo, poder apagar un horno antes de que se quemen los alimentos, o detectar un escape de gas.

4. Saborear miles de alimentos

Existe un sistema de IA que permite predecir qué alimentos funcionarán mejor o peor en un mercado concreto, basándose en los gustos de los consumidores. Gastrograph AI, es una plataforma creada por Analytical Flavor Systems Inc. que predice cómo reaccionará la gente ante nuevos productos alimenticios. 

Este sistema cruza los datos de miles de consumidores que primero han valorado miles de productos a través de una app móvil, puntualizando diferentes parámetros y categorías. Gracias al sistema de autoaprendizaje de la IA, es capaz de determinar qué patrones de sabores y preferencias funcionan mejor en cada lugar. 

"Hasta la fecha, hemos modelado más de 1.000 firmas de sabores (y seguimos sumando) ¿Tiene un sabor portugués poco común? Encuentre otros grupos de consumidores importantes para él basándose en los datos de percepción. ¿Tiene un sabor que aún no ha sido modelado? Cree una nueva firma y la IA de Gastrograph la optimizará para su público”, establece en su página web.

5. La complejidad del tacto

GelSight, es una tecnología desarrollada por investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (EEUU), que permite a los robots, mediante un sensor táctil determinar la forma, el tamaño y el material de una superficie. Esto supone poder digitalizar el sentido del tacto con una precisión muy alta. 

En relación con esta tecnología, Yunzhu Li, investigador del MIT, está trabajando en un sistema de IA capaz de establecer relación entre una imagen y el tacto de una superficie. A través de la recopilación de datos de más de 200 objetos tocados miles de veces con un sensor GelSight,Li ha creado una base de datos para la IA que ha desarrollado pueda hacer modelos coincidentes entre datos visuales y datos sobre el tacto. 

"Los humanos desarrollamos capacidades a partir de la experiencia a lo largo de nuestra vida, las redes neuronales pueden aprender mucho más rápido” afirma Li en una entrevista a TWSJ. 


Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.