Una investigación pone las bases hacia una IA más 'honesta': estas redes neuronales son capaces de advertir cuándo son poco fiables sus propios análisis

La película 'Her' plantea una relación romántica entre el protagonista y una inteligencia artificial, Samantha, presente en su móvil y su ordenador.
La película 'Her' plantea una relación romántica entre el protagonista y una inteligencia artificial, Samantha, presente en su móvil y su ordenador.
  • Científicos del MIT han creado un sistema para que las redes neuronales de la inteligencia artificial den un dato: cuánto puedes confiar en sus conclusiones.
  • Aunque una IA acierte con sus decisiones el 99% de las veces, el 1% restante puede poner vidas humanas en riesgo, recuerdan los investigadores.
  • Descubre más historias en Business Insider España.

"Necesitamos tener la capacidad de contar con modelos de alto rendimiento, pero también necesitamos entender cuándo no podremos confiar en ellos".

Es lo que explica en Science Alertun investigador del Instituto Tecnológico de Massachusetts, el MIT. Alexander Amini trabaja en el Laboratorio de Inteligencia Artificial y Ciencias de la Computación de la institución, y forma parte de un equipo que acaba de desarrollar redes neuronales capaces de predecir cuándo no se debe confiar... en ellas mismas.

Las redes neuronales artificiales son un elemento indispensable de una inteligencia artificial. Articulan los procesos computacionales que permiten a las máquinas adoptar propuestas, soluciones y conclusiones. Como detallan en Science Alert, su propósito es imitar un cerebro humano teniendo en cuenta multitud de factores y poniéndolos en una balanza con otros tantos criterios.

Logran hackear un modelo de reconocimiento facial similar al que se usa en los aeropuertos para identificar a personas que tienen prohibido volar: así lo han conseguido

Dado que la IA ya adopta decisiones que pueden incidir directamente en la vida de los seres humanos —conducción autónoma, diagnósticos médicos—, es fundamental que dichas decisiones puedan ser medibles también con indicadores sobre la confianza que se puede prestar sobre las mismas.

Por esta razón, Amini y su equipo del MIT han desarrollado un modelo llamado Deep Evidential Regression —regresión profunda de evidencias— con el que las redes neuronales son capaces de arrojar un porcentaje: el grado de confianza que arrojan sus conclusiones.

Las redes neuronales serán capaces de medir la confianza que tengan sus propuestas valorando varias cuestiones: la cantidad de datos que ha recibido la IA para procesar, lo entrenada que está dicha IA, y lo certeros y claros que son los datos que ha recibido.

Una empresa española acaba de anunciar que su tecnología de reconocimiento facial es capaz de identificar a sus usuarios aunque lleven mascarilla

Según Science Alert, este sistema se podría implementar en vehículos autónomos, cuando la IA del ordenador de a bordo se encuentra en un cruce y el coche no sabe si cruzar o no. Podrá concluir que sí puede cruzar, pero si es de noche y las cámaras son incapaces de recibir imágenes bien iluminadas, la propia IA sería capaz de advertir que ha tomado una decisión con un índice de confianza bajo.

De momento la investigación no se ha revisado por pares y está pendiente de ser presentada en el congreso NeurIPS en diciembre. "Estamos viendo muchos modelos de IA con redes neuronales salir de los laboratorios y aterrizar en el mundo real, en situaciones que ponen potencialmente en riesgo la vida de seres humanos", advierte Amini, el investigador jefe. "Cualquier usuario de esta tecnología, sean médicos o pasajeros de coches autónomos, deben ser conscientes de los riesgos que corren".

Reino Unido utilizará inteligencia artificial para hacer seguimiento de los posibles efectos secundarios de las vacunas

Y es que todavía queda para que la confianza sobre la IA pueda ser ciega. Aunque una red neuronal pueda acertar el 99% de las veces, el 1% restante puede tener consecuencias fatales.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.