Un nuevo informe de la Universidad de Stanford advierte de que el riesgo real de la IA es la confianza de la industria en que la tecnología pueda solucionar todos los problemas del mundo

Dave Gershgorn
| Traducido por: 
Una aplicación que usa IA para detectar contagios de coronavirus. Reuters/Vidhyaa Chandramohan
Una aplicación que usa IA para detectar contagios de coronavirus. Reuters/Vidhyaa Chandramohan
  • Los mejores investigadores de Stanford publicaron el segundo informe en un estudio en curso sobre inteligencia artificial.
  • El estudio, que abarcará 100 años, advierte que la IA es una herramienta, no una "panacea" para los problemas globales.
  • Los gobiernos deben tener cuidado con el uso de algoritmos en la justicia penal y la policía, dicen los expertos.
  • Descubre más historias en Business Insider España.

La principal preocupación para los científicos de inteligencia artificial en 2021 no es un escenario tipo Terminator, o que la IA se vuelva demasiado avanzada, sino que las empresas de tecnología utilicen nuestros algoritmos limitados actuales como un parche para problemas sociales complejos, según un nuevo informe.

El estudio, la segunda parte de un estudio de la Universidad de Stanford sobre el avance de la inteligencia artificial, utiliza el término "tecnosolucionismo" para calificar esta línea de pensamiento específica, y advierte de que la IA es una herramienta matemática más que una panacea

El estudio de Stanford está planteado para durar 100 años. De hecho, se llama oficialmente "Estudio de 100 años sobre inteligencia artificial" y planea informar de sus resultados cada 5 años.

"La tecnología a menudo crea problemas más grandes en el proceso de resolver los más pequeños", escriben los autores. "Por ejemplo, los sistemas que agilizan y automatizan la aplicación de los servicios sociales pueden volverse rígidos rápidamente y negar el acceso a los migrantes u otras personas que se encuentran entre las grietas (del sistema)", añaden.

Realidad virtual, ciudades inteligentes y coches autónomos: SenseTime, el fascinante e inquietante gigante chino de inteligencia artificial está a punto de salir a bolsa

El estudio de Stanford se lanzó en 2016 con el objetivo de catalogar el meteórico ascenso de la inteligencia artificial que se espera para las próximas décadas

La investigación en inteligencia artificial estuvo estancada durante los denominados "inviernos de la IA" de las décadas de 1970 y 1990, pero a finales de la década de 2010, la llegada de conjuntos de datos más grandes y poderosos centros de datos de computación en la nube hizo que muchas de las tecnologías del campo fueran escalables por primera vez. 

Para producir estos informes sobre los peligros y las oportunidades de la IA, Stanford está trabajando con un grupo de expertos del mundo académico y de la industria, incluidos Microsoft, Google, Sony y una gran cantidad de instituciones de la Ivy League.

Estos expertos ahora hacen hincapié en que la industria y los gobiernos aprovechan el uso excesivo e incorrecto de la IA

Si bien la decisión de un algoritmo puede parecer imparcial, como en la determinación de qué un candidato consiga un trabajo o qué imagen representa mejor a un médico, el algoritmo toma esa decisión basándose en decisiones históricamente sesgadas que previamente habían tomado los humanos. 

El resultado es un sistema que perpetúa esos prejuicios y hace que sea más difícil eliminarlos de la sociedad, dice el informe. 

El término "tecnosolucionismo", utilizado aquí para describir la aplicación de la IA para tratar de solucionar problemas sociales, se refiere a un libro de 2013 titulado "Para salvar todo, haga clic aquí: la locura del solucionismo tecnológico", del autor Evgeny Morozov. 

Los defensores de que las IA pueden ser inventoras sufren un nuevo revés en EEUU: "¿Qué pasará cuando las máquinas tengan conciencia?"

El libro rechaza el uso de la tecnología para gamificar conceptos como el reciclaje o la pérdida de peso, sugiriendo que estas soluciones sirven más a las empresas que construyen la tecnología que a las personas que la utilizan.

A pesar  este boom de la inteligencia artificial tiene menos de una década, ha habido docenas de ejemplos de cómo la tecnología ha servido como un reemplazo insuficiente para la inequidad estructural. 

El reconocimiento facial utilizado en la policía ha llevado a arrestos erróneos de varios hombresnegros, ya que los algoritmos funcionan mal en quienes tienen la piel más oscura. 

En 2016 se descubrió que un algoritmo ampliamente utilizado que intenta determinar el riesgo de que una persona cometa un delito en el futuro indica que las personas negras tienen más probabilidades.

Google suspende su investigación tras publicarse que usa a mendigos negros para mejorar su reconocimiento facial

El informe de Stanford llama a la precaución, especialmente para los algoritmos utilizados para la justicia penal, advirtiendo del peligro de adoptar una "perspectiva estadística sobre la justicia".

"Existe un aura de neutralidad e imparcialidad asociada con la toma de decisiones de la IA en algunos rincones de la conciencia pública, lo que da como resultado que los sistemas se acepten como objetivos a pesar de que pueden ser el resultado de decisiones históricas sesgadas o incluso de una discriminación flagrante", sentencian los autores.

Este contenido fue publicado originalmente en BI Prime.

Conoce cómo trabajamos en Business Insider.