La IA fracasa en su lucha contra el coronavirus por falta de muestras de datos amplios y fiables, según varios expertos

IA Coronavirus

Getty Images

  • El estallido de la pandemia en marzo de 2020 ofreció a la IA una oportunidad para mostrar las posibilidades de su desarrollo.
  • Las expectativas no se han cumplido: cientos de sistemas de aprendizaje han fracasado en los últimos meses a la hora de diagnosticar y evaluar a los pacientes de coronavirus.
  • Entre las causas del fracaso, subrayan varios expertos en MIT Technological Review, destaca la falta de muestras de datos amplias y fiables.
  • Descubre más historias en Business Insider España.

Aunque las vacunas han mejorado ostensiblemente la situación de la población general con respecto al coronavirus, la lucha contra la enfermedad ha deparado algunas derrotas.

Tal vez de las más sorprendentes ha sido la que ha sufrido la IA, una tecnología sobre la que apenas hace un año estaban depositadas muchas esperanzas pero que se ha mostrado incapaz, una y otra vez de ofrecer las soluciones que algunos expertos vaticinaban.

Aunque aún es pronto para extraer conclusiones definitivas, los primeros estudios dedicados a recoger las experiencias de centros médicos que han utilizado la IA para ayudar a unos médicos saturados por las oleadas de pacientes resultan, como poco, inquietantes.

"Esta revisión indica que casi todos los modelos de predicción publicados están mal informados y tienen un alto riesgo de sesgo, por lo que su rendimiento predictivo informado tiende a ser optimista", afirma en sus conclusiones un estudio recogido por BMJ Medicine que analiza más de 200 modelos predictivos. De estos, destaca el propio informe, solo un par resultan prometedores.

No se muestra mucho más optimista el Instituto Alan Turing, en Reino Unido, que analiza en un otra investigación el modo en que la IA ha sido utilizada por algunos de los principales centros médicos del país para tratar a los pacientes de coronavirus.

Aunque reconoce que esta tecnología ha desempeñado un papel "integral" en la lucha contra la pandemia, también hace un exhaustivo listado de problemas que han imposibilitado que la IA desarrolle buena parte de su potencial como herramienta para ayudar a los expertos a combatir la pandemia.

Entre estos, destacan, por ejemplo, las dificultades de los profesionales para acceder a muestras de datos sólidas y fiables, depuradas para evitar, por ejemplo, duplicidades u omisiones importantes en las historias clínicas de las pacientes.

Pero el estudio del Instituto Alan Turing apunta incluso a problemas más profundos. Para empezar, muchos sanitarios e investigadores han denunciado privilegios. Concretamente, subraya el informe, los que han tenido unos científicos sobre otros a la hora de acceder determinadas muestras de datos. 

El Reglamento sobre la IA que prepara Bruselas levantará barreras a la innovación, según critica un especialista en transformación digital del MIT

Se trata de maniobras que ha permitido a unos pocos ser los primeros en publicar sus artículos y medrar en el competitivo mundo de la investigación científica a cambio de perjudicar a los demás: a sanitarios y epidemiólogos que no han podido contar con muestras más amplias para verificar sus hipótesis sobre el virus, y, por supuesto, a pacientes que no han podido recibir mejores tratamientos por la falta de datos centralizados y de libre acceso para los profesionales.

Unos profesionales que, además, en algunos casos han ido poco menos que a ciegas. El propio Instituto Alan Turing denuncia en sus conclusiones la falta de datos sobre minorías étnicas y sociales: quienes no podían acudir a un hospital gracias a su seguro no solo no han sido desatendidos ante un virus potencialmente mortal, sino que han quedado infrarrepresentados en las estadísticas, fuera del radar de la ciencia.

Los errores en las muestras han sido errores en la IA

Como un error en las muestras de los datos con los que aprenden las IA se convierte, automáticamente, en un error de las propias máquinas de análisis de datos, los fallos del sistema sanitario se han dejado notar en una tecnología perdida ante un aluvión de datos parciales, sesgados y, en algunos casos, incorrectos.

Unos cuantos de los errores cometidos por la IA durante esta pandemia han quedado reflejados en un estudio publicado en marzo de este año por la revista especializada Nature Machine Intelligence.

España ultima su observatorio para analizar el impacto social de los algoritmos y se postula como país piloto para probar el futuro reglamento europeo de la inteligencia artificial

Entre ellos destaca, por ejemplo, una IA a la que se enseñó a diferenciar con escáneres de tórax lo que era coronavirus y lo que no. El problema estuvo en que, para la muestras de personas sanas, los investigadores, por error, solo utilizaron pruebas realizadas en niños. Como consecuencia, el modelo predictivo, en vez de extraer generalizaciones para pacientes con coronavirus, simplemente aprendió a distinguir a niños de adultos.

Algo parecido sucedió con ciertos modelos a los que se intentó enseñar a clasificar a los pacientes de coronavirus en base a su estado. Como la mayoría de los pacientes que estaban graves yacían tumbados y quienes se estaban recuperando ya podían caminar o estar un rato de pie, la IA aprendió a valorar el estar tumbado o estar de pie como un síntomas más: si un paciente estaba en la cama, aunque sus síntomas fueran leves, era calificado automáticamente como paciente grave.

Incluso elementos a priori tan anodinos como los expedientes de los pacientes se terminaron convirtiendo en síntomas. Según recoge este estudio, algunos modelos aprendieron a identificar la letra de los informes médicos de ciertos hospitales. Esto finalmente se convirtió un indicio: la letra de los hospitales con más pacientes de coronavirus o que acogían a los enfermos más graves fue identificada por la IA como un factor que influía en el desarrollo de la enfermedad.

"Esta pandemia ha sido una gran prueba para la IA y la medicina", ha dicho al respecto, en declaraciones recogidas por MIT Technology Review, Derek Driggs, experto en IA de la Universidad de Cambridge. Su conclusión es clara: "Esta herramienta habría servido de mucho para poner a la gente de nuestro lado. Pero no creo que hayamos pasado esa prueba".

Para futuras pandemias, lo mejor es compartir

La solución, coinciden los expertos, pasa por evitar que unos pocos acaparen toda la información y que esta finalmente se fragmente. Compartir datos, compartir modelos, compartir métodos. Bajo el actual sistema, explican varios expertos en MIT Technological Review, los científicos tienen muy pocos incentivos para trabajar en equipo y avanzar juntos en su investigación. En vez de eso, cada uno hace la guerra por su cuenta. También con la IA.

"Los modelos son muy parecidos, casi todos utilizan las mismas técnicas con pequeños retoques y los mismos datos, y todos cometen los mismos errores", explica al respecto Wynants en el citado medio. "Si toda esta gente que hace nuevos modelos, en lugar de ello, probara los modelos que ya están disponibles, tal vez ya tendríamos algo que realmente funcionara".

La utopía, un mundo sin fronteras (al menos en lo que a investigación se refiere), está más cerca de lo que parece. Si el año pasado, las academias de ciencias de los países que integran el G-7 ya reclamaban unión apenas un mes después de estallar la pandemia, el pasado mes de junio fue el propio G-7 quien se descolgó anunciando la creación de una red internacional de investigación zoonóstica para identificar y prevenir futuras pandemias.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.