Esta IA puede identificar la raza de una persona a partir de una radiografía, pero nadie sabe cómo lo hace exactamente

radiografía, médico

Una inteligencia artificial es capaz de ver lo que el médico no puede: la raza del paciente a partir de una simple radiografía. Incluso cuando el programa no ha sido entrenado para ello. 

Es lo que ha descubierto recientemente un equipo internacional de científicos, incluidos investigadores del Instituto de Tecnología de Massachusetts (MIT) y la Facultad de Medicina de Harvard, tras darse cuenta de que la inteligencia artificial con la que trabajaban podía identifica si alguien es negro, blanco o asiático a partir de una radiografía.

La novedad de este estudio, publicado en The Lancet Digital Health es que la IA pudo predecir con precisión la raza de un paciente, incluso a partir de imágenes que no contenía información para ello. Por lo que los investigadores aún no saben cómo o en qué factores se basó el programa para ser capaz de evaluarlo.

Los hallazgos plantean cómo el uso de algoritmos de aprendizaje automático en el diagnóstico médico podría generar involuntariamente resultados sesgados racialmente. 

¿Cómo? Como ejemplifica Marzyeh Ghassemi, profesora asistente de ingeniería eléctrica e informática del MIT, y coautora del estudio en un artículo previo cabe entender que las herramientas de IA se entrenan procesando y analizando grandes cantidades de datos. "Pero los datos que les dan son producidos por humanos, que son falibles y cuyos juicios pueden verse empañados por el hecho de que interactúan de manera diferente con los pacientes dependiendo de su edad, género y raza, sin siquiera saberlo".

Cómo nacen y se arreglan los sesgos en un algoritmo de inteligencia artificial

O dicho de otro modo, una inteligencia artificial podría recomendar a partir de una radiografía un tratamiento particular para todos los pacientes negros, sea o no mejor para una persona en concreto. Pero el médico humano del paciente no sabría que la IA basó su diagnóstico en datos raciales.

Los autores aún no tienen claro cómo la IA fue capaz de hacer la identificación

La actual investigación se llevó a cabo después de que el equipo de trabajo notara que un programa de inteligencia artificial para examinar radiografías de tórax tenía más probabilidades de pasar por alto signos de enfermedad en pacientes negros.

 “Nos preguntamos, ¿cómo puede ser eso si los programas no pueden decir la raza de una persona?”, revela en The Bonton Globe, Leo Anthony Celi, coautor del estudio y profesor asociado de la Escuela de Medicina de Harvard.

Entonces el equipo de investigación, conformado por científicos de Estados Unidos, Canadá, Australia y Taiwán, entrenó un sistema de inteligencia artificial utilizando conjuntos de datos obtenidos de rayos X y tomografías computarizadas, a partir de imágenes etiquetadas con la raza de la persona. 

Tras esto el equipo mostró al programa imágenes sin etiquetar. La inteligencia artificial pudo identificar la raza de las personas con una precisión a veces por encima del 90%. Incluso cuando se analizaron imágenes de personas de la misma edad o género, la IA distinguió entre pacientes blancos y negros.

Las imágenes de diagnóstico examinadas por la computadora no contenían marcadores obvios de raza, como el color de la piel o la textura del cabello. Por lo que los autores aún se preguntan cómo fue capaz de hacer la identificación.

Como apuntan los autores en el medio su hipótesis se encamina hacia  la melanina, el pigmento que determina el color de la piel. "Tal vez los escáneres de rayos X sean capaces de detectar mayor contenido de melanina de la piel más oscura e incorporen esta información en la imagen digital de alguna manera que los usuarios humanos nunca habían notado".

Dar con la respuesta requerirá más investigación al respecto. No obstante, hasta el momento la opinión del profesor de Harvard es que los médicos deberían evitar acudir a herramientas de diagnóstico de IA que podrían generar automáticamente resultados sesgados.

“Tenemos que hacer una pausa”, remarca Celi. “No podemos apresurarnos a llevar los algoritmos a hospitales y clínicas hasta que estemos seguros de que no están tomando decisiones racistas o sexistas”.

Otros artículos interesantes:

Un nuevo informe de la Universidad de Stanford advierte de que el riesgo real de la IA es la confianza de la industria en que la tecnología pueda solucionar todos los problemas del mundo

Estos algoritmos ya deciden si te dan la condicional o si tu denuncia es falsa: Eticas lanza un buscador para conocer las IA que ya inciden en tu vida diaria

"Silicon Valley está matando la innovación": por qué hay que empezar a auditar los algoritmos a las tecnológicas para evitar distopías, según una experta

Te recomendamos