La transparencia y el conocimiento de los procesos es fundamental para aplicar inteligencia artificial a la toma de decisiones en el ámbito público, según expertos

Hombre en un ordenador

Reuters/FW1F/Nicholas ZIEMINSKI

  • Los gobiernos de toda Europa están apostando por sistemas automatizados relativos a la toma de decisiones a partir de la inteligencia artificial (IA) con el objetivo de proporcionar "mejores servicios públicos". 
  • En este contexto, un grupo de expertos ha debatido sobre esta situación, aduciendo que la transparencia y el conocimiento de los procesos son fundamentales para evitar las consecuencias negativas o las injusticias. 
  • Descubre más historias en Business Insider España.

Los gobiernos y las autoridades de toda Europa están desplegando cada vez más sistemas automatizados relativos a la toma de decisiones y análisis de datos basados
en inteligencia artificial (IA) con el objetivo de proporcionar "mejores servicios públicos". 

Sin embargo, este desarrollo ha ido aparejado a las consecuencias negativas o las injusticias que puede tener este sistema para los ciudadanos, así como la completa negación de servicios. 

El objetivo, tanto de los reguladores como de las entidades que impulsan este sistema de toma de decisiones es lograr estrategias que permitan aumentar la trasparencia, la responsabilidad y que mitiguen los riesgos, tanto durante su desarrollo como en la implementación. 

Europa quiere una inteligencia artificial innovadora, ética y segura

En este contexto, Microsoft ha organizado una mesa redonda formada por un grupo de expertos, entre los que se encuentran Matthias Spielkamp, director ejecutivo y cofundador de AlgorithmWatch; Cornelia Kutterer, responsable del equipo European Rule of Law & Responsible Tech de Microsoft; Ger Baron, CTO de Amsterdam; Jennifer Cobbe, investigadora y profesora en la Universidad de Cambridge en el departamento de Ciencia y Tecnología de la Computación. 

Esta mesa redonda pretendía dar respuesta a cuestiones como cuál es el papel de las empresas tecnológicas para garantizar que la IA se desarrolle de manera responsable o cuál es la de los gobiernos al implementar herramientas de toma de decisiones asistidas por algoritmos. 

Además, también se quería dar voz a otras cuestiones sobre cómo acabar con la opacidad sobre este tema de forma que sea comprensible para los ciudadanos. 

"Las consecuencias del error pueden ser terribles"

CPDP

CPDP

Todos los ponentes han coincidido en la necesidad de impulsar la transparencia durante el proceso, así como el conocimiento de todo lo relacionado con los algoritmos.

Jennifer Cobbe ha explicado que la gente debe conocer los procesos que interfieren en la toma de decisiones, pero esto, a menudo, se antoja un proyecto imposible. Así, la investigadora ha apostado por establecer reguladores (organizaciones, entidades...) que protejan a los ciudadanos en vez de obligarles a comprender un proceso que es bastante complejo. 

Cobbe ha señalado que lo fundamental es hacer accesible este tipo de procedimientos a los que se encargan de vigilar a los usuarios. 

En la misma línea, Cornelia Kutterer ha insistido en la necesidad de conocer los problemas a los que se enfrentan los ciudadanos relacionados con la inteligencia artificial para establecer soluciones acordes. 

Ger Baron ha explicado que una de las ventajas de este tipo de tecnologías aplicadas a la toma de decisiones es la igualdad de oportunidades, así como en los procesos de tomas de decisiones. 

El alto coste medioambiental y energético de la inteligencia artificial

Sin embargo, Kutterer ha recordado que las consecuencias del error en la toma a través de estos métodos también pueden ser "terribles" si afectan a áreas sensibles (por ejemplo, la salud, tema militar, cualquier aspecto que implique daño emocional...). En concreto, la experta ha destacado todo lo relacionado con la infancia como un tema de especial vulnerabilidad. 

Asimismo, ha insistido en la importancia de que las empresas actúen de forma responsable en los proyectos que tengan que ver con este tema sin necesidad de que haya un marco regulatorio específico sobre ello. 

Kutterer ha señalado que es importante mantener la responsabilidad incluso cuando esa tecnología ya se ha desarrollado de forma completa. Así, ha explicado que se debe investigar cuáles son los errores o las consecuencias negativas derivadas de ella y legislar en base a eso. 

Por su parte, Matthias Spielkamp ha apuntado que, especialmente en lo que tiene que ver con el espacio público, es necesario hacer las cosas de forma correcta y esto, a menudo, lleva tiempo. 

Así, ha explicado que hay sectores en los que la toma automática de decisiones no se erige como la forma correcta de abordarlas por su complejidad o por el tiempo de análisis que entrañan. 

LEER TAMBIÉN: Un grupo de expertos defiende el uso de armas autónomas desarrolladas con inteligencia artificial en Estados Unidos

LEER TAMBIÉN: Cómo puede la inteligencia artificial transformar la industria de la inversión, según las grandes gestoras de fondos

LEER TAMBIÉN: Inteligencia artificial para combatir noticias falsas y deepfakes: dos estudiantes consiguen una beca en Telefónica tras superar un reto de la teleco

VER AHORA: El Black Friday del año del coronavirus: una antesala de las compras navideñas con un consumo contenido