Microsoft, Telefónica o PwC colaboran con OdiseIA en su primer informe, que busca acercar al mercado la necesidad de trabajar con algoritmos "éticos"

Joaquin Phoenix instalando OS One en la película 'Her', de 2013.
Joaquin Phoenix instalando OS One en la película 'Her', de 2013.

Warner Bros

OdiseIA, una asociación privada fundada en 2019 para convertirse en el primer observatorio del impacto social y ético de la inteligencia artificial, ha presentado el primer informe dentro de su iniciativa GuIA. Dicha iniciativa, en la que colaboran consultoras y grandes empresas como PwC, también cuenta con la participación de compañías como Microsoft y Telefónica.

Este jueves se presentó el primer informe de toda GuIA, pero la presidenta de la asociación, Idoia Salazar, también avanzó qué sería lo que llegaría ahora: comenzarán un trabajo de investigación en 10 sectores distintos y más de 50 empresas, así como continuarán trabajando en el ámbito de la divulgación, con formaciones en escuelas de negocios, universidades y empresas.

Estos algoritmos ya deciden si te dan la condicional o si tu denuncia es falsa: Eticas lanza un buscador para conocer las IA que ya inciden en tu vida diaria

La propia Salazar recordó que la inteligencia artificial puede tener "consecuencias poco deseables". "También la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Es necesario el desarrollo de la ética asociada a la IA". "No es el futuro, es el presente. Lo tenemos en  nuestro día a día. Hay una regulación por delante que cumplir".

"Y es necesario facilitar el trabajo a empresas y organizaciones. Por eso hemos querido a empezar trabajando de la mano de ellas, con entidades y personas que ya tienen una trayectoria".

La presentación de este documento, de más de 200 páginas y que se podrá consultar a través de la página de LinkedIn de GuIA, ha sido también el pretexto para que durante buena parte de la mañana de este jueves varios directivos de las compañías tecnológicas con presencia en España reconociesen la importancia de garantizar un despliegue ético de algoritmos y sistemas de IA.

Juan Manuel Belloto, el director de OdiseIA y responsable de este primer informe de GuIA, recordó que el documento "no es el objetivo, es el medio". "El medio para generar un ecosistema", con el que la plataforma espera además crear una comunidad y hacer que los mensajes sobre la necesidad de salvaguardar los desafíos éticos de la tecnología "llegue a las empresas".

Los desafíos para conseguir una IA sin sesgos como a la que aspira Europa: "Hay un fallo de mercado, se intenta vender el mismo software a todo el mundo"

En un coloquio moderado por la periodista Mar Cabra, una de las fundadoras de OdiseIA, el propio Belloto ha destacado que la importancia de este informe también radica en a quién está dirigido: a personas de cualquier capacidad y conocimiento, ya que cuenta con un lenguaje entendible por todos y "con muchos niveles de detalle".

Así lo corroboró Armando Martínez Polo, socio de PwC Technology en PwC España, la consultora que ha coeditado este documento. El propio especialista incidió en que PwC ya había detectado hace meses que existía un "runrún" en el mercado cada vez mayor sobre la preocupación de las tecnológicas por las implicaciones sociales y éticas de sus desarrollos. "Por eso apostamos por ser socio institucional de OdiseIA", resume.

Richard Benjamins, responsable de IA y estratega de datos en Telefónica, expuso cómo fabricar coches con airbags también supone que el proceso de fabricación de un vehículo sea más lento y costoso, "pero es un coste económico asumible". "También está demostrado que conducir un coche con casco aumenta la seguridad, pero todos percibimos que sería incómodo y tendría costes sociales".

"Por eso es importante desarrollar algoritmos explicables, auditables y sin sesgos". Algo en lo que también coincidió con el jefe de Tecnología de IBM España, Enric Delgado. "Las tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas".

 A pesar de los costes económicos, los costes sociales pueden ser mayores: se tardará más en poner en producción muchas de esas innovaciones, pero resulta esencial abordar los posibles impactos que podría provocar un algoritmo que provocase discriminación a colectivos de personas.

"Silicon Valley está matando la innovación": por qué hay que empezar a auditar los algoritmos a las tecnológicas para evitar distopías, según una experta

No obstante, el propio Benjamins expuso que había que jerarquizar qué algoritmos podían ser sujetos a estos observatorios de algoritmos, ya que no es lo mismo un algoritmo que optimice las rutas de un camión que recoge la basura que otro que pueda hacer que un ciudadano no acceda a una prestación social.

"Exigir algoritmos auditables, explicables y sin sesgos supone que tarden más en ponerse en producción, por eso exigir esto a todo tipo de algoritmo que se desarrolle sería ineficiente, lastraría la innovación. Por eso hay que jerarquizar en función del nivel de riesgo implícito".

No es lo mismo un algoritmo crucial para la vida de las personas que otro que no afecte los derechos fundamentales de nadie.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.