Por qué es importante regular la inteligencia artificial: "Los propios bancos no saben por qué me están negando una hipoteca"

  • Varias voces expertas en la materia han pedido en los últimos meses que se legisle el avance desmedido de la inteligencia artificial.
  • Dos expertas en derecho y ética han participado en el último Smart Business Meeting dedicado a la IA y han explicado por qué es importante regular su desarrollo: "La tecnología no es tan neutra como yo me imaginaba".

En los últimos meses, con motivo del auge de popularidad que ha experimentado la inteligencia artificial gracias a herramientas como ChatGPT o Midjourney, numerosos expertos y líderes empresariales han alzado la voz para señalar que una tecnología tan potente como esta debería ser legislada. 

Hace unas semanas fueron miles de líderes del sector quienes firmaron un manifiesto para frenar el desarrollo de los modelos de IA más avanzados, como GPT-4

Aunque esa carta fue criticada en su momento ante las intenciones ocultas que podían tener algunos de sus firmantes (empresarios como Elon Musk o Steve Wozniak), recientemente ha surgido otro manifiesto apoyado por más 350 investigadores que ha comparado el riesgo que supone la inteligencia artificial para la humanidad con una guerra nuclear o una pandemia.

Los expertos en la materia consideran que la necesidad de regular esta tecnología para alinearla con la ética de los usuarios y las empresas que la utilizan es prioritaria. Al menos así lo han defendido Cristina Aranda, cofundadora de Big Onion y Mujeres Tech, y Vanesa Alarcón, socia de Ecija Abogados.

Aranda y Alarcón participaron el pasado 24 de mayo en un Smart Business Meeting organizado por Business Insider España, que estuvo dedicado precisamente a abordar los retos que plantea el auge de la IA desde el punto de vista ético, legal y moral. 

"El gran reto es regular la desinformación"

De izquierda a derecha: Cristina Aranda, de Big Onion y Mujeres Tech; Manuel del Campo, CEO de Axel Springer España; y Vanesa Alarcón, de Ecija Abogados.
De izquierda a derecha: Cristina Aranda, de Big Onion y Mujeres Tech; Manuel del Campo, CEO de Axel Springer España; y Vanesa Alarcón, de Ecija Abogados.

BI España

La cofundadora de Big Onion y la socia de Ecija Abogados participaron en una mesa redonda, moderada por Manuel del Campo, CEO de Axel Springer España, en la que se debatió acerca de la regulación ética y la responsabilidad de las empresas desarrolladoras de inteligencia artificial. 

"Necesitamos más espíritu crítico en la formación, más filosofía en las aulas", comenzó pidiendo Aranda, refiriéndose al que ella considera uno de los problemas fundamentales de esta tecnología: la desinformación. "Saber de dónde vienen esas fuentes de información, no creernos todo", añadió.

Otro de los problemas que sacó a colación la cofundadora de Big Onion y que puede generar el uso indebido de la IA fue la toma de decisiones trascendentales por parte de algoritmos y no de personas. "Los propios bancos no saben por qué me están negando un crédito o una hipoteca", puso como ejemplo. 

"La ética la hacemos las personas, las personas somos quienes programamos, somos quienes producimos esos datos, que están sesgados", aseguró. 

verticalImage1685608632189

Por su parte, la socia de Ecija Abogados apuntó lo importante que es el enfoque a la hora de evaluar ese posible uso indebido que se le da a estas herramientas: "Si partimos de la base de los usos, es totalmente lógico que tengamos en cuenta cómo utilizamos esas herramientas porque, si somos objetivos, la tecnología como tal podríamos decir que es neutra".

"Quizá la observación sea que la tecnología no es tan neutra como yo me imaginaba. Es neutra a nivel de herramienta, pero el impacto que tiene a nivel medioambiental, por ejemplo, ahí ya deja de ser neutra", matizó Alarcón.

Por ese motivo, la experta defendió que "es súper importante que las empresas decidan qué es lo que quieren hacer, cómo lo quieren hacer...".

"España es una de las pioneras"

Vanesa Alarcón, socia de Ecija Abogados.
Vanesa Alarcón, socia de Ecija Abogados.

BI España

Durante la charla, salieron a debatir cuestiones puramente legislativas como el sandbox regulatorio de inteligencia artificial propuesto por el Gobierno de España. 

"Situaciones como todo el tema del sandbox, ahí se está potenciando todo el tema de la experimentación con la aplicación de la IA, con el establecimientos de unas pautas y de unas herramientas que ayuden a potenciar esto", explicó la socia de Ecija Abogados. "En este sentido, España sí que es una de las pioneras".

 

Desde un punto de vista ético, la cofundadora de Big Onion subrayó la importancia de un concepto clave: "La explicabilidad consiste en esa inteligencia artificial que estamos usando para tomar una decisión, que sepamos qué variables se están asumiendo dentro de ese algoritmo, si está teniendo en cuenta esas variables relacionadas con la identidad, género o edad, entre otros".

"Toman decisiones que no saben justificar las personas que están gestionando esos algoritmos", apuntó Aranda, haciendo referencia precisamente a la importancia del concepto. "Ya no vale todo, tienes que justificarme por qué me estás negando un crédito o una financiación al consumo".

Evento organizado por Business Insider España contó con la colaboración de Havas Media Group, BBVA, PwC, Outbrain y Esade como partner académico.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.