Varios expertos, en contra de regular ya la inteligencia artificial: temen que sea un freno para el desarrollo de una tecnología 'en pañales'

Un poster que simula la tecnología de reconocimiento facial durante una exhibición en China en 2018.
Un poster que simula la tecnología de reconocimiento facial durante una exhibición en China en 2018.
REUTERS/Thomas Peter
  • Muchos gobiernos están dando pasos para regular la IA ante el temor de que el día de mañana algunas tecnologías tomen consciencia de sí mismas.
  • Sin embargo, algunos expertos advierten que esas regulaciones supondrían un freno a una tecnología que está en pañales.
  • Otros advierten de que es más urgente y necesario regular la IA para corregir los sesgos racistas o sexistas que ya existen en los algoritmos que se están usando.
  • Descubre más historias en Business Insider España.

La inteligencia artificial está llamada a ser una gran disrupción en la sociedad. Aunque sus primeros usos ya se están produciendo, y activistas y algunos gobiernos están decididos a comenzar a regularla.

Las implicaciones sociales que puede tener un algoritmo son determinantes para ello. La tecnología no es de por sí neutral. Aunque el algoritmo sea una fórmula matemática, los datos con los que trabaje y sus aplicaciones finales pueden generar sesgos muy peligrosos.

Sesgos, por ejemplo, que hagan que una entidad bancaria no concedan una hipoteca a una mujer por su género. Aunque las mujeres son tan buenas pagadoras como los hombres, el hecho de que en muchos mercados estén menos bancarizadas que ellos puede provocar que una IA interprete que hay más riesgos al concederle un préstamo a una chica que a un chico.

O sesgos raciales o aporófobos. Introducir la IA en la administración pueden dejar en manos de una herramienta tecnológica la concesión de becas, subvenciones y ayudas a las personas más vulnerables.

España ya ha anunciado, por su parte, una Carta de Derechos Digitales que ha sido cuestionada incluso por algunos de los voluntarios que participaron en su elaboración. También ha anunciado una Estrategia Nacional de Inteligencia Artificial.

La experta española en ética tecnológica Gemma Galdon es la directora ejecutiva de Eticas Consulting, una empresa y una fundación que analizan algoritmos y su impacto social. Ha explicado en varias ocasiones en Business Insider España qué sesgos pueden tener estos algoritmos y cómo surgen.

Las tecnológicas están tomando medidas cada vez más controvertidas, y esta experta explica por qué: "La ética ya no es sostenible como discurso, hay que pasar a la acción"

Pero no todos los expertos del ramo están de acuerdo. La CNBC ha reunido el testimonio de varios investigadores en inteligencia artificial que han pedido demorar cualquier intento de regular la IA al entender que esta tecnología está todavía "en su infancia". En pañales.

"Nadie ha creado nada que pueda compararse con las habilidades de la inteligencia humana", detalla Neil Lawrence, profesor en la Universidad de Cambridge. "Son simplemente herramientas que toman decisiones con algoritmos".

Mucha gente se pregunta qué ocurrirá cuando una IA sea tan desarrollada como para tener conciencia propia. "Creo que estamos muy lejos de eso como para que tengamos ya un debate al respecto".

La CNBC recuerda así cómo en 2014 Elon Musk, CEO de Tesla y SpaceX, advertía que la IA podían ser potencialmente más peligrosas "que las bombas nucleares". "La IA tiene riesgos potenciales para la civilización humana, y no creo que la gente sea muy consciente". En 2017, demis Hassabis, CEO de Deepmind, confirmó estar de acuerdo con la idea de que algún día existiría una "superinteligencia".

Una "superinteligencia" que el profesor de Oxford Nick Bostrom define como "cualquier intelecto que exceda por mucho la capacidad cognitiva de los humanos en todos los dominios de interés virtuales". Bostrom, en declaraciones a la CNBC el año pasado, detalló de qué manera una IA muy poderosa podría hacerle daño a los humanos. Y planteó tres escenarios:

  • Una IA podría hacerle algo malo a los humanos.
  • Unos humanos podrían utilizar una IA para hacerle algo malo a otros humanos.
  • Los humanos podrían hacerle algo malo a una IA. En este último escenario, la IA tendría cierto reconocimiento moral.

Esa superinteligencia ya responde a otras siglas. AGI, en inglés super inteligencia artificial. Jaan Tallinn, cofundador de Skype, también considera que la inteligencia artificial es una de las mayores amenazas para la existencia de la humanidad. Joshua Fest, egresado del MIT y fundador de Cogito, una compañía de software e IA con sede en Boston, por su parte, no cree que haya nada en la IA de hoy día "que implique que consigamos algún día una AGI".

Por ese motivo Feast considera que la clase política debería centrarse por el momento en corregir los sesgos que se generan en los algoritmos, un problema mucho mayor a día de hoy.

Otros artículos interesantes:

Los 'deepfakes' amenazan la veracidad de la información en Internet: algunos consejos y herramientas recomendadas por 2 expertos en ciberseguridad para que la IA no te engañe

El 6G llegará antes de que termine la década: cómo llega Europa al próximo gran pulso tecnológico, según el directivo de uno de los mayores laboratorios 5G de España

Javier Fernández Castañón, el físico español que trabaja en Palantir y dirigirá el futuro debate sobre los riesgos de la IA en salud

Te recomendamos

Y además