¿Debe una IA poder decidir si alguien invierte en una IA? Esto es lo que piensa Richard Benjamins, jefe de IA y Datos en Telefónica

Oficina con empleados basados en inteligencia artificial.

Getty

  • Richard Benjamins, responsable de IA y Datos de Telefónica, apuesta por un desarrollo ético de la IA y por una estrategia de inversión en nuevas tecnologías responsable.
  • "La IA en sí no es ni buena ni mala, quienes la llevaremos por un lado u otro somos los que estamos detrás", ha declarado en el South Summit de Madrid.

De un tiempo a esta parte, no se habla de otra cosa. La IA, su desarrollo, sus potenciales usos y el modo en que puede cambiar cómo se hacen muchas cosas han copado buena parte del debate público sobre el desarrollo de nuevas tecnologías.

Naturalmente, también lo ha hecho este jueves en el South Summit de Madrid, el encuentro del mundo del emprendimiento que ha reunido en la capital durante 3 días a muchas de las empresas más prometedoras del mundo.

A cada esquina, una charla sobre IA. Entre los ponentes, una de las voces más autorizadas ha sido este jueves la de Richard Benjamins, jefe de IA y manejo de datos de una tecnológica de la importancia y el tamaño de Telefónica. 

Su ponencia ha partido de una pregunta estimulante: ¿debería por ejemplo una IA intervenir en el proceso de due dilligence (investigación previa a la entrada de capital en una empresa llevada a cabo por los inversores) de una empresa dedicada a la IA? 

Simplificada, la pregunta también podría ser esta: ¿debe una máquina tener voto en la decisión de que un humano invierta en otra máquina? 

Y se puede ir aún más allá: ¿estamos muy lejos de que, como en películas de ciencia ficción como Blade Runner, no haya diferencia entre analistas humanos y analistas artificiales? ¿Barrerán entonces las IA para casa?

Para Benjamins, debe imperar la cautela. La IA puede entrar en casi cualquier cosa, pero con cuidado. 

"Cada vez más inversores se preguntan, como yo, por los principios éticos a la hora de invertir en una empresa. Tenemos un principio de inversión responsable, la declaración de las Naciones Unidas", ha comenzado explicando. 

"La IA nunca es perfecta, por lo que siempre es esencial comprobar la cantidad de daños colaterales que podrían producirse si algo sale mal. Antes de lanzarse, hay que pensar en prevenir esos posibles daños".

El punto de vista de Benjamins es claro: más allá de cualquier complicado debate, la IA será lo que sus dueños quieran que sea. No es una idea muy original, pero muchos expertos coinciden desde hace tiempo en señalar que conviene recordarla de cuando en cuando. 

Mientras empresas como la OpenAI de Sam Altman parecen empeñadas en hablar solo de las bondades de las próximas evoluciones de la archiconocida ChatGPT, hay quien por ahora prefiere centrar la atención, por ejemplo, en los inevitables sesgos que muestran unas máquinas alimentadas muchas veces con lo mejor y lo peor de Internet.

"El uso responsable de la tecnología en general es algo deseable. Por supuesto que es posible hacerlo, pero hay que tener claro que es una cuestión de mentalidad. Las empresas no deberíamos limitarnos a buscar beneficios económicos, sino que deberíamos intentar mejorar la sociedad". 

En ese sentido, Telefónica, ha explicado Benjamins, está utilizando la IA en este momento para mejorar su relación con los clientes y optimizar el negocio. Eso no está impidiendo que se esté utilizando en otros ámbitos: "Estamos ayudando con la IA en muchos sectores diferentes", ha apuntado Benjamins.

OpenAI, propietaria de ChatGPT, no planea salir a bolsa porque su CEO, Sam Altman, quiere libertad para tomar decisiones "muy extrañas"

"La IA no tiene intención, es la gente que hay detrás"

Pero, ¿cuál es la clave del equilibrio en el desarrollo de la IA? ¿Cómo conseguir que una tecnología así se desarrolle y al mismo tiempo mejore la vida de sus usuarios sin contrapartidas, sin efectos secundarios indeseados?

Para Benjamins, todo parte de una pregunta: "¿Qué pasa si esto que estoy haciendo sale mal? ¿Cuál es el daño que hago? Hay que intentar minimizar estos riesgos. Ese es el verdadero desarrollo ético de la IA".

En opinión del experto, de hecho, el desarrollo ético de una nueva tecnología y la gestión de sus potenciales riesgos no es algo ajeno a la humanidad. "Internet trajo riesgos como la adicción a las redes sociales, las páginas que extienden ideas peligrosas por ejemplo en torno a la comida y que fomentan la anorexia... Pero tenemos que tener claro que no es la tecnología, somos las personas".

En este sentido, para el experto de Telefónica un límite razonable pueden ser los derechos humanos. 

"Nosotros en 2018 ya fuimos muy claros con respecto a lo positivo que podía traer la IA, pero también éramos conscientes de lo negativo. Hay que explicarlo y ser transparentes cuando sea necesario. La responsabilidad de un producto se debe determinar desde el diseño, no es algo que se pueda decidir a posteriori", ha argumentado Benjamins.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.