Voces clonadas y máquinas que conversan: así son los desafíos éticos y legales de los robots que confundiremos con seres humanos por teléfono

Her

Filmaffinty

  • El desarrollo de la inteligencia artificial plantea conflictos éticos y legales, y más aún si se trata de clonación de voz.
  • La experta en ética tecnológica Gema Galdon advierte de que estos riesgos existen y son serios.
  • La Unión Europea (UE) ya ha elaborado 3 reglamentos distintos para regular esta tecnología, en el sentido ético, de responsabilidad civil y de derechos de propiedad intelectual e industrial.
  • Las empresas del sector creen que en el futuro se tendrá que avisar al oyente de que lo que está escuchando es una voz clonada, y no natural.
  • Descubre más historias en Business Insider España.

Durante el verano de 2019, varios ciberdelincuentes utilizaron una inteligencia artificial para suplantar la voz del CEO de una firma energética de Reino Unido. Así lograron robar más de 220.000 euros, según explicó entonces The Wall Street Journal.

El fenómeno de los ladrones de voz todavía no se ha extendido mucho. Pero los diversos desarrollos que se están llevando a cabo en el ámbito de la inteligencia artificial revelan varias cosas: la tecnología funde cada vez más sus lazos con los datos biométricos de las personas y todavía no se han hecho los suficientes planteamientos éticos al respecto.

Un ejemplo de ello es el reciente anuncio de Cruzcampo: gracias a la IA se logró suplantar a la desaparecida Lola Flores usando miles de imágenes de archivo para crear un deepfake. Esto unido a la colaboración de su hija Rosario para diseñar el tono y timbre de voz de la artista hicieron posible el spot que todos conocen y que se hizo viral hace apenas unas semanas. La polémica no tardó en estallar: ¿Está bien utilizar la voz de una persona sin su consentimiento?

España ya ha presentado una Carta de Derechos Digitales y una Estrategia Nacional sobre IA, pero los conflictos éticos pueden llegar algo más lejos cuando se trata de estas clonaciones de voz.

Cuál es el problema

Gemma Galdon es una de las mayores expertas de ética tecnológica en España. Es CEO y fundadora de una empresa y fundación llamada Eticas que se dedica a auditar algoritmos y a analizar los impactos sociales que pueden tener las innovaciones tecnológicas.

Preguntada sobre los riesgos de la clonación de voz, ella confirma que existen y son serios. "Este fenómeno crea un espacio brutal para engañar a la gente", advierte.

Detectar el cáncer de mama en una fase temprana, de forma económica y desde casa será una realidad gracias a The Blue Box: la startup española que revolucionará la medicina mediante inteligencia artificial

"Tendremos que estudiar cómo proteger las voces auténticas. Quizá con unos sellos de calidad", considera. "La tecnología nos obliga a ser mucho más críticos. Como sociedad, nos tendremos que poner mucho las pilas", advierte. "Es como con las fake news. Antes leías una noticia y asumías que era cierta. Ese proceso ya no existe".

Claudia Rivera es la responsable de Datos de Ironhack. Coincide con Galdon en que lo importante es, sobre todo, el uso de los datos que puede utilizar un sistema de IA y cómo los gestiona la persona que está detrás de sus redes neuronales.

Una inteligencia artificial puede ser capaz de clonar voces, pero, ¿qué ocurre después? "Lo más importante es la intencionalidad que se tenga con el estudio", incide Rivera. "Toda la parte técnica es igual, ¿cuál es la diferencia? La intención". La tecnología que puede haber detrás de la suplantación de una voz, de un deepfake pornográfico o de un detector de fake news puede ser la misma.

Clonar voces y conversaciones autónomas, la tormenta perfecta

Galdon, además, no se detiene únicamente en los problemas que origina la clonación de voz. Hay startups españolas, como Analyticalls, que están buscando la forma de que las máquinas consigan mantener conversaciones autónomas e incluso contar con la capacidad de la empatía. Galdon advierte que ese tipo de desarrollos todavía están lejos.

Recuerda, por ejemplo, el caso de Google Home, el altavoz de Google. Su asistente de voz tiene la capacidad de llamar a restaurantes para reservarle una mesa a sus usuarios. Algo que a los empresarios hosteleros sigue generándole incertidumbres, como detalla en este artículo The Verge.

"La IA fallaba un montón. Las conversaciones a la hora de llamar a un restaurante no siempre son lineales. A lo mejor pides mesa para cuatro a una hora y el restaurante te ofrece otra a otra hora. A lo mejor el restaurante te pregunta si vas con niños para reservarte más espacio, no es tan sencillo", explica Gemma.

Si sumas ambos elementos, hay una tormenta perfecta. Inteligencias artificiales capaces de suplantar a personas con voces reales. Gemma Galdon recuerda una de las leyes de la Robótica Responsable. "El humano siempre tiene derecho a saber si está hablando con otro humano o con una máquina".

Basta llamar al servicio de atención al cliente de una gran teleco para detectar que esto no se cumple. "Al final será algo como cuando vemos un concierto en la tele y avisan de que es voz en directo. Tenemos derecho a saber cuándo es playback". "Todavía queda mucho para ver a IA manteniendo conversaciones autónomas", insiste.

"Pero la clonación de voz será algo mucho más fácil y llegará mucho antes".

¿Qué dice la ley actualmente?

La ley española aún no dice nada en concreto sobre estas clonaciones, mucho más novedosas que la legislación de derechos de imagen.

El Parlamento Europeo ha elaborado 3 reglamentos distintos en este sentido: uno que regula la ética de esta tecnología, otro enfocado a la responsabilidad civil de los daños que esta causa y otro, para los derechos de propiedad intelectual e industrial relacionados.

Los 3 proyectos han sido remitidos a la Comisión Europea, que es la institución que debe aprobarlos. Estos afectarían a "todos los programas informáticos, estén o no incorporados en dispositivos físicos, que manifiesten un comportamiento similar al humano o inteligente", explica el abogado experto en derecho de la inteligencia artificial y el socio director de Algoritmo Legal, Ricardo Oliva.

Transkriptorium quiere indexar la historia de la humanidad: la IA de esta startup es capaz de digitalizar caligrafía incluso del siglo XV, y promete una revolución en la archivística

Todo lo que encaje en eso y tenga aplicación en los sectores que enumera el proyecto debe cumplir una serie de condiciones de seguridad, transparencia y rendición de cuentas, matiza el abogado, y para demostrarlo, deben de ser auditables y trazables.

"Lo que la Unión Europea quiere ahora es que antes de lanzar un sistema de inteligencia artificial que pueda encajar en el concepto de alto riesgo, el sistema sea auditable, que se garantice que tiene un rendimiento fiable, exactitud de la realización de los objetivos y la posibilidad de una explicabilidad para que el ciudadano pueda entenderla de manera fácil", explica.

Una vez se aplique esta legislación, las empresas del sector tendrán que adaptarse y eso harán que suban sus costes, ya que deberán tener un seguro obligatorio y una adaptación de sistema para cumplir todos los requisitos.

"Los costes de las empresas aumentarán en cierta medida, pero también las garantías de cara a los consumidores y los ciudadanos", explica Oliva. 

La voz, un dato "tan sensible" como tu dirección o tu contraseña

Aflorithmic Labs, una startup de clonación de audio con sede en Londres y Barcelona, explica en una entrevista previa con Business Insider España que ellos tratan la voz como una característica personal similar a la imagen, por lo que es necesario pagar unos derechos y tener el permiso del actor para utilizarla.

"Nosotros lo vemos como un dato sensible, tan personal como tu contraseña, tu nombre o tu dirección", defiende el CCO y fundador de la empresa, Björn Ühss. "Es su derecho, es su voz".

El CMO de esa misma compañía, Matthias Lehman, insiste en que detallar en los contratos los usos de esa voz y las condiciones y que los derechos de esta siempre son del actor o actriz. Oliva comparte esta visión e incide en que es la forma de limitar el uso de la voz o la imagen clonada, aunque siempre es susceptible de caer en las manos equivocadas.

Algo que la UE ya prevé en los reglamentos que ha preparado es que la inteligencia artificial nunca sea titular de derechos de autor. En abril de 2016, un robot consiguió copiar de forma casi perfecta un cuadro de Rembrandt, lo que despertó el debate sobre la autoría de esta nueva obra. 

"Este proyecto [el de la UE] viene a decir que la autoría siempre tiene que ser del programador, de un humano. Está descartado que una IA pueda ser autora", explica Oliva, aunque no descarta que las leyes puedan cambiar en el futuro.

Cuando las máquinas conversen, se tendrá que avisar

Analyticalls es una startup valenciana prácticamente recién nacida cuyo producto es un sistema de análisis de voz que ayuda a call centers a mejorar su toma de decisiones y optimizar a sus procesos detectando patrones, problemas e incluso estados de ánimo tanto en trabajadores como en clientes.

Su CEO, Ricardo Gasperini, destacaba en otra reciente entrevista con Business Insider España que confían en un futuro que será "por voz": "En el futuro habrá menos personas en los call centers, pero eso no quiere decir que ya no podamos hablar con alguien. Nosotros queremos ser ese alguien. Esa máquina. Que parezca humano, que te entienda, te atienda y te resuelva el problema".

"A nadie le gusta hablar hoy día con un robot. No son tan listos. Pero lo que queremos en un futuro es que, aunque sepas que es un robot, que sepas que es eficiente, amable, y te podrá atender". Pero se tendrá que indicar. "Cuando empiecen a ser más humanos se deberá indicar. No creo que así le moleste a nadie", destacaba.

La tecnología para clonar la voz de una persona ya está aquí y puede usarse para muchos más negocios de los que imaginas

Lehman coincide con esa visión y explica que las voces clonadas avisarán de que no se está hablando con una persona, de la misma forma que se hace en prensa con los publirreportajes.

Rivera, por su parte, hace hincapié de que lo que importa es el uso de los datos que haga la persona detrás de la IA y que no depende tanto de la propia tecnología.

"Creo que el problema de raíz son los datos y cómo se tratan y guardan en la inteligencia artificial", explica Rivera. "Decimos que a Google no le importa lo que yo haga. Bueno, igual no le importa lo que haga una persona concreta, pero sí los agregados, es decir, lo que hace España de media, lo que haga Madrid de media, lo que se haga en un barrio".

El uso de estos agregados también plantea problemas éticos importantes, explica Rivera, que pone de ejemplo el escándalo de Cambridge Analytica e incide en que aún se está en una fase reactiva del problema, en vez de proactiva.

En cuanto al futuro de esta tecnología, Rivera cree que aún estamos lejos de que la IA tome sus propias decisiones, aunque si cree que veremos la aplicación de esta en ámbitos bélicos, entre otros, que aumentarán la desigualdad entre unos ejércitos y otros.

LEER TAMBIÉN: IBM desarrolla un algoritmo capaz de detectar el Alzheimer a través de la escritura años antes de que aparezcan los síntomas

LEER TAMBIÉN: La empresa Neuralink de Elon Musk ha implantado un chip en el cerebro de un mono y ahora "puede jugar a videojuegos usando su mente"

LEER TAMBIÉN: Inteligencia artificial con sello español para revolucionar el sector financiero: Ultramarine, la tecnología de inversión que deja de operar si detecta incertidumbre en el mercado

VER AHORA: Así es como los científicos intentan crear 'telarañas sintéticas' en el laboratorio mientras investigan sus aplicaciones en la medicina moderna