"Mi robot es inocente, señoría": los expertos apuestan por juzgar la inteligencia artificial con leyes flexibles y fundamentadas en la ética

Nao, un robot fabricado por Aldebaran Robotics, durante una exhibición de robótica.

REUTERS/Yuya Shino

  • Gobiernos e instituciones han sido hasta ahora reticentes a legislar la inteligencia artificial de manera clara y rápida.
  • Los expertos señalan que son necesarios marcos normativos flexibles y fundamentados en la ética.
  • "La tecnología no limita, sino que corrige posibles casos de riesgo", subraya Idoia Salazar, presidenta del Área de Ética y Responsabilidad de OdiseIA.
  • "Más que preocuparnos de que un algoritmo sea ético, debemos intentar que lo sean las personas que lo diseñan", sentencia Graziella Laín Moyano, jurista experta en IA y autora de Responsabilidad en inteligencia artificial: Señoría, mi cliente robot se declara inocente, un extenso estudio sobre la cuestión.
  • Descubre más historias en Business Insider España.

En el banquillo de los acusados una letrada se levanta. Es el momento de las alegaciones finales de un juicio que ha obligado a bucear en los fundamentos más esenciales de la ética, la filosofía y el derecho. Defensa y acusación han discutido sobre responsabilidad individual y compartida, derechos fundamentales y, también, sobre la mismísima condición humana. Han citado leyes y marcos normativos de todo tipo. Han debatido hasta la saciedad. La abogada se levanta y toma la palabra: "Mi robot es inocente, señoría".

Aunque esta escena aún queda algo lejos, pocos expertos dudan de que tecnologías como la inteligencia artificial o la robótica avanzada ya están aquí. Han llegado para quedarse y, desde el punto de vista ético y legal, plantean importantes retos que deben ser abordados con cierta urgencia por parte de gobiernos e instituciones. 

AiFoam, el futuro de las prótesis: esta espuma inteligente permite a las manos robóticas curarse como la piel humana y reconocer objetos cercanos

"Está claro que las empresas siempre van a intentar ir más allá del límite, pero la legislación yo creo que es beneficiosa para el desarrollo de la inteligencia artificial. No limita, sino que corrige posibles casos de riesgo" señala Idoia Salazar, presidenta del Área de Ética y Responsabilidad de OdiseIA, un observatorio del impacto social y ético de la IA.

A este respecto, recuerda, aunque esta tecnología no ha sido abordada en su conjunto, sí se han visto limitadas, por ejemplo, herramientas como el reconocimiento facial en el espacio público, quedando su uso solo justificado en casos extremos como atentados terroristas o pérdida de niños pequeños.

"Es normal que la legislación vaya más despacio. Hay que ver la imagen en su conjunto, crear unas normas lo suficientemente flexibles como para que recoja la mayoría de los casos. De lo que se trata es de evitar, como dicen los autores alemanes, la legislación motorizada", explica Daniel Terrón, experto en Derecho Administrativo de la Universidad de Salamanca que lleva años indagado sobre la ley y la IA.

Con este concepto, Terrón alude a un fenómeno que se da en la Justicia cuando la coyuntura cambia demasiado rápido, como ha sucedido, por ejemplo, con la reciente pandemia. Si el contexto es muy cambiante, explica esta teoría, los reguladores pueden caer en la tentación de crear leyes tan rápido que estas casi no tienen tiempo de entrar en vigor antes de ser sustituidas por otras más ajustadas a la realidad. Como se ha visto en los últimos meses, el mundo cambia a ritmo vertiginoso.

Algunos especialistas señalan, sin embargo, que conviene acelerar el paso: "No podemos permitirnos el lujo de no legislar la IA y la robótica", sentencia Graziella Laín Moyano, jurista, experta en IA y autora de Responsabilidad en inteligencia artificial: Señoría, mi cliente robot se declara inocente, un extenso estudio publicado en la revista especializada Ars Iuris.

Luz verde para las Misiones I+D: el Gobierno cofinanciará con 50 millones de euros proyectos que aterricen la inteligencia artificial en la economía

La investigadora pone la atención en los problemas más profundos: "La solución es regular cuanto antes. Eso, y basarnos siempre en la ética. Más que preocuparnos de que un algoritmo sea ético, debemos intentar que lo sean las personas que lo diseñan. Aún no existe una IA con una conciencia fuerte, pero, si legislamos de esta manera, no tenemos por qué temer algo así", indica Laín Moyano, que recuerda al respecto una frase de Marvin Minsky, padre de la IA: "Hasta ahora, no se ha diseñado un ordenador consciente de lo que hace. Pero la mayor parte del tiempo, nosotros tampoco lo somos".

IA: unos problemas reales y una legislación escasa

El 18 de marzo de 2018, Elaine Herzberg pedaleaba en una bicicleta en la localidad de Tempe, en el estado de Arizona, EEUU. Se disponía a cruzar la carretera cuando un coche automático de Uber la arrolló. Fue la primera víctima de un coche conducido por un algoritmo.

El trágico suceso, que supuso un antes y un después en el desarrollo de este tipo de tecnología, abrió un buen puñado de interrogantes. Para empezar, ¿de quién había sido la culpa? ¿De los directivos de la empresa, por confiar demasiado en esta nueva tecnología? ¿De los empleados de la misma, por fallar al fabricar el coche? ¿De quien hizo funcionar mal el algoritmo? ¿De quien lo diseñó?

No fue, ni mucho menos, el único accidente provocado por los coches sin conductor. En España, en octubre del año pasado, el primer autobús sin conductor provocó una colisión en su primer día de funcionamiento.

Modelo de autobús sin conductor de Alsa que tuvo un accidente en Madrid en su primer día.
Modelo de autobús sin conductor de Alsa que tuvo un accidente en Madrid en su primer día.

"Con estas tecnologías, vamos hacia un momento en el que el concepto de responsabilidad va a tender a diluirse", explica Laín Moyano. Coincide con ella Terrón: "Cuanto más aprendan las máquinas, más responsabilidad tendrá quien las desarrolla y más deberemos controlar que la información que reciben es de calidad y que tiene los menores sesgos posibles. Sin eso, nunca podremos dar por válida esta tecnología".

Eso sí, la posibilidad de que dentro de no mucho tiempo se pueda juzgar a las propias máquinas, explican estos dos analistas, es todavía muy remota. Para empezar, porque, aunque se desarrollase una IA con una fuerte conciencia de sí misma, por ahora, no tienen patrimonio con el que responder (esto, muy a pesar de los expertos que piden que coticen ya a la Seguridad Social).

Para continuar, porque no tienen una condición básica para ser sujetos de derecho y obligaciones como ciudadanos: haber nacido. Puede parecer baladí, pero el hecho de que los robots salgan de fábricas y no de úteros maternos los aleja de manera definitiva de todo tipo de ordenamiento jurídico. 

Como consecuencia, no hay figura jurídica que los contemple. Aunque hay quien propone la creación de una instancia intermedia entre la persona jurídica y la persona física a través de una suerte de persona robótica, por ahora la interpretación más aceptada entre los expertos en derecho es que, sencillamente, los robots son cosas, objetos fabricados por la mano humana. "Por muy compleja que sea, una IA es un algoritmo, y un algoritmo tiene siempre a alguien detrás", explica Terrón.

En países como España la legislación al respecto se queda algo obsoleta. Por ejemplo, varias analistas subrayan la Ley 22/1994 de responsabilidad civil por daños causados por productos defectuosos, una de las que más cerca están de poder juzgar episodios como el ocurrido con el autobús autónomo. Esta, recuerdan, data de hace 27 años, cuando las posibilidades de la actual IA no se podían ni imaginar. 

A nivel europeo son muchas las iniciativas y muchos los equipos de trabajo que se han ocupado de la cuestión, aunque, por ahora, sus conclusiones no han dado lugar a una legislación demasiado concreta.

A finales del año pasado, la Comisión de Asuntos Jurídicos del Parlamento Europeo emitió un informe con varias recomendaciones, como la necesidad de evaluar el riesgo de ciertas tecnologías antes de implementarlas, tratar de desarrollar algoritmos libres de sesgos y discriminación, que esta tecnología sea transparente y, sobre todo, que sirva al ser humano. 

Para los analistas, la institución se queda de momento algo corta: "Es necesario crear una agencia europea de robótica y un registro europeo de robots que funcionen bajo un código ético", explica Laín Moyano.

Terrón es más optimista con respecto a las posibilidades que ofrece la legislación actual: "Ya hay sentencias que hablan de que si un algoritmo concede plazas públicas, este debe ser público. Contamos además con una normativa de protección de datos de 2018. No se van a permitir usos peligrosos de la tecnología. Al menos, no sin que al menos se haga público el código fuente para saber exactamente cómo funciona". 

De igual modo, por ahora se ha puesto coto también a la IA a la hora de contratar o asignar créditos, seguros, becas y plazas escolares, entre otros posibles usos de una tecnología que, como indican sus más acérrimos defensores, ayudarían a la administración a ponerse al día. Pero esto trae consigo problemas inevitables: "¿Cómo interpreta la IA el interés general, por ejemplo? Es una herramienta interesante, pero no tenemos por qué usarla para todo", comenta Terrón. 

Son más peligrosos los problemas actuales de la IA que los de un posible 'Terminator'

"La UE hace bien en querer limitar el desarrollo de la IA cuando atenta contra los derechos fundamentales", sentencia Salazar, que apuesta, al igual que el resto de expertos consultados, por un uso responsable y controlado de la tecnología. "Aún falta para que esta tecnología genere confianza. Pasó con Internet, pasa con la IA y pasará con la computación cuántica. La tecnología es muy rápida y la ley, habitualmente, suele ser lenta".

Es posible que fuera más rápida, apuntan los expertos, si entre la población cundiera la preocupación por la regular estas herramientas. No es el caso. Para Gema Galdón, fundadora de Éticas Consulting, una firma española especializada en auditar algoritmos de empresas e instituciones, el debate público está incluso detenido: "La discusión sobre esto está atrofiada. Hablamos más de ciencia ficción que de problemas que ya estamos teniendo con la IA. No tenemos una discusión madura".

A ello contribuyen, explica Galdón, unas empresas y una clase política se guían bajo la premisa de agrandar las posibilidades futuras de la tecnología para minimizar sus efectos en el corto plazo. Como ejemplo, cabe recordar a Sophia, un robot que el pasado mes de mayo dio los resultados de las elecciones de la Comunidad de Madrid. "La industria se ha acostumbrado a vender humo. Un monigote preprogramado no es IA", concluye Galdón.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.