Cuando la inteligencia artificial mata a alguien, ¿quién es el responsable?

Alberto Iglesias Fraga
Inteligencia Artificial

Estamos todavía en los anales de la inteligencia artificial, en los primeros estadios de una gran revolución en la que hemos de acostumbrarnos a que robots y objetos automatizados de toda índole convivan con nosotros. Y lo que es más: a que lleven a cabo no sólo las tediosas tareas de las que queremos librarnos, sino también algunos actos que creíamos puramente y exclusivamente humanos.

No hablamos del amor entre humanos y robots —tema por otro lado extraordinariamente debatido y con reflejo incluso en obras de Hollywood como Her— sino del lado más oscuro del ser humano: la muerte y la destrucción. Dicho así suena tremendista, pero recapacitemos tan sólo un segundo.

Acabamos de asistir al fallecimiento de la primera persona a causa de un coche autónomo de Uber, lo cual desde un punto de vista estricto puede considerarse como un homicidio y, a la inteligencia artificial del coche, como su autora. Pero también hay cada vez más máquinas en procesos industriales que pueden provocar accidentes mortales en caso de error o negligencia.

Por no hablar de lo que puede suceder con la otra inteligencia artificial, la que se queda sólo en el software: herramientas de control aéreo automatizadas que se equivoquen y provoquen choques de aviones en pleno aire, sistemas de defensa nuclear que se disparen solos por un momento de "lapsus" del algoritmo en cuestión o marcapasos conectados que dejen de funcionar correctamente y acaben por parar el corazón del sujeto. Y todo esto son escenarios con IA específicas como protagonistas, imaginen lo que puede ocurrir cuando/si llegamos a lograr la singularidad.

Leer más: FakeApp, el software que lleva la inteligencia artificial al extremo legal

Son escenarios de lo más variopintos, pero en todos ellos se repite el mismo patrón: un accidente —o eso queremos pensar— en los que, si el causante fuera un ser humano, éste sería juzgado por homicidio en diferentes grados. Pero, ¿qué ocurre cuando el autor es un ente abstracto, como la inteligencia artificial? ¿Puede matar un algoritmo o el asesino es el que programó esas líneas de código? En el primer caso, ¿cómo podemos juzgarlo? ¿Existen situaciones en las que se le pudiera permitir matar? ¿Dónde quedan las fronteras éticas en todo esto, si es que existen? ¿Hay alguna legislación que hable de inteligencias artificiales asesinas? Vayamos poco a poco…

Inteligencia artificial y ética

Tomar una decisión

Lo primero de todo es discernir si consideramos que la inteligencia artificial tiene capacidad ética en sí misma y, por ende, puede ser responsable de sus propias decisiones morales. Conforme avanzan paradigmas como el aprendizaje automático o el deep learning, parece más claro que las IA pueden llegar a crear un código de conducta propio, más allá del que se les impuso originalmente al ser programadas.

Vemos ejemplos concretos de esta capacidad en aspectos más livianos como los chatbots de Facebook que tuvieron que ser desactivados porque habían desarrollado su propio lenguaje, indescifrable para los programadores que les habían dado vida. ¿Y si una inteligencia artificial pudiera evolucionar hasta tener una mente que, proactivamente, deseara matar?

Al menos en teoría, este extremo queda descartado. Tras muchos años de debate, tanto el Parlamento Europeo como un grupo de expertos reunidos allá por 1975 en Asilomar (California) llegaron a una misma conclusión: los robots no tienen ni pueden tener valores ni conciencia más allá de lo que se les programe y consienta.

Esa es la línea roja que se debe seguir en el diseño, producción y uso de cualquier robot o solución automatizada. Pero eso no resta a que las máquinas sí deban cumplir con la ética humana. De hecho, el informe europeo —dirigido por la profesora Nathalie Nevejans— exige que cualquier IA se adhiera a principios como la protección de la dignidad humana, la privacidad, la libertad o la igualdad de acceso.

Cómo juzgar la responsabilidad de la inteligencia artificial

Decisiones Inteligencia Artificial

Esta presunción ética es fundamental a la hora de abordar el siguiente debate: la responsabilidad penal. Como recuerda el investigador John Kingston, de la Universidad de Brighton, en un reciente trabajo, para que haya responsabilidad penal se requiere de dos aspectos: acción e intención mental (en términos legales, actus rea y mens rea).

Por tanto, y en tanto que se cumpla esa premisa de no dotar a las máquinas de capacidad ética propia, lo que parece sensato es pensar que no se puede condenar a una inteligencia artificial por ninguna de sus acciones, incluso de un asesinato. 

Hasta ahí la teoría general, pero hay algunos resquicios en la normativa a escala global que permitirían juzgar sino a la IA, sí por supuesto a sus programadores. Incluso aunque éstos no hubieran provocado directamente el accidente o el homicidio por el que serían juzgados:

  • Responsabilidad directa: Sería la fórmula más directa para condenar a una IA por un delito, pero también la más complicada ya que requiere de esa acción e intención mental de actuar de una determinada forma. Pero podemos ver ejemplos muy claros en los que sí sería aplicable de manera cristalina: un coche autónomo circulando por encima de la velocidad máxima permitida, sin haber sido programado para ello (lo hace por error o por un equivocado aprendizaje automático) ni haber razón alguna para hacerlo. Aquí la responsabilidad penal sería fácilmente adjudicable al software que controla el vehículo.
  • Considerar a las IA como sujetos de derecho, pero sin capacidad de decisión: en la legislación actual, se contempla a determinadas personas incapaces de hacerse responsables de sí mismas y de sus actos. Se trata, normalmente, de personas con algún tipo de discapacidad o enfermedad mental grave, pero también podemos encontrar ejemplos más extremos como perros que pueden acabar matando a alguien. En estas situaciones, en el caso de que cometieran algún delito, ni la persona incapacitada ni el perro serían condenados. La clave viene a renglón seguido: si alguien ha provocado, motivado o promovido de alguna forma que este sujeto cometiera ese delito, éste sí podrá ser condenado penalmente sin contemplación alguna. En el caso de las inteligencias artificiales, podríamos considerar el sistema informático o la máquina como un agente inocente, pero al programador o el usuario final como el perpetrador en la sombra.
  • Consecuencia natural probable: Aquí estaríamos ante un escenario en el que las acciones ordinarias de un sistema de inteligencia artificial pueden ser utilizadas de manera inapropiada para llevar a cabo un acto delictivo. Kingston ofrece en su trabajo el ejemplo de un robot inteligente en una fábrica japonesa de motocicletas que mata a un trabajador humano al verlo como una amenaza para su misión. Tras ese diagnóstico, el sistema decide que la forma más eficiente de eliminar esta amenaza era utilizar su brazo hidráulico para aplastar al trabajador y poder seguir así con su labor. La pregunta clave en este caso es si el programador de la máquina sabía que este resultado era una consecuencia probable de su uso. 

Pero si podemos condenar directamente a una IA por sus actos, también ésta podrá defenderse. Es la otra cara de la moneda, la de sistemas inteligentes defendiéndose en base a la interacción de terceros (infecciones, ataques cibernéticos, manipulación no autorizada, virus…), locuras varias (errores en el aprendizaje automático, como el de ese chatbot de Microsoft que se abrió al público en Twitter, fue troleado y acabó volviéndose nazi) e incluso una amenaza de secuestro.

Elegir entre vidas humanas

Justicia

Pero existe un aspecto nada desdeñable que escapa a esta consideración general sobre las inteligencias artificiales asesinas. Imaginen la siguiente escena: un coche autónomo circula por la vía, cumpliendo con todas las normas establecidas. Súbitamente, cinco peatones invaden la carretera de tal forma que la única manera de esquivarlos es estrellar el vehículo a propósito, lo cual mataría al conductor del mismo. Una vida a cambio de cinco, el conductor y dueño de la IA en lugar de cinco ajenos al automóvil. ¿Qué debe hacer en esta ocasión el sistema inteligente?

Un comité de 14 expertos germanos (entre los cuales había filósofos, tecnólogos y analistas de tráfico) promovido por el gobierno alemán emitió hace poco más de un año una serie de 20 recomendaciones sobre el coche autónomo, entre ellas una sobre a qué humano debe elegir salvar en esta clase de situaciones. Para los profesionales del sector, la IA no debe jugar a “interpretar” las leyes, sino aplicar las normas de tráfico a rajatabla y minimizar los daños en la medida de lo posible. Y si el atropello es inevitable, el sistema no debe jamás “establecer preferencias en base a la edad, sexo o condiciones físicas o mentales de los afectados“.

Leer más: Ana Botín y otros 25 españoles del mundo de la tecnología que deberías seguir en Twitter

Dicho de otro modo: aunque la IA sepa que va a matar a cinco incautos peatones, el sistema debe mantener el rumbo y acatar las consecuencias, aún pese a existir una opción alternativa que provocaría menos fallecimientos. Pero lo que los líderes de la industria no quieren bajo ningún concepto es dotar a los coches autónomos ni ningún otro robot de capacidades que los conviertan en una especie de jueces que puedan elegir entre una vida y otra.

Propuestas legislativas

Con todo ello, y aunque seguimos inmersos en un vacío legal en cuanto a IA asesinas se refiere, lo cierto es que ya hay algunas propuestas de normativas que podrían arrojar algo de luz al respecto. 

Una de las más interesantes llega desde la Unión Europea, organismo que plantea medidas de prevención y control a las máquinas inteligentes que van desde un interruptor de emergencia por defecto (para desactivar al robot en caso de ser necesario) hasta el cumplimiento estricto de las Leyes de la Robótica de Asimov (por las que un robot no puede estar diseñado para hacer daño a los humanos), pasando por la obligatoriedad de contar con un seguro para compensar cualquier perjuicio que estos sistemas automatizados puedan causar o la creación de un fondo suplementario para asegurar la compensación a las víctimas de accidentes en los que estén implicados este tipo de vehículos sin conductor.

Asimismo, los eurodiputados también han planteado la creación a largo plazo de una personalidad jurídica específica para los robots, para facilitar la determinación de responsabilidades en caso de causar daños no sólo en la carretera, sino también en otros ámbitos como la industria.
 

Conoce cómo trabajamos en Business Insider.