¿Quién debe pagar si la inteligencia artificial de un robot o un dron es defectuosa? Este es el plan de la UE para protegernos

Un fotograma de la serie 'Westworld'.
Un fotograma de la serie 'Westworld'.

La Unión Europea es una de las regiones más avanzadas a nivel legislativo sobre la inteligencia artificial. En normas aprobadas en 2021, se prohibía cualquier IA que fuera una amenaza para la seguridad, los medios de subsistencia y los derechos de las personas.

"Esto abarca los sistemas o las aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios", recoge la definición de la Comisión Europea (CE), que es algo laxa.

Ahora, la CE cree necesario dar un paso al frente, y propone una serie de medidas y revisiones para que esa Ley de IA de 2021 sea más confiable.

"Las nuevas normas garantizarán que las víctimas se beneficien de las mismas normas de protección cuando se vean perjudicadas por productos o servicios de IA que cuando se producen daños en cualquier otra circunstancia", explica la CE en un comunicado.

Por un lado, la CE propone una revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, adaptada a las transiciones ecológica y digitial y a las cadenas de valor mundiales.

Europa quiere ser la vanguardia ética de los algoritmos, pero tiene un oscuro pasado: así son las IA financiadas por Bruselas que ya pueden generar discriminación

Las nuevas normas, aún no aprobadas por el Parlamento Europeo y el Consejo, actúa sobre empresas y consumidores. En primer lugar, se han de modernizar las normas de responsabilidad a los modelos de negocio de la economía circular.

En segundo lugar, se plantea una modernización en cuanto a los productos de la era digital. Con la nueva legislación, se facilita la indemnización por daños y perjuicios derivados del uso de robots, drones o aparatos inteligentes del hogar.

 

Esta indemnización también se podrá pedir cuando un producto inseguro venga de un país externo a la Unión Europea, directamente ante el importador o ante el representante de la UE del fabricante.

Por último, se exige a los fabricantes que flexibilicen las reclamaciones de los usuarios y estos no tengan que presentar una elevada cantidad de pruebas con productos relacionados con la IA. Aunque esto no es todo.

Presunción de causalidad y derecho de acceso a las pruebas

Lo que busca la Directiva es simplificar los procesos jurídicos para las víctimas afectadas por estos sistemas, en base a dos principios: la presunción de causalidad y el derecho de acceso a las pruebas.

"La denominada presunción de causalidad abordará las dificultades experimentadas por las víctimas para tener que explicar detalladamente la manera en que se ha provocado el daño por una culpa u omisión concretas", prosigue la CE.

En cuanto al segundo cambio sustancial, el derecho de acceso a la evidencia armoniza las herramientas necesarias para disponer de reparación legal, ya sean presentadas por empresas, proveedores o consumidores.

"Nuevas tecnologías como los drones o los servicios de entrega dirigidos por IA solo podrán funcionar cuando los consumidores se sientan seguros y protegidos", concluye Didier Reynders, comisario de Justicia.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.