Los robots que fallan en el trabajo son más propensos a ser 'perdonados' cuando estos tienen forma humana, según un estudio

Nao, un robot fabricado por Aldebaran Robotics, durante una exhibición de robótica.

REUTERS/Yuya Shino

  • Investigan si un robot con apariencia humana o un brazo robótico son más eficaces a la hora de explicar a su supervisor humano por qué ha fallado en el trabajo.
  • En el estudio, las máquinas (simuladas) adoptaron distintas estrategias para justificarse ante sus superiores: desde la negación, al perdón o a la promesa.
  • Descubre más historias en Business Insider España.

La automatización de determinados puestos de trabajo parece irreversible. La llegada de robots a diversos sectores e industrias lleva años produciéndose. Por esa razón, la confianza que los trabajadores humanos puedan depositar en estas nuevas maquinarias se torna esencial para que las nuevas cadenas de valor tengan éxito.

Los robots y la automatización amenazan a más de 800 millones de puestos de trabajo en todo el mundo

Por eso no es extraño ver como desde las ciencias sociales se abunde en nuevos estudios que buscan determinar cómo serán las relaciones profesionales entre humanos y máquinas en un futuro inmediato. Es el caso de una investigación elaborada en la Facultad de Información de la Universidad de Michigan.

La investigación, comandada por un investigador posdoctoral llamado Connor Esterwood, y por un profesor asociado del centro, Lionel Robert, ha alcanzado una peculiar conclusión. Los trabajadores humanos son más propensos a empatizar y perdonar con una máquina que ha fallado en su trabajo si estas tienen una apariencia que se asemeje, aunque sea de forma remota, a un ser humano.

Así fue el estudio

El estudio ha aparecido en Ars Technica, en un artículo en el que ha colaborado el propio Robert. En declaraciones al citado medio, el investigador recuerda que también los humanos se equivocan, y aun así "pueden seguir trabajando juntos".

Esterwood y Roberts contaron con 164 participantes que respondieron a una serie de encuestas a través de una plataforma en línea. Para encontrarlos recurrieron a una plataforma llamada Amazon Mechanical Turk, con la que el gigante del comercio electrónico pone en contacto a freelances con grandes empresas que requieren de la supervisión humana para tareas muy específicas.

Abogados, periodistas, cocineros… trabajos en peligro por la inteligencia artificial

La idea del estudio era realizarlo en un entorno controlado, con estos trabajadores y mediante dispositivos de realidad virtual. Sin embargo, la pandemia lo ha impedido. Aunque las primeras conclusiones ya están sobre la mesa, tanto Esterwood como Roberts esperan ampliar su investigación en los próximos meses, tal y como explica Ars Technica.

A través de la plataforma en línea, los investigadores crearon un entorno simulado parecido a un videojuego. El objetivo de los participantes de la muestra era determinar si el robot era capaz de apilar una serie de cajas de forma correcta. Unos usuarios supervisaron un robot con apariencia humana. Otros participantes supervisaron un brazo robótico, una máquina sin rostro.

Los robots con apariencia humana, más eficaces al explicarse

La investigación programó a estos robots simulados para que fallasen intencionalmente al realizar su trabajo. Después, las máquinas simuladas emitirían unos comunicados de disculpas. Esos comunicados constaban de distintas categorías: disculpa, negación, explicación y promesa. Después, los supervisores humanos que formaban parte de la muestra tendrían que resolver unos cuestionarios.

Esos cuestionarios buscaban medir cómo de eficaz había sido la estrategia de la máquina a la hora de pedir disculpas e intentar volver a ganarse la confianza de sus supervisores humanos. Por esa razón, los cuestionarios constaban de las siguientes métricas: capacidad (del robot para desempeñar su tarea), integridad (será capaz de hacerlas), y benevolencia (las hará correctamente).

Las primeras conclusiones ya están sobre la mesa y se pueden consultar en el artículo antes citado de Ars Technica. Los robots con forma humana tuvieron mayor éxito al explicar por qué habían fallado: los supervisores humanos empatizaron algo más con ellos. 

España es el país con más empresas usando datos para mejorar procesos o vigilar empleados en toda Europa, que ya debate cómo regular los algoritmos en el trabajo

También consiguieron restaurar la confianza de sus superiores más rápido que los brazos robóticos cuando optaban por estrategias como la de disculpa, negación y explicación. Sorprendentemente, el brazo robótico consiguió recobrar la confianza de sus supervisores de una manera más rápida cuando optó por la estrategia de "promesa", prometiendo que no volverían a fallar.

Según Esterwood, un robot con apariencia humana puede ser más eficaz a la hora de explicar cuál ha sido su fallo porque elimina muchas de las ambigüedades y barreras que genera un robot sin cara ni expresión.

Qué pasa cuando los robots son los 'jefes'

El estudio esboza lo que es una corriente de investigaciones en la que se trata de determinar la capacidad de los seres humanos a la hora de tratar e incluso empatizar con máquinas. De la misma manera, las máquinas también tendrán que ser capaces de "empatizar" con los seres humanos, aunque sea por imperativo legal.

Bruselas plantea que las grandes tecnológicas modifiquen sus algoritmos y garanticen más transparencia al combatir la desinformación

El Gobierno de España pondrá en marcha en los próximos meses un observatorio para algoritmos y sistemas de inteligencia artificial empleados en entornos laborales para comprobar que no se generan desigualdades ni se vulnerabilizan trabajadores. El estudio, análisis e investigación sobre estos tipos de IA es una de las grandes novedades de la ley rider que entró en vigor la semana pasada.

También es uno de los frentes que sindicatos mantienen abiertos en toda Europa. Los robots y los sistemas automatizados han llegado al trabajo. 

Y en ocasiones, muchos empleadores los eligen como supervisores de los trabajadores humanos, por los que centrales sindicales como administraciones quieren evitar que se generen situaciones como la que sucedió en una aerolínea portuguesa hace no mucho, en la que una IA despedía a trabajadores al no ser capaz de diferenciar eficazmente una baja médica de un caso de absentismo laboral.

Otros artículos interesantes:

Apple sufre un revés judicial ante un 'troll' de patentes: tendrá que pagar más de 250 millones de euros según una sentencia en EEUU

T-Mobile está investigando una supuesta filtración con datos de hasta 100 millones de sus clientes: los ciberdelincuentes los venden a cambio de bitcoin

La guerra por las patentes de las vacunas se recrudece mientras las regiones más pobres siguen clamando por su liberación