FUENTE: www.businessinsider.es

AUTOR: Alberto R. Aguiar

La automatización de determinados puestos de trabajo parece irreversible. La llegada de robots a diversos sectores e industrias lleva años produciéndose. Por esa razón, la confianza que los trabajadores humanos puedan depositar en estas nuevas maquinarias se torna esencial para que las nuevas cadenas de valor tengan éxito.

Por eso no es extraño ver como desde las ciencias sociales se abunde en nuevos estudios que buscan determinar cómo serán las relaciones profesionales entre humanos y máquinas en un futuro inmediato. Es el caso de una investigación elaborada en la Facultad de Información de la Universidad de Michigan.

La investigación, comandada por un investigador posdoctoral llamado Connor Esterwood, y por un profesor asociado del centro, Lionel Robert, ha alcanzado una peculiar conclusión. Los trabajadores humanos son más propensos a empatizar y perdonar con una máquina que ha fallado en su trabajo si estas tienen una apariencia que se asemeje, aunque sea de forma remota, a un ser humano.

Así fue el estudio

El estudio ha aparecido en Ars Technica, en un artículo en el que ha colaborado el propio Robert. En declaraciones al citado medio, el investigador recuerda que también los humanos se equivocan, y aun así «pueden seguir trabajando juntos».

Esterwood y Roberts contaron con 164 participantes que respondieron a una serie de encuestas a través de una plataforma en línea. Para encontrarlos recurrieron a una plataforma llamada Amazon Mechanical Turk, con la que el gigante del comercio electrónico pone en contacto a freelances con grandes empresas que requieren de la supervisión humana para tareas muy específicas.

La idea del estudio era realizarlo en un entorno controlado, con estos trabajadores y mediante dispositivos de realidad virtual. Sin embargo, la pandemia lo ha impedido. Aunque las primeras conclusiones ya están sobre la mesa, tanto Esterwood como Roberts esperan ampliar su investigación en los próximos meses, tal y como explica Ars Technica.

A través de la plataforma en línea, los investigadores crearon un entorno simulado parecido a un videojuego. El objetivo de los participantes de la muestra era determinar si el robot era capaz de apilar una serie de cajas de forma correcta. Unos usuarios supervisaron un robot con apariencia humana. Otros participantes supervisaron un brazo robótico, una máquina sin rostro.

Los robots con apariencia humana, más eficaces al explicarse

La investigación programó a estos robots simulados para que fallasen intencionalmente al realizar su trabajo. Después, las máquinas simuladas emitirían unos comunicados de disculpas. Esos comunicados constaban de distintas categorías: disculpa, negación, explicación y promesa. Después, los supervisores humanos que formaban parte de la muestra tendrían que resolver unos cuestionarios.

Esos cuestionarios buscaban medir cómo de eficaz había sido la estrategia de la máquina a la hora de pedir disculpas e intentar volver a ganarse la confianza de sus supervisores humanos. Por esa razón, los cuestionarios constaban de las siguientes métricas: capacidad (del robot para desempeñar su tarea), integridad (será capaz de hacerlas), y benevolencia (las hará correctamente).

Las primeras conclusiones ya están sobre la mesa y se pueden consultar en el artículo antes citado de Ars Technica. Los robots con forma humana tuvieron mayor éxito al explicar por qué habían fallado: los supervisores humanos empatizaron algo más con ellos. 

También consiguieron restaurar la confianza de sus superiores más rápido que los brazos robóticos cuando optaban por estrategias como la de disculpa, negación y explicación. Sorprendentemente, el brazo robótico consiguió recobrar la confianza de sus supervisores de una manera más rápida cuando optó por la estrategia de «promesa», prometiendo que no volverían a fallar.

Según Esterwood, un robot con apariencia humana puede ser más eficaz a la hora de explicar cuál ha sido su fallo porque elimina muchas de las ambigüedades y barreras que genera un robot sin cara ni expresión.

Qué pasa cuando los robots son los ‘jefes’

El estudio esboza lo que es una corriente de investigaciones en la que se trata de determinar la capacidad de los seres humanos a la hora de tratar e incluso empatizar con máquinas. De la misma manera, las máquinas también tendrán que ser capaces de «empatizar» con los seres humanos, aunque sea por imperativo legal.

El Gobierno de España pondrá en marcha en los próximos meses un observatorio para algoritmos y sistemas de inteligencia artificial empleados en entornos laborales para comprobar que no se generan desigualdades ni se vulnerabilizan trabajadores. El estudio, análisis e investigación sobre estos tipos de IA es una de las grandes novedades de la ley riderque entró en vigor la semana pasada.

También es uno de los frentes que sindicatos mantienen abiertos en toda Europa. Los robots y los sistemas automatizados han llegado al trabajo. 

Y en ocasiones, muchos empleadores los eligen como supervisores de los trabajadores humanos, por los que centrales sindicales como administraciones quieren evitar que se generen situaciones como la que sucedió en una aerolínea portuguesa hace no mucho, en la que una IA despedía a trabajadores al no ser capaz de diferenciar eficazmente una baja médica de un caso de absentismo laboral.


Esta web usa cookies analíticas y publicitarias (propias y de terceros) para analizar el tráfico y personalizar el contenido y los anuncios que le mostremos de acuerdo con su navegación e intereses, buscando así mejorar su experiencia. Si presiona "Aceptar" o continúa navegando, acepta su utilización. Puede configurar o rechazar su uso presionando "Configuración". Más información en nuestra Política de Cookies.


ACEPTAR
Aviso de cookies

¡Comparte en tus redes!

¡Comparte esta noticia con tus amigos!