Dado que los robots se introducen en un número cada vez mayor de entornos del mundo real, es importante que puedan cooperar de forma eficaz con los usuarios humanos. Además de comunicarse con los humanos y ayudarlos en las tareas diarias, podría ser útil para los robots determinar de manera autónoma si su ayuda es necesaria o no.

FUENTE: techxplore.com

AUTOR: Ingrid Fadelli

Los investigadores de Franklin & Marshall College han estado tratando recientemente de desarrollar herramientas computacionales que podrían mejorar el rendimiento de los robots de asistencia social , permitiéndoles procesar las señales sociales dadas por los humanos y responder en consecuencia. En un artículo prepublicado en arXiv y presentado en el simposio AI-HRI 2021 la semana pasada, introdujeron una nueva técnica que permite a los robots detectar de forma autónoma cuándo es apropiado para ellos intervenir y ayudar a los usuarios.

«Estoy interesado en diseñar robots que ayuden a las personas con las tareas diarias , como cocinar la cena, aprender matemáticas o armar muebles de Ikea», dijo a TechXplore Jason R. Wilson, uno de los investigadores que llevó a cabo el estudio. «No estoy buscando reemplazar a las personas que ayudan con estas tareas. En cambio, quiero que los robots puedan complementar la asistencia humana, especialmente en los casos en que no tenemos suficientes personas para ayudar».

Wilson cree que cuando un robot ayuda a los humanos a completar una tarea determinada, debe hacerlo de una manera «digna». En otras palabras, piensa que lo ideal es que los robots sean sensibles a la humanidad de sus usuarios, respetando su dignidad y autonomía.

Hay varias formas en que los roboticistas pueden considerar la dignidad y autonomía de los usuarios en sus diseños. En su trabajo reciente, Wilson y sus estudiantes Phyo Thuta Aung e Isabelle Boucher se enfocaron específicamente en preservar la autonomía del usuario.

«Una forma de que un robot respalde la autonomía es asegurarse de que el robot encuentre un equilibrio entre ayudar demasiado y muy poco», explicó Wilson. «Mi trabajo anterior ha analizado algoritmos para ajustar la cantidad de asistencia del robot en función de la cantidad de ayuda que necesita el usuario. Nuestro estudio reciente se centró en estimar cuánta ayuda necesita el usuario».

Cuando los humanos necesitan ayuda con una tarea determinada, pueden pedir ayuda explícitamente o transmitir que están luchando de manera implícita. Por ejemplo, podrían hacer comentarios como «mmm, no estoy seguro» o expresar su frustración a través de sus expresiones faciales o su lenguaje corporal. Otras estrategias implícitas utilizadas por los humanos para comunicar que necesitan ayuda implican el uso de la mirada .

«Por ejemplo, una persona puede mirar la tarea en la que está trabajando, luego mirar a una persona que pueda ayudarla y luego mirar hacia atrás en la tarea», dijo Wilson. «Este patrón de mirada, llamado mirada confirmatoria, se utiliza para solicitar que la otra persona mire lo que está mirando, quizás porque no está seguro de si es correcto».

El objetivo clave del estudio reciente llevado a cabo por Wilson, Aung y Boucher fue permitir que los robots procesen automáticamente las señales relacionadas con la mirada de manera útil. La técnica que crearon puede analizar diferentes tipos de señales, incluido el habla de un usuario y los patrones de la mirada.

«La arquitectura que estamos desarrollando reconoce automáticamente el habla del usuario y la analiza para determinar si está expresando que quiere o necesita ayuda», explicó Wilson. «Al mismo tiempo, el sistema también detecta los patrones de mirada de los usuarios, determinando si están exhibiendo un patrón de mirada asociado con la necesidad de ayuda».

A diferencia de otras técnicas para mejorar las interacciones entre humanos y robots, el enfoque no requiere información sobre la tarea específica que los usuarios están completando. Esto significa que podría aplicarse fácilmente a robots que operan en varios contextos del mundo real y entrenarse para abordar diferentes tareas.

Si bien el modelo creado por Wilson y sus colegas puede mejorar la experiencia del usuario sin la necesidad de detalles específicos de la tarea , los desarrolladores aún pueden proporcionar estos detalles para mejorar su precisión y rendimiento. En las pruebas iniciales, el marco logró resultados muy prometedores, por lo que pronto podría usarse para mejorar el rendimiento de los robots sociales tanto existentes como desarrollados recientemente.

«Ahora continuamos explorando qué señales sociales permitirían mejor a un robot determinar cuándo un usuario necesita ayuda y cuánta ayuda quiere», dijo Wilson. «Una forma importante de comunicación no verbal que aún no estamos usando es la expresión emocional. Más específicamente, estamos analizando las expresiones faciales para ver cuándo un usuario se siente frustrado, aburrido, comprometido o desafiado».


Esta web usa cookies analíticas y publicitarias (propias y de terceros) para analizar el tráfico y personalizar el contenido y los anuncios que le mostremos de acuerdo con su navegación e intereses, buscando así mejorar su experiencia. Si presiona "Aceptar" o continúa navegando, acepta su utilización. Puede configurar o rechazar su uso presionando "Configuración". Más información en nuestra Política de Cookies.


ACEPTAR
Aviso de cookies

¡Comparte en tus redes!

¡Comparte esta noticia con tus amigos!