Los diseñadores que usan la ética para dar forma a mejores robots compañeros terminarán haciendo mejores humanos también, dicen los investigadores de la UNSW.

FUENTE: www.newsroom.unsw.edu.au

Los robots de IA aún no son lo suficientemente sofisticados para comprender a los humanos o la complejidad de las situaciones sociales, dice el Dr. Masimiliano Cappuccio de la UNSW. «Por lo tanto, debemos pensar en cómo interactuamos con los robots sociales y de compañía para ayudarnos a ser más conscientes de nuestro propio comportamiento, limitaciones, vicios o malos hábitos«, dice el Dr. Cappuccio, director adjunto de Valores en Tecnología de Defensa y Seguridad en UNSW Canberra.

«Y esto puede ser en las áreas de mayor autodisciplina y autocontrol, pero también en el aprendizaje de virtudes como la generosidad y la empatía«.

El Dr. Cappuccio es el autor principal de Can Robots Make Us Better Humans? Virtuous Robotics and the Good Life with Artificial Agents, que fue escrito en colaboración con el Dr. Eduardo Sandoval de UNSW Art & Design y la profesora Mari Velonaki junto con académicos de la Universidad de Western Sydney y la Universidad de Tecnología de Chalmers en Suecia.

También es la primera de una colección coeditada por el Dr. Cappuccio, el Dr. Sandoval y el Prof. Velonaki y publicada en el International Journal of Robotics como un número especial titulado Virtuous Robotics: Artificial Agents and the Good Life.

Un enfoque ético

El documento sostiene que, dado que los robots sociales pueden moldear las creencias y emociones humanas, las personas deben adoptar un enfoque más ético de su diseño y nuestras interacciones con ellos.

La mayoría de los especialistas en robótica intentan hacer esto mediante el uso de principios deontológicos o consecuencialistas únicamente. La ética deontológica se preocupa más por si una acción o decisión es buena, basándose en las obligaciones morales que cumple la acción o decisión. El consecuencialismo determina si una acción o decisión es buena en función del resultado y se preocupa más por las mayores ventajas para la mayor cantidad de personas. 

Pero el Dr. Cappuccio dice que debemos confiar en la ética de la virtud, «una antigua filosofía de superación personal y florecimiento humano».

En lugar de intentar construir robots que imiten nuestros procesos de toma de decisiones éticas, deberíamos considerar nuestras propias interacciones con los robots como una oportunidad de mejoramiento humano y aprendizaje moral”, dice.

El Dr. Cappuccio dice que la teoría de Virtuous Robotics enfatiza la responsabilidad del ser humano en cada forma moralmente sensible de interacción con robots, como con el humanoide AI Pepper.Pepper el robot

El Pepper de fabricación francesa llegó al mercado para la venta en 2014. La programación de inteligencia artificial del robot también puede detectar emociones humanas. Para 2018, alrededor de 12,000 Peppers se habían vendido como acompañantes en hogares de ancianos, mayordomos en hoteles y recepcionistas en el comercio minorista, entre muchos otros usos, incluidos los educativos. El profesor Velonaki de la UNSW dice que Pepper ha sido programado recientemente para detectar personas que no usan máscaras en espacios públicos. Ella dice que esto quita la emoción de la ofensa de la solicitud. «Esta linda Pepper se acerca a la gente y simplemente les pregunta; por favor, use su máscara. Eso es todo. No me ofendería por eso«, dice el profesor Velonaki. 

Los robots “no siempre son lo suficientemente inteligentes como para tomar la mejor decisión ética en su nombre, pero pueden ayudarlo a tomar la mejor decisión ética recordándolo, creando conciencia, entrenando o alentándolo”, dice el Dr. Cappuccio.

El Dr. Cappuccio dice que la tecnología de inteligencia artificial en la teoría de Virtuous Robotics actúa como un espejo del comportamiento humano y alienta al usuario a ser más consciente. “Te pone frente a ti mismo y te pide que te des cuenta de lo que estás haciendo”, dice.

Es en estos casos, dice el Dr. Sandoval, un especialista en robótica de UNSW Art & Design, que Virtuous Robotics analiza cómo podemos usar la tecnología de IA para hacernos mejores como seres humanos “en la superación personal, la educación y la creación de buenos hábitos, con el objetivo final de convertirnos en mejores personas”.

Kasper el robot amigable

Un ejemplo de robot virtuoso es Kasper (Kinésica y sincronización en Robot asistente personal).

Kasper es un humanoide del tamaño de un niño que la UNSW adquirió tras una colaboración con la Universidad de Hertfordshire, Reino Unido, donde el robot compañero se construyó por primera vez en 2005.

El robot está diseñado para ayudar a niños con autismo y dificultades de aprendizaje.

La profesora Mari Velonaki, fundadora y directora del Laboratorio de Robótica Creativa de clase mundial de la UNSW , dice que Kasper enseña a los niños comportamientos socialmente aceptables, por ejemplo, diciendo «eso duele» cuando el niño lo golpea, o «eso se siente bien» cuando el niño toca el robot de una manera suave.  

«Kasper no reemplaza al terapeuta, la red social, la familia o la escuela«, dice la profesora Velonaki. «Es solo un robot para ayudarlos a aprender comportamientos sociales, jugar y experimentar«. Kasper

Kasper puede parecer aterrador para algunos adultos, pero su rostro fue elegido por niños con autismo, señala Velonaki. «Esta es la cara con la que se sentían cómodos porque no quieren una cara súper expresiva«, dice. Foto: Mari Velonaki.

Enfoque multidisciplinario

La profesora Velonaki está de acuerdo con el enfoque del Dr. Cappuccio sobre la ética de las máquinas y, como alguien que ha estado construyendo robots durante al menos 20 años, dice que la industria debe adoptar este enfoque multidisciplinario.

No es complementario, es fundamental. Y tiene que estar ahí desde el principio al diseñar un sistema ”, dice. “Necesitas tener gente que esté haciendo diseño interactivo, especialistas en ética, gente de las ciencias sociales, inteligencia artificial y mecatrónica«.

Porque no estamos hablando de sistemas que están aislados en una fábrica de automóviles, estamos hablando de sistemas que en un futuro cercano se implementarán dentro de una estructura social”. 

Velonaki dice que debemos comenzar a pensar en algunas de estas preguntas existenciales ahora a medida que avanza la tecnología de inteligencia artificial. «Porque tal vez en 30 años a partir de ahora los sistemas podrían ser mucho más biotecnológicos, combinando lo biológico y técnico«. Profesora Mari Velonaki

La profesora Velonaki de la UNSW con el robot que creó llamado Diamandini, que está diseñado para provocar respuestas emocionales de los humanos (izquierda) y un cobot (derecha). Foto: Mari Velonaki.

Robots sociales para mejorar los hábitos humanos

En general, dice el Dr. Cappuccio, la robótica virtuosa se aplica a todos los campos del desarrollo humano y el florecimiento humano.

Siempre que haya habilidades morales involucradas, por ejemplo, como tener una mayor conciencia de sí mismo sobre vicios como el tabaquismo, el alcohol o la dieta, la robótica virtuosa puede ser útil para cualquiera que desee aumentar el control sobre su comportamiento”, dice. 

Y los robots sociales tienen más éxito en cultivar la virtud en los seres humanos que las aplicaciones de teléfonos móviles, dice el Dr. Sandoval, quien intentó una auto-experimentación con aplicaciones de ejercicio y meditación en su teléfono móvil.

«Hasta ahora, la interacción humana es la forma más eficaz de cultivar la virtud«, dice el Dr. Sandoval. «Pero probablemente la segunda mejor forma de cultivar la virtud es con robots sociales que tienen una personificación y no dependen de las pantallas para interactuar con las personas».

La conexión robótica

La conexión robótica: el futuro de la tecnología de inteligencia artificial en robótica social está llegando a preguntas sobre cómo podemos interactuar de manera más ética con ellos. Foto: Shutterstock.


Esta web usa cookies analíticas y publicitarias (propias y de terceros) para analizar el tráfico y personalizar el contenido y los anuncios que le mostremos de acuerdo con su navegación e intereses, buscando así mejorar su experiencia. Si presiona "Aceptar" o continúa navegando, acepta su utilización. Puede configurar o rechazar su uso presionando "Configuración". Más información en nuestra Política de Cookies.


ACEPTAR
Aviso de cookies

¡Comparte en tus redes!

¡Comparte esta noticia con tus amigos!