FUENTE: Discover

AUTORA: Avery Hurt

Hasta ahora, la mayoría de la gente encuentra robots en las páginas de historias de ciencia ficción. (Sin contar los que pueden entregar comida en los campus universitarios o hacerte un café con leche.) Pero en un futuro no muy lejano, interactuar con robots se volverá aún más común en el mundo real. Cuando eso suceda, los robots necesitarán las habilidades sociales para interactuar adecuadamente con los humanos.

Aún así, sorprendentemente poco trabajo se ha hecho para asegurarse de que los robots pueden socializar, incluso en un nivel básico. Pero un equipo de investigadores del MIT ha asumido el desafío: los científicos desarrollaron un marco para la robótica que incorpora interacciones sociales, lo que permite a las máquinas entender cómo ayudamos  u obstaculizamos a nuestros compañeros humanos.

«Los robots vivirán en nuestro mundo muy pronto, y realmente necesitan aprender a comunicarse con nosotros en términos humanos», dice Boris Katz, jefe del Grupo InfoLab del Laboratorio de Informática e Inteligencia Artificial del MIT y uno de los autores del estudio, en un comunicado de prensa. «Necesitan entender cuándo es el momento para que ellos ayuden y cuándo es el momento para que ellos vean lo que pueden hacer para evitar que algo suceda.»

Dentro del nuevo marco de los científicos, fueron capaces de definir tres tipos de robots: Los robots de nivel 0 solo tienen objetivos físicos y son incapaces de razonar socialmente. Los robots de nivel 1, por el contrario, tienen objetivos tanto físicos como sociales, pero asumen que otros robots solo tienen objetivos físicos. Y los robots de nivel 2 tienen objetivos físicos y sociales, y también asumen que otros robots también tienen ambos. Los científicos especulan que estos robots de alto nivel son los que ya funcionan bien con otros robots – y potencialmente podrían funcionar bien con los humanos, también.

Para probar este marco, los investigadores crearon un entorno simulado donde un robot observa a otro, hace una conjetura sobre los objetivos del otro robot, y luego elige ayudar o dificulta al otro robot dependiendo de sus propios objetivos.

El equipo creó 98 escenarios diferentes en los que los agentes robóticos virtuales se ayudaban u obstaculizaban mutuamente basándose en suposiciones sobre los objetivos del otro robot, y luego combinaban esos objetivos con los suyos propios. Más tarde, cuando los humanos vieron videos de los robots interactuando  representados como una serie de animaciones por computadora  sus predicciones de los objetivos de los robots en gran medida coincidían con las predicciones que los robots hicieron sobre los demás.

Katz dice que este experimento es un pequeño pero importante paso hacia la enseñanza de los robots para reconocer los objetivos de los seres humanos y participar con los seres humanos. «Este es un trabajo muy temprano y apenas estamos rascando la superficie», dice Katz en el comunicado de prensa, «pero siento que este es el primer intento muy serio para entender lo que significa para los seres humanos y las máquinas interactuar socialmente.»

¿Una IA más amable?

Además de entrenar robots, esta investigación puede eventualmente tener usos más allá de la inteligencia artificial. Andrei Barbu, uno de los autores del estudio y científico investigador del Centro de Cerebros, Mentes y Máquinas del MIT, señala que no ser capaz de cuantificar las interacciones sociales crea problemas en muchas áreas de la ciencia.

Por ejemplo, a diferencia de la facilidad con la que podemos medir con precisión la presión arterial o el colesterol, no hay manera cuantitativa de determinar el nivel de depresión de un paciente o evaluar con precisión dónde se encuentra un paciente en el espectro autista. Pero debido a que, al menos en cierto grado, tanto la depresión como el autismo involucran el deterioro social, los modelos computacionales como este podrían proporcionar puntos de referencia objetivos para evaluar el rendimiento social humano y podrían facilitar el desarrollo y las pruebas de drogas para estas condiciones, dice Barbu.

Un problema bien documentado en el entrenamiento de inteligencia artificial es que los modelos de entrenamiento simplemente dándoles enormes cantidades de datos resultan en una inteligencia artificial muy poderosa – pero también tiende a producir IA que es sexista y racista. El equipo del MIT cree que su enfoque podría ser una manera de evitar ese problema. «Los niños no se alejan de sus familias con la idea de que el color de la piel de sus padres es superior al de los demás solo porque el 95 por ciento de sus datos proviene de personas con ese color de piel», dice Barbu, «pero eso es exactamente lo que estos modelos a gran escala concluyen.»

Al aprender a estimar los objetivos y las necesidades de los demás, en lugar de simplemente hacer asociaciones e inferencias basadas en enormes cantidades de datos, este nuevo método de entrenamiento de robots podría eventualmente crear IA que esté mucho más alineada con los intereses humanos. En otras palabras, podría crear una IA más amable.

Mientras tanto, el equipo planea hacer los entornos simulados más realistas, incluyendo algunos que permitirían a los robots manipular objetos domésticos. Un día, cuando un robot es su compañero de trabajo, su limpiador de la casa, y posiblemente su cuidador, es posible que desee que sea capaz de relacionarse con usted como persona. Esta investigación es un primer paso para ayudar a las máquinas a hacer precisamente eso.

 


Esta web usa cookies analíticas y publicitarias (propias y de terceros) para analizar el tráfico y personalizar el contenido y los anuncios que le mostremos de acuerdo con su navegación e intereses, buscando así mejorar su experiencia. Si presiona "Aceptar" o continúa navegando, acepta su utilización. Puede configurar o rechazar su uso presionando "Configuración". Más información en nuestra Política de Cookies.


ACEPTAR
Aviso de cookies

¡Comparte en tus redes!

¡Comparte esta noticia con tus amigos!