Permitir a los soldados entrenar a sus compañeros robot en entornos de juego podría ser la clave para formar equipos entre humanos y máquinas.

FUENTE: www.defenseone.com

AUTOR: PATRICK TUCKER

Se podría pensar que las tropas estarían ansiosas por incorporar robots y autómatas en las operaciones, ya que los robots militares están destinados a salvar a los soldados, aviadores, etc., de los trabajos «aburridos, sucios y peligrosos » que los operadores deben realizar en entornos de combate. Pero una nueva encuesta del Journal of Indo-Pacific Affairs de la Fuerza Aérea de EE. UU. Muestra que el personal militar de primera línea está menos motivado que sus comandantes al respecto.

El documento, basado en una encuesta de 800 oficiales cadetes y guardiamarinas en la Academia de la Fuerza de Defensa de Australia, mostró que «una mayoría significativa no estaría dispuesta a desplegarse junto con sistemas de armas letales totalmente autónomas, o LAWS, y que » la seguridad percibida, precisión y confiabilidad del sistema autónomo y que el potencial para reducir el daño a civiles, fuerzas aliadas y personal de las ADF son los beneficios más persuasivos ”, a diferencia de otros factores, como el ahorro de costos, etc. 

Esto podría ser un problema para un Pentágono ansioso por comenzar a incorporar sistemas autónomos en ejercicios y operaciones. Los líderes militares han estado impulsando nuevos conceptos de operación basados ​​en el trabajo en equipo humano-máquina durante años, con el objetivo de aumentar la capacidad de los soldados para llevar cosas, sentir su entorno y responder a las amenazas con la ayuda de robots terrestres, pequeños drones tácticos y incluso robots armados. 

Entonces, ¿cómo se consigue que las tropas que tienen que luchar junto a los robots confíen en ellos? No es un dilema nuevo y se han invertido excelentes estudios para reconocerlo y definirlo. Pero un artículo publicado recientemente por la Escuela de Posgrado Naval ofrece una nueva mirada al problema desde la perspectiva de un operador. 

El Mayor del Cuerpo de Marines Daniel Yurkovich presentó su artículo , “Este es mi robot. Hay muchos como él, pero este es mío ”, el lunes en la conferencia anual de la Asociación de la Industria de Defensa Nacional. Yurkovich argumenta que «la incapacidad para (a) comprender la inteligencia artificial (IA) y (b) entrenar a diario, se agravará para crear una atmósfera de desconfianza en sistemas valiosos que de otro modo podrían mejorar la letalidad de los infantes de marina«. 

La clave para construir esa confianza podría ser permitir que los operadores ayuden a entrenar las máquinas impulsadas por IA que sirven a su lado, en lugar de simplemente entregar un robot a un soldado, infante de marina o aviadores y enviar a la pareja a la guerra juntos. “La enseñanza y el desarrollo de agentes de IA dentro de un entorno simulado por parte del usuario final indican que existe la posibilidad de que el usuario final confíe mejor en el agente de IA cuando se coloca como un compañero de equipo” dentro de un equipo humano-máquina, escribió Yurkovich.

Este es un enfoque llamado aprendizaje automático interactivo. Como lo describieron el investigador de Microsoft Saleema Amershi y sus colegas en este artículo seminal de 2014 , el aprendizaje automático interactivo es fundamentalmente diferente de un algoritmo que simplemente se entrena con datos y luego se suelta … con más datos. 

El aprendizaje automático interactivo lleva no solo al diseñador de algoritmos sino también al usuario al proceso de diseño de actualizaciones. Esto permite a los usuarios “examinar de forma interactiva el impacto de sus acciones y adaptar las entradas posteriores para obtener los comportamientos deseados … incluso los usuarios con poca o ninguna experiencia en aprendizaje automático pueden dirigir los comportamientos de aprendizaje automático mediante prueba y error de bajo costo o experimentación enfocada con entradas y salidas.» 

Por supuesto, los operadores tienen bastante que hacer sin dedicar horas, a veces cientos de horas, a entrenar robots incluso en tareas simples del mundo real. Yurkovich recomienda entrenar el cerebro del robot en un entorno de juego virtual primero y luego transferir el cerebro al robot físico. 

«Un infante de marina recibe un robot con un dispositivo de inteligencia artificial extraíble (RAID) y una consola de juegos compatible«, escribió. “El RAID está precargado con una línea de base de automatización que imita la línea de base del conocimiento adquirido por los Marines en la Escuela de Infantería antes de llegar a su primer Batallón de Infantería. La consola de juegos, capaz de establecer una conexión con el RAID y el LVC-TE, es utilizada por el Marine para entrenar interactivamente con su robot en un entorno virtual … Cuando llega el momento del entrenamiento en vivo u operaciones, el Marine instala su RAID en su robot. Ahora, el robot en funcionamiento y el Marine se han convertido en un equipo vivo con confianza calibrada y tendencias construidas dentro de un entorno simulado»

Ese no es el único trabajo que se puede hacer para generar confianza entre los operadores y los robots con los que entrarán en batalla. Si bien, el experimento de Yurkovich sobre el tema no fue concluyente, darles a los operadores más experiencia en el diseño de los comportamientos que quieren en sus robots probablemente sea mejor que simplemente entregarles algo con lo que nunca antes habían interactuado, como muestra el estudio de la Fuerza Aérea.

Y atención, pues este no es un problema lejano. Hace un tiempo, un científico nuclear iraní fue asesinado por lo que la agencia de noticias iraní Fars describió como una ametralladora a control remoto. ISIS ha desplegado drones armados en muchos de sus ataques y los soldados rusos han desplegado robots terrestres en Siria. No hay indicios de que alguna de estas máquinas fuera completamente autónoma, pero la forma en que sus operadores las utilizaron sugiere que era más una barrera técnica, que ética.


Esta web usa cookies analíticas y publicitarias (propias y de terceros) para analizar el tráfico y personalizar el contenido y los anuncios que le mostremos de acuerdo con su navegación e intereses, buscando así mejorar su experiencia. Si presiona "Aceptar" o continúa navegando, acepta su utilización. Puede configurar o rechazar su uso presionando "Configuración". Más información en nuestra Política de Cookies.


ACEPTAR
Aviso de cookies

¡Comparte en tus redes!

¡Comparte esta noticia con tus amigos!