All for Joomla All for Webmasters
25
Dom, Oct

Los robots del US Army cazan tanques en el proyecto convergencia

Un robot experimental del ejército, apodado Origin, en el ejercicio del Proyecto Convergencia en el Campo de Pruebas de Yuma, Arizona. El gran tubo verde en la parte superior es un lanzamisiles CROWS-J Javelin.

Estados Unidos

WASHINGTON - Un par de robots poco atractivos, más parecidos a carritos de golf militarizados que a Terminators, atravesaron el desierto de Yuma, como parte del ejercicio del Proyecto de Convergencia del Ejército sobre la guerra futura.

Como tropas humanas, las máquinas se turnaban para cubrirse unas a otras a medida que avanzaban. Un robot encontraría un lugar seguro, se detendría y lanzaría el mini-dron atado que llevaba para mirar por encima de la siguiente línea de cresta mientras el otro robot avanzaba; luego se apagarían.

Su objetivo: un grupo de edificios en el campo de pruebas de Yuma del Ejército, una ciudad simulada para el entrenamiento de combate urbano. Cuando un robot se retuvo para transmitir comunicaciones a sus supervisores humanos distantes, el otro se trasladó a la ciudad y detectó fuerzas "enemigas". Con la aprobación humana , el robot abrió fuego .

Luego, los algoritmos de reconocimiento asistido de objetivos (ATR) del robot identificaron a otro enemigo, un tanque T-72. Pero este objetivo estaba demasiado lejos para que lo alcanzaran las armas integradas del robot. Entonces, el bot cargó los datos de objetivos a la red táctica y, nuevamente, con la aprobación humana, solicitó apoyo de artillería.

"Ese es un gran paso, Sydney", dijo Brig. El general Richard Ross Coffman , director del ejercicio del Proyecto Convergencia. "Esa visión por computadora ... es incipiente, pero está funcionando".

El reconocimiento algorítmico de objetivos y la visión por computadora son avances críticos con respecto a la mayoría de los robots militares actuales, que no son verdaderamente autónomos sino simplemente controlados a distancia: la máquina no puede pensar por sí misma, solo transmite las señales de la cámara a un operador humano, quien lo dice exactamente a dónde ir y qué hacer.

 

 

Mini-drone Hoverfly que lleva el robot Origin.

 

Ese enfoque, llamado teleoperación, le permite mantener al ser humano fuera de peligro, lo que lo hace bueno para los escuadrones de bombas y la exploración a pequeña escala. Pero es demasiado lento y laborioso para emplearlo a gran escala. Si quieres usar muchos robots sin atar a mucha gente que los microgestiona, necesitas que los robots tomen algunas decisiones por sí mismos, aunque el Ejército enfatiza que la decisión de usar la fuerza letal siempre la tomará un humano.

Así que Coffman, que supervisa los programas de vehículos de combate robóticos y vehículos de combate tripulados opcionalmente , se dirigió a la Fuerza de Tarea de Inteligencia Artificial del Ejército en la Universidad Carnegie Mellon . "Hace ocho meses", me dijo, "les di el desafío: quiero que salgas y detectes objetivos con un robot, y tienes que moverte sin usar LIDAR".

LIDAR, que utiliza rayos láser de baja potencia para detectar obstáculos, es un sensor común en vehículos autónomos experimentales. Pero, señaló Coffman, debido a que emite activamente energía láser, los enemigos pueden detectarla fácilmente.

 

Entonces, los robots en el experimento del Proyecto Convergencia, llamado "Origen", se basaron en sensores pasivos: cámaras. Eso significaba que sus algoritmos de visión artificial tenían que ser lo suficientemente buenos para interpretar las imágenes visuales y deducir las ubicaciones relativas de posibles obstáculos, sin poder confiar en LIDAR o radar para medir la distancia y la dirección con precisión. Eso puede parecer bastante simple para los humanos, cuyos ojos y cerebro se benefician de unos cientos de millones de años de evolución, pero es una hazaña radical para los robots, que todavía luchan por distinguir, digamos, un charco poco profundo de un pozo peligrosamente profundo .

"Solo con la visión artificial, pudieron pasar del punto A al punto B", dijo Coffman. Pero el Ejército no solo quiere robots que puedan orientarse : quiere que busquen amenazas y objetivos, sin que un humano tenga que mirar constantemente la alimentación del sensor.

Ahí es donde entra en juego el Reconocimiento de objetivos asistido. (ATR también significa Reconocimiento automatizado de objetivos, pero al Ejército no le gusta la implicación de que el software reemplazaría el juicio humano, por lo que utiliza constantemente Aided ).

Los datos del robot y el dron Origin actualizan mapas tácticos portátiles.

Reconocer los objetivos es otro gran desafío. Claro, la inteligencia artificial se ha vuelto tremendamente buena identificando rostros individuales en fotos publicadas en las redes sociales. Pero el sector privado no ha invertido tanto en, digamos, diferenciar entre un tanque estadounidense M1 Abrams y un T-72 de fabricación rusa, o entre una camioneta Toyota inocente y la misma camioneta mejorada como un guerrillero "técnico". con una ametralladora pesada en la espalda. Y el Ejército debe poder distinguir al enemigo de los amigos de los civiles en las desordenadas zonas de combate del mundo real, y no solo a partir de tomas de vigilancia claras desde arriba, sino desde el suelo, contra tropas entrenadas para usar camuflaje y cobertura para romper siluetas fácilmente reconocibles. .

“Entrenar algoritmos para identificar vehículos por tipo, es una empresa enorme ”, me dijo Coffman. "Hemos recopilado y etiquetado más de 3,5 millones de imágenes" hasta ahora para usarlas en el entrenamiento de algoritmos de aprendizaje automático, dijo, y ese etiquetado requiere que analistas humanos capacitados miren cada imagen y le digan a la computadora qué era: "Es alguien sentado allí y yendo, 'eso es un T-72; eso es un BMP '”, etcétera hasta la saciedad, dijo.

Pero cada robot o dron individual no necesita llevar esos millones de imágenes en su propia memoria a bordo: solo necesita los algoritmos de "clasificador" que resultan de la ejecución de imágenes a través de sistemas de aprendizaje automático. Debido a que esos algoritmos en sí mismos no ocupan una tonelada de memoria, es posible ejecutarlos en una computadora que se adapte fácilmente al bot individual.

“Hemos demostrado que podemos hacer eso con un UAV conectado o sin ataduras. Hemos demostrado que podemos hacer eso con un robot. Hemos demostrado que podemos hacer eso en un vehículo ”, dijo Coffman. "Podemos identificar al enemigo por tipo y ubicación".

“Todo eso está sucediendo al límite ”, enfatizó. "Esto no tiene que volver a algún mainframe [para] ser procesado".

El robot experimental "Origen" del Ejército durante el Proyecto Convergencia

En otras palabras, el robot individual no tiene que transmitir constantemente videos de alta resolución en tiempo real de todo lo que ve a algún analista humano distante o cerebro maestro de IA. Enviar esa cantidad de datos de un lado a otro es una presión demasiado grande para las redes tácticas de bajo ancho de banda , que a menudo se ven interrumpidas por el terreno, los fallos técnicos y la interferencia del enemigo. En cambio, el robot puede identificar el objetivo potencial por sí mismo, con su inteligencia artificial incorporada, y simplemente transmitir los bits esenciales, como el tipo de vehículos detectados, su número y ubicación, y lo que están haciendo.

"Quieres reducir la cantidad de información que pasas en la red a un tweet, lo más pequeño posible, para no obstruir las tuberías", me dijo Coffman.

Pero antes de que se tome la decisión de abrir fuego, enfatizó, un ser humano tiene que mirar la alimentación del sensor el tiempo suficiente para confirmar el objetivo y dar la orden de atacar.

"Siempre hay un humano que está mirando la imagen del sensor", dijo Coffman. “Entonces el humano decide, 'sí, quiero perseguir a ese objetivo'”.

"¿Podría hacerse eso automáticamente, sin un humano en el circuito ?" él dijo. “Sí, creo que es tecnológicamente factible hacer eso. Pero el Ejército de los Estados Unidos [es] una organización basada en la ética . Habrá un humano en el circuito ".

Por SYDNEY J. FREEDBERG JR.

28/09/20
breakingdefense.com