Il futuro de la guerra podría involucrar algoritmos avanzados de inteligencia artificial (IA) con la capacidad y autoridad para evaluar situaciones y atacar enemigos sin el control de los seres humanos.
Parece el tipo de escenario de películas de ciencia ficción como Terminator y The Matrix. Una tecnología avanzada hasta el punto de tomar las riendas del asunto desatando robots de guerra durante un conflicto armado.
En las películas, la IA siempre acaba atacando a los humanos. En la vida real, la IA podría ayudar al ejército en operaciones en las que el control humano ralentizaría la misión. Una desventaja obvia es que el enemigo puede emplear tecnología igualmente avanzada.
¿Y quién atacaría en última instancia a la IA con sus robots de guerra? Siempre humanos.
Un futuro de robots de guerra que deciden por sí mismos
El Pentágono estudia escenarios de combate en los que la IA podría actuar por iniciativa propia en función de necesidades preestablecidas.
Uno de esos ejercicios tuvo lugar cerca de Seattle en agosto pasado.
Varias docenas de drones militares y robots de guerra. similar a los tanques se han desplegado con una misión sencilla: encontrar terroristas sospechosos de esconderse entre diferentes edificios.
La cantidad de robots de guerra involucrados era imposible de controlar para un operador humano. Para ello recibieron instrucciones preliminares para encontrar y eliminar a los combatientes enemigos cuando fuera necesario. Y luego se fueron.
Pruebas técnicas de guerra automática.
Dirigido por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), el ejercicio de simulación no involucró armas reales. En su lugar, los radiotransmisores que han utilizado drones y robots para simular interacciones con entidades hostiles.
Los drones y los robots de guerra tenían aproximadamente el tamaño de una mochila grande. Fueron coordinados por algoritmos de inteligencia artificial que idearon planes de ataque.
Algunos de los robots de guerra rodearon los edificios, otros realizaron vigilancia. Algunos identificaron al enemigo, otros fueron destruidos por explosivos simulados.
Fue solo uno de los ejercicios de inteligencia artificial realizados para simular la automatización en sistemas militares en situaciones demasiado complejas y rápidas para que los humanos las decidan.
El Pentágono quiere que los robots de guerra decidan
Un informe de Wired explica que existe un interés creciente en el Pentágono para dar a las armas autónomas cierto grado de libertad en la ejecución de órdenes.
Un humano aún tomaría decisiones de alto nivel, pero la IA podría adaptarse a la situación en el terreno mejor y más rápido que los humanos.
Otro informe de la Comisión de Seguridad Nacional de Inteligencia Artificial (NSCAI) recomendó este mes de mayo que Estados Unidos se resista a los llamamientos a la prohibición internacional del desarrollo de armas autónomas.
No es una práctica viable. Es inhumano en forma y sustancia. Al igual que con las armas nucleares, los mismos algoritmos que Estados Unidos podría emplear para impulsar enjambres de drones y robots de guerra podrían ser utilizados por otros ejércitos.
Un apocalipsis de robots
"Las armas autónomas letales que cualquier terrorista puede obtener no son de interés para la seguridad nacional", dice el profesor del MIT. Max Tegmark, cofundador de la Instituto del futuro de la vida, una organización sin fines de lucro que se opone a las armas autónomas.
Para él, los robots de guerra y las armas de inteligencia artificial deberían ser "estigmatizados y prohibidos como armas biológicas".