Segundo el último informe de las Naciones Unidas sobre la guerra civil libia, el año que termina vio por primera vez un sistema de armas autónomo, un robot asesino, matando a alguien. En el futuro puede que lo recordemos como el punto de partida de una nueva carrera armamentista que podría hacernos mucho daño.
En los últimos días (del 13 al 17 de diciembre) La Convención de la ONU sobre Ciertas Armas Convencionales reunidos sobre el tema, como ocurre cada cinco años. Desde 1983 esta asamblea ha optado por limitar algunas armas crueles como las minas antipersonal. Esta vez habló de una posible prohibición de estas armas autónomas. Y no ha llegado a un consenso para limitarlos.

Puede que haya sido un error catastrófico.
Los sistemas de armas autónomos son robots asesinos. A lo largo de esta publicación siempre me escucharán llamarlos así: robots asesinos. Porque esto es lo que soy. Sistemas con armas que pueden funcionar solos. Sistemas hechos para la guerra, para matar gente. Los gobiernos del mundo están invirtiendo fuertemente en esta tendencia.
Por otro lado, por supuesto, las organizaciones humanitarias (una de ellas, Stop The Killer Robots, que encuentras aquí) se dedican a pedir reglas y prohibiciones sobre el desarrollo de estas armas. Y lo hacen bien. Si no limitamos el uso de armas autónomas, terminará muy mal. Las tecnologías disruptivas en este campo pueden desestabilizar todas las estrategias militares, aumentando el riesgo de ataques preventivos. Incluidos los químicos, biológicos, nucleares.
Dado el ritmo de desarrollo de los robots asesinos, la reunión de la ONU que acaba de terminar puede haber sido una de las ultimas ocasiones para evitar una nueva carrera armamentista. O el último.
Hay cuatro peligros que parecen obvios para cualquiera cuando se trata de sistemas robóticos asesinos.
Primer problema de los robots asesinos: identificación.
¿Las armas autónomas SIEMPRE podrán distinguir entre un soldado hostil y un niño con una pistola de juguete? La diferencia entre un solo error humano (que también es posible) y la configuración incorrecta del algoritmo podría llevar el problema a una escala increíble. Un experto en armas autónomas llamado Pablo Scharre utiliza una metáfora: la de una ametralladora defectuosa que sigue disparando incluso cuando se quita el dedo del gatillo. Y dispara hasta que se acabe la munición, porque es solo una máquina. No sabe que está cometiendo un error.
Diga lo que diga la gente, la inteligencia artificial aún no está equipada con su propia moralidad (y probablemente nunca lo tendrá, nunca podrá aprenderlo).
El problema no es solo ese incluso una IA está mal, por ejemplo cuando reconoce el asma como un factor que reduce el riesgo de neumonía, o cuando identifica a personas de color como gorila. Es que cuando está mal, quien lo creó no sabe por qué estuvo mal, y no sabe cómo corregirlo. Por eso creo imposible que puedan desarrollarse robots asesinos con un criterio "moral" de ningún tipo.
Segundo problema con los robots asesinos: la proliferación de gama baja.
Las fuerzas armadas que están desarrollando armas autónomas asumen que podrán contenerlas y controlarlas. ¿Has oído una idea más tonta que esta? Si algo nos enseña la historia de la tecnología armamentística, una sola cosa, es que las armas se difunden. También en este caso era muy predecible.
Lo que sucedió en el pasado con el Kalashinkov, un rifle de asalto que se ha vuelto tan accesible que termina en las manos de cualquiera, se puede repetir para los robots asesinos. Las presiones del mercado pueden conducir a la creación de armas autónomas que sean efectivas, baratas y prácticamente imposibles de detener. Sobre todo: generalizado. En manos de gobiernos, caballos locos, crimen organizado o grupos terroristas.
Puede que ya haya sucedido. El Kargu-2, fabricado por un contratista de defensa turco, es un cruce entre un dron y una bomba. Tiene inteligencia artificial para encontrar y rastrear objetivos. Es un robot asesino, y ya ha actuado de forma autónoma en el teatro de la guerra civil libia para atacar a personas.

Tercer problema de los robots asesinos: proliferación de alta gama.
Si pensamos entonces en riesgos de "gama alta", llegamos a Zenit. Las naciones podrían competir para desarrollar versiones cada vez más devastadoras de armas autónomas, incluidas aquellas capaces de montar armas químicas, biológicas, radiológicas y nucleares . Los peligros morales del aumento de la letalidad de las armas se verían magnificados por el aumento del uso de armas.
Claro, es probable que estos robots asesinos vengan con otros costosos. controladores éticos diseñado para minimizar los daños colaterales, persiguiendo el mito del ataque "quirúrgico". Un buen material sólo para la opinión pública, en definitiva. La verdad es que las armas autónomas alterarán incluso el análisis de costo-beneficio más mundano que uno hace antes de planificar una guerra. Serán dados de riesgo mortal, a tirar con menos preocupación.
Las guerras asimétricas libradas en el terreno por naciones que carecen de tecnologías competidoras se volverán más comunes. Una inestabilidad enormemente generalizada.
Cuarto y último problema: las leyes de la guerra

Los robots asesinos (si proliferan es algo seguro) socavarán el último paliativo de la humanidad contra los crímenes de guerra y las atrocidades: las leyes internacionales de guerra. Estas leyes, codificadas en tratados que parten del primer Convención de Ginebra, son la delgada línea que separa la guerra de algo aún peor que apenas puedo imaginar.
Las leyes de la guerra son fundamentales, porque también imponen responsabilidad a quienes están librando una guerra. Slobodan Milosevic era el presidente de un país y tenía que responder por sus acciones. Fue juzgado en el Tribunal Penal Internacional de las Naciones Unidas para la ex Yugoslavia y tenía que responder por lo que hizo.
¿Y ahora? ¿Es culpa de un robot asesino cometer crímenes de guerra? ¿Quién es juzgado? ¿El arma? ¿El soldado? ¿Los comandantes de los soldados? ¿La empresa que fabricó el arma? ONG y expertos en derecho internacional temen que las armas autónomas conduzcan a una tumba brecha de responsabilidad .
Se debe demostrar que un soldado ha cometido un delito utilizando un arma autónoma. Para ello, será necesario probar que el soldado cometió un hecho culposo y además tenía una intención específica de hacerlo. Una dinámica bastante complicada, en un mundo de robots asesinos.
Un mundo de robots asesinos es un mundo sin reglas que impongan control humano significativo en armas. Es un mundo en el que se cometerán crímenes de guerra sin que los criminales de guerra tengan que rendir cuentas. La estructura de las leyes de la guerra, junto con su valor disuasorio, se debilitará considerablemente.

Una nueva carrera armamentista mundial
Imagina que todos pueden usar toda la fuerza que quieran, cuando quieran. Con menos consecuencias para nadie. Imagine un planeta donde militares nacionales e internacionales, grupos insurgentes y terroristas pueden desplegar una fuerza letal teóricamente ilimitada con un riesgo teóricamente cero en los momentos y lugares que elijan, sin responsabilidad legal resultante.