Armas letales autónomas o cómo maximizar la guerra en la era de la Inteligencia Artificial

La historia reciente del estudio del cerebro y la neurotecnología no solo ha transformado la comprensión del ser humano, sino que ha revelado una dimensión ética inédita e ineludible. La posibilidad de manipular intenciones, emociones o decisiones, junto con el uso de algoritmos, herramienta principal de la inteligencia artificial, impone la necesidad de ampliar el marco de los derechos humanos hacia los neuroderechos. En paralelo, debemos centrarnos en la ética de los algoritmos, y en los principios que deben regir su diseño, su uso y su impacto. Este trabajo hace un breve recorrido hasta llegar al planteamiento de los neuroderechos y prepara el terreno para el desarrollo de unos principios que rijan el diseño, desarrollo y aplicación de los algoritmos.
JM Lassalle

Armas letales autónomas o cómo maximizar la guerra en la era de la Inteligencia Artificial

Las armas letales autónomas han cambiado la guerra y lo harán todavía más. Se caracterizan por automatizar con lógica eficiente la deshumanización que acompaña la exposición a la muerte que define la guerra. Un fenómeno relacionado con la intensa digitalización que experimenta la humanidad. La protagonista que hace posible su existencia se llama inteligencia artificial. Ella es la responsable en exclusiva de la autonomía que posibilita este tipo de armas. Una inteligencia artificial aplicada de múltiples maneras en los dispositivos tecnológicos que, según Cruz Roja y Naciones Unidas, se definen como armas letales autónomas.

Es importante recalcar esto porque sin inteligencia artificial no habría autonomía en el manejo de estas armas. Una relación de causalidad inquietante que hace posible la confusión de usos civiles y militares porque se retroalimentan. Tanto que debería llevarnos a plantear un debate ético  sobre la necesidad de deslindar a priori hasta dónde puede llegar la innovación si no se da ésta dentro de un contexto limitante de los usos de la tecnología que debería pensarse desde el propósito y no en el riesgo. No olvidemos que el entrenamiento masivo de inteligencias artificiales desarrollan conocimientos algorítmicos que son fácilmente transferibles. De ahí que lo que se obtiene bajo un uso civil puede migrar a otro militar y viceversa sin demasiados problemas.

En las armas letales se produce un fenómeno singularmente maléfico en el propósito que lleva a su existencia y que no es otro que liberar al ser humano de tareas y supervisiones en las que su intervención reduce el efecto destructivo que trata de garantizarse con ellas. Lo que se busca es aumentar la eficiencia de la capacidad de hacer daño y destruir. No incrementando la potencia destructiva que se emplea, que es secundaria, sino minimizando el riesgo de error vinculado al desarrollo de la acción violenta para la que sirve. Algo que se consigue por la intermediación de un conocimiento algorítmico que aplica la inteligencia artificial en el arma letal que la utiliza.

Esta circunstancia tan presente en estas armas, nos lleva más allá de la ética para entrar en el terreno de la moral y la capacidad humana para querer potenciar el mal por el mal. De ahí que este tipo de armas liberan un componente de crueldad que favorece el recrudecimiento de la inhumanidad que está presente siempre en una guerra. Entre otras cosas, porque escala el automatismo decisorio que justifica la acción violenta que se desprende de su utilización. Una maximización de la eficacia violenta que nace de neutralizar los problemas morales asociados a que el ser humano pueda negarse a seguir combatiendo, dude de hacerlo o yerre en el uso de las armas que tiene a su disposición un conflicto bélico.

Gracias a este tipo de armas la guerra está cambiando cualitativa y cuantitativamente. Se está convirtiendo en algo más terrible de lo que siempre fue porque reducen paradójicamente la participación humana en la toma de decisiones que acompañan su empleo. Un efecto buscado para aumentar en igual medida la vulnerabilidad de quienes son sus víctimas. De este modo, el resultado lleva a que se maximice la eficacia destructiva sin costes morales para el combatiente o la sociedad que sostiene con su apoyo la beligerancia de una retaguardia que garantiza la continuidad de un conflicto contra otro país. Una forma de matar, digámoslo así, que provoca que la guerra se invisibilice en sus efectos más nocivos y, de paso, que rebaje el nivel de repulsa y fatiga moral que debilita con el tiempo el compromiso militar de los combatientes o la propia opinión pública. Sobre todo cuando la guerra transparenta a medida que se alarga todo su horror. Un dato que no es menor porque, gracias a la historia, sabemos que este ha sido uno de los motivos que más han ayudado a que las guerras terminasen pronto. Poner caras y ojos a las víctimas y a los verdugos provoca a la larga un hartazgo moral que subvierte la condición humana y cura de seguir matando al que tienes en frente.

Desgraciadamente estamos viendo estos efectos que traen las armas letales en los países que las emplean masivamente. El caso de Israel es paradigmático, pero no es un caso aislado, pues el empleo de estas armas empieza a ser habitual en todos los conflictos bélicos que desgarran la paz en el planeta. Con todo, el caso de Gaza es el más cruel porque se están empleando indiscriminadamente en el enclave. Recientemente las utilizó también durante la escalada en el conflicto vivido con Irán. En este sentido, la guerra de Ucrania ha convertido el país en un laboratorio de experimentación de nuevos prototipos por ambos combatientes.

La posibilidad de poner freno al desarrollo de estas armas está pendiente de que la comunidad internacional desarrolle algún convenio que limite su empleo de acuerdo con los prepuestos que fundamentan el derecho humanitario bélico internacional. Un marco regulatorio que fue introducido tras la brutal experiencia de las guerras que trajo la revolución industrial y que culminaron con la Primera y la Segunda Guerra Mundiales.

A nadie se le escapa que las posibilidades de que prospere una iniciativa de estas características es escasa debido a la proliferación de los conflictos armados que vivimos en la actualidad y en los que el desenlace victorioso para uno de los bandos sobre el otro está relacionado con el empleo de estas armas. Entre otras cosas, porque rompen los equilibrios disuasorios en los que se basaba la guerra convencional para facilitar otro tipo de guerra más automática y dependiente del nivel tecnológico de los combatientes. De ahí que una parte fundamental del impulso de las armas letales autónomas se relacione directamente con el progreso de las capacidades cognitivas de la inteligencia artificial. Una prioridad para Estados Unidos y China en la lucha que libran por la hegemonía en este campo. Así que será difícil que veamos que la comunidad internacional logre convencer a ambas superpotencias de la necesidad de poner límites a una competencia tan inhumana.  
 

Este artículo fue publicado por primera vez en la web de Fundación Hermes el 8 de julio de 2025.
© Fundación Hermes 2025. Todos los derechos reservados.