Ir al contenido
Logo
Actualidad #Newsletter#Donald trump#Irán#Solemaini

Drones asesinos: una preocupante nueva forma de guerra

El asesinato de Solemaini ordenado por Donald Trump es la punta del iceberg de una preocupante problemática: el impacto que los drones suponen como una nueva metodología de guerra.

Drones asesinos: una preocupante nueva forma de guerra
La inteligencia artificial y los desafíos al dilema de la guerra

Qassem Solemaini, el más importante general iraní, fue asesinado ayer por orden de la administración Trump, lo que hace suponer que la violencia en Medio Oriente y en el resto del mundo recrudecerá pronto (sobre todo porque, como se cuenta en esta nota, el ayatolá Khameini se comprometió a vengar su muerte). 

Además de los efectos obvios que tendrá para la geopolítica mundial, aún difíciles de mensurar, uno de los datos importantes de este ataque es que, como viene ocurriendo en los últimos años, no fue llevado a cabo por personas de carne y hueso sino por drones.

No sabemos aún si se trató de drones comandados directamente por humanos - lo más probable, dado el estado actual de la tecnología- o, lo que es más preocupante, si fueron drones programados con inteligencia artificial (capaces de tomar decisiones por sí mismos, con diversos grados de autonomía).

Lo que sí sabemos es que las guerras del presente ya son muy diferentes de lo que acostumbraron ser en la historia de la humanidad. Y no es aventurado pensar que en un futuro lo serán aún más. Y no hablamos de siglos ni de décadas: hablamos de los próximos años.  

Los drones en el escenario militar internacional

Aunque ahora los drones se utilizan para casi cualquier cosa y están disponibes en versiones comerciales accesibles, originalmente el propósito de estas naves no tripuladas, manejadas remotamente, fue militar: fueron utilizadas por primera vez por Estados Unidos en la década del 90 para monitorear zonas sensibles a ataques. 

La tecnología, desde entonces, fue avanzando mucho y actualmente hay varios miles de drones militares distribuidos por todo el mundo, mayoritariamente utilizados para vigilancia y defensa.

Los especialistas del grupo de información Jane´s, una empresa internacional de publicaciones focalizada en temas militares, aeroespaciales y medios de transporte, creen que en los próximos diez años se estarán operando más de 80 mil drones de vigilancia y más de 20 mil drones de ataque, a pesar de que parecen, por ahora, bastante costosos: el precio arranca en los 15 millones de dólares por unidad. 

Así y todo, el precio no parece ser un gran problema si se lo compara con lo que costaría renovar una flota de barcos o aviones militares. Según los especialistas, de hecho, los drones son una forma relativamente barata de aumentar el tamaño de las fuerzas armadas. 

La tecnología está en funcionamiento y gobiernos de diversos países se enorgullecen de mostrar su eficacia. En un video difundido por el propio Ministerio de Defensa de Turquía, por ejemplo, se muestra cómo un dron reconoce a combatientes kurdos emergiendo de un túnel y cargando municiones en un camión en Siria y da el aviso a un avión F-16, que ataca unos pocos segundos después. 

Por supuesto que los turcos no son los únicos que emplean drones con fines militares: ya ha habido ataques con drones por parte de Estados Unidos (en, por ejemplo, el asesinato del lider del Estado Islámicon en Afganistán), el grupo palestino Hamas y, famosamente, los rebeldes hutíes de Yemen, que utilizaron 25 drones para destruir la mayor refinería de petróleo del mundo ubicada en Arabia Saudita. 

Y los ejemplos siguen. Cada vez es más común que en los enfrentamientos militares haya involucrados drones , más o menos rústicos desde el punto de vista tecnológico.

La guerra del futuro

Pero a pesar de que los drones comandados remotamente constituyen en sí mismos una novedad desde el punto de vista militar, la gran innovación en la tecnología armamentística provendrá, sin dudas, del uso de inteligencia artificial.

Porque si bien tecnológicamente todavía estamos lejos de la posibilidad de una guerra "a la Terminator", con robots humanoides tomando decisiones de manera híper eficiente,  ya existen hoy mismo robots asesinos. O sea: drones que utilizan inteligencia artificial para buscar, elegir y atacar blancos por su cuenta. 

Un dron programado con inteligencia artificial es capaz de percibir su propio entorno, de aprender de las decisiones que toma y de ir modificándolas de manera tal que las acciones que lleva a cabo maximicen sus posibilidades de éxito en el objetivo que percibe.

En su libro “Army of None: Autonomous Weapons and the Future of War”, Paul Scharre, director del Programa de Seguridad Tecnológica y Nacional del Centro para una Nueva Seguridad Estadounidense, asegura que ya son más de 30 los países que cuentan con "armas autónomas defensivas supervisadas" para actuar en situaciones en que la urgencia requerida en la respuesta convierte en demasiado lentas a las decisiones que dependen de la acción directa de humanos. 

La más conocida de estas armas es Harpy, fabricado por la principal industria aeronáutica de Israel. Se trata de un dron armado que sobrevuela y patrulla áreas muy grandes, detecta señales de radares enemigos y se "inmola" chocando contra la fuente de donde salen esas señales, destruyéndose a sí mismo y a su objetivo.

Como veníamos diciendo, Harpy no es un ejemplo aislado: la inteligencia artificial ha sido incorporada en varias armas por diversos países y, aunque sigue siendo relativamente débil, está en un proceso rapidísimo de desarrollo.  

No es sorprendente, entonces, que ya se hable de la existencia de una nueva carrera armamentística de inteligencia artificial, en la que están involucrados países como Rusia, China, Estados Unidos, el Reino Unido, Corea del Sur e Israel, entre otros. 

El peligro de matar con drones

La inteligencia artificial es una herramienta extraordinariamente potente que promete revolucionar muchos campos del conocimiento, desde la robótica hasta la medicina. Pero desde su fulgurante aparición, y como ocurre con todas las nuevas herramientas, despertó inquietudes en diversos sectores, tanto dentro como fuera del ámbito académico. En el caso de sus aplicaciones militares, estas preocupaciones, razonablemente, se multiplican.  

Es por eso que en 2015, al comienzo de las International Joint Conferences on Artificial Intelligence, se dio a conocer un documento sobre el uso de armas autónomas firmado por muchos especialistas en inteligencia artificial y robótica y otros miembros destacados de la comunidad científica y tecnológica (como Stephen Hawking, Noam Chomsky y Elon Musk).  

"Las armas autónomas seleccionan y atacan objetivos sin intervención humana. Podrían incluir, por ejemplo, helicópteros cuadrirrotores capaces de buscar y eliminar gente que cumpla con ciertos requisitos predefinidos, pero no aquellos misiles o drones piloteados remotamente, en los cuales los humanos continúan tomando todas las decisiones sobre los objetivos. La inteligencia artificial ha llegado a un punto en el que el desarrollo de tales sistemas es -desde el punto de vista práctico, no legal- factible en cuestión de años, no de décadas", comienza señalando el documento, que sugiere además que sería la tercera revolución en la tecnología de guerra, después de la pólvora y las armas nucleares. 

En ese texto, los firmantes advierten que lo que debe decidir la humanidad es si conviene empezar una carrera de IA global o tratar de que esta no ocurra. "Si cualquier poder militar avanza con el desarrollo de armas de IA, la guerra armamentística es virtualmente inevitabe y el punto de llegada de esta trayectoria tecnológica es obvio: las armas autónomas serán las kalashnikov de mañana".

Esto quiere decir que no solo serán utilizadas por los diversos Estados nacionales sino que, como ocurrió con las kalashnikov, circularán en los márgenes: por ejemplo, entre los grupos terroristas para-estatales. "La inteligencia artigicial puede hacer los campos de batalla mucho más seguros para los humanos", dicen los firmantes, pero no "creando nuevas armas para asesinar gente".

"La IA tiene un gran potencial para beneficiar a la humanidad de muchas maneras, y el objetivo de ese campo debe ser, justamente, ese. Comenzar una carrera militar de IA es una mala idea y debería ser prevenida por una prohibición de las armas ofensivas autónomas que no sean controladas directamente por humanos", concluye la carta. 

Drones asesinos

El escenario en un futuro no muy lejano se avizora, en este sentido, muy preocupante, como expone el video de acá abajo. 


Por si no sabés inglés, te resumo lo que pasa. Un ejecutivo anuncia desde el escenario, en una especie de charla TED, el desarrollo de un pequeño dron gobernado por IA que entra en la palma de la mano y es capaz de seleccionar un blanco humano y disparar una carga de tres gramos de explosivos en el cerebro. Es imposible para un humano eliminarlo o escaparse, porque las reacciones del dron son cien veces más rápidas: "No pueden ser detenidos", dice el orador.

Luego aparecen extractos de noticieros que advierten sobre un ataque letal de estos drones en el Senado estadounidense; una mujer ve las noticias mientras habla con su hijo por teléfono, pero la conversación se interrumpe porque un ejército de drones ataca a él y a todos los que compartieron el video en redes sociales. Después de ver estas imágenes, el orador termina diciendo, orgulloso, que incluso se puede elegir al enemigo porque usa un hashtag específico.

El escenario distópico parece sacado de Black Mirror, pero en realidad es parte de una 
campaña internacional para detener a los "robots asesinos" (Campaign to Stop Killer Robots), una iniciativa liderada por el Comité Internacional para el Control de las Armas Robóticas (ICRAC, por sus siglas en inglés).

Si parece exagerado, sobre el final Stuart Russell, profesor de ciencias computacionales en la Universidad de Berkeley, se ocupa de aclarar que no lo es para nada: la tecnología ya existe y los drones letales autónomos pueden ser, en un futuro no muy lejano, la nueva forma de hacer la guerra.

Habrá que encontrar protocolos razonables, consensuados -y respetados- internacionalmente para que no se conviertan en las nuevas armas de destrucción masiva. Pero el panorama, por lo que viene viendo, no parece nada alentador.