La guerra que se avecina: de los drones a las armas autónomas

¿Han supuesto los drones la tercera revolución bélica, tras la pólvora y el armamento nuclear? No. Pero sus sucesores, las armas autónomas, sí supondrán la tercera revolución bélica. El nuevo paradigma de la guerra moderna vendrá marcado por la delegación de tomas de decisiones a las máquinas. Para la mayoría, la posible existencia de armas autónomas dotadas de inteligencia artificial es un concepto extravagante y propio de una película de ciencia ficción. Sin embargo, todo indica a que esa tecnología estará disponible dentro de pocos años.

La decepción de los drones

En la guerra de Bosnia, los drones solo eran una forma de obtener información en tiempo real sobre el enemigo, dotados de cámaras de vídeo y sensores. Fue en la invasión de Afganistán liderada Estados Unidos a raíz del 11-S cuando estas aeronaves se equiparon con misiles antitanque «Hellfire» y se comenzaron a utilizar contra blancos sobre el terreno. Desde los «Predators» (simples aviones de observación equipados con un improvisado sistema lanzamisiles) hasta los «Reapers» (drones de la empresa General Atomic diseñados específicamente para los ataques militares),[1] los drones han experimentado un desarrollo espectacular.

Los drones militares parecen engañar el subconsciente de quien los usa. El asesino está sentado en un sillón seguro manejando un avión teledirigido con un mando a distancia, y la víctima sólo parecen ser píxeles en una pantalla. Como quien juega al Call of Duty. Una de las ventajas de los drones para el ejército estadounidense, se creía, era esta: se iba a «engañar» al subconsciente de los pilotos para sacar el máximo partido de la escasa crueldad que poseen los individuos equilibrados. Se creía que los drones iban a reducir el coste psíquico que conlleva ejecutar a una persona.

Sin embargo, quienes creyeron esto fallaron en sus predicciones. Los «18X» (así se denomina a los pilotos de drones) tienen serios problemas a la hora de asesinar gratuitamente. Al contrario de lo que se había predicho, el factor humano se ha convertido en el problema (y no en la ventaja) del creciente uso de drones. Entre marzo de 2014 y marzo de 2015, unos 240 pilotos entrenados abandonaron voluntariamente su puesto de trabajo, según un documento filtrado a los medios de comunicación norteamericanos. Para contextualizar esta cifra, cabe decir que sólo 180 pilotos finalizan un programa de entrenamiento para esta labor cada año. En total, la Fuerza Aérea de Estados Unidos cuenta con cerca de 1.180 operadores de drones.

Esta deserción masiva representa un gravísimo problema para la Fuerza Aérea estadounidense. El cuatro de enero de 2015, el Daily Beast reveló una nota interna sin fecha del general Herbert «Hawk» Carlisle dirigida al jefe del Estado Mayor de la Fuerza Aérea, el general Mark Welsh, señalando que «la creciente fuga [de pilotos] perjudicará la disposición y la capacidad de combate del MQ-1 y del MQ-9 [Predator y Reaper] en los próximos años», y añadía que él estaba «extremadamente preocupado». Once días después, el asunto ocupó un lugar destacado en una sesión informativa de alto nivel sobre el estado de la Fuerza Aérea de Estados Unidos.

Muchos de los desertores tenían síntomas de ansiedad, depresión y trastorno de estrés post traumático, con pensamientos suicidas y problemas de relación. De hecho, un estudio realizado por el Pentágono y hecho público a principios de 2015 revela que los pilotos de drones sufren los mismos problemas de salud mental que los de las aeronaves convencionales. Otro informe publicado en 2011 por psicólogos militares diagnosticó en la mitad de casos depresión o estrés severo.

«¿Cuántas mujeres y niños habéis visto incinerados por un misil Hellfire? ¿Cuántos hombres habéis visto arrastrarse sin piernas cruzando un campo hacia un recinto cercano para pedir ayuda?». «Cuando uno tiene que verlo reiteradamente, esto pasa a ser como un breve video implantado dentro de tu cabeza, siempre repetido y causando dolor y sufrimiento psicológico que mucha gente es mejor que no experimente»

— Heather Linebaugh, exanalista de imágenes facilitadas por drones, a The Guardian

 «Me sentí un cobarde por estar en otra parte del mundo sin que el hombre lo supiera. Me sentí perseguido por una legión de muertos»

— Brandon Bryant, exoperador de drones, a Nevada Public Radio (KNPR)

En 2015, antiguos pilotos de drones iniciaron una campaña en redes sociales para pedir a sus compañeros que se nieguen a volar, pese a los compromisos de fidelidad que los militares mantienen con el ejército.

Dibujo sin nombre de Erlend Mork

«End credits», de Erlend Mork.

La «solución»: armas autónomas

El problema del dron militar no es la máquina, sino el piloto, que no puede evitar los sentimientos. Por tanto, la solución podría pasar por delegar la decisión de asesinar a máquinas sin ningún tipo de empatía. Es decir, utilizar un software capaz de tomar decisiones (como escoger el blanco) sin mediación humana. Esta inteligencia artificial (IA) tendría mucha más destreza que los pilotos humanos: podría ser una macabra destructora si se programa para hacer el máximo daño posible o una sutil verduga si se escoge detalladamente un blanco concreto.

«Programados para reconocer ciertos rasgos étnicos, los robots podrían eliminar comunidades enteras», dice Alfonso Gámez en El Correo. No en vano, los artículos que hablan sobre armas autónomas frecuentemente las comparan con los robots de la película Terminator.

Noticias como la publicación por parte de Corea del Sur del diseño de un robot-metralleta programado para identificar, seguir y disparar a todo lo que se mueva nos recuerdan que las armas con inteligencia artificial podrían ser pronto una realidad. «No hace falta mucho para fabricar una, sólo un procesador medianamente potente, un algoritmo —que ya está en la nube—, una cámara de precisión y algo que pegue tiros», asegura Juan Julián Merelo, investigador en inteligencia computacional de la Universidad de Granada a El Correo. Dentro de pocos años, los robots con inteligencia artificial serán ubicuos, baratos y al alcance de cualquiera. A diferencia de las armas nucleares, éstos no requieren de materias primas costosas ni difíciles de conseguir, y todas las potencias militares podrán producirlas en masa.

«Las armas autónomas son ideales para el asesinato, desestabilizar países, someter a poblaciones y asesinar selectivamente a los miembros de un grupo étnico».

«Las armas autónomas serán los kalashnikovs del mañana».

«Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en manos de terroristas, dictadores que deseen controlar mejor a su población, señores de la guerra que quieran perpetrar limpiezas étnicas, etc».

«La cuestión clave para la Humanidad es si quiere empezar una carrera global de armas IA o evitar que empiece».

— Frases sueltas del documento «Autonomous Weapons: an Open Letter from AI & Robotics Researchers», publicado por The future of life en julio de 2015

¿Estamos a tiempo de evitarlo?

La proliferación de armas autónomas está muy cerca, y probablemente ya sea tarde para evitar el fenómeno. La esperanza está en la generación de un régimen internacional al respecto que limite la creación de estas armas, [2] si bien no es visible que los Estados más poderosos estén interesados en ello.

En la comunidad científica, algunos anhelan que se abran negociaciones en la ONU para limitar la investigación armamentística en este campo. El 28 de julio de 2015, durante la apertura en Buenos Aires de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI por sus siglas en inglés), cuatro mil especialistas en inteligencia artificial y otros ámbitos[3] publicaron una carta abierta pidiendo que se abrieran negociaciones en la ONU para prohibir los robots capaces de elegir y eliminar objetivos. La carta, de la que arriba se citan varios fragmentos, fue presentada por el Future of Life Institute.[4]

En el Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge, que investiga las tecnologías que pueden llegar a ser peligrosas para nuestra especie, los robots con IA fueron la primera amenaza que llamó la atención.

Cabe señalar que el peligro de las armas autónomas es solo uno de los muchos que plantea el futuro de la tecnología. Para Stephen Hawking, las tres grandes amenazas para la humanidad en un futuro cercano son la guerra nuclear, el calentamiento global y los virus creados mediante ingeniería genética.

Las potencialidades de la tecnología actual son aún inimaginables para quienes no estamos especializados en cada rama concreta. Será cuestión de tiempo que nos hagamos conscientes, aunque la Historia parece indicar que, una vez más, ocurrirá de forma traumática.


Notas

[1] Por cierto, el Ministerio de Defensa español ha adquirido cuatro de ellos recientemente.

[2] La definición más aceptada del concepto es la que se refiere a «un conjunto de principios implícitos o explí­citos, normas, reglas y procedimientos de decisiones al­rededor del cual las expectativas de los actores conver­gen en una determinada área de las relaciones interna­cionales» (Krasner). Un buen ejemplo de régimen internacional es el de la no proliferación de armas nucleares.

[3] Entre ellos Stephen Hawking, Steve Wozniak (cofundador de Apple), Elon Musk (primer ejecutivo de SpaceX y Tesla); Jaan Tallin (cofundador de Skype), Daniel C. Dennett (filósofo) o Noam Chomsky (lingüista).

[4] El texto original de la petición del Future of LifeInstitute para que la ONU prohiba el desarrollo de armas con inteligencia artificial. Visto del 10 de marzo de 2016 en http://goo.gl/bKPkiK.

Fuentes

Además de los enlaces ya señalados en el texto, se han consultado los siguientes textos:

  • Chamayou, Grégoire (2013). Drones y kamikazes, un juego de espejos. Le Monde Diplomatique, 210.
  • Chatterjee, Pratap (2015, 6 de marzo). A chilling new post-traumatic stress disorder: Why drone pilots are quitting in record numbers. Salon. Visto del 10 de marzo de 2016 en http://goo.gl/IpLZ2S
  • Cué. Carlos E. (2015, 31 de julio) “En 50 años podríamos tener un Terminator. Hay que pararlo ahora”. El País. Visto del 10 de marzo de 2016 en http://goo.gl/l5Yh9T
  • Drones: la guerra móvil por control remoto. (2013, 11 de marzo) Visto del 10 de marzo de 2016 en http://goo.gl/eQAYBI
  • Former Drone Operators Reveal Air Force Plays Key Role in Secret CIA Assassination Campaign. (2014, 17 de abril). Visto del 10 de marzo de 2016 en http://goo.gl/A7Cjk7
  • Gámez, Luis Alfonso, (2015, 28 de julio). No construyan a Terminator. El Correo.
  • Hui, Sylvia (2012, 25 de noviembre). Cambridge to study technology’s risk to humans. Associated Press. Visto del 10 de marzo de 2016 en http://goo.gl/E0IPaE
  • Linebaugh, Heather (2013, 29 de diciembre). I worked on the US drone program. The public should know what really goes on. The Guardian. Visto el 20 de marzo de 2016 en http://goo.gl/c5NfaU
  • Naughton, John (2012, 2 de diciembre). Could robots soon add to mankind’s existential threats? The Guardian. Visto el 10 de marzo de 2016 en http://goo.gl/yQjN4t
  • Otálora, Óscar B. (2015, 28 de noviembre). Los ‘guerreros de Playstation’ piensan en el suicidio. El Diario Vasco. Visto el 10 de marzo de 2016 en http://goo.gl/IKmoz6
  • Plaza, Sara (2015, 11 de marzo) ¿Están desertando los pilotos de la guerra teledirigida de Washington? [traducción] Rebelion. Visto del 10 de marzo de 2016 en http://goo.gl/HxRYLu
  • Schoenmann, Joe (2015, 25 de enero). Former Nellis AFB drone operator on first kill, PTSD, being shunned by fellow airmen. Nevada Public Radio. Visto del 10 de marzo de 2016 en http://goo.gl/38MBro
Anuncios

2 comments

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s