Aviones armados: la muerte a control remoto

CIENCIA Y TECNOLOGÍA | 21.07.2011

Avión caza Reaper no tripulado de la Real Fuerza Aérea Británica.

Los ataques militares con aviones no tripulados son cada vez más frecuentes, y se están construyendo sistemas de combate automáticos que podrían poner en peligro la vida de civiles.

El avión X-47 B, fabricado por la empresa estadounidense Northrop Grumman, comenzó su fase de prueba en febrero de 2011. Con 12 metros de largo y forma de flecha, el X-47 B es un sistema robótico de armamento desarrollado para llevar a cabo misiones en forma totalmente autónoma con una capacidad de transporte de dos toneladas de misiles. Esta flecha voladora, además, es casi imposible de localizar para los radares y está programada para partir de portaaviones sin ser vista, y todo esto sin que un ser humano dirija sus movimientos.

¿Guerra sin riesgos?

Robert Altmann, experto en control de armas autónomas.

Robert Altmann, físico y fundador del Comité Internacional para el Control de Armas Robots (ICRAC, por sus siglas en inglés), dice que “es difícil imaginar que EE. UU. haya podido enviar tal cantidad de aviones no tripulados a Pakistán”, y agrega que, dado que los aviones son pequeños y no tripulados, “es posible que haya habido menos resistencia de parte del Gobierno de Pakistán para aceptar tales sistemas armados”.

Cerca de 50 países cuentan con aviones no tripulados, también de fabricación nacional, entre ellos, Israel, Alemania, China, Rusia e Irán. Y muchos se encuentran desarrollando modelos armados que cuestan menos que un jet común. Un avión zángano estadounidense del tipo Reaper MQ 9 cuesta 10 millones de dólares y se lo puede armar con 14 misiles Hellfire. Como comparación: un solo avión de guerra F-22 cuesta cerca de 150 millones de dólares. Y por la capacitación de los pilotos de aviones zángano se paga sólo una pequeña parte de lo que cuesta la de un piloto de guerra.

Más motivos para el terrorismo

Noel Sharkey: "Se necesitan reglas muy estrictas para este tipo de armamento."

El vertiginoso desarrollo tecnológico ha posibilitado hacer realidad el sueño de muchos militares: hacer la guerra sin arriesgar la vida de los soldados. Noel Sharkey, experto en robótica e inteligencia artificial de la Universidad de Sheffield, Gran Bretaña, advierte que el peligro no reside en que se amenaza sólo a la población civil del enemigo, sino también a quienes no están implicados en absoluto en una batalla, ya que se trata de una guerra asimétrica que genera nuevos peligros terroristas. “La gente no va a rendirse simplemente porque contemos con una mejor tecnología”, dice.

Además, esta evolución militarizada hacia sistemas cada vez más automatizados acelera las exigencias de una reacción inmediata y de contar con sistemas totalmente autónomos “para reaccionar de manera independiente”, resume Robert Altmann. Una carrera armamentista para la cual es difícil definir los límites del desarrollo y de la ética.

Máquinas de matar

El apremio por reaccionar en cuestión de segundos lleva a una mayor automatización, y ésta, a su vez, a catástrofes, como la que se produjo el 3 de julio de 1988 en el Golfo Pérsico, cuando el sistema de defensa aérea AEGIS de un avión crucero de EE. UU. identificó como hostil a un avión de pasajeros Airbus. El ataque provocó la muerte de 290 personas.

La Convención de Ginebra exige una diferenciación clara entre soldados y civiles, cosa que los sistemas robóticos aún no logran. Peter Warren Singer, del thinktank Brookings Institution, publicó un libro sobre el desarrollo de la robótica para fines militares. “Los robots no se enfurecen cuando se les mata a un compañero ni perpetran crímenes motivados por la venganza. Pero para un robot, una abuela de 80 años en silla de ruedas es lo mismo que un tanque de guerra: ambos son el resultado de la combinación de ceros y unos del sistema binario”, alerta Singer.

Cazatorpedos Vincennes: derribó un avión de pasajeros en 1988 matando a 290 personas.

Robots que no cumplen órdenes

El investigador Ronald Arkin, del Instituto Tecnológico de Georgia, EE. UU., piensa que la carencia de emociones de los robots son precisamente lo que los hace más fuertes. Arkin está convencido de poder producir sistemas superiores al hombre en el campo de batalla. Y también deberían, según él, poder negarse a cumplir órdenes, lo cual se contrapone a las normas de guerra. El experto en informática alemán Hans-Jörg Kreowsky, por el contrario, cree que esto es un gran problema. “Nadie sabe qué significa exactamente integrar reflexiones éticas a la programación de robots. La ética no es algo que se pueda definir en algoritmos, y tampoco se puede fabricar”, subraya.

El peligro de la evolución de sistemas militares autónomos que parecen salidos de una película de ciencia ficción reside en que ya no son producto de la imaginación, sino que se están usando en el presente, y los seres humanos ya están sufriendo sus consecuencias.

Autor: Matthias von Hein/ Cristina Papaleo
Editor: Enrique López Magallón

Fuente: dw-world.de

Anuncios
A %d blogueros les gusta esto: