Ir al contenido principal

Ante la amenaza de los robots asesinos, crecen las demandas para que los humanos continúen en control del uso de la fuerza



201902us_arms_killerrobots_protest.jpg?i

En 2020, no se debe perder de vista el creciente rechazo internacional hacia los “robots asesinos” –armas que matan sin un control humano propio— y el aumento de las peticiones para que exista un nuevo tratado que dicte su prohibición preventiva.

Permitir que las máquinas seleccionen y apunten a blancos humanos sin intervención humana suena como algo sacado de una película de ciencia ficción apocalíptica. Pero en muchos aspectos, nos encontramos al borde de este paso: países como China, Israel, Corea del Sur, Rusia, el Reino Unido y Estados Unidos son ya pioneros en el uso de armas totalmente autónomas, como los drones armados, controlados remotamente por un humano. Estos países están invirtiendo fuertemente en aplicaciones militares de inteligencia artificial (IA) con el objetivo de obtener una ventaja tecnológica en la autonomía de la próxima generación en el campo de batalla.

Estos son los mismos países que se resisten a las demandas de decenas de Estados que solicitan un nuevo tratado de prohibición para garantizar un control humano significativo sobre el uso de la fuerza, mientras que descalifican los esfuerzos para regular los robots asesinos como “prematuros” y rechazan las preocupaciones de que estas armas amenacen el derecho a la vida y los principios de la dignidad humana, o que no cumplan con los estándares del derecho internacional, incluidas las normas de distinción, proporcionalidad y necesidad militar.

Pero el cambio se aproxima a medida que se intensifica el impulso por regular estas armas. Los robots asesinos ahora son vistos como una de las principales amenazas existenciales que enfrenta el planeta. Un número creciente de Estados y algunos aliados insólitos están respaldando la promoción de un nuevo tratado para prohibir los sistemas letales de armas autónomas, que según los galardonados con el Premio Nobel de la Paz podría significar un paso hacia una nueva realidad sin marcha atrás: “un Rubicón moral y ético”.

En septiembre de 2019, en la Asamblea General de alto nivel de las Naciones Unidas, una iniciativa para la “Alianza por el Multilateralismo” dirigida por Francia y Alemania, que incluyó a decenas de ministros de Asuntos Exteriores, identificó los robots asesinos como uno de los seis temas “políticamente relevantes” que requieren una respuesta multilateral urgente. (Los demás destacaron el cambio climático y la igualdad de género en la educación).

Las ocho reuniones sobre robots asesinos del Convenio sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés) desde 2014 han consolidado un acuerdo generalizado entre prácticamente todos los 80 Estados participantes sobre la necesidad de mantener algún tipo de control humano sobre el uso de la fuerza. Actualmente 30 países promueven vigorosamente un tratado de prohibición como esencial para estigmatizar la eliminación del control humano de los sistemas de armas.

Al secretario general de la ONU, António Guterres, también le preocupa que “los robots asesinos puedan ocupar el lugar de los soldados” y calificó la posibilidad de que las máquinas tengan el poder y la discreción para quitarle la vida a una persona como “moralmente repugnante y políticamente despreciable”. Guterres hizo un llamamiento a negociar un nuevo tratado, y ofreció apoyo de la ONU para ese objetivo, como se detalla en su Agenda para el Desarme.

Reconocidos expertos en inteligencia artificial, especialistas en robótica, científicos y trabajadores de la tecnología de Google y otras compañías están exigiendo una regulación. Advierten que los algoritmos se alimentan de datos que inevitablemente reflejan diferentes prejuicios sociales que, si se aplican en las armas, podrían hacer que las personas con ciertos perfiles fueran atacadas de manera desproporcionada. Los robots asesinos serían vulnerables al hackeo y ataques en los que en los que pequeñas modificaciones en las entradas de datos podrían "engañarles de manera que ningún ser humano se dejaría engañar".

Las preocupaciones sobre los robots asesinos también están comenzando a afectar su adquisición y desarrollo militar: planificadores de defensa cada vez más inquietos se están volviendo reacios a presupuestar millones de dólares para sistemas de armas autónomos que podrían estar prohibidos incluso antes de su construcción. En 2019, por ejemplo, una importante asociación de la industria alemana compuesta por empresas y contratistas de defensa, incluido Rheinmetall, hizo un llamamiento al gobierno para que elabore un nuevo tratado para prohibir los robots asesinos.

Esto muestra cómo la regulación a través de un nuevo tratado es la forma más efectiva de abordar la creciente incertidumbre sobre lo que es aceptable y no lo es con respecto a los sistemas cada vez más complejos de armas autónomas.

Con la presión del público, los llamamientos por un nuevo tratado para prohibir los robots asesinos pronto se volverán demasiado abrumadores como para que los poderes militares los puedan contener en el foro debilitado del CCW. Lo invitamos a que no se limite a seguir atento a este espacio: únase a la Campaña para detener a los robots asesinos y exija un tratado que los prohíba ya.

Comentarios


OTRA INFORMACIÓN ES POSIBLE

Información internacional, derechos humanos, cultura, minorías, mujer, infancia, ecología, ciencia y comunicación

elmercuriodigital.es se edita bajo licencia de Creative Commons
©Desde 2002 en internet
Otra información es posible