Asesinatos indiscriminados por el auge de la guerra de algoritmos

Inés M. Pousadela[1]

Máquinas sin conciencia están tomando decisiones en fracciones de segundo sobre quién vive y quién muere. No se trata de una ficción distópica, sino de la realidad actual. En Gaza, por ejemplo, los algoritmos han generado listas de objetivos a eliminar con hasta 37.000 nombres.

Drones-militares-©123RF-scaled-e1765999285865-900x480 Asesinatos indiscriminados por el auge de la guerra de algoritmos

Las armas autónomas también se están utilizando en Ucrania y se exhibieron recientemente en un desfile militar en China. Los Estados compiten por integrarlas en sus arsenales, convencidos de que mantendrán el control. Si se equivocan, las consecuencias podrían ser catastróficas.

A diferencia de los drones pilotados a distancia, en los que un operador humano aprieta el gatillo, las armas autónomas toman decisiones letales. Una vez activadas, procesan los datos de los sensores (reconocimiento facial, firmas térmicas, patrones de movimiento) para identificar perfiles de objetivos preprogramados y disparan automáticamente cuando encuentran una coincidencia.

Actúan sin vacilar, sin reflexión moral y sin comprender el valor de la vida humana.

La velocidad y la falta de vacilación dan a los sistemas autónomos el potencial de intensificar rápidamente los conflictos. Y como funcionan sobre la base del reconocimiento de patrones y las probabilidades estadísticas, conllevan un enorme potencial de errores letales.

El ataque de Israel a Gaza ha ofrecido un primer atisbo de genocidio asistido por la inteligencia artificial (IA).

El ejército israelí ha desplegado múltiples sistemas algorítmicos de selección de objetivos: utiliza Lavender y The Gospel para identificar a presuntos militantes de la milicia Hamás y generar listas de objetivos humanos e infraestructuras que bombardear, y Where’s Daddy para rastrear a los objetivos y matarlos cuando están en casa con sus familias.

Los responsables de inteligencia israelíes han reconocido una tasa de error de alrededor de diez por ciento, pero simplemente la han asumido, considerando aceptables entre quince y veinte muertes de civiles por cada militante subalterno que identifica el algoritmo y más de cien por cada comandante.

La despersonalización de la violencia también crea un vacío de responsabilidad.

Cuando un algoritmo mata a la persona equivocada, ¿Quién es el responsable? ¿El programador? ¿El oficial al mando? ¿El político que autorizó su despliegue? La incertidumbre jurídica es una característica inherente que protege a los autores de las consecuencias.

A medida que las máquinas toman decisiones sobre la vida y la muerte, la idea misma de responsabilidad se desvanece.

Estas preocupaciones surgen en un contexto más amplio de alarma por el impacto de la IA en el espacio cívico y los derechos humanos. A medida que la tecnología se abarata, se está extendiendo a todos los ámbitos, desde los campos de batalla hasta el control de fronteras y las operaciones policiales.

Las tecnologías de reconocimiento facial basadas en la IA están ampliando las capacidades de vigilancia y socavando los derechos de privacidad. Los sesgos incorporados en los algoritmos perpetúan la exclusión por motivos de género, raza y otras características.

Según la tecnología se ha desarrollado, la comunidad internacional ha pasado más de una década debatiendo sobre las armas autónomas sin producir una normativa vinculante.

Desde 2013, cuando los Estados que han adoptado la Convención de las Naciones Unidas sobre ciertas armas convencionales acordaron iniciar las conversaciones, pero los avances han sido muy lentos.

El Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomas Letales se ha reunido periódicamente desde 2017, pero las conversaciones se han visto sistemáticamente bloqueadas por las principales potencias militares —Estados Unidos, India, Israel y Rusia— que se han aprovechado del requisito de alcanzar un consenso para bloquear sistemáticamente las propuestas de regulación.

En septiembre 2025, 42 Estados emitieron una declaración conjunta en la que afirmaban su disposición a seguir adelante. Fue un gran avance tras años de estancamiento, pero los principales detractores mantienen su oposición.

Para sortear este obstáculo, la Asamblea General de las Naciones Unidas ha tomado cartas en el asunto.

En diciembre de 2023, aprobó la Resolución 78/241, la primera sobre armas autónomas, con 152 votos a favor. En diciembre de 2024, la Resolución 79/62 ordenó la celebración de consultas entre los Estados miembros, que tuvieron lugar en Nueva York en mayo de 2025.

En estos debates se analizaron los dilemas éticos, las implicaciones para los derechos humanos, las amenazas para la seguridad y los riesgos tecnológicos. El secretario general de las Naciones Unidas, el Comité Internacional de la Cruz Roja y numerosas organizaciones de la sociedad civil han pedido que las negociaciones concluyan en 2026, dado el rápido desarrollo de la IA militar.

La Campaña para Detener a los Robots Asesinos, una coalición de más de 270 grupos de la sociedad civil de más de setenta países, ha liderado la iniciativa desde 2012.

A través de una labor sostenida de promoción e investigación, la campaña ha dado forma al debate, abogando por un enfoque de dos niveles que actualmente cuenta con el apoyo de más de 120 Estados.

Este enfoque combina la prohibición de los sistemas más peligrosos —los que apuntan directamente a seres humanos, operan sin un control humano significativo o cuyos efectos no pueden predecirse adecuadamente— con una regulación estricta de todos los demás.

Los sistemas no prohibidos solo se permitirían bajo restricciones estrictas que exigirían supervisión humana, previsibilidad y una responsabilidad clara, incluyendo límites en los tipos de objetivos, restricciones de tiempo y ubicación, pruebas obligatorias y requisitos de supervisión humana con capacidad de intervención.

Si se quiere cumplir el plazo, la comunidad internacional solo tiene un año para concluir un tratado que una década de negociaciones no ha logrado producir. Con cada mes que pasa, los sistemas de armas autónomas se vuelven más sofisticados, se despliegan más ampliamente y se integran más profundamente en la doctrina militar.

Una vez que las armas autónomas se generalicen y se normalice la idea de que las máquinas decidan quién vive y quién muere, será mucho más difícil imponer regulaciones.

Los Estados deben negociar urgentemente un tratado que prohíba los sistemas de armas autónomos que apunten directamente a seres humanos u operen sin un control humano significativo, y que establezca mecanismos claros de rendición de cuentas por las violaciones.

La tecnología no se puede desinventar, pero todavía se puede controlar.

  1. Inés M. Pousadela es especialista sénior en Investigación de Civicus, codirectora y redactora de Civicus Lens y coautora del Informe sobre el Estado de la Sociedad Civil de la organización.
  2. Artículo difundido por la IPS
editor
Los editores de Periodistas en Español valoran las informaciones y artículos recibidos en la redacción con criterios profesionales y tienen la obligación de cumplir y hacer cumplir las normas deontológicas que deben suscribir todos los colaboradores.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí
Captcha verification failed!
La puntuación de usuario de captcha falló. ¡por favor contáctenos!

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.