IA en la guerra: cuando el sistema sugiere, ¿quién responde?
IA en la guerra: cuando el sistema sugiere, ¿quién responde?
Hernán Olmedo
Hernán Olmedo
Abogado y docente en Derecho Internacional
Políticas de Transparencia Milenio
Jueves 22 de enero de 2026 | 19:27

La IA ya influye en decisiones militares: filtra inteligencia, prioriza señales y recomienda objetivos. El problema no es si “funciona”, sino qué pasa con los límites: distinguir civiles, medir proporcionalidad y actuar con precauciones. La tecnología no puede cargar culpas: la responsabilidad siempre es humana e institucional.

Durante años la guerra se explicó con palabras viejas: tropas, frentes, misiles. Hoy aparece un lenguaje nuevo: “modelo”, “predicción”, “score”, “priorización de objetivos”. La Inteligencia Artificial ya participa directa o indirectamente en el ciclo de decisión militar: ordena información, sugiere cursos de acción, acelera tiempos. Y ahí está el riesgo: cuando todo se acelera, la tentación es delegar.

En conflicto armado, sin embargo, el Derecho no se negocia. El Derecho Internacional Humanitario exige tres cosas simples de entender, difíciles de cumplir: distinguir civiles de combatientes, evitar daños desproporcionados y actuar con precauciones reales (verificar, reducir riesgos, elegir medios menos dañinos). El Comité Internacional de la Cruz Roja (CICR) insiste hace años en que estas obligaciones no pueden diluirse por el solo hecho de usar tecnología: si un sistema vuelve más rápida la decisión, la obligación de control no desaparece; se vuelve más exigente.

El problema no es “la IA es mala”. El problema es cómo la usamos

Hay dos fallas típicas.

La primera es la obediencia automática a la máquina. En inglés se la llama automation bias, pero en criollo es esto: cuando el sistema recomienda algo, el humano tiende a creerle más de la cuenta, sobre todo si hay presión de tiempo. No es maldad; es psicología. Y en guerra, la psicología se vuelve consecuencias.

Ejemplo 1 (ilustrativo)

Un sistema procesa miles de señales y devuelve un “puntaje” de amenaza: una camioneta, una antena, un patrón de movimiento. El modelo sugiere “objetivo probable”. El mando, apurado, aprueba en minutos. Después aparece lo que el algoritmo no vio: datos desactualizados, un patrón civil que se parecía a uno militar, o una verificación incompleta. La tragedia no es “se equivocó el algoritmo”. La tragedia es el fallo de supervisión humana: se bajó el estándar de precauciones y verificación porque “lo dijo el sistema”.

La segunda falla es el sesgo de origen: el sistema aprende de datos. Si esos datos están incompletos, contaminados o reflejan prejuicios, el modelo reproduce ese error a escala. A esto se le suele decir “sesgo de entrenamiento”, pero, de nuevo, en criollo es simple: si al sistema le enseñás con una foto distorsionada de la realidad, va a decidir con esa distorsión.

Ejemplo 2 (ilustrativo)

Si el entrenamiento “marca” ciertas zonas como “siempre sospechosas” por históricos sesgados, el sistema tenderá a ver amenazas donde quizá solo hay vida civil. Esa es la idea de una “guerra estadística”: no como término oficial, sino como imagen para entender un riesgo. No es que la guerra se haga con números; es que los números mal construidos pueden empujar decisiones letales repetidas sobre los mismos lugares y personas.

Por eso el debate global sobre autonomía no es ciencia ficción. En el marco de la Convención sobre Ciertas Armas Convencionales (CCW) se discute hace tiempo cuánto margen de autonomía se tolera en sistemas de armas y qué significa “control humano”. La idea que ordena el debate serio es clara: control humano significativo. No como eslogan, sino como regla práctica: que exista una persona identificable responsable, que haya posibilidad real de abortar, que se pueda explicar por qué se eligió un objetivo y que queden registros auditables.

La IA no puede ser culpable. No tiene intención jurídica, no puede reparar, no puede rendir cuentas. La responsabilidad siempre aterriza en personas e instituciones: el Estado que usa el sistema, la cadena de mando que lo autoriza, los operadores que ejecutan y los controles que se omitieron. Incluso antes del uso, el Derecho ya pide prevención: revisar legalmente nuevos medios y métodos (la lógica del art. 36 del Protocolo I) para no probar “en vivo” lo que debió evaluarse antes.

La discusión, entonces, no es si la IA va a estar en la guerra (ya está). La discusión es qué estándares le ponemos: trazabilidad, auditorías, límites de autonomía, exigencias de explicación, y control humano real. Y esa discusión no es solo técnica: es política, jurídica y ética.

La pregunta final no es apocalíptica, es práctica: ¿vamos a exigir reglas verificables antes de que la velocidad decida por nosotros, o vamos a aceptar que “lo dijo el sistema” se convierta en excusa? En ese debate se juega algo más que innovación: se juega la posibilidad de que incluso en guerra siga existiendo un límite.

Fuentes de información:

-Carta de las Naciones Unidas (uso de la fuerza y excepciones).
-Protocolo Adicional I (art. 36: revisión legal de armas/métodos).
-CICR: principios y obligaciones del DIH (distinción, proporcionalidad, precauciones).
-CCW: debates sobre sistemas de armas autónomas (LAWS) y control humano.

Etiquetas:

Compartir:

Comentarios (0)

Inicia sesión para comentar

Iniciar Sesión

No hay comentarios. ¡Sé el primero en comentar!

Más en Columnas de Opinión

Artículos relacionados

Más leídas (últimas 48 horas)