Deepfakes y guerra informativa: cuando la evidencia deja de ser evidencia
Deepfakes y guerra informativa: cuando la evidencia deja de ser evidencia
Hernán Olmedo
Hernán Olmedo
Abogado y docente en Derecho Internacional
Políticas de Transparencia Milenio
Miércoles 28 de enero de 2026 | 20:21

Nota: Este resumen fue generado por una herramienta de inteligencia artificial y revisado por el editor y el autor de este artículo.

La columna analiza cómo los deepfakes y la IA generativa transforman la guerra informativa: un video ya no prueba un hecho por sí solo y la viralidad puede empujar decisiones antes de la verificación. Explica el impacto jurídico en prueba y debido proceso (autenticidad, cadena de custodia y procedencia) y el desafío internacional de la atribución y la responsabilidad. Propone una salida institucional: estándares verificables de procedencia, protocolos de verificación en crisis, transparencia de plataformas y alfabetización pública. Cierra planteando el debate central: qué reglas mínimas se necesitan para que la confianza pública no sea rehén de la falsificación barata.

La IA volvió barata la falsificación audiovisual. En política y conflictos, un video ya no prueba nada por sí solo: puede encender una escalada o destruir una reputación. El desafío no es tecnológico, es institucional: autenticidad, atribución, responsabilidad y reglas para que “lo vi” no sea el principio del caos.

Durante décadas hubo un pacto tácito: si hay video, algo pasó. Ese pacto se está rompiendo. La IA volvió barata la falsificación audiovisual y, cuando falsificar cuesta poco, la verdad se vuelve un bien escaso.

La evidencia bajo asedio

El problema no es solo que existan deepfakes. Lo más grave es el efecto político: la evidencia deja de ser evidencia. Y si “ver” ya no prueba, la discusión pública se vuelve una carrera de velocidad: gana el que impone el relato primero.

La nueva arma no es el misil: es la credibilidad

Un deepfake no necesita convencer a todos. Le basta con activar emociones en una porción crítica: indignación, miedo, urgencia. En una elección puede torcer la agenda en horas. En una crisis internacional puede empujar decisiones antes de que llegue la verificación.

Y aparece un fenómeno todavía más tóxico: el “dividendo del mentiroso”. Si todo puede falsificarse, el culpable real se esconde detrás de una frase perfecta: “es IA, es un montaje”. La tecnología no solo fabrica mentiras: también fabrica coartadas.

El problema jurídico: “lo vi” ya no alcanza

Esto no es un debate de redes. Es un problema duro de derecho y procedimiento: ¿qué vale como prueba? ¿cómo protegés el debido proceso si un audio o video puede ser sintético y verosímil?

En adelante, el estándar no puede ser “se ve real”. Tiene que ser procedencia: quién lo capturó, cómo se almacenó, qué metadatos tiene, si hay edición, si hay trazabilidad.

De la indignación a los estándares verificables

La salida no es moralina ni censura, porque ninguna de las dos escala. La salida es institucional y técnica a la vez. Cuatro pilares:

  1. Provenance como infraestructura: que el contenido auténtico pueda probar que lo es (no por confianza, sino por evidencia técnica).
  2. Protocolos de verificación en crisis: medios, gobiernos y organismos deberían tener rutinas claras antes de amplificar material sensible. En el mundo deepfake, “publicar primero” es gasolina.
  3. Responsabilidad y transparencia de plataformas: trazabilidad mínima, etiquetado, archivo, respuesta rápida ante material sintético dañino. No para silenciar debates; para que no gobierne el fraude.
  4. Alfabetización pública: una regla simple y civilizatoria: “lo vi” ya no basta. Dudar de forma crítica no es cinismo; es defensa democrática.

No es tecnología, es poder

La pregunta no es si la IA va a generar falsificaciones. Ya lo hace. La pregunta es si vamos a permitir que el espacio público funcione sin estándares de autenticidad.

Porque si cualquier video puede ser arma, la política se vuelve un teatro de operaciones. Y si la evidencia deja de ser evidencia, el derecho pierde su base: decidir con hechos.

La discusión que viene y rápido es ésta: qué reglas mínimas vamos a exigir para que la IA no convierta la confianza pública en un recurso agotable. Y ahí no se juega solo el futuro de la tecnología: se juega la posibilidad de discutir en común sin que la mentira llegue primero.

Fuentes Consultadas:

  • ONU - Our Common Agenda: Policy Brief 8 - Information Integrity on Digital Platforms.
  • NIST — NIST AI 100-4: Reducing Risks Posed by Synthetic Content.
  • C2PA — Content Credentials / C2PA Specifications (estándar de procedencia/provenance).
  • UNESCO — Deepfakes and the crisis of knowing.
Compartir:

Comentarios (0)

Inicia sesión para comentar

Iniciar Sesión

No hay comentarios. ¡Sé el primero en comentar!

Más en Columnas de Opinión

Artículos relacionados

Más leídas (últimas 48 horas)