Google informó que actores de amenazas vinculados a Estados utilizaron su modelo de inteligencia artificial Gemini para asistir en distintas fases de operaciones de ciberataque. La revelación surge de un reporte del Google Threat Intelligence Group (GTIG), que analizó patrones de uso indebido de la herramienta.
Según la compañía, los grupos identificados mantienen vínculos con gobiernos de China, Rusia, Corea del Norte e Irán. El uso de Gemini no implicó la creación de nuevas metodologías de intrusión, sino la optimización de procesos que estos actores ya desarrollaban previamente.
El informe detalla que la IA fue empleada para tareas de reconocimiento de objetivos, recopilación y síntesis de información de fuentes abiertas, redacción de señuelos para campañas de phishing, traducción y corrección de textos para mejorar credibilidad, así como asistencia en programación y análisis de vulnerabilidades.
En el caso de Corea del Norte, Google señaló actividad asociada al grupo identificado como UNC2970, que habría utilizado la herramienta para perfilar potenciales objetivos en sectores estratégicos, incluidos defensa y seguridad. En cuanto a China, se mencionó la actividad del grupo conocido como APT31, también denominado Violet Typhoon, que habría recurrido a Gemini para apoyo técnico en análisis de fallas de software y planificación operativa.
De acuerdo con el reporte, la inteligencia artificial actuó como un acelerador: permitió reducir tiempos de investigación, estructurar información con mayor rapidez y automatizar partes del proceso de preparación de ataques. Sin embargo, Google indicó que no hay evidencia pública de que Gemini haya sido el factor determinante en ataques exitosos ni que haya generado técnicas inéditas.
La empresa sostuvo que, tras detectar estos usos indebidos, procedió a deshabilitar cuentas y bloquear infraestructura asociada a la actividad maliciosa. También afirmó haber reforzado sus mecanismos de monitoreo para identificar patrones de abuso y limitar el acceso cuando se detectan violaciones a sus políticas.
El caso se inscribe en un debate más amplio sobre el impacto de los modelos de inteligencia artificial generativa en la seguridad digital. Especialistas en ciberseguridad advierten que estas herramientas pueden facilitar la automatización de tareas técnicas, mejorar la calidad lingüística de campañas de ingeniería social y reducir barreras de entrada para actores con menor nivel técnico.
Al mismo tiempo, empresas tecnológicas sostienen que los modelos también se emplean para fortalecer defensas, detectar amenazas y automatizar respuestas ante incidentes. El informe de Google no sugiere un cambio estructural en el ecosistema de amenazas, pero confirma que actores estatales están experimentando con IA generativa como parte de su arsenal operativo.



