Guerra informativa 2025: IA, X y Telegram cambian las reglas del juego

La Virtual Manipulation Brief 2025, publicada por el NATO Strategic Communications Centre of Excellence, supone un salto metodológico al analizar 11 millones de mensajes en diez plataformas (X, Telegram, YouTube, VK, OK, Facebook, Instagram, TikTok, Bluesky y Threads). El informe revela que sólo el 7,9 % de todas las interacciones muestran signos de coordinación estadística, pero estas “ráfagas” de publicaciones están mayoritariamente alineadas con el Kremlin y se sincronizan hasta tres veces más que las pro-occidentales.

El estudio describe una arquitectura de dos niveles: en las redes abiertas occidentales (X, Bluesky) el 98 % de las cuentas se limitan a republicar (amplificación), mientras que en Telegram y en los foros rusos hay más creadores de contenido y comentarios, donde se cultivan las narrativas. Los eventos geopolíticos marcan picos de actividad: el informe identifica fases como Traditional‑Values Defender (junio 2024), Globalist Plot Alarm (julio), NATO Aggression Spin (septiembre) y Proxy-War Allegations (febrero 2025), cada una cargada de conspiraciones y nacionalismo. En estas fases, los mensajes pro‑Kremlin se difunden primero en X y luego saltan a Telegram, Instagram, Facebook, VK o YouTube, coordinando retuits y reenvíos para evadir moderación.

La IA emerge como arma y escudo. El informe destaca que la IA ya no es emergente sino central en la estrategia: se usa para automatizar distribución, generar contenidos sintéticos y crear personajes creíbles. De esta forma se otorga un “poder asimétrico” que permite a actores pequeños influir en audiencias globales.A la vez, modelos multimodales mejoran la detección y el contra-análisis. Se observa un creciente uso de deepfakes y vídeos manipulados, desde sermones religiosos generados por IA hasta imágenes falsas del “Regimiento Inmortal” en Berlín, que se viralizan y luego son desmentidas. La revisión de políticas como la etiqueta de cuentas parodia en X indica que las plataformas intentan atajar la confusión, pero el éxito es incierto.

El informe concluye que las narrativas pro‑rusa y pro‑china convergen y se alinean para erosionar la credibilidad de la OTAN. Advierte que los actores hostiles utilizarán futuros protocolos de interoperabilidad entre agentes (MCP, A2A, ACP) para orquestar enjambres de IA generativa, capaces de generar y amplificar contenido en segundos. Las recomendaciones subrayan la necesidad de monitorizar dinámicas específicas de cada plataforma, desarrollar contra-narrativas coordinadas, estudiar redes pro‑rusa y pro‑china y crear mapas de narrativas con capacidad de respuesta rápida. En síntesis, la guerra informativa se está volviendo autónoma y distribuida; los comités de dirección deben anticipar y gobernar esta realidad, no solo reaccionar ante ella.

Como siempre, no es un simple informe sino una oportunidad de trabajar para la preparación del comité, pudiendo generar: mapa de narrativas, célula de respuesta rápida, métricas de coordinación, ensayos trimestrales y guardarraíles de IA.

1) Por qué importa y qué decide el comité

El informe demuestra que la manipulación virtual ya es una competencia estratégica que afecta a la reputación, la seguridad y las decisiones de inversión. La expansión a 10 plataformas y la automatización con IA implican que un pequeño actor puede orquestar campañas globales. La pregunta para el comité no es si nos afectará, sino cuándo y cómo reaccionar. Debemos fijar apetito de riesgo frente a desinformación, integrar la gobernanza de IA en la estrategia y coordinar roles entre riesgo, comunicación, ciberseguridad y legal.

2) Tendencias clave

Automatización y escalabilidad con IA. Generadores de texto, imagen y vídeo permiten crear contenido casi indistinguible de la realidad. El mismo informe generó ~15 % de su código con IA. Esto democratiza la influencia y acelera las campañas. El comité debe entender que las barreras técnicas se desploman; cualquier actor con acceso a modelos puede lanzar ataques de reputación.

Convergencia narrativas Rusia–China. Las campañas pro‑rusas y pro‑chinas se refuerzan: la retórica de “Guerra Fría” y “club exclusivo” se repite para justificar la expansión de la OTAN en Asia. China adopta tácticas rusas, combinando mensajes oficiales serenos con operaciones encubiertas más emocionales. Para las empresas internacionales, esto significa que la narrativa geopolítica afecta al riesgo reputacional y a las operaciones en Asia-Pacífico.

Arquitectura de dos niveles. En X y redes occidentales casi todo son republicaciones, creando un enjambre que esquiva la moderación. En Telegram y plataformas rusas se gestan los marcos narrativos y se polarizan audiencias. Entender esta dinámica ayuda a priorizar esfuerzos de monitoreo y respuesta.

IA ética vs. IA hostil. El informe alerta sobre la paradoja ética: la misma tecnología que potencia campañas hostiles permite mejorar la verificación y la educación digital. La clave está en la transparencia (etiquetar contenido generado), el diseño contextualizado y la gobernanza human-in-the-loop. Los comités deben exigir esto a proveedores tecnológicos.

Efecto político de eventos. Las elecciones estadounidenses de 2024 multiplicaron por 39 las menciones de negociación y polarizaron los mensajes: antes del 5 de noviembre el 1,2 % de mensajes eran pro‑Kremlin, después subieron al 3 % y las acusaciones de fraude y inminente catástrofe se dispararon. La mención de personalidades como Elon Musk se utiliza de forma oportunista para amplificar narrativas.

3) Riesgos con “señal roja” (selección ejecutiva)

  • Desinformación coordinada: Ráfagas sincronizadas que generan la ilusión de consenso. Debilitan la confianza del público, erosionan la reputación de la empresa y pueden influir en mercados y decisiones políticas.

  • IA generativa hostil: Deepfakes, sermones y artículos generados que atacan la reputación o manipulan emociones.

  • Crisis de credibilidad: La dificultad de distinguir realidad de ficción provoca nihilismo informativo. esta situación puede llevar a que clientes y empleados dejen de confiar en cualquier fuente oficial.

  • Explotación de personalidades y acontecimientos: Se usan figuras como Musk o eventos como elecciones para viralizar narrativas (antes y después de 2024).

  • Alianzas pro‑rusa y pro‑china: La convergencia de mensajes multiplica el alcance y la legitimidad aparente.

4) 10 decisiones de comité (mandato 2025)

  1. Apetito de riesgo reputacional y ciber: definir umbrales de tolerancia ante campañas de desinformación y su impacto en clientes, empleados y reguladores.

  2. Programa de IA responsable: exigir transparencia en modelos, etiquetas de contenido generado y revisión humana.

  3. Mapeo de redes y narrativas: crear un escenario de narrative mapping y vigilar picos de actividad en cada plataforma; priorizar las 2–3 plataformas donde nuestro sector sea más vulnerable.

  4. Plan de respuesta a crisis de desinformación: protocolos RACI para comunicación, ciber, legal y negocio; portavoces entrenados y simulacros.

  5. Capacidad de monitorización automatizada: implantar sistemas que detecten ráfagas coordinadas, deepfakes y tendencias en tiempo real.

  6. Gestión de proveedores y partners: incluir cláusulas de integridad informativa y requerir SBOM/VEX para herramientas de IA.

  7. Protección de líderes y marcas: monitorizar menciones de ejecutivos y marcas clave; plan de actuación ante campañas dirigidas.

  8. Educación y resiliencia interna: programas de concienciación sobre desinformación y uso seguro de redes sociales; crear pares sombra en equipos de comunicación.

  9. Participación en iniciativas sectoriales: colaborar con asociaciones y agencias nacionales para compartir inteligencia y buenas prácticas.

  10. Inversión en verificación y autenticidad: explorar soluciones de verificación de identidad, firma digital y watermarking para contenidos propios.

5) KRIs ejecutivos (dashboard)

  • % de menciones coordinadas sobre nuestra marca/sector en las principales plataformas.

  • Tiempo de detección de una ráfaga desde su inicio (objetivo: < 2 h).

  • Ratio de desmentidos: número de narrativas desmentidas públicamente / total de narrativas hostiles.

  • Cobertura de IA responsable: % de contenidos propios etiquetados con generador/autoría.

  • Nivel de credibilidad (sondeo interno/externo): confianza en comunicaciones de la empresa.

  • Dependencia de plataformas: porcentaje de engagement proveniente de cada red; alto grado de dependencia aumenta vulnerabilidad.

6) Plan de 90 días

  • Semanas 1–2: elaborar un mapa de actores y narrativas relevantes para nuestro sector; identificar indicadores de alerta (volumen de menciones, hashtags, tono).

  • Semanas 3–6: implementar herramientas de monitorización e IA responsable; seleccionar proveedores y establecer KPIs de detección.

  • Semanas 7–10: ejecutar un table‑top de crisis de desinformación; simular un ataque coordinado en redes; medir tiempos de respuesta y calidad de mensajes.

  • Semanas 11–13: definir acuerdos con agencias externas y sectoriales; lanzar campaña interna de concienciación; fijar propuesta de inversión 2025–26 en monitorización y educación.

7) Notas de prudencia

  • Anonimiza fuentes internas y clientes; nunca publiques datos sensibles.

  • No prometas inmunidad: habla de reducción de riesgo.

  • Verifica la legalidad de cualquier medida (especialmente en protección de datos y derechos digitales) antes de implementarla.

Puedes acceder al informes en: Virtual Manipulation Brief 2025.

Más información en: https://stratcomcoe.org/ o en https://ethicai.net/ai-and-virtual-manipulation-in-security-and-defence#:~:text=Artificial%20intelligence%20,targeting%20NATO%20and%20its%20partners

Si te ha gustado puedes valorar la intervención aquí: 1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Cargando...

Descubre más desde El Sentido de la Seguridad

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja una respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.