En diciembre de 2024, Rumanía anuló sus elecciones presidenciales. Un candidato prácticamente desconocido, Călin Georgescu, ganó la primera ronda con el 23 % de los votos tras una campaña operada casi exclusivamente desde TikTok. Los servicios de inteligencia rumanos desclasificaron documentos que describían una operación coordinada: cuentas falsas, amplificación algorítmica e influencers pagados desde 100 dólares por publicar vídeos de apoyo sin nombrarle directamente.
Un país de la Unión Europea anuló unas elecciones democráticas por una operación digital. No se disparó un tiro. Un año después, en 2025, la NATO Science & Technology Organization (STO) publica dos informes del Chief Scientist que le ponen nombre a lo que ocurrió en Rumanía: guerra cognitiva y resuliencia.
Qué es la guerra cognitiva y por qué no es propaganda
La NATO STO define la guerra cognitiva como el uso de conocimiento, estrategias y herramientas disponibles para impactar el comportamiento humano a través de la cognición, con el objetivo de manipular y alterar la toma de decisiones. Esa definición aparece en el informe del Chief Scientist publicado en 2025, elaborado por la doctora Janet Blatny y basado en 20 actividades de investigación con más de 200 expertos de 26 naciones aliadas.
La diferencia con la propaganda clásica es fundamental. La propaganda busca cambiar qué piensas. La guerra cognitiva busca degradar cómo piensas. No necesita que le creas. Necesita que no sepas qué creer. Su objetivo es saturar, confundir, polarizar y paralizar tu capacidad de decidir.
No es un dominio militar separado. Es lo que la NATO denomina una dimensión transversal de efectos: cruza todos los dominios, opera por debajo del umbral del conflicto armado y funciona de forma continua. Desde 2022, el NATO Science & Technology Board la reconoció como desafío estratégico de investigación. De las 20 actividades lanzadas, 14 son clasificadas. Lo que la NATO sabe sobre guerra cognitiva es, en su mayor parte, información que no comparte.
Cómo atacan tu forma de decidir
En 1976, el coronel John Boyd, piloto de combate de la Fuerza Aérea de Estados Unidos, observó que en un combate aéreo no ganaba el avión más rápido. Ganaba el piloto que recorría más rápido un ciclo de cuatro pasos: observar, orientarse, decidir y actuar. Lo llamó el ciclo OODA. Hoy se utiliza en doctrina de defensa, estrategia empresarial y gestión de crisis.
La guerra cognitiva ataca cada fase de ese ciclo:
- Observar. Contamina lo que ves: desinformación, deepfakes, bots que amplifican contenidos falsos.
- Orientarte. Distorsiona cómo interpretas: polarización deliberada, algoritmos que refuerzan tus sesgos.
- Decidir. Paraliza tu decisión: saturación informativa, versiones contradictorias simultáneas.
- Actuar. Condiciona tu acción: presión social en redes, incentivos emocionales para actuar sin reflexión.
Cuando la desinformación agrava una emergencia real
En octubre de 2024, una DANA devastó el este y sur de España, causando más de 200 muertos. Mientras los equipos de emergencia trabajaban, una segunda oleada golpeaba desde las pantallas: Maldita.es documentó 133 bulos y desinformaciones entre octubre y noviembre. Un estudio de la investigadores de la Universitat Politècnica de València y la Universidad Internacional de Valencia, en Revista Mediterránea de Comunicación, elevó la cifra a 192 bulos, el 75 % difundidos por redes sociales.
Un dato revelador: el 28 % de los bulos se originó en entornos periodísticos profesionales. No solo fueron trolls anónimos.
Lo que ocurrió durante la DANA es un ejemplo de ciclo OODA colectivo comprometido en tiempo real. La desinformación no causó la DANA, pero agravó la emergencia y socavó la confianza institucional. Exactamente lo que la guerra cognitiva busca hacer.
Las democracias como superficie de ataque
Las libertades que definen a las democracias son los mismos canales que explotan los adversarios. Libertad de expresión, prensa libre, acceso digital abierto: todo eso son vectores de entrada para la manipulación cognitiva. El informe de la NATO lo dice textualmente.
Las operaciones documentadas lo demuestran. Storm-1679, la red rusa expuesta por Reality Defender en 2025, suplantó a ABC News, BBC y Politico con voces generadas por IA que imitaban a Tom Cruise y periodistas conocidos para difundir narrativas falsas sobre Ucrania. CopyCop, documentada por Recorded Future y EU DisinfoLab, creó más de 200 webs falsas que suplantaban medios en múltiples idiomas. En Armenia, Rusia escala una campaña de manipulación de cara a las elecciones de 2026 utilizando bots, deepfakes y webs de suplantación.
España no es ajena. El Departamento de Seguridad Nacional sitúa las campañas de desinformación como uno de los riesgos más relevantes para la seguridad nacional. El Consejo de Seguridad Nacional aprobó en enero de 2025 el procedimiento para elaborar una Estrategia Nacional contra las Campañas de Desinformación, publicado en el BOE en marzo de 2025.
El informe de la NATO lo resume:
«La confianza pública en la ciencia, las instituciones y los gobiernos se está fragmentando, a medida que los aliados de la NATO experimentan campañas malignas destinadas a influir en la opinión pública a través de la propaganda y la desinformación, incluyendo la interferencia electoral.»
La inteligencia artificial como multiplicador
La IA generativa ha cambiado la ecuación. Un sistema de síntesis de voz clona una voz con 3 segundos de audio y logra un 85 % de coincidencia, según investigadores de McAfee. Un generador de vídeo produce un deepfake convincente en minutos. Os dejo un post de un amigo que lo explica a la perfección aquí. Lo que antes requería un equipo y un presupuesto ahora requiere un portátil.
Los números: según DeepStrike, se proyectan ocho millones de archivos deepfake en 2025, frente a 500.000 en 2023 (presentarlo como proyección de un proveedor). Crecimiento del 900 % anual. Y según un estudio de iProov de 2025, solo el 0,1 % de los participantes identificó correctamente todos los contenidos falsos y reales.
Los casos corporativos documentados lo confirman. En enero de 2024, un empleado del departamento de finanzas de la oficina de Arup en Hong Kong transfirió 25,6 millones de dólares a estafadores tras participar en una videollamada en la que todos los demás participantes, incluyendo al CFO y varios colegas, eran deepfakes generados por IA. En marzo de 2025, en Singapur, un director financiero autorizó una transferencia de 499.000 dólares tras una videollamada con directivos que eran todos deepfakes. En Italia, criminales clonaron la voz del ministro de Defensa, Guido Crosetto, mediante llamadas telefónicas generadas con IA, y contactaron a empresarios como Giorgio Armani y Massimo Moratti alegando que necesitaban fondos para liberar periodistas secuestrados. Moratti transfirió un millón de euros.
En total, el fraude mediante deepfakes drenó 1.100 millones de dólares de cuentas corporativas estadounidenses en 2025, triplicando los 360 millones del año anterior. Se reportan campañas a gran escalas con objetivo de fraude por suplantación de CEO.
Resiliencia: la salida que existe
Ante un panorama que puede resultar abrumador, el segundo informe del Chief Scientist ofrece la clave: la resiliencia.
La NATO la define como la capacidad individual y colectiva para prepararse, resistir, responder y recuperarse de perturbaciones. El informe de guerra cognitiva identifica 3 funciones de respuesta: degradar las capacidades del adversario, mejorar la cognición humana y tecnológica, y resistir y recuperar el rendimiento.
Ucrania ofrece la lección concreta. Años de exposición a campañas de desinformación rusas entrenaron a la sociedad ucraniana. Cuando llegó la invasión de 2022, demostró una capacidad notable para identificar desinformación y mantener la cohesión social. Medios independientes, alfabetización digital y un gobierno que comunicó con transparencia fueron tan importantes como los sistemas de armas.
La resiliencia se entrena. No se nace resiliente, se construye.
Qué puedes hacer
- Si diriges una organización, la desinformación es un riesgo operativo real que probablemente no tienes en tu mapa de riesgos. Pregunta a tu equipo de seguridad si contempla la dimensión cognitiva. Si la respuesta es no, tienes un flanco abierto.
- Si trabajas en seguridad, tu marco de protección debería tener tres dimensiones: física, lógica y cognitiva. La mayoría de las organizaciones cubren las dos primeras. La tercera rara vez existe como disciplina formalizada.
- Si eres ciudadano, tu higiene cognitiva es un acto de defensa. Verificar antes de compartir. Resistir la indignación inmediata. Tolerar la incertidumbre antes que abrazar una certeza falsa. Preguntarte quién se beneficia de que sientas lo que estás sintiendo.
La guerra cognitiva es real, ya está aquí, y la primera línea de defensa no es un sistema de armas ni un firewall. Eres tú.
La próxima vez que algo te indigne en redes sociales, antes de reaccionar, hazte una pregunta:
¿estoy decidiendo yo, o están decidiendo por mí?
Fuentes:
- NATO STO, Cognitive Warfare — Chief Scientist Research Report, Dr. Janet Blatny (2025)
- NATO STO, Resilience — Chief Scientist Research Report, Dr. Janet Blatny (2025)
- Army Cyber Institute, West Point, Invisible Force: Information Warfare (2024)
- Tribunal Constitucional de Rumanía, anulación elecciones presidenciales (6 diciembre 2024).
- es, 133 bulos sobre la DANA (octubre-noviembre 2024)
- Universidad de Salamanca, desinformación durante la DANA (2025)
- Reality Defender, Storm-1679 Campaign Exposed (2025)
- Recorded Future, CopyCop Deepens Its Playbook (2025)
- EU DisinfoLab, Disinfo Update — Armenia (2025)
- WEF, Lessons learned from a $25m deepfake attack (febrero 2025), caso Arup
- Tookitaki, Deepfake CEO Video Call $499K Singapore (marzo 2025)
- Fortune, Boards aren’t ready for the AI age (marzo 2026)
- Euronews, Scammers clone Italian defence minister’s voice with AI (febrero 2025)
- DeepStrike, Deepfake Statistics 2025 (2025)
- iProov, Study Reveals Deepfake Blindspot: Only 0.1% (2025)
- McAfee, AI Voice Cloning: 3 Seconds of Audio (2023)
- Roger Sanz, PhD, análisis sobre deepfakes y organizaciones criminales, LinkedIn (2025)
- BOE, Orden PJC/248/2025 — Estrategia Nacional contra Campañas de Desinformación (marzo 2025)
Descubre más desde El Sentido de la Seguridad
Suscríbete y recibe las últimas entradas en tu correo electrónico.
