El informe de la conferencia “Intelligence in the Modern Era” (Washington D. C., mayo de 2025) reunió a expertos de la comunidad de inteligencia, academia e industria para responder a una pregunta incómoda: por qué seguimos sufriendo “sorpresas estratégicas” y qué reformas prácticas necesita la inteligencia moderna. El documento ordena cinco grandes bloques: sorpresas y decisión, cultura organizativa, diversidad y talento, IA aplicada al análisis y OSINT/Open Intelligence. Su tesis es nítida: el problema no es la falta de datos, sino cómo pensamos, cómo nos organizamos y cómo integramos la tecnología y la sociedad civil.
Qué cubre y cómo está estructurado
El documento ofrece un resumen ejecutivo y cinco informes de panel: 1) sorpresas estratégicas y decisión; 2) cultura(s) de inteligencia; 3) voces en inteligencia (diversidad y talento); 4A) IA en el análisis; 4B) OSINT/Open Intelligence.
La sorpresa estratégica persiste por fallos cognitivos, culturales y de gobernanza: sesgos (confirmación, anclaje, mirror imaging), silos y poca protección del disenso, además de la politización del análisis. LA solución propuesta pasa por rediseñar cómo pensamos (métodos analíticos), cómo trabajamos (challenge culture, red teaming) y cómo integramos tecnología y fuentes abiertas.
Pero ¿Qué es la “sorpresa estratégica”?
La sorpresa estratégica es la aparición de un hecho o giro con alto impacto (político, militar, económico o social) que no fue anticipado por los sistemas de inteligencia y alerta. No suele deberse a falta de datos, sino a fallos de interpretación: sesgos cognitivos, silos organizativos, presión política o engaño/ocultación del adversario. Se diferencia de la sorpresa táctica u operacional porque afecta al rumbo y a las decisiones de alto nivel, no solo a una operación concreta.
Los tipos habituales de estas “sorpresas” son:
• Por capacidad: “no sabíamos que podían hacerlo”.
• Por intención: “no creíamos que quisieran hacerlo”.
• Por tiempo/lugar: “no esperábamos que fuera ahora o ahí”.
La forma de trabajar en la reducción de este tipo de sopresas pasa por: cultivar el pluralismo, el challenge culture, red teaming, técnicas analíticas estructuradas y uso de IA + OSINT con human‑in‑the‑loop para cuestionar hipótesis y detectar señales débiles. Esta cultura del desafío (challenge culture) es una forma de trabajo donde discrepar está permitido y organizado. No va de “llevar la contraria por deporte”, sino de poner a prueba ideas, supuestos y conclusiones antes de decidir. Su objetivo: reducir sesgos, evitar el groupthink y mejorar la calidad de las decisiones
Análisis
Las sorpresas estratégicas no aparecen porque falten datos, sino porque los interpretamos mal. Episodios tan distintos como el 7-O en Israel, la crisis financiera de 2008 o la Primavera Árabe comparten un patrón: las señales existían, pero quedaron sepultadas por marcos mentales rígidos, inercias organizativas y sesgos cognitivos. Para reducir este riesgo, conviene institucionalizar técnicas analíticas estructuradas (matrices de hipótesis, análisis de escenarios, premortems), crear equipos de red teaming que cuestionen las conclusiones dominantes y separar el análisis estratégico del operacional. Esa separación es clave:
Lo urgente del día a día no debe devorar lo importante de largo plazo, que es donde de verdad se fragua la alerta temprana.
La cultura de inteligencia es el segundo pilar. Sin una challenge culture —mecanismos formales que protegen el derecho a discrepar con datos— el análisis se acomoda y, con facilidad, se politiza. El liderazgo tiene la obligación de blindar la independencia analítica, premiar la duda bien fundada y comunicar la incertidumbre sin edulcorarla. El caso de AMAN/IDF es ilustrativo: priorizar la eficacia táctica y el targeting terminó debilitando la alerta estratégica; el resultado fue perder perspectiva sobre señales que exigían otro marco de lectura.
El tercer elemento es la diversidad como ventaja cognitiva. Equipos con backgrounds distintos generan más hipótesis, identifican puntos ciegos y leen mejor al adversario. No se trata de cumplir cuotas, sino de medir resultados: ¿qué riesgos nuevos detectamos? ¿Qué hipótesis alternativas han prosperado? Para lograrlo hay que corregir barreras reales —procesos de clearance, carreras rígidas, pérdida de idiomas críticos o fuga de talento femenino— y abrir trayectorias más permeables entre comunidad de inteligencia, universidad y sector privado.
La IA aplicada al análisis ocupa ya un espacio propio. Los modelos de lenguaje pueden detectar heurísticos (confirmación, anclaje, mirror imaging), acelerar la generación de hipótesis y revisar productos a escala. Ahora bien, conllevan riesgos: envenenamiento de datos, sesgos de entrenamiento y “alucinaciones”. La respuesta pasa por gobernanza: trazabilidad de fuentes y versiones, explicabilidad de los criterios, registros de auditoría y un human-in-the-loop con roles claros para validar, corregir y, si hace falta, frenar. En la práctica, funcionan muy bien para QA masivo de informes, red teaming asistido y simulaciones multi-agente que exploran cursos de acción.
Por último, el OSINT/Open Intelligence ha dejado de ser marginal. Los datos abiertos y las comunidades civiles producen conocimiento que, con método, es plenamente accionable. Esto exige una doctrina abierta: flujos bidireccionales entre comunidad de inteligencia y sociedad, estándares éticos y reglas explícitas de integración con HUMINT, SIGINT y GEOINT, también en agendas no militares (cadena de suministro, clima, tecnología). Los retos son serios —privacidad, mosaic theory, fiabilidad, huella ambiental— y se mitigan con taxonomías de fuentes, cadena de custodia, criterios de ponderación y procesos de validación cruzada.
En conjunto, el mensaje es claro: para acertar más y sorprendernos menos, no basta con acumular datos ni con comprar herramientas. Hay que cambiar cómo pensamos, cómo nos organizamos y cómo conectamos con el ecosistema abierto, apoyándonos en una cultura que permita el disenso informado, en métodos que estructuren el análisis y en tecnología que aumente el juicio humano, no que lo sustituya.
Implicaciones técnicas, operativas y normativas
- Gobernanza del análisis: institucionalizar pluralismo, registro de disenso y post‑mortems que evalúen sesgos y cultura, no solo “datos”.
- IA responsable: pipelines limpios, detección de poisoning, explicabilidad y roles claros human‑in‑the‑loop.
- Doctrina OSINT: política formal de fuentes abiertas, cadena de custodia, criterios de calidad/ética e integración con otras disciplinas.
- Talento y diversidad: medir impacto en outcomes, revisar clearance y abrir carreras entre IC y sector civil.
- Separación estratégica‑operacional: evitar que lo táctico se coma la alerta a largo plazo.
Qué podríamos hacer
- Crear un Consejo de Disenso interno (rotatorio) y red team externo para productos críticos.
- Incorporar un detector de heurísticos en el QA de informes (plantilla checklist + LLM verificador).
- Aprobar Política OSINT: taxonomía de fuentes, cadena de custodia, validación y límites éticos.
- Cuadro de mando de diversidad por resultado: ¿qué riesgos nuevos hemos detectado gracias a voces diversas?
- Programa de alerta temprana re‑anclado en escenarios de referencia y reglas de aviso (“if in doubt, no doubt”).
El futuro de la inteligencia no depende de “más datos” ni de “modelos más grandes”, sino de culturas que permitan pensar distinto, gobernanzas que protejan la independencia analítica y tecnologías que aumenten (no sustituyan) el criterio humano.
Si diriges equipos de análisis, es el momento de blindar la cultura, operacionalizar la disensión y documentar la trazabilidad cognitiva de tus productos. La sorpresa estratégica se reduce diseñando cómo pensamos, no solo comprando herramientas.
Si quieres profundizar en el informe puedes leerlo aquí: Intelligence_in_the_Modern_Era_conference_1755625140
Si te ha gustado la entrada puedes valórala:
Descubre más desde El Sentido de la Seguridad
Suscríbete y recibe las últimas entradas en tu correo electrónico.