Por
Javier Jordán -
Análisis GESI
El análisis de inteligencia consiste en el proceso de evaluar y transformar la información bruta en descripciones, explicaciones y conclusiones destinadas a los consumidores de inteligencia.
[1]
Por su peculiar naturaleza el análisis de inteligencia escapa a fórmulas preestablecidas; no es una actividad que pueda reducirse a la aplicación de métodos infalibles y rígidos. Esta afirmación puede resultar paradójica por el título del presente trabajo y, sobre todo, por la relevancia de la fase de elaboración dentro del ciclo de inteligencia
[2], pero es una realidad que conviene asumir desde el principio.
Según Mark
Lowentall, la mayor parte de los errores cometidos por la comunidad de
inteligencia norteamericana durante de la década de los 90 estuvieron
relacionados con el análisis. [3]
A menudo los problemas de la fase de elaboración del ciclo de
inteligencia no se deben a la falta de información sino a una
interpretación equivocada de los datos: informaciones relevantes son
ignoradas o inadecuadamente interpretadas por los analistas. Es cierto
que otras veces la información es insuficiente, confusa, poco relevante y
contradictoria, pero incluso en esas condiciones una buena capacidad de
análisis permite sacar el máximo rendimiento a la información
disponible aunque las conclusiones a que se llegue sean tentativas. [4]
La
finalidad de este documento consiste en presentar y resumir algunos
principios y técnicas que contribuyen a mejorar el análisis de
inteligencia aplicada a la seguridad. No pretendemos realizar una
aportación novedosa sino ofrecer en pocas páginas un resumen de
contenidos expuestos por otros autores. Nuestro propósito es
eminentemente didáctico e introductorio.
Pero antes de empezar conviene advertir tres cuestiones básicas.
Primero,
que la labor de análisis en materia de inteligencia, la metodología y
los criterios aplicados no coinciden habitualmente con los empleados en
la investigación científica. El análisis de inteligencia tiene mucho de
intuición y sus conclusiones no requieren (o simplemente no son capaces
de lograr) la misma robustez empírica y metodológica de los trabajos
científicos. Esto es así porque la inteligencia está orientada a
asesorar y a reducir la incertidumbre en procesos de toma de decisiones
que siguen unos ritmos temporales marcados por los acontecimientos, y
que no pueden esperar a que al analista sea capaz de explicar de forma
exhaustiva y empíricamente fundada objetos de estudio que, en muchos
casos, consisten o se contemplan en escenarios futuros y, por tanto,
inaccesibles a la experiencia. Al tratarse más de un arte que de una
disciplina científica, los principios, el método y las técnicas que se
exponen en estas páginas no proporcionan una seguridad similar a la que
otorgaría conocer y manejar con soltura la metodología científica en el
estudio de un aspecto concreto de la realidad. A pesar de la ayuda que
pueden prestar algunas técnicas y herramientas de aquella, el resultado
final depende, en mayor medida, del criterio y buen juicio del analista.
[5] Confiar en que se pueden reducir a cero los errores de análisis es sencillamente una aspiración ilusoria. [6]
En segundo
lugar, la capacidad de análisis se mejora principalmente con la
práctica. Como afirma Richards J. Heuer –un autor que hemos utilizado
profusamente en la elaboración de este documento–, pensar analíticamente
es una destreza similar al bricolaje o a conducir un coche. Se puede
enseñar y se puede aprender pero uno no se convierte en un buen analista
por el simple hecho de asistir a una clase donde se explique cómo se
analiza. Los analistas aprenden analizando; con esfuerzo y práctica se
puede alcanzar un grado de excelencia superior al simple talento
natural. [7]
Por
último, junto al desarrollo de la capacidad analítica es preciso
convertirse en un auténtico experto en la materia objeto de análisis; es
decir, dedicar años de estudio con el fin de alcanzar un conocimiento
profundo de lo que se analiza: un país o región, un grupo terrorista o
insurgente, un determinado movimiento político, etc.
La
estructura del documento es la siguiente. En un primer apartado
comentaremos algunas fuentes de error habituales en el análisis de
inteligencia, y posteriormente expondremos una serie de principios
básicos para mejorarlo
1. Trampas a evitar: sesgos comunes al procesar la información
Los
errores en el análisis pueden tener su origen en diferentes causas:
falsas presunciones, escasez de tiempo, orientación al consenso entre
los analistas, disfunciones dentro de la organización, interpretaciones
interesadas, etc. En este apartado sólo comentaremos aquellos que son
consecuencia de simplificaciones cognitivas que se cometen
involuntariamente al procesar la información, no por sesgos emocionales o
ideológicos relacionados con el objeto de estudio. Se trata de trampas
en las que es relativamente fácil caer por las limitaciones que
experimentamos al conocer y comprender nuestro entorno. La realidad de
las cosas y de las situaciones rara vez resultan evidentes.
Los modelos y
construcciones, los mapas intelectuales de la realidad, nos hacen
pensar a menudo que entendemos la realidad más de lo que en realidad lo
hacemos. El analista se encuentra, generalmente, ante datos, noticias e
informaciones susceptibles de ser percibidas e interpretadas
erróneamente. Por ello, un principio esencial es que el analista conozca su propio proceso mental y esté advertido de los errores que puede cometer al elaborar sus análisis.
Richards
J. Heuer divide este tipo de errores en cuatro categorías: los que
afectan a la evaluación de la evidencia, a la percepción causa-efecto,
la estimación de probabilidades y la evaluación retrospectiva de los
análisis de inteligencia. [8]
Como se puede ver, hemos dejado de lado las fuentes de error externas
al proceso mental de análisis, relacionadas muchas veces con el entorno
organizacional donde trabaja el analista. Sería el caso por ejemplo de
un acento excesivo en la inteligencia actual, por parte de la dirección
del servicio o de los responsables políticos, que obligase a los
analistas a tratar predominantemente temas de actualidad, privándoles de
tiempo para analizar con sosiego asuntos de carácter menos urgente pero
más estratégico; el énfasis en la cantidad sobre la calidad en la
producción de informes; las deficiencias organizacionales que dificultan
el trabajo cooperativo entre los diferentes analistas; escasez de
recursos humanos, falta de tiempo y exceso de trabajo, etc. [9]
1.1. Sesgos en la evaluación de las evidencias
El
analista suele encontrarse con un volumen considerable de información de
diversa naturaleza que en ocasiones contiene datos ambiguos y
contradictorios. Una primera tarea consiste en otorgar valor a aquellas
informaciones que realmente lo merecen y no dejarse engañar por falsas
evidencias.
Algunas fuentes de error comunes en ese sentido son las
siguientes:
-
Atribuir valor estadístico a las anécdotas.
La información concreta, relatada por un conocido, cálida y humana, o
resultado de una experiencia personal, tiene mucho más impacto en
nuestra forma de pensar que la información abstracta e impersonal pero
con mucho más valor empírico. Por ejemplo, un argumento del tipo: “he
estado hace poco de misión en el país X y, por tanto, yo sí que conozco
la situación real de dicho país” otorga un valor excesivo a la visión
particular de un solo individuo, a no ser que éste tenga una capacidad
de observación verdaderamente fuera de lo común (y aun así se reduciría
al ámbito concreto donde ha actuado) o a que haya realizado un trabajo
de campo suficientemente representativo, entrevistando a centenares de
informadores clave, etc. Si este tipo de impresiones anecdóticas
prevalecen, las teorías o las informaciones que contradicen las
experiencias personales o relatadas por otros corren el riesgo de ser
relegadas a un segundo plano de manera injustificada. Este riesgo se
potencia grandemente cuando el analista asume, de forma más o menos
habitual, tareas de obtención directa con fuentes e informadores
propios. La mayor credibilidad, facilidad e inmediatez de acceso de las
fuentes propias no sólo relega las que proporcionan información
contradictoria, sino que inclinan a obviar el estudio y evaluación de
las de otras procedencias.
-
No valorar la ausencia de evidencias.
A menudo no se dispone de información clave para analizar en toda su
profundidad una determinada cuestión. Lo importante en estos casos es
detectar qué información nos falta, a qué variables afecta, y qué
escenarios alternativos puede plantear la alteración de dichas
variables. Esto nos llevará a estar menos seguros de nuestros juicios
hasta que esa información se encuentre disponible. Una fuente de error
común es que la información que esté fuera de nuestra vista, también
quede fuera de nuestros cálculos, o incluso a considerar que la realidad
a la que se referiría, simple y llanamente, no existe o no actúa en el
escenario o lugar considerado (por lo que acabaríamos obviando la
llamada "prueba invisible"). El auténtico experto sabe sentirse
insatisfecho de sus propios conocimientos. Por el contrario, la
arrogancia epistémica lleva a sobreestimar lo que sabemos y a
infravalorar la incertidumbre, reduciendo engañosamente el espacio de lo
desconocido.
-
Excesiva confianza en la congruencia de una muestra reducida.
Cuando algo nos parece acorde con una determinada teoría y, además, se
encuentra avalado empíricamente por algunos casos podemos correr el
riesgo de generalizar prematuramente las conclusiones. Por esa razón,
siempre es conveniente preguntarse cuál es la representatividad de la
muestra. Un ejemplo de este error sería tomar por válida la teoría de
que los terroristas suicidas suelen ser jóvenes con escasa educación, en
paro y fácilmente manipulables, porque esas circunstancias explicarían
fácilmente la falta de expectativas vitales y el atractivo de una
conducta suicida con un premio posterior; y además, porque hay casos de
terroristas suicidas que se ajustan a ese perfil. La realidad demuestra,
sin embargo, que en otros casos el perfil es completamente distinto,
por lo que la explicación teórica del fenómeno resulta mucho más
compleja.
-
Obviar el carácter poco seguro de algunas informaciones.
Muchas veces la información que se recibe está lejos de ser
completamente exacta; sin embargo, la tendencia natural es darle una
validez del 100% una vez que se decide aceptar su verosimilitud (aunque
quizás su grado de exactitud sea de un 80%).
-
Dejarse influir por la impresión persistente de una evidencia desacreditada.
Las primeras informaciones que se reciben tienden a orientar nuestros
marcos cognitivos en una determinada dirección. Aunque más tarde se
descubra que esas informaciones no eran ciertas o que una determinada
fuente estaba intoxicada, continúa la inercia a seguir dando validez al
enfoque inicial. En algunos casos esto podría afectar negativamente a la
evaluación de evidencias que refutan la primera impresión equivocada,
tratando de restar validez a dichas evidencias posteriores. Un ejemplo
de ello sería la creencia ciega que mostraron muchos analistas del
WINPAC de la CIA con respecto a la información proporcionada por
'Curveball' sobre unos supuestos laboratorios móviles de fabricación de
armas biológicas antes de la invasión de Irak en 2003, y ello después de
que cada vez existieran más dudas sobre la fiabilidad del defector
iraquí que había proporcionado esa información. [10]
1.2. Sesgos en la percepción de la relación causa–efecto
Es muy
difícil demostrar la existencia de una relación directa causa–efecto en
los fenómenos sociales, a pesar de que en el lenguaje común utilicemos
con asiduidad la conjunción causal ‘porque’. La percepción que tenemos
de dichas relaciones se basa a menudo en un proceso de inferencia,
estableciendo cadenas de causalidad que a menudo no tienen en cuenta
todas las variables que intervienen en el proceso. De ahí que algunos de
los errores más frecuentes a la hora establecer una relación de este
tipo sean:
-
Atribuir causalidad a aparentes coherencias.
A primera vista la coherencia transmite sensación de orden y esto puede
llevarnos a pensar que detrás de una serie de hechos presuntamente
ordenados –según una determinada teoría o explicación– se esconde una
relación causal, cuando lo que está detrás es muchas veces el azar, la
casualidad o factores sin relación entre sí. Por ejemplo, la colocación
de explosivos en un tren con destino Chamartín por parte de ETA en la
Navidad de 2003 o la detención de una furgoneta con varios cientos de
explosivos camino de Madrid en febrero de 2004 eran, nada más producirse
los atentados del 11-M, indicios que podían hacer pensar en ETA como
autora de la masacre. Pero como se demostró poco después esa aparente
coherencia no entrañaba una relación de causalidad. La falacia narrativa
es consecuencia de buscar inmediatamente una explicación, un vínculo
lógico, entre diversos hechos. Las explicaciones atan a los hechos,
ayudan a recordar mejor, a darle sentido y a tener la impresión de que
se comprende. Pero esa impresión a menudo se basa en una narración
simplificada. La simplificación también nos lleva a pensar que el mundo
es menos aleatorio de lo que realmente es. [11]
-
Imaginar una centralización inexistente.
Este es un error común al analizar la política exterior de los Estados:
percibirlos como actores unitarios cuando en realidad son múltiples los
individuos, grupos y facciones que participan en la elaboración de
cualquier política, con intereses a menudo contrapuestos. Como
consecuencia, el proceso de toma de decisiones no siempre está
supeditado a una lógica coherente y racional. Se puede cometer el mismo
error cuando se analiza, o se intenta prever, la conducta de actores no
estatales como por ejemplo grupos insurgentes, organizaciones
terroristas, grupos criminales, etc. Uno de los aspectos que más
diferencian el análisis de inteligencia actual del de hace veinte años
es que los actores objetos de estudio son mucho menos jerárquicos y
estables en el tiempo que los que protagonizaron la guerra fría.
-
Equiparar la ‘magnitud’ del efecto a la de la causa.
Este error se deriva del siguiente principio: las cosas grandes cuando
caen hacen mucho ruido; o los grandes animales dejan grandes huellas.
Razonamientos que pueden ser válidos al hacer inferencias sobre
propiedades físicas pero que llevan al engaño cuando se analizan
realidades más complejas: los grandes acontecimientos no siempre son
resultado de grandes causas. Obviar esto es sesgo analítico propio de
las teorías conspiratorias: ¿pudo un individuo solitario y patético como
Lee Harvey Oswald marcar la historia asesinando al presidente de
Kennedy?
-
Atribuir más importancia a las motivaciones internas que a las influencias externas.
Un error común es sobreestimar los factores internos y subestimar los
externos en la conducta de un gobierno o un actor no estatal. Al margen
de las características personales y de las intenciones de los
individuos, estos siempre actúan inmersos en entornos que influyen sobre
su conducta. Un buen ejemplo de ello sería no tener en cuenta los
factores que motivan el Dilema de seguridad: la situación que se produce
cuando un determinado actor al tratar de mejorar su seguridad provoca
que otros se sientan amenazados y respondan con medidas que perjudiquen
la seguridad del primero
-
Exagerar
la importancia de nuestro propio gobierno o institución sobre la
conducta de los demás. Nuestra conducta es una variable más en un
entorno complejo donde intervienen otros muchos factores.
-
Correlación espuria o sin sentido.
Que dos fenómenos cambien al mismo tiempo únicamente significa que hay
covariación pero es posible que no exista relación lineal con sentido
(no sólo estadística) entre ellos. Se entiende como correlación espuria
aquella que es consecuencia de un tercer factor y no a la existencia de
una relación directa entre dos variables.
1.3. Sesgos al calcular probabilidades
Aunque
resulte incómodamente comprometedor, es recomendable utilizar
porcentajes, siempre que sea posible establecerlos con suficiente rigor,
a la hora de estimar las probabilidades de un suceso o de valorar una
determinada conclusión: los términos como ‘tal vez’, ‘es posible que’,
‘seguramente’, ‘quizás’, etc resultan excesivamente ambiguos cuando se
trata de tomar decisiones y pueden ser voluntaria (haciéndolos coincidir
con sus preferencias políticas) o involuntariamente malinterpretados
por quienes leen el análisis de inteligencia. Es evidente que establecer
las probabilidades con un grado absoluto de certeza sobre un fenómeno
altamente complejo es una tarea prácticamente imposible, sobre todo si
se trata de prever el comportamiento de seres humanos libres cuyo
comportamiento no siempre es racional ni coherente. Sin embargo, existen
algunos errores comunes que pueden enturbiar aún más dicho cálculo y
que conviene evitar:
-
Sin precedentes = Improbable. Nassim Nicholas Taleb advierte lúcidamente sobre la importancia del Cisne Negro:
un acontecimiento altamente improbable y de gran impacto. Nuestros
marcos explicativos son útiles para predecir lo habitual, no lo
irregular. La dificultad para obtener toda la información necesaria y
los mapas mentales que simplifican la realidad para hacerla más
comprensible son agujeros por los que se cuela la sorpresa estratégica. [12]
-
Anclarse en las estimaciones iniciales.
Cuando un primer análisis fija una probabilidad las siguientes
modificaciones tienden a tomarlo como punto de partida, de modo que, si
la probabilidad que se establece inicialmente es alta, se tiende a
mantener relativamente elevada y, si era baja, tiende a quedar reducida.
Es conveniente reevaluar las probabilidades a la luz de las evidencias
más recientes.
-
No tener en cuenta el carácter acumulativo de la improbabilidad.
Cuando un escenario futuro depende de determinadas variables la
probabilidad de que suceda disminuye conforme se van añadiendo otros
factores susceptibles de cambio. Por ejemplo un previsible escenario
definido en base a la coincidencia de tres sucesos cuya respectiva
probabilidad de acaecer fuera del 0,70, no ofrecería la misma
probabilidad de materializarse sino la probabilidad resultante del
producto de ellas (0,70 x 0,70 x 0.70 = 0,24) (probabilidad compuesta)
1.4. Sesgos en la evaluación retrospectiva de los análisis de inteligencia
Se trata
de los errores que se cometen cuando se evalúa un análisis de
inteligencia propio o ajeno. Habitualmente la tendencia es la siguiente:
-
El
analista normalmente sobreestima la exactitud de sus análisis anteriores
y tiende a olvidar las valoraciones que más tarde no se han
correspondido con la realidad
-
El lector,
o receptor de inteligencia, piensa a veces que lo que lee es demasiado
obvio o que ya lo sabía, de modo que subestima la calidad del análisis.
Pero a menudo esto no se ajusta a la realidad: antes de leer el informe,
no había llegado a esas conclusiones.
-
El
análisis y evaluación de las causas, actores y circunstancias realizados
tras un desastre tiende a examinar y juzgar los informes de
inteligencia previos a los hechos, sin reparar que lo hace desde la
posición del que ya conoce el desenlace y otorgando el valor que
realmente merece a información que anteriormente estaba pendiente de
confirmación
2. Principios para mejorar el análisis de inteligencia
2.1. Generar hipótesis explicativas o predictivas
A menudo
el analista realiza su trabajo disponiendo de información incompleta,
confusa y contradictoria. En esas circunstancias es importante ser
capaces de generar y contrastar hipótesis que den sentido a la
información, o que permitan anticipar escenarios futuros.
Hay tres estrategias que ayudan a proponer hipótesis: [13]
-
Aplicar un marco teórico.
La generalización de conclusiones tras el estudio de muchos casos de un
fenómeno similar conduce a la creación de teorías explicativas . Se
trata de un medio utilizado asiduamente en la investigación científica
que también puede servir en el análisis de inteligencia. La aplicación
de un modelo teórico (por ejemplo, sobre las condiciones en las que un
grupo terrorista abandona la violencia o sobre cómo colapsa un régimen
político o culmina exitosamente un proceso de transición democrática)
permite describir un fenómeno o prever un suceso trascendiendo los
límites de la información disponible. Además, enriquece el proceso de
generación de hipótesis sugiriendo explicaciones o escenarios futuros
que van más allá de la mera intuición del analista. No obstante, como ya
hemos señalado, los modelos teóricos son sólo un medio, no un fin: no
deben encorsetar el análisis, ni llevar a que se minusvaloren evidencias
que contradicen la teoría.
-
Comparación con otros casos históricos.
Esta estrategia difiere de la aplicación de un marco teórico porque la
comparación se realiza con un solo caso, o con un número pequeño de
ellos, sin emplear un modelo explicativo. Su finalidad consiste también
en estimular la imaginación del analista y ayudar a sugerir hipótesis a
partir de experiencias previas, pero no permite adelantar conclusiones
ni, mucho menos, trasladar acríticamente y en directo al objeto de
estudio, líneas de actuación y procedimientos seguidos en el caso o
casos elegidos como términos de comparación
-
Examinar la información disponible con una mente innovadora y abierta.
Aunque esta estrategia parezca contradictoria con las dos anteriores,
es complementaria a ambas. Ni los marcos teóricos, ni los ejemplos
históricos (cuyo impacto cognitivo y emocional no se debe ignorar por
cuanto puede sesgar el propio análisis) deben limitar los esquemas
cognitivos. Tampoco deben sesgar el juicio del analista las ideas
preconcebidas y el prejuicio. Más difícil es sustraerse a la influencia
de las propias creencias, de los recuerdos y opiniones personales y de
cuantos otros elementos informan y especifican la personalidad y el
esquema mental de cada uno. No obstante, aun esto último deberá
intentarse ejerciendo el autodistanciamiento y la empatía al servicio de
la objetividad. Las técnicas y el bagaje intelectual pueden ayudar a
dar con la solución de forma rápida pero también pueden convertirse en
el peor enemigo del analista, si intoxican la comprensión de una nueva
realidad. Este es el tema del siguiente epígrafe.
2.2. Pensar con una mente abierta
Una de las
principales fuentes de error consiste en aproximarse a los datos con un
modelo mental cerrado que no sepa descubrir las ‘señales’ que se
esconden en el ‘ruido’ informativo, despreciando indicios tácticos que
no concuerdan con las ‘ideas aceptadas’ del nivel estratégico.
El
análisis de inteligencia se asemeja, en cierto modo, a la composición de
un puzzle. En ambos casos se trata de configurar una imagen con las
piezas disponibles. Los puzzles convencionales cuentan con un modelo
cerrado (imagen que se trata de componer) y el número exacto de piezas
–conocibles y verificables– necesario para reproducirlo. En el caso del
análisis, el modelo no es cerrado: la imagen no está predeterminada;
sólo se dispone de un marco de referencia en el que establecer las
posibles relaciones (el encaje) existentes entre las piezas
(informaciones) disponibles, a la espera de que de ellas emerja una
imagen (o varias) coherente con el contexto y, por tanto, plausible.
Como se ve, tanto la semejanza como la diferencia resultan
significativas y ostensibles. En el caso del puzzle convencional, el
encaje de una pieza determina la elección de la siguiente; en el
análisis correctamente elaborado no.
No obstante, el analista está,
ciertamente, expuesto al riesgo de dejarse llevar por ideas
preconcebidas (imagen previa) o de aferrarse a una prefiguración y de
aceptar que ella determine, erróneamente la elección y encaje de las
siguientes informaciones. En consecuencia, como la investigación
empírica ha demostrado, en muchos casos, una mayor cantidad de
información no garantiza la exactitud y calidad de un análisis,
simplemente aumenta la confianza del analista en su propio informe.
Cuanta más información se tiene peores resultados se obtienen, si esta
se convierte en ruido y sólo sirve para confirmar mapas mentales
erróneos. [14]
Desde esta
perspectiva, pues, cabe decir que los problemas que ha de afrontar el
analista suelen tener origen en: 1) la insuficiencia y/o errores de la
información disponible (en gran medida responsabilidad de los órganos de
obtención) y 2) del modelo mental que utiliza el analista para integrar
aquella (responsabilidad de los propios analistas).
A
continuación se señalan algunas herramientas que ayudan a que las ideas
preconcebidas, la experiencia y los juicios previos del analista no se
conviertan en un obstáculo para la calidad del análisis. Estas técnicas
se basan en dos principios: cuestionar las ideas preestablecidas e
incentivar la creatividad.
-
Evaluar la sensibilidad de las conclusiones.
Es decir, preguntarse en qué medida se vería afectada la conclusión si
alguna de las variables clave de las que depende el análisis se viese
alterada; y preguntarse a continuación qué circunstancias podrían
modificar dicha variable y cómo podríamos saber que se ha producido ese
cambio.
-
Identificar modelos alternativos,
examinando sin pasión los argumentos, la interpretación de los datos y
los marcos teóricos de quienes mantienen opiniones diferentes a la
nuestra. La disonancia cognitiva es incómoda y por ese motivo los
ciudadanos de a pie suelen leer periódicos o escuchar emisoras de radio
afines a sus preferencias políticas. Pero muchas veces hasta en los
argumentos aparentemente más peregrinos se esconden elementos de verdad.
Un buen analista debe tener la suficiente honestidad intelectual y
grandeza de ánimo como para reconocer los juicios acertados de quienes
juzgan con un enfoque diferente. La auténtica confianza en uno mismo es
compatible con buscar ejemplos que demuestren que nuestra teoría es
falsa.
-
Pensar con la mente de los otros actores.
Cuando se analiza la conducta de actores que proceden de una cultura
extraña es preciso evitar la ‘imagen de espejo’: proyectar sobre el otro
nuestros valores, intenciones o intereses con vistas a comprender y
anticipar su conducta. La imagen de espejo puede dar lugar a
conclusiones erróneas e incluso peligrosas; por ejemplo, afirmar que un
determinado actor es nihilista o irracional porque su lógica no coincide
con la nuestra.
-
Pensar hacia atrás.
Se trata de un ejercicio intelectual que consiste en imaginar un
escenario que, de entrada, consideramos muy improbable pero que, de
producirse, tendría consecuencias de gran calado (por ejemplo, el
colapso de la monarquía saudí o un ataque nuclear de Israel contra el
programa nuclear iraní). A continuación hay explicar cómo podría haberse
llegado a esa situación. En este proceso lo más importante no es
discutir si algo podría suceder sino el modo como llegaría a producirse.
Podemos llevarnos la sorpresa de construir un escenario plausible para
un acontecimiento que hasta entonces habíamos calificado de imposible.
-
Utilizar simulaciones.
Las simulaciones políticas o los ‘juegos de guerra’ ayudan a asumir el
rol de otros actores y a contemplar la realidad desde su punto de vista.
También permiten anticipar escenarios futuros con los resultados de las
interacciones que se producen durante el desarrollo de la simulación.
Para realizarla se necesita un grupo más o menos reducido de analistas,
pero no siempre es preciso elaborar un escenario ficticio (que muchas
veces consume gran parte del tiempo de preparación) puede ser suficiente
iniciar la simulación con el escenario actual, sin dedicar más de un
día al desarrollo completo del ejercicio.
-
Emplear un abogado del diablo.
Es decir, que una persona del equipo de analistas defienda una opinión
minoritaria (sin que a lo mejor esté de acuerdo con ella) y que el resto
justifiquen sus propios argumentos. Este sistema ayuda a descubrir
vulnerabilidades en la línea de pensamiento mantenida.
-
Someter el análisis a la revisión por pares.
Es una técnica común en el mundo académico. Consistiría en pedir a
otros analistas que revisen de manera crítica nuestro trabajo. En su
desarrollo es fundamental que prevalezca la honestidad intelectual y el
buen talante hacia las correcciones. De lo contrario se puede acabar
generando una competitividad que atrinchere a los diferentes analistas
en posiciones irreductibles. [15]
-
Aprender de las sorpresas,
entendiendo por sorpresas acontecimientos que no encajan con nuestros
análisis previos. Muchas veces no son agradables porque denotan que algo
en nuestro razonamiento estaba o está equivocado; pero con vistas a
mejorar el análisis es preferible resaltarlas y extraer de ellas el
máximo rendimiento, a negar su novedad o su carácter contradictorio con
nuestros esquemas mentales.
-
Organizar ‘tormentas de ideas’.
Esta herramienta se basa en cuatro principios: 1) No auto-imponerse
limitaciones; es decir, pensar de manera libre sin condicionantes
emocionales, sociales, de perspectiva, de hábitos analíticos, etc. Las
ideas innovadoras suelen ser poco convencionales e incluso
estrafalarias. 2) Diferir el juicio crítico: primero proponer las ideas y
suspender su crítica hasta una fase posterior. 3) La cantidad puede
ayudar a la calidad: inicialmente vendrán a la cabeza las ideas y
planteamientos comunes; es preciso agotar ese nivel para que surjan
ideas novedosas. 4) Construir en común: la combinación de ideas de unos y
otros perfecciona el resultado final. Se construye y desarrolla sobre
las propuestas de los otros, y se asocian ideas diferentes que una
persona sola difícilmente habría tenido. Lógicamente, además de estos
principios también hay otros elementos que cuentan para el éxito de la
sesión: el rol del facilitador (la persona que dirige la reunión y hace
la presentación inicial del problema a tratar), que todos los
componentes se sientan cómodos e iguales entre sí, no repetir las ideas,
establecer un tiempo límite, etc.
-
Organizar seminarios o grupos de trabajo con expertos procedentes de otras instituciones.
Es una manera de evitar que se instaure y perviva el pensamiento
cerrado dentro de un determinado departamento; y es coherente con la
idea de las reservas de inteligencia y de una comunidad de inteligencia
ampliada, donde participarían especialistas procedentes del mundo
académico, empresarial, de ONGs, etc. Un buen ejemplo de ello es el
modelo seguido por el National Intelligence Council a la hora de
elaborar los documentos Global Trends.
-
Utilizar el método de competición de hipótesis.
Es un método propuesto por Richards J. Heuer, que ayuda a elegir entre
diversas hipótesis o a decantarse por escenarios futuros (con las
limitaciones propias de la prospectiva ). El método trata de identificar
todas las alternativas razonables y hacerlas competir unas con otras,
en lugar de evaluar la plausibilidad de cada una por separado. Intenta
evitar así la elección de una hipótesis inicial, aparentemente
satisfactoria, olvidando otras alternativas quizás más acertadas. El
principio fundamental de este método consiste en formular primero el
mayor número de hipótesis plausibles y, después, tratar de refutarlas
con la evidencia disponible para concentrar finalmente la atención en
las que sobreviven; justo lo contrario de lo que se suele hacer de
manera intuitiva: tratar de confirmar la hipótesis de entrada que nos
parece favorita. La evaluación simultánea de múltiples hipótesis que
compiten entre sí es un ejercicio mental exigente y difícil de realizar
sin plasmarlo en un papel. Por ese motivo se ha desarrollado un software
gratuito que facilita la aplicación del método. El programa informático
permite la creación de una matriz donde primero se introducen las
hipótesis y después las evidencias, con la posibilidad de valorar su
credibilidad y relevancia. Conforme se introducen los datos, el programa
va calculando la consistencia e inconsistencia de las distintas
hipótesis. El programa incluye un manual de veinticinco páginas que
explica su funcionamiento.
Todas
estas técnicas, especialmente algunas de ellas como las simulaciones,
las tormentas de ideas o el abogado de diablo, contribuyen a estimular
la imaginación y a plantearse escenarios que rompen con lo convencional y
que encajan con la naturaleza asimétrica de muchos de los riesgos y
amenazas actuales.
Por
último, Richards J. Heuer identifica una serie de condicionantes
relacionados con el entorno organizacional del analista que también
afectan a la apertura mental. Según el, los siguientes factores
contribuirían a estimular la creatividad y la aparición de nuevas ideas.
Por separado tienen escasa importancia, pero cuando coinciden
contribuyen a la flexibilidad y a la innovación en los juicios:
-
Percibirse responsable a la hora de iniciar nuevas actividades
-
Disponer
de un alto nivel de control sobre los diversos aspectos relacionados con
el trabajo analítico: establecer objetivos, incorporar nuevos miembros
al equipo, tener capacidad para decidir cómo se invierte el presupuesto
asignado, etc.
-
Sentirse
seguro y cómodo en el rol profesional. Las nuevas ideas son a menudo
rompedoras y no están exentas de riesgo. Si uno sabe que su puesto no
peligra si se equivoca, asumirá más fácilmente la posibilidad de
fracaso. Por el contrario un ambiente que castiga en exceso los errores
mina la creatividad: cuando el miedo entra por la puerta, el talento
sale por la ventana. [16]
-
Contar con un superior administrativo que apoye y facilite el trabajo, dejando un amplio margen de maniobra
-
Formar parte de, o dirigir, un grupo pequeño. El tamaño reducido favorece la flexibilidad.
-
Combinar
el trabajo analítico con otro tipo de actividades, pero sin que estas se
conviertan en un elemento de perturbación y de distracción excesiva. En
ocasiones, disponer de cierto tiempo de incubación y de alejamiento del
análisis estimula el proceso creativo.