Análisis - Analistas de inteligencia

Open Source Intelligence, Manuales, Textos, Estudios, Enlaces, Inteligencia de Recursos Abiertos.
Responder
kilo009
Administrador
Mensajes: 7691
Registrado: 13 Nov 2006 22:29
Ubicación: Foro de Inteligencia
Contactar:

Análisis - Analistas de inteligencia

Mensaje por kilo009 »

Fuente del artículo

Código: Seleccionar todo

Frank Watanabe 

Ex agente de la CIA 
Ayudante del Presidente de la Comisión Consultiva de Inteligencia Exterior 
Oficial de Inteligencia de la Armada americana 
Desarrollo de Inteligencia Comercial en Eli Lilly and Company y Amgen Inc.


¿Cómo tener éxito en la Dirección de Inteligencia? Quince axiomas para analistas de inteligencia
Recientemente, la Dirección de Inteligencia (DI) ha visto producirse una avalancha de “nuevas ideas” sobre su misión y en cómo llevarla a cabo. Notables ejemplos de ello son el curso obligatorio Tradecraft y la publicación de un documento titulado “Cambios de la inteligencia en el Tradecraft (técnicas usadas en la inteligencia moderna) analítico en la Dirección de Inteligencia de la CIA. Concebidas con buena intención y perspicacia como todas estas nuevas ideas, sin embargo, proceden en su mayoría de antiguos directores de la DI, pero no de los analistas ni de otros oficiales más jóvenes y de nivel medio que llevan a cabo la misión de la DI cada día. Además, algún ejecutivo de primera línea de la DI –yo mismo incluido-- objetarían la idea de que los conceptos propuestos en el Tradecraft representan verdaderamente un nuevo pensamiento. En su mayor parte son simplemente una vuelta a los fundamentos del Tradecraft de la DI que muchos de nosotros en la Dirección parece que hemos olvidado.

Antes de dejar la DI por un trabajo alternativo, me esforcé en establecer algunos de los axiomas con los que he intentado manejarme en mi carrera. Al principio, este ejercicio se inició para proporcionar algún consejo práctico a los nuevos analistas que llegaban a mi división, pero finalmente decidí que estos axiomas podrían ser de interés para los oficiales de toda la DI. Aunque no soy partidario al pie de la letra de ellos, me han servido bien como guías generales para comportarme profesionalmente como analista de la DI. A los analistas experimentados, muchos de los principios les sonarán a obviedades y, si ése es el caso, mucho mejor. Sólo he intentado codificar las normas generales que dirigen lo que hacemos diariamente en la DI, y no presumiría de inventar el nuevo Tradecraft. Pero a los nuevos analistas de la DI y a más de algún veterano les sería de mucha utilidad recordar estos 15 principios en su tarea diaria, aunque sospecho que muchos de ellos nunca serán adoptados oficialmente.

Crea en sus propios criterios profesionales. Esté siempre dispuesto a escuchar conclusiones alternativas u otros puntos de vista, pero manténgase en sus trece si usted realmente cree que la inteligencia apoya una cierta conclusión. Sólo porque alguien sea su jefe, tenga un grado más alto, o tenga mucha más experiencia que usted, no significa que él o ella sepan más sobre el informe que usted hace. Usted es el que lee la correspondencia diaria y quién estudia el problema.

Sea agresivo, y no tema estar equivocado. Cualquier persona puede repetir lo que dice un informe no depurado de inteligencia, pero en la DI se supone que estamos para las cuestiones de análisis. Como oficial de la DI, su trabajo consiste en ir más allá de los hechos--de una forma rigurosa, lógica--para entender lo que significan. No se asuste por predecir el futuro, o por equivocarse. Si usted tiene razón la mayor parte de las veces, lo está haciendo bastante bien. Pero si usted siempre tiene razón, entonces usted no está haciendo su trabajo.

Es mejor equivocarse que actuar incorrectamente. Una de las cosas más difíciles de hacer es admitir que su evaluación original era errónea. Demasiada gente en la DI rechaza admitir un error o una valoración incorrecta y cambiar su evaluación a la luz de nuevos hechos. Pero es siempre mejor admitir que usted estaba equivocado y cambiar una posición cuando los hechos lo justifican que atenerse a una valoración incorrecta frente a nuevos factores. Por ejemplo, antes en mi carrera, yo era responsable de evaluar sistemas de control extranjeros de la exportación para determinar si podrían proteger tecnología occidental sensible. Estaba convencido de que uno de los países que estudiaba no era capaz de proteger tecnologías sensibles debido a debilidades en su sistema de control, y había escrito mis informes de inteligencia de acuerdo con ello. Más adelante, tuve la oportunidad de ir al país y de ver de primera mano el sistema en funcionamiento. Me sorprendió comprobar que era mucho más seguro de lo que había creído, y cambié completamente mis evaluaciones anteriores por su falta de fiabilidad. Si me hubiera mantenido en mi análisis original, yo habría actuado de forma incorrecta.

Evite aplicar el efecto imagen a toda costa. El efecto imagen— proyectando su proceso mental o su sistema de valores sobre alguna otra persona--es una de las mayores amenazas al análisis objetivo de inteligencia. No todo el mundo es similar, y las diferencias culturales, étnicas, religiosas, y políticas sí tienen importancia. Sólo porque algo se parezca a la conclusión lógica o a la línea de conducta que usted sigue, no significa que la persona o el grupo que está analizando vaya a proceder de esa manera, particularmente cuando las diferencias en valores y procesos mentales entran en juego. Por ejemplo, en los días antes de que Iraq invadiera Kuwait, la opinión convencional era que Iraq no invadiría, y que sus acciones militares hostiles estaban pensadas para intimidar a Kuwait y a Arabia Saudita en mantener las cuotas de producción de la OPEP, para así aumentar el precio del petróleo. El razonamiento encajaba perfectamente en la lógica occidental, y la invasión parecía improbable. Pero Saddam Hussein no vio la situación precisamente como lo hicieron muchos analistas.

La inteligencia no tiene ningún valor si no se difunde. No importa cuánto sepa usted sobre un tema si no comunica clara y eficazmente la información y su valoración al jefe en tiempo oportuno. No podemos apoyar a quienes hacen la política si no les proveemos de inteligencia. La marina de guerra de los E.E.U.U. tenía SIGINT proporcionando una alerta anticipada de los planes japoneses para bombardear Pearl Harbour, pero no se analizó la información ni se difundió a los mandos apropiados con tiempo para prevenir el ataque.

La coordinación es necesaria, pero no ajustándose al mínimo común denominador. Coordinamos para asegurar un producto colectivo y para aprovechar la considerable experiencia de otros. Pero, como dijo un comentarista una vez, “el consenso es valioso, de hecho esencial, para mover la nave del estado de una manera razonable y ordenada. Pero unas suposiciones aceptadas y un acuerdo generalizado no significa que las suposiciones y el acuerdo sean correctos”. Se producen legítimos contrastes analíticos de pareceres. Si usted piensa que tiene razón, y el coordinador discrepa, deje que la evaluación refleje esa diferencia de opinión y escriba una nota a pie de página si es necesario. Pero nunca reduzca su valoración a un denominador común más bajo solamente para lograr la coordinación.

Cuando todo el mundo está de acuerdo en un problema, algo probablemente está mal. Es raro que todos los miembros de la Comunidad de Inteligencia estén de acuerdo en una apreciación analítica. Cuando ocurren estos casos, es hora de preocuparse. Tal vez sea porque todos ustedes estén en lo cierto. Pero también puede ser porque usted ha caído en un grupo de pensamiento cuya mentalidad no permite que usted considere la parte contraria. Por ejemplo, después del derrumbamiento de la Unión Soviética, había una creencia casi unánime en que un gran número de especialistas rusos en misiles balísticos inundarían el Tercer Mundo y ayudarían en los programas de misiles en otros estados (la supuesta fuga de cerebros). La unanimidad en esta cuestión dificultó un debate reflexivo sobre la probabilidad de que tal éxodo ocurriera y acerca de escenarios alternativos. Pues resultó que no hubo una salida en masa de los especialistas rusos en misiles, pero los conocimientos rusos fueron facilitados a otros estados por procedimientos a los que no se había hecho caso debido al énfasis excesivo en la fuga de cerebros. Los contrastes de pareceres son saludables porque fuerzan a ambas partes a demostrar su punto de vista en el campo de batalla intelectual.

Al destinatario no le preocupa cuánto sabe usted; dígale sólo lo que es importante. Muchos analistas se esfuerzan en demostrar la profundidad de sus conocimientos y la sofisticación de sus productos cargándolos con hechos y detalles. Pero al receptor de la inteligencia no le importa cuánto sabe usted. Él quisiera que usted solamente le contara aquellas cosas que son realmente importantes para que él las sepa y qué significan. Los detalles superfluos sirven simplemente para oscurecer los hechos importantes.

La forma nunca es más importante que el contenido. En la DI, pasamos mucho tiempo preocupándonos por la forma en que se difunde nuestro análisis. Pero el destinatario desea saber lo que dice la inteligencia, y desea tenerla cuando necesita conocerla. A la mayoría de los Mandos no les importa si un informe queda bien o si el formato es el correcto. He perdido la cuenta del número de ocasiones en que los destinatarios me han dicho que no me preocupe si un informe tiene un sello de la CIA en él, si está en el formato apropiado, o incluso si tiene aguas impresas a todo lo largo; únicamente quieren tener el informe en sus manos cuanto antes, por lo menos a tiempo para ayudarles a tomar una decisión. Esto no es una excusa para un trabajo chapucero o mal hecho, o para puentear el proceso de revisión, sino que le evita preocuparse sobre cómo la forma de su producto interfiere en la esencia de lo que usted está intentando comunicar y en su oportunidad.

Persiga agresivamente la recogida de la información que necesita. En la Comunidad de Inteligencia, tenemos la capacidad única de empeñar un número substancial de medios para recoger información sobre cuestiones importantes. Pero muchos analistas en la DI se sientan delante de sus pantallas y esperan pasivamente a que les llegue la información que necesitan para sus trabajos. Si usted está analizando un problema y no hay información disponible, o la que hay es insuficiente, sea agresivo en perseguir la obtención y en estimular a sus agentes (de obtención). Durante mi carrera, desempeñé un papel central en la reorientación de la obtención hacia lo nuevo, hacia objetivos del resto del mundo para satisfacer las nuevas necesidades del Mando al día siguiente al derrumbamiento de la Unión Soviética. Mi inversión en tiempo y energía no ampliaron mi expediente productivo, pero dieron lugar a nueva inteligencia valiosa que me permitió a mí y a otros en la Comunidad contestar las preguntas de los jefes. Como analista, usted tiene la ventaja de conocer a la vez lo que el destinatario necesita saber (a veces mejor que el mismo destinatario) y qué agentes pueden obtener la inteligencia necesaria. Si usted no asigna tareas con frecuencia a sus agentes ni les proporciona los resultados de la divulgación de sus informes, está fallando en hacer una parte importante de su trabajo.

No se tome el proceso de revisión (corrección) demasiado en serio. Si los cambios de redacción no alteran el significado de lo que usted está intentando decir, acéptelos cortésmente. Sin embargo, cuando los cambios alteren el significado, no tenga miedo en hablar alto ni en rebatir los cambios.

Conozca a sus colegas de la Comunidad y hábleles con frecuencia. La CIA no tiene el monopolio de la verdad ni de toda la información. Consiga conocer a sus colegas en las diversas agencias de la Comunidad de Inteligencia -tanto analistas como agentes de obtención-y hábleles frecuentemente, averiguando qué es lo que hacen e informándoles de lo que usted está haciendo. “Con frecuencia” significa varias veces al mes, no solo cuando usted necesita algo. Si no puede reconocer sus voces al teléfono, entonces probablemente no les está hablando bastante a menudo. Mis estrechos lazos con colegas en la NSA y la DIA -y la colaboración resultante-dieron lugar repetidamente a una obtención mejor, a mejores productos, a menos duplicidades, y a menos conflictos en la coordinación.

Nunca permita que su carrera tenga precedencia sobre su trabajo. Como oficial profesional de inteligencia, su responsabilidad es presentar el mejor análisis posible de inteligencia, habida cuenta de la información disponible. Esto requiere a veces tomar posiciones o realizar cosas que pueden hacerle impopular con colegas o supervisores. Pero nunca deje que las legítimas preocupaciones por su carrera tengan precedencia sobre la obligación de hacer su trabajo.

Siendo analista de inteligencia no participa en un concurso de popularidad. Algunos de sus informes pueden ser impopulares o no deseados, particularmente por los políticos que no quieren ver la inteligencia que socava sus objetivos. Usted también puede no hacer muchos amigos en el proceso de coordinación. Pero su trabajo es perseguir la verdad. Recuerdo a un colega que remitió un análisis que puso en tela de juicio la pericia que había detrás de varios nuevos sistemas de armas de los E.E.U.U. Este análisis ocasionó críticas a la CIA, a su oficina, y a él mismo. Sin embargo, él no cedió; la agencia lo apoyó, y finalmente se demostró que tenía razón. No consiguió muchos amigos, pero hizo su trabajo.

No se tome su trabajo ni a usted mismo demasiado en serio. El destino del mundo no descansa sobre sus hombros. También, siempre habrá más trabajo que tiempo para hacerlo. Usted debe tomarse las cosas con perspectiva. No se convierta en un adicto al trabajo; recuerde cuidarse a usted mismo y a su familia. Usted está haciendo un trabajo, no dirigiendo una cruzada.
Saber para Vencer

Twitter

Facebook
tiger ronin
Mensajes: 8
Registrado: 25 Ago 2009 18:51

Re: Quince axiomas para analistas de inteligencia

Mensaje por tiger ronin »

Muchas gracias por este escrito, dice que contiene normas basicas pero me ha iluminado mucho.

Gracias,


Lo pero de la sociedad no son los homres malos, sino el silencio y la indiferencia de los hombres buenos
kilo009
Administrador
Mensajes: 7691
Registrado: 13 Nov 2006 22:29
Ubicación: Foro de Inteligencia
Contactar:

Introducción al análisis de inteligencia

Mensaje por kilo009 »

Del profesor Javier Jordán en el Grupo de Estudios sobre Política y Seguridad Internacional:

http://wdb.ugr.es/~gesyp/analisis-inteligencia
Introducción al análisis de inteligencia

por Javier Jordán

16 de marzo de 2011

El análisis de inteligencia consiste en el proceso de evaluar y transformar la información bruta en descripciones, explicaciones y conclusiones destinadas a los consumidores de inteligencia. [1] Por su peculiar naturaleza el análisis de inteligencia escapa a fórmulas preestablecidas; no es una actividad que pueda reducirse a la aplicación de métodos infalibles y rígidos. Esta afirmación puede resultar paradójica por el título del presente trabajo y, sobre todo, por la relevancia de la fase de elaboración dentro del ciclo de inteligencia [2], pero es una realidad que conviene asumir desde el principio.

Según Mark Lowentall, la mayor parte de los errores cometidos por la comunidad de inteligencia norteamericana durante de la década de los 90 estuvieron relacionados con el análisis. [3] A menudo los problemas de la fase de elaboración del ciclo de inteligencia no se deben a la falta de información sino a una interpretación equivocada de los datos: informaciones relevantes son ignoradas o inadecuadamente interpretadas por los analistas. Es cierto que otras veces la información es insuficiente, confusa, poco relevante y contradictoria, pero incluso en esas condiciones una buena capacidad de análisis permite sacar el máximo rendimiento a la información disponible aunque las conclusiones a que se llegue sean tentativas. [4]

La finalidad de este documento consiste en presentar y resumir algunos principios y técnicas que contribuyen a mejorar el análisis de inteligencia aplicada a la seguridad. No pretendemos realizar una aportación novedosa sino ofrecer en pocas páginas un resumen de contenidos expuestos por otros autores. Nuestro propósito es eminentemente didáctico e introductorio.

Pero antes de empezar conviene advertir tres cuestiones básicas.

Primero, que la labor de análisis en materia de inteligencia, la metodología y los criterios aplicados no coinciden habitualmente con los empleados en la investigación científica. El análisis de inteligencia tiene mucho de intuición y sus conclusiones no requieren (o simplemente no son capaces de lograr) la misma robustez empírica y metodológica de los trabajos científicos. Esto es así porque la inteligencia está orientada a asesorar y a reducir la incertidumbre en procesos de toma de decisiones que siguen unos ritmos temporales marcados por los acontecimientos, y que no pueden esperar a que al analista sea capaz de explicar de forma exhaustiva y empíricamente fundada objetos de estudio que, en muchos casos, consisten o se contemplan en escenarios futuros y, por tanto, inaccesibles a la experiencia. Al tratarse más de un arte que de una disciplina científica, los principios, el método y las técnicas que se exponen en estas páginas no proporcionan una seguridad similar a la que otorgaría conocer y manejar con soltura la metodología científica en el estudio de un aspecto concreto de la realidad. A pesar de la ayuda que pueden prestar algunas técnicas y herramientas de aquella, el resultado final depende, en mayor medida, del criterio y buen juicio del analista. [5] Confiar en que se pueden reducir a cero los errores de análisis es sencillamente una aspiración ilusoria. [6]

En segundo lugar, la capacidad de análisis se mejora principalmente con la práctica. Como afirma Richards J. Heuer –un autor que hemos utilizado profusamente en la elaboración de este documento–, pensar analíticamente es una destreza similar al bricolaje o a conducir un coche. Se puede enseñar y se puede aprender pero uno no se convierte en un buen analista por el simple hecho de asistir a una clase donde se explique cómo se analiza. Los analistas aprenden analizando; con esfuerzo y práctica se puede alcanzar un grado de excelencia superior al simple talento natural. [7]

Por último, junto al desarrollo de la capacidad analítica es preciso convertirse en un auténtico experto en la materia objeto de análisis; es decir, dedicar años de estudio con el fin de alcanzar un conocimiento profundo de lo que se analiza: un país o región, un grupo terrorista o insurgente, un determinado movimiento político, etc.

La estructura del documento es la siguiente. En un primer apartado comentaremos algunas fuentes de error habituales en el análisis de inteligencia, y posteriormente expondremos una serie de principios básicos para mejorarlo



1. Trampas a evitar: sesgos comunes al procesar la información

Los errores en el análisis pueden tener su origen en diferentes causas: falsas presunciones, escasez de tiempo, orientación al consenso entre los analistas, disfunciones dentro de la organización, interpretaciones interesadas, etc. En este apartado sólo comentaremos aquellos que son consecuencia de simplificaciones cognitivas que se cometen involuntariamente al procesar la información, no por sesgos emocionales o ideológicos relacionados con el objeto de estudio. Se trata de trampas en las que es relativamente fácil caer por las limitaciones que experimentamos al conocer y comprender nuestro entorno. La realidad de las cosas y de las situaciones rara vez resultan evidentes. Los modelos y construcciones, los mapas intelectuales de la realidad, nos hacen pensar a menudo que entendemos la realidad más de lo que en realidad lo hacemos. El analista se encuentra, generalmente, ante datos, noticias e informaciones susceptibles de ser percibidas e interpretadas erróneamente. Por ello, un principio esencial es que el analista conozca su propio proceso mental y esté advertido de los errores que puede cometer al elaborar sus análisis.

Richards J. Heuer divide este tipo de errores en cuatro categorías: los que afectan a la evaluación de la evidencia, a la percepción causa-efecto, la estimación de probabilidades y la evaluación retrospectiva de los análisis de inteligencia. [8] Como se puede ver, hemos dejado de lado las fuentes de error externas al proceso mental de análisis, relacionadas muchas veces con el entorno organizacional donde trabaja el analista. Sería el caso por ejemplo de un acento excesivo en la inteligencia actual, por parte de la dirección del servicio o de los responsables políticos, que obligase a los analistas a tratar predominantemente temas de actualidad, privándoles de tiempo para analizar con sosiego asuntos de carácter menos urgente pero más estratégico; el énfasis en la cantidad sobre la calidad en la producción de informes; las deficiencias organizacionales que dificultan el trabajo cooperativo entre los diferentes analistas; escasez de recursos humanos, falta de tiempo y exceso de trabajo, etc. [9]


1.1. Sesgos en la evaluación de las evidencias

El analista suele encontrarse con un volumen considerable de información de diversa naturaleza que en ocasiones contiene datos ambiguos y contradictorios. Una primera tarea consiste en otorgar valor a aquellas informaciones que realmente lo merecen y no dejarse engañar por falsas evidencias. Algunas fuentes de error comunes en ese sentido son las siguientes:

Atribuir valor estadístico a las anécdotas. La información concreta, relatada por un conocido, cálida y humana, o resultado de una experiencia personal, tiene mucho más impacto en nuestra forma de pensar que la información abstracta e impersonal pero con mucho más valor empírico. Por ejemplo, un argumento del tipo: “he estado hace poco de misión en el país X y, por tanto, yo sí que conozco la situación real de dicho país” otorga un valor excesivo a la visión particular de un solo individuo, a no ser que éste tenga una capacidad de observación verdaderamente fuera de lo común (y aun así se reduciría al ámbito concreto donde ha actuado) o a que haya realizado un trabajo de campo suficientemente representativo, entrevistando a centenares de informadores clave, etc. Si este tipo de impresiones anecdóticas prevalecen, las teorías o las informaciones que contradicen las experiencias personales o relatadas por otros corren el riesgo de ser relegadas a un segundo plano de manera injustificada. Este riesgo se potencia grandemente cuando el analista asume, de forma más o menos habitual, tareas de obtención directa con fuentes e informadores propios. La mayor credibilidad, facilidad e inmediatez de acceso de las fuentes propias no sólo relega las que proporcionan información contradictoria, sino que inclinan a obviar el estudio y evaluación de las de otras procedencias.


No valorar la ausencia de evidencias. A menudo no se dispone de información clave para analizar en toda su profundidad una determinada cuestión. Lo importante en estos casos es detectar qué información nos falta, a qué variables afecta, y qué escenarios alternativos puede plantear la alteración de dichas variables. Esto nos llevará a estar menos seguros de nuestros juicios hasta que esa información se encuentre disponible. Una fuente de error común es que la información que esté fuera de nuestra vista, también quede fuera de nuestros cálculos, o incluso a considerar que la realidad a la que se referiría, simple y llanamente, no existe o no actúa en el escenario o lugar considerado (por lo que acabaríamos obviando la llamada "prueba invisible"). El auténtico experto sabe sentirse insatisfecho de sus propios conocimientos. Por el contrario, la arrogancia epistémica lleva a sobreestimar lo que sabemos y a infravalorar la incertidumbre, reduciendo engañosamente el espacio de lo desconocido.


Excesiva confianza en la congruencia de una muestra reducida. Cuando algo nos parece acorde con una determinada teoría y, además, se encuentra avalado empíricamente por algunos casos podemos correr el riesgo de generalizar prematuramente las conclusiones. Por esa razón, siempre es conveniente preguntarse cuál es la representatividad de la muestra. Un ejemplo de este error sería tomar por válida la teoría de que los terroristas suicidas suelen ser jóvenes con escasa educación, en paro y fácilmente manipulables, porque esas circunstancias explicarían fácilmente la falta de expectativas vitales y el atractivo de una conducta suicida con un premio posterior; y además, porque hay casos de terroristas suicidas que se ajustan a ese perfil. La realidad demuestra, sin embargo, que en otros casos el perfil es completamente distinto, por lo que la explicación teórica del fenómeno resulta mucho más compleja.


Obviar el carácter poco seguro de algunas informaciones. Muchas veces la información que se recibe está lejos de ser completamente exacta; sin embargo, la tendencia natural es darle una validez del 100% una vez que se decide aceptar su verosimilitud (aunque quizás su grado de exactitud sea de un 80%).


Dejarse influir por la impresión persistente de una evidencia desacreditada. Las primeras informaciones que se reciben tienden a orientar nuestros marcos cognitivos en una determinada dirección. Aunque más tarde se descubra que esas informaciones no eran ciertas o que una determinada fuente estaba intoxicada, continúa la inercia a seguir dando validez al enfoque inicial. En algunos casos esto podría afectar negativamente a la evaluación de evidencias que refutan la primera impresión equivocada, tratando de restar validez a dichas evidencias posteriores. Un ejemplo de ello sería la creencia ciega que mostraron muchos analistas del WINPAC de la CIA con respecto a la información proporcionada por 'Curveball' sobre unos supuestos laboratorios móviles de fabricación de armas biológicas antes de la invasión de Irak en 2003, y ello después de que cada vez existieran más dudas sobre la fiabilidad del defector iraquí que había proporcionado esa información. [10]



1.2. Sesgos en la percepción de la relación causa–efecto

Es muy difícil demostrar la existencia de una relación directa causa–efecto en los fenómenos sociales, a pesar de que en el lenguaje común utilicemos con asiduidad la conjunción causal ‘porque’. La percepción que tenemos de dichas relaciones se basa a menudo en un proceso de inferencia, estableciendo cadenas de causalidad que a menudo no tienen en cuenta todas las variables que intervienen en el proceso. De ahí que algunos de los errores más frecuentes a la hora establecer una relación de este tipo sean:

Atribuir causalidad a aparentes coherencias. A primera vista la coherencia transmite sensación de orden y esto puede llevarnos a pensar que detrás de una serie de hechos presuntamente ordenados –según una determinada teoría o explicación– se esconde una relación causal, cuando lo que está detrás es muchas veces el azar, la casualidad o factores sin relación entre sí. Por ejemplo, la colocación de explosivos en un tren con destino Chamartín por parte de ETA en la Navidad de 2003 o la detención de una furgoneta con varios cientos de explosivos camino de Madrid en febrero de 2004 eran, nada más producirse los atentados del 11-M, indicios que podían hacer pensar en ETA como autora de la masacre. Pero como se demostró poco después esa aparente coherencia no entrañaba una relación de causalidad. La falacia narrativa es consecuencia de buscar inmediatamente una explicación, un vínculo lógico, entre diversos hechos. Las explicaciones atan a los hechos, ayudan a recordar mejor, a darle sentido y a tener la impresión de que se comprende. Pero esa impresión a menudo se basa en una narración simplificada. La simplificación también nos lleva a pensar que el mundo es menos aleatorio de lo que realmente es. [11]



Imaginar una centralización inexistente. Este es un error común al analizar la política exterior de los Estados: percibirlos como actores unitarios cuando en realidad son múltiples los individuos, grupos y facciones que participan en la elaboración de cualquier política, con intereses a menudo contrapuestos. Como consecuencia, el proceso de toma de decisiones no siempre está supeditado a una lógica coherente y racional. Se puede cometer el mismo error cuando se analiza, o se intenta prever, la conducta de actores no estatales como por ejemplo grupos insurgentes, organizaciones terroristas, grupos criminales, etc. Uno de los aspectos que más diferencian el análisis de inteligencia actual del de hace veinte años es que los actores objetos de estudio son mucho menos jerárquicos y estables en el tiempo que los que protagonizaron la guerra fría.


Equiparar la ‘magnitud’ del efecto a la de la causa. Este error se deriva del siguiente principio: las cosas grandes cuando caen hacen mucho ruido; o los grandes animales dejan grandes huellas. Razonamientos que pueden ser válidos al hacer inferencias sobre propiedades físicas pero que llevan al engaño cuando se analizan realidades más complejas: los grandes acontecimientos no siempre son resultado de grandes causas. Obviar esto es sesgo analítico propio de las teorías conspiratorias: ¿pudo un individuo solitario y patético como Lee Harvey Oswald marcar la historia asesinando al presidente de Kennedy?


Atribuir más importancia a las motivaciones internas que a las influencias externas. Un error común es sobreestimar los factores internos y subestimar los externos en la conducta de un gobierno o un actor no estatal. Al margen de las características personales y de las intenciones de los individuos, estos siempre actúan inmersos en entornos que influyen sobre su conducta. Un buen ejemplo de ello sería no tener en cuenta los factores que motivan el Dilema de seguridad: la situación que se produce cuando un determinado actor al tratar de mejorar su seguridad provoca que otros se sientan amenazados y respondan con medidas que perjudiquen la seguridad del primero



Exagerar la importancia de nuestro propio gobierno o institución sobre la conducta de los demás. Nuestra conducta es una variable más en un entorno complejo donde intervienen otros muchos factores.


Correlación espúrea o sin sentido. Que dos fenómenos cambien al mismo tiempo únicamente significa que hay covariación pero es posible que no exista relación lineal con sentido (no sólo estadística) entre ellos. Se entiende como correlación espúrea aquella que es consecuencia de un tercer factor y no a la existencia de una relación directa entre dos variables.



1.3. Sesgos al calcular probabilidades

Aunque resulte incómodamente comprometedor, es recomendable utilizar porcentajes, siempre que sea posible establecerlos con suficiente rigor, a la hora de estimar las probabilidades de un suceso o de valorar una determinada conclusión: los términos como ‘tal vez’, ‘es posible que’, ‘seguramente’, ‘quizás’, etc resultan excesivamente ambiguos cuando se trata de tomar decisiones y pueden ser voluntaria (haciéndolos coincidir con sus preferencias políticas) o involuntariamente malinterpretados por quienes leen el análisis de inteligencia. Es evidente que establecer las probabilidades con un grado absoluto de certeza sobre un fenómeno altamente complejo es una tarea prácticamente imposible, sobre todo si se trata de prever el comportamiento de seres humanos libres cuyo comportamiento no siempre es racional ni coherente. Sin embargo, existen algunos errores comunes que pueden enturbiar aún más dicho cálculo y que conviene evitar:

Sin precedentes = Improbable. Nassim Nicholas Taleb advierte lúcidamente sobre la importancia del Cisne Negro: un acontecimiento altamente improbable y de gran impacto. Nuestros marcos explicativos son útiles para predecir lo habitual, no lo irregular. La dificultad para obtener toda la información necesaria y los mapas mentales que simplifican la realidad para hacerla más comprensible son agujeros por los que se cuela la sorpresa estratégica. [12]


Anclarse en las estimaciones iniciales. Cuando un primer análisis fija una probabilidad las siguientes modificaciones tienden a tomarlo como punto de partida, de modo que, si la probabilidad que se establece inicialmente es alta, se tiende a mantener relativamente elevada y, si era baja, tiende a quedar reducida. Es conveniente reevaluar las probabilidades a la luz de las evidencias más recientes.


No tener en cuenta el carácter acumulativo de la improbabilidad. Cuando un escenario futuro depende de determinadas variables la probabilidad de que suceda disminuye conforme se van añadiendo otros factores susceptibles de cambio. Por ejemplo un previsible escenario definido en base a la coincidencia de tres sucesos cuya respectiva probabilidad de acaecer fuera del 0,70, no ofrecería la misma probabilidad de materializarse sino la probabilidad resultante del producto de ellas (0,70 x 0,70 x 0.70 = 0,24) (probabilidad compuesta)



1.4. Sesgos en la evaluación retrospectiva de los análisis de inteligencia

Se trata de los errores que se cometen cuando se evalúa un análisis de inteligencia propio o ajeno. Habitualmente la tendencia es la siguiente:

El analista normalmente sobreestima la exactitud de sus análisis anteriores y tiende a olvidar las valoraciones que más tarde no se han correspondido con la realidad


El lector, o receptor de inteligencia, piensa a veces que lo que lee es demasiado obvio o que ya lo sabía, de modo que subestima la calidad del análisis. Pero a menudo esto no se ajusta a la realidad: antes de leer el informe, no había llegado a esas conclusiones.


El análisis y evaluación de las causas, actores y circunstancias realizados tras un desastre tiende a examinar y juzgar los informes de inteligencia previos a los hechos, sin reparar que lo hace desde la posición del que ya conoce el desenlace y otorgando el valor que realmente merece a información que anteriormente estaba pendiente de confirmación




2. Principios para mejorar el análisis de inteligencia

2.1. Generar hipótesis explicativas o predictivas

A menudo el analista realiza su trabajo disponiendo de información incompleta, confusa y contradictoria. En esas circunstancias es importante ser capaces de generar y contrastar hipótesis que den sentido a la información, o que permitan anticipar escenarios futuros.

Hay tres estrategias que ayudan a proponer hipótesis: [13]

Aplicar un marco teórico. La generalización de conclusiones tras el estudio de muchos casos de un fenómeno similar conduce a la creación de teorías explicativas . Se trata de un medio utilizado asiduamente en la investigación científica que también puede servir en el análisis de inteligencia. La aplicación de un modelo teórico (por ejemplo, sobre las condiciones en las que un grupo terrorista abandona la violencia o sobre cómo colapsa un régimen político o culmina exitosamente un proceso de transición democrática) permite describir un fenómeno o prever un suceso trascendiendo los límites de la información disponible. Además, enriquece el proceso de generación de hipótesis sugiriendo explicaciones o escenarios futuros que van más allá de la mera intuición del analista. No obstante, como ya hemos señalado, los modelos teóricos son sólo un medio, no un fin: no deben encorsetar el análisis, ni llevar a que se minusvaloren evidencias que contradicen la teoría.


Comparación con otros casos históricos. Esta estrategia difiere de la aplicación de un marco teórico porque la comparación se realiza con un solo caso, o con un número pequeño de ellos, sin emplear un modelo explicativo. Su finalidad consiste también en estimular la imaginación del analista y ayudar a sugerir hipótesis a partir de experiencias previas, pero no permite adelantar conclusiones ni, mucho menos, trasladar acríticamente y en directo al objeto de estudio, líneas de actuación y procedimientos seguidos en el caso o casos elegidos como términos de comparación


Examinar la información disponible con una mente innovadora y abierta. Aunque esta estrategia parezca contradictoria con las dos anteriores, es complementaria a ambas. Ni los marcos teóricos, ni los ejemplos históricos (cuyo impacto cognitivo y emocional no se debe ignorar por cuanto puede sesgar el propio análisis) deben limitar los esquemas cognitivos. Tampoco deben sesgar el juicio del analista las ideas preconcebidas y el prejuicio. Más difícil es sustraerse a la influencia de las propias creencias, de los recuerdos y opiniones personales y de cuantos otros elementos informan y especifican la personalidad y el esquema mental de cada uno. No obstante, aun esto último deberá intentarse ejerciendo el autodistanciamiento y la empatía al servicio de la objetividad. Las técnicas y el bagaje intelectual pueden ayudar a dar con la solución de forma rápida pero también pueden convertirse en el peor enemigo del analista, si intoxican la comprensión de una nueva realidad. Este es el tema del siguiente epígrafe.



2.2. Pensar con una mente abierta

Una de las principales fuentes de error consiste en aproximarse a los datos con un modelo mental cerrado que no sepa descubrir las ‘señales’ que se esconden en el ‘ruido’ informativo, despreciando indicios tácticos que no concuerdan con las ‘ideas aceptadas’ del nivel estratégico.

El análisis de inteligencia se asemeja, en cierto modo, a la composición de un puzzle. En ambos casos se trata de configurar una imagen con las piezas disponibles. Los puzzles convencionales cuentan con un modelo cerrado (imagen que se trata de componer) y el número exacto de piezas –conocibles y verificables– necesario para reproducirlo. En el caso del análisis, el modelo no es cerrado: la imagen no está predeterminada; sólo se dispone de un marco de referencia en el que establecer las posibles relaciones (el encaje) existentes entre las piezas (informaciones) disponibles, a la espera de que de ellas emerja una imagen (o varias) coherente con el contexto y, por tanto, plausible. Como se ve, tanto la semejanza como la diferencia resultan significativas y ostensibles. En el caso del puzzle convencional, el encaje de una pieza determina la elección de la siguiente; en el análisis correctamente elaborado no. No obstante, el analista está, ciertamente, expuesto al riesgo de dejarse llevar por ideas preconcebidas (imagen previa) o de aferrarse a una prefiguración y de aceptar que ella determine, erróneamente la elección y encaje de las siguientes informaciones. En consecuencia, como la investigación empírica ha demostrado, en muchos casos, una mayor cantidad de información no garantiza la exactitud y calidad de un análisis, simplemente aumenta la confianza del analista en su propio informe. Cuanta más información se tiene peores resultados se obtienen, si esta se convierte en ruido y sólo sirve para confirmar mapas mentales erróneos. [14]

Desde esta perspectiva, pues, cabe decir que los problemas que ha de afrontar el analista suelen tener origen en: 1) la insuficiencia y/o errores de la información disponible (en gran medida responsabilidad de los órganos de obtención) y 2) del modelo mental que utiliza el analista para integrar aquella (responsabilidad de los propios analistas).

A continuación se señalan algunas herramientas que ayudan a que las ideas preconcebidas, la experiencia y los juicios previos del analista no se conviertan en un obstáculo para la calidad del análisis. Estas técnicas se basan en dos principios: cuestionar las ideas preestablecidas e incentivar la creatividad.

Evaluar la sensibilidad de las conclusiones. Es decir, preguntarse en qué medida se vería afectada la conclusión si alguna de las variables clave de las que depende el análisis se viese alterada; y preguntarse a continuación qué circunstancias podrían modificar dicha variable y cómo podríamos saber que se ha producido ese cambio.


Identificar modelos alternativos, examinando sin pasión los argumentos, la interpretación de los datos y los marcos teóricos de quienes mantienen opiniones diferentes a la nuestra. La disonancia cognitiva es incómoda y por ese motivo los ciudadanos de a pie suelen leer periódicos o escuchar emisoras de radio afines a sus preferencias políticas. Pero muchas veces hasta en los argumentos aparentemente más peregrinos se esconden elementos de verdad. Un buen analista debe tener la suficiente honestidad intelectual y grandeza de ánimo como para reconocer los juicios acertados de quienes juzgan con un enfoque diferente. La auténtica confianza en uno mismo es compatible con buscar ejemplos que demuestren que nuestra teoría es falsa.


Pensar con la mente de los otros actores. Cuando se analiza la conducta de actores que proceden de una cultura extraña es preciso evitar la ‘imagen de espejo’: proyectar sobre el otro nuestros valores, intenciones o intereses con vistas a comprender y anticipar su conducta. La imagen de espejo puede dar lugar a conclusiones erróneas e incluso peligrosas; por ejemplo, afirmar que un determinado actor es nihilista o irracional porque su lógica no coincide con la nuestra.


Pensar hacia atrás. Se trata de un ejercicio intelectual que consiste en imaginar un escenario que, de entrada, consideramos muy improbable pero que, de producirse, tendría consecuencias de gran calado (por ejemplo, el colapso de la monarquía saudí o un ataque nuclear de Israel contra el programa nuclear iraní). A continuación hay explicar cómo podría haberse llegado a esa situación. En este proceso lo más importante no es discutir si algo podría suceder sino el modo como llegaría a producirse. Podemos llevarnos la sorpresa de construir un escenario plausible para un acontecimiento que hasta entonces habíamos calificado de imposible.


Utilizar simulaciones. Las simulaciones políticas o los ‘juegos de guerra’ ayudan a asumir el rol de otros actores y a contemplar la realidad desde su punto de vista. También permiten anticipar escenarios futuros con los resultados de las interacciones que se producen durante el desarrollo de la simulación. Para realizarla se necesita un grupo más o menos reducido de analistas, pero no siempre es preciso elaborar un escenario ficticio (que muchas veces consume gran parte del tiempo de preparación) puede ser suficiente iniciar la simulación con el escenario actual, sin dedicar más de un día al desarrollo completo del ejercicio.


Emplear un abogado del diablo. Es decir, que una persona del equipo de analistas defienda una opinión minoritaria (sin que a lo mejor esté de acuerdo con ella) y que el resto justifiquen sus propios argumentos. Este sistema ayuda a descubrir vulnerabilidades en la línea de pensamiento mantenida.


Someter el análisis a la revisión por pares. Es una técnica común en el mundo académico. Consistiría en pedir a otros analistas que revisen de manera crítica nuestro trabajo. En su desarrollo es fundamental que prevalezca la honestidad intelectual y el buen talante hacia las correcciones. De lo contrario se puede acabar generando una competitividad que atrinchere a los diferentes analistas en posiciones irreductibles. [15]


Aprender de las sorpresas, entendiendo por sorpresas acontecimientos que no encajan con nuestros análisis previos. Muchas veces no son agradables porque denotan que algo en nuestro razonamiento estaba o está equivocado; pero con vistas a mejorar el análisis es preferible resaltarlas y extraer de ellas el máximo rendimiento, a negar su novedad o su carácter contradictorio con nuestros esquemas mentales.


Organizar ‘tormentas de ideas’. Esta herramienta se basa en cuatro principios: 1) No auto-imponerse limitaciones; es decir, pensar de manera libre sin condicionantes emocionales, sociales, de perspectiva, de hábitos analíticos, etc. Las ideas innovadoras suelen ser poco convencionales e incluso estrafalarias. 2) Diferir el juicio crítico: primero proponer las ideas y suspender su crítica hasta una fase posterior. 3) La cantidad puede ayudar a la calidad: inicialmente vendrán a la cabeza las ideas y planteamientos comunes; es preciso agotar ese nivel para que surjan ideas novedosas. 4) Construir en común: la combinación de ideas de unos y otros perfecciona el resultado final. Se construye y desarrolla sobre las propuestas de los otros, y se asocian ideas diferentes que una persona sola difícilmente habría tenido. Lógicamente, además de estos principios también hay otros elementos que cuentan para el éxito de la sesión: el rol del facilitador (la persona que dirige la reunión y hace la presentación inicial del problema a tratar), que todos los componentes se sientan cómodos e iguales entre sí, no repetir las ideas, establecer un tiempo límite, etc.


Organizar seminarios o grupos de trabajo con expertos procedentes de otras instituciones. Es una manera de evitar que se instaure y perviva el pensamiento cerrado dentro de un determinado departamento; y es coherente con la idea de las reservas de inteligencia y de una comunidad de inteligencia ampliada, donde participarían especialistas procedentes del mundo académico, empresarial, de ONGs, etc. Un buen ejemplo de ello es el modelo seguido por el National Intelligence Council a la hora de elaborar los documentos Global Trends.


Utilizar el método de competición de hipótesis. Es un método propuesto por Richards J. Heuer, que ayuda a elegir entre diversas hipótesis o a decantarse por escenarios futuros (con las limitaciones propias de la prospectiva ). El método trata de identificar todas las alternativas razonables y hacerlas competir unas con otras, en lugar de evaluar la plausibilidad de cada una por separado. Intenta evitar así la elección de una hipótesis inicial, aparentemente satisfactoria, olvidando otras alternativas quizás más acertadas. El principio fundamental de este método consiste en formular primero el mayor número de hipótesis plausibles y, después, tratar de refutarlas con la evidencia disponible para concentrar finalmente la atención en las que sobreviven; justo lo contrario de lo que se suele hacer de manera intuitiva: tratar de confirmar la hipótesis de entrada que nos parece favorita. La evaluación simultánea de múltiples hipótesis que compiten entre sí es un ejercicio mental exigente y difícil de realizar sin plasmarlo en un papel. Por ese motivo se ha desarrollado un software gratuito que facilita la aplicación del método. El programa informático permite la creación de una matriz donde primero se introducen las hipótesis y después las evidencias, con la posibilidad de valorar su credibilidad y relevancia. Conforme se introducen los datos, el programa va calculando la consistencia e inconsistencia de las distintas hipótesis. El programa incluye un manual de veinticinco páginas que explica su funcionamiento.


Todas estas técnicas, especialmente algunas de ellas como las simulaciones, las tormentas de ideas o el abogado de diablo, contribuyen a estimular la imaginación y a plantearse escenarios que rompen con lo convencional y que encajan con la naturaleza asimétrica de muchos de los riesgos y amenazas actuales.


Por último, Richards J. Heuer identifica una serie de condicionantes relacionados con el entorno organizacional del analista que también afectan a la apertura mental. Según el, los siguientes factores contribuirían a estimular la creatividad y la aparición de nuevas ideas. Por separado tienen escasa importancia, pero cuando coinciden contribuyen a la flexibilidad y a la innovación en los juicios:

Percibirse responsable a la hora de iniciar nuevas actividades


Disponer de un alto nivel de control sobre los diversos aspectos relacionados con el trabajo analítico: establecer objetivos, incorporar nuevos miembros al equipo, tener capacidad para decidir cómo se invierte el presupuesto asignado, etc.


Sentirse seguro y cómodo en el rol profesional. Las nuevas ideas son a menudo rompedoras y no están exentas de riesgo. Si uno sabe que su puesto no peligra si se equivoca, asumirá más fácilmente la posibilidad de fracaso. Por el contrario un ambiente que castiga en exceso los errores mina la creatividad: cuando el miedo entra por la puerta, el talento sale por la ventana. [16]


Contar con un superior administrativo que apoye y facilite el trabajo, dejando un amplio margen de maniobra


Formar parte de, o dirigir, un grupo pequeño. El tamaño reducido favorece la flexibilidad.


Combinar el trabajo analítico con otro tipo de actividades, pero sin que estas se conviertan en un elemento de perturbación y de distracción excesiva. En ocasiones, disponer de cierto tiempo de incubación y de alejamiento del análisis estimula el proceso creativo.



--------------------------------------------------------------------------------

[1] Bruce Berkowitz & Allan E. Goodman, Strategic Intelligence for American National Security, (Princeton, NJ: Princeton University Press, 1989), p. 85.

[2] Como es sabido la comunidad de inteligencia norteamericana divide el ciclo de inteligencia en cinco fases (Planeamiento y dirección, Obtención, Procesamiento, Análisis y producción, Difusión), mientras que el CNI español establece cuatro (Dirección, Obtención, Elaboración y Difusión).

[3] Mark M. Lowenthal, “Towards a Reasonable Standard for Analysis: How Right, How Often on Wich Issues?”, Intelligence and National Security, Vol. 23, No 3, (2008), pp. 303-315; John D. Stempel, “Error, Folly, and Policy Intelligence”, International Journal of Intelligence and CounterIntelligence, Vol. 13, No 3, (2000), 267-281.

[4] Noel Hendrickson, Critical Thinking in Intelligence Analysis”, International Journal on Intelligence and CounterIntelligence, 21, (2008), pp. 679-693

[5] Rob Johnston, “Developing a Taxonomy of Intelligence Analysis Variables”, Studies in Intelligence, Vol. 47, No 3, (2003)

[6]Richard K. Betts, “Analysis, War and Decision: Why Intelligence Failures Are Inevitable,”, World Politics, Vol. 31, No. 1 (1978), pp. 61-89

[7] Richards J. Heuer, Psychology of Intelligence Analysis, (Langley: Central Intelligence Agency, 1999), p. 2.

[8] Ibid. pp. 111-172.

[9] Jeffrey R. Cooper, Curing Analytic Pathologies: Pathways to Improved Intelligence Analysis, (Langley: Center for the Study of Intelligence, 2005), pp. 29-39; Francisco Galvache, "La formación de la Comunidad de Inteligencia española. Un proceso en marcha", Arbor, Vol. 180, nº 709, pp. 183-205.

[10] Bob Droguin, Curveball, (London: Ebury Press, 2007), pp. 110-111.

[11] Nassim Nicholas Taleb, El Cisne Negro. El impacto de lo altamente improbable, (Barcelona: Paidós, 2008).

[12] Ibid. pp. 117-123.

[13] Richards J. Heuer, Psychology of Intelligence Analysis, pp. 31-63

[14] Nassim Nicholas Taleb, El Cisne Negro. El impacto de lo altamente improbable, p. 213.

[15] William E. Odom, “Intelligence Analysis”, Intelligence and National Security, Vol. 23, No 3, (2008), p. 327

[16] Juan Carrión, Organizaciones idiotas vs Organizaciones inteligentes, (Madrid: Pearson Educación, 2007), p. 29.
Saber para Vencer

Twitter

Facebook
Responder

Volver a “OSINT: Manuales, Textos y Recursos”