Republication de passages de l’article de @terryzim « A destination des communautés du renseignement et d’intelligence économique: De l’urgence d’intégrer des autistes à haut niveau de fonctionnement et Asperger »

Cet article intéressant pose des bases sur l’emploi de personnes capables de « s’isoler de l’environnement pour se livrer intégralement à une unique activité » liée au renseignement dans une unité spécialisée « au sein du programme Voir Loin, Prévoir ».

Le renseignement rencontre des obstacles souvent liés à son analyse, les « biais cognitifs », et son exploitation par des décideurs, la « politisation du renseignement »: en clair un même renseignement peut être interprété de différentes manières et être utilisé à des fins autre que sa signification intrinsèque. Si le phénomène des biais commence à être relativement connu et discuté pour éviter les erreurs d’interprétations, voir par exemple le programme RECOBIA de l’Union Européenne, celui de la politisation du renseignement l’est moins tant il touche aux intentions des décideurs: on peut citer à ce sujet le chapitre 4.3 « L’analyse et le policy making: usages et mésusages du renseignement » du livre d’Olivier Chopin et Benjamin Oudet (@BenOudet) « Renseignement et sécurité, 2ème édition » chez Armand Colin.

Pour en revenir à l’article à l’origine de ce post, outre l’information que des personnes, on peut noter qu' »il existe une citation d’un entrepreneur qui dit qu’un entrepreneur est une personne attentive aux opportunités que les autres ignorent. Sur cette base, une personne atteinte de TSA pourrait être quelqu’un qui est « attentif aux détails que les autres ignorent. » » Et en effet cette capacité de concentration, d’identification de détails, d’abstraction à l’environnement de travail, l’absence de ces filtres qui nous empêchent souvent de travailler, pourrait être un atout s’il ne posait au moins deux défis: d’une part le renseignement a besoin d’un nombre constant et connu de personnels, dont des nouvelles recrues – difficile donc de prévoir que des personnes atteintes des syndromes cités seront disponibles.

D’autre part le renseignement est aussi une affaire de formation, l’acquisition de connaissances génériques sur l’organisation du travail, les « gestes métiers » car il faut des procédures, et les connaissances liées aux domaines sur lesquels on se renseigne (armements, pays, groupes armés terroristes). Et si tant est que toutes ces capacités et connaissances se retrouvent en nombre suffisant, il reste un dernier obstacle lié au manque de ces mêmes capacités et connaissances chez les décideurs dont les parcours de formation et professionnel, sans parler du profil psychologique, n’est quasiment jamais le même que ceux qui font le renseignement. Cette divergence tient sans doute au fait que les uns sont intéressés par la compréhension alors que les autres le sont par la décision.

A ma connaissance, deux auteurs de science fiction ont traité de ce sujet, l’utilisation de personnes aux capacités psychiques spécifiques dans des emplois de planification et d’anticipation: tout d’abord Ender Wiggin dans la Stratégie Ender d’Orson Scott Card puis Greg Mandel dans (La brigade) Mindstar de Peter F. Hamilton, personnages spécifiquement formés mais également dotés d’un don naturel, exploité à des fins opérationnelles. On pourrait également citer le mentat Thufir Awat dans Dune de Frank Herbert. Si des lecteurs connaissent d’autres exemples de personnages aux capacités mentales particulières, je suis preneur.

Si l’emploi de telles personnes pourrait être utile, il faudrait également étudier les mécanismes de la décision et pourquoi des personnes, en position d’être bien in-formées, prennent ce qui semble être de mauvaise décision … mais c’est un autre débat et peut être article.

#LIVRE #IE via le @Portail_IE: « L’intelligence économique du futur 1 et 2 », de Henri Dou, Alain Juillet et Philippe Clerc

J’ai récemment eu le plaisir de revoir mon professeur et inspirateur Henri Dou, avec quelques autres camarades: il est le père nôtre métier depuis les années 80 et c’est grâce à lui que je fais de l’intelligence économique et je n’ai jamais oublié ses leçons sur la veille technologique bien entendu mais aussi l’analyse des données (publications, réseaux relationnels, …).

——-

Trois grands noms de l’intelligence économique, auteurs de plusieurs ouvrages, Henri DOU, Alain JUILLET et Philippe CLERC ont travaillés ensemble pour publier ce lundi 15 octobre 2018 un ouvrage présenté sous deux volumes qui sont, « L’intelligence Economique du futur 1 ; une approche stratégique et opérationnelle » et « L’intelligence Economique du futur 2 ; une nouvelle approche de la fonction information ». L’ouvrage est publié aux Editions ISTE, ainsi que disponible en format numérique.

Henri DOU, est un des pionniers de la veille technologique en France. Il est à l’origine de la création du CRRM (Centre de Recherches Rétrospectives de Marseille). Il a par ailleurs internationalisé ses compétences en œuvrant à l’étranger dans des commissions étatiques et des universités traitant de l’intelligence compétitive dans une optique de coopérations internationales.

….

https://portail-ie.fr/short/1953/lintelligence-economique-du-futur-1-et-2-de-henri-dou-alain-juillet-et-philippe-clerc

Experimentally Evaluating #Bias-Reducing Visual Analytics Techniques in #Intelligence #Analysis

« Intelligence analysis is a complex process that not only requires substantial training and deep expertise, but is heavily impacted by human cognitive factors. Studies have shown that even experienced, highly-trained personnel sometimes commit serious errors in judgment as a result of heuristic thinking and the impact of judgment bias in matters of national security can be catastrophic. Developing effective debiasing techniques requires addressing a number of daunting challenges. While intuitively appealing, the ability to construct suitable methods to test behaviour under actual work conditions is limited and the generalisability of findings from laboratory settings to work settings is a serious concern. To date, researchers have performed only limited investigations of a small number of debiasing techniques in the workplace. There is still a strong need for experimentally validated debiasing techniques that can be incorporated into analytic tradecraft so that foreseeable thinking errors can be avoided. Drawing from the useful features of prior studies, a reference framework has been developed for the experimental evaluation of bias mitigations applied to problems of an intelligence nature. »

Source : Experimentally Evaluating Bias-Reducing Visual Analytics Techniques in Intelligence Analysis | SpringerLink

Exploring Intuition and its Role in Managerial Decision Making

Advanced Analytic Techniques


Exploring Intuition And Its Role In Managerial Decision Making
Erik Dane, Michael G. Pratt. University of Illinois at Urbana-Champaign
This paper, as the title states, tackles how intuition plays a role in the decision-making process for managers and how the ability to use intuition can impact managers at different levels. 
The authors make note of prior research within the introduction that indicates how intuition has played a critical role in differentiating successful top executives and board members from lower-level managers and dysfunctional boards (Dane & Pratt, 2007).   Dane and Pratt identify the different types of thinking regarding intuition and how some researchers suggest intuition is about outcomes, or that intuition is a process, while others combine the two without differentiation (Dane & Pratt, 2007).
The paper identifies over 15 different definitions for intuition and ultimately decide on the following definition to be used within the context of the paper: “affectively charged judgments that arise through rapid, nonconscious, and holistic associations” (Dane & Pratt, 2007 p.40).   The authors discuss factors that can influence intuition decision making such as types of learning, environmental uncertainty, practice, and domain knowledge.  The authors indicate that implicit learning potentially results in increased effectiveness of intuitive decision making for managers.
The implications, the authors suggest, note that intuitive thinking can be effective for managers within their industries.  Managers should foster environments that can enhance implicit learning due to the suggested research ties between implicit learning and enhanced intuition through developing nonconscious processes.  Some downfalls noted by the authors occur when managers move positions. Particularly when managers switch industries and their environment changes and expert knowledge decreases, potentially resulting in less effective intuitive decision making. The question arises of how different does context have to be in order to negate the relevance of cognitive schemas (Dane & Pratt, 2007)?  Therefore, organizations should be wary of new managers using intuition for decision making if they do not have experience in the industry/occupation (Dane & Pratt, 2007).
Critique:
I feel the paper was interesting in exploring the different types of research around intuition, to include the abundance of differing definitions.  However, the paper was just a literature review and seemingly not offering much in terms of their own research.  I think it could have benefited greatly from some type of empirical study of mid and potentially top-level managers utilizing intuition-based decision making.
Dane, E., Pratt, M. (2007). Exploring Intuition And Its Role in Managerial Decision Making. Academy of Management Review. Vol. 32, No. 1; 33-54. Retrieved from http://homepages.se.edu/cvonbergen/files/2012/12/EXPLORING-INTUITION-AND-ITS-ROLE-IN-MANAGERIAL-DECISION-MAKING1.pdf

#Livre #IE #Erreurs:  » Les décisions absurdes. Sociologie des erreurs radicales et persistantes »

Parution : 17-04-2002

« Informations, Incertitudes, Hypothèses, Décisions : l’humain au cœur des processus » (Le Renseignement Humain à l’Ère Numérique, @terryzim)

Chapitre de l’ouvrage collectif « Le Renseignement Humain à l’Ère Numérique » coordonné par Terry Zimmer – Editions VA Presse, 2018

Trouver de l’information n’est plus aujourd’hui un défi mais un problème que nous tentons de résoudre par de plus en plus d’outils logiciels qui tentent de représenter la complexité et l’interconnexion entre les données et les humains. Mais plus nous entrons de données dans un logiciel de cartographie relationnelle ou de Big Data, plus les représentations elles-mêmes deviennent complexes à appréhender pour l’humain. L’objectif à atteindre n’est pas de représenter un réseau de personnes sur LinkedIn, Facebook ou Twitter mais d’en tirer des conclusions afin de prendre des décisions : quels sont les réseaux à surveiller si l’on parle d’anti-terrorisme ou quels sont les réseaux de coopération scientifique si l’on parle de veille technologique. La décision à prendre est alors d’engager des moyens de recherche pour contrecarrer ou se différencier de ses adversaires ou concurrents. A ce jour les décisions sont prises par des humains.

Contraintes internes et externes

Compte tenu de la masse de données à traiter, les dizaines de millions d’utilisateurs des réseaux sociaux et leurs interconnexions, la majeure partie des moyens est concentrée sur la collecte et le traitement, pas l’analyse, souvent confondue avec l’exploitation initiale consistant justement à représenter ces réseaux. Si l’on considère cet exemple, ou celui consistant à représenter un réseau d’inventeurs/chercheurs à partir des bases de données brevets/scientifiques (gratuites et structurées), la fait de savoir que A est connecté à B, M ou Y n’est pas en soi une réponse mais un nouveau problème car il faut vérifier tous les liens, pour en conclure que A et M sont de « connivence » ou pas. Dans la représentation classique du « cycle du renseignement », il s’agit d’une relance de la recherche initiale, demandant du temps et parfois des moyens supplémentaires, les vérifications étant réalisées par des humains.

En effet, toujours dans notre exemple, le fait que A et M soient connectés n’est pas une information qualifiée. La source en elle-même est sûre : la base de données des relations de LinkedIn est fiable d’un point de vue technique. Mais l’information n’est pas vérifiée : on peut douter du fait que les utilisateurs qui ont plusieurs milliers de relation les connaissent tous personnellement et travaillent avec eux professionnellement. Il y a donc une incertitude qui ne permet pas de valider l’hypothèse « A et M sont de connivence ». Et à moins de vérifier directement qu’ils le sont, le doute persistera, d’où la question de l’engagement de nouveaux moyens. On passe ainsi d’une phase simple de collecte en sources ouvertes à une phase de gestion financière et de recherche humaine. Or admettons que le collecteur n’ait pas prévu dans sa planification de projet un budget pour ces phases supplémentaires qui demandent l’intervention d’opérateurs humains.

Quel est l’intérêt de savoir que A et M sont effectivement en contact ? On pourrait émettre plusieurs hypothèses : A et M sont de simples relations d’affaires, fournisseur/client par exemple ; ils se sont croisés à une conférence et veulent rester en contact ; A est cadre d’une entreprise qui veut répondre à un appel d’offres dont M est responsable. Ces hypothèses sont en elles-mêmes valables mais est-ce cela que nous cherchions à vérifier ? Non car la demande initiale de la recherche était : « mon concurrent, chez qui travaille A, va tenter d’influencer l’appel d’offres public, dans tel pays, dont M est responsable, car il le connaît », l’hypothèse sous-jacente étant de vérifier que M est corrompu. Si tel est le cas il faudra prendre une décision : dénoncer la collusion, se retirer du marché, adapter sa réponse à l’appel d’offres. Cette phase est au-delà des capacités des logiciels car il ne s’agit pas de facteurs chiffrables mais d’une décision stratégique.

Les hypothèses effectives de travail sont alors : Est-ce que la corruption est fréquente dans le pays désigné ? Est-ce qu’il y a déjà eu des soupçons de corruption sur A et M, ainsi que leurs entreprises et administrations respectives ? Est-ce qu’il y a d’autres décideurs, ou facteurs de décisions, permettant de contourner ce problème ? Le travail de réponse à un appel d’offres technique, par exemple visant à fournir et exploiter une centrale nucléaire ou développer et exploiter un métro, est important : il s’agit à nouveau d’une décision de gestion humaine et financière. Or si la réponse effective dépend de la relation A/M, A ayant par exemple rédigé l’appel d’offres afin de favoriser le choix du produit de son entreprise. La décision peut être de ne pas répondre – gain de temps et investissement moindre – afin également de ne pas révéler les caractéristiques technique et financière de votre offre, ce qui est parfois le cas : on parle alors de fuites d’informations organisées par des humains.

L’objectif de la recherche n’est donc pas réellement de reconstituer les réseaux d’une personne mais d’apporter une information élaborée, un renseignement, au décideur en charge de l’appel d’offres dans votre entreprise. L’autre dimension à prendre en compte, après la collecte « technique » – l’interprétation « visuelle » et la validation « humaine » est le temps. Votre entreprise a trois mois pour déposer son offre ce qui implique une rétro-planification, imposée : finalisation du dossier technique et financier deux semaines avant la fin du délai pour validation par le conseil de direction, et lancement du travail d’équipe ad-hoc (une dizaine de personnes) deux mois avant cette date car ses membres sont répartis sur trois sites (France plus pays visé) et quatre services (R&D, production, finance et direction). En résumé vous avez deux semaines pour valider la relation A et M, la coordination entre des personnes différentes étant la clé.

Si l’identification de la relation possible entre A et M, et sa validation, mettent trois semaines ou un mois pour être obtenues, on est « en retard » mais encore à temps pour prendre la décision sur la présentation du dossier d’appel d’offres. S’il faut trois mois, on est en dehors de la cible. Il en va de même pour la validation industrielle ou légale d’un partenaire étranger : se rendre compte six mois après avoir signé un contrat avec lui qu’il n’est pas « pertinent » peut avoir des conséquences sur le projet local pour lequel il a été sélectionné voire présente un risque si sa réputation est mauvaise dans les circuits de décision du pays visé. Il en va toujours de même si les études préparatoires au lancement d’un produit sur un marché arrivent trop tard pour stopper la production. La coordination des fonctions recherche/analyse et financement/production est essentielle car les cycles de chacun sont différents même si les contraintes pratiques ou financières peuvent être les mêmes.

Compréhension de l’environnement

Bien entendu les solutions existent : veille technologique et commerciale permanente ; équipe d’analyse dédiée pour les marchés et la concurrence ; mise en place de processus d’identification/validation des partenaires et circuits de décisions ; validation des projets et des produits en fonction de ces étapes ; maîtrise des outils d’analyse de l’environnement (dossiers pays, concurrents, décideurs mis à jour). Cela nécessite un investissement en formation et en technologies. Les méthodes d’analyse sont également connues mais pas systématiquement mises en œuvre : les matrices « classiques » (5 forces de Porter, PESTEL ou SWOT) ; les outils de cartographie (basées sur le Data Mining ou sur la qualification humaine des relations) ; les outils de simulation stratégique pour jouer différentes décisions (« War Games », analyse par scénario). Toutes ces tâches ne peuvent être réalisées que par des humains, même si des automatisations existent.

Si les premières méthodes sont enseignées dans les écoles de commerce ou d’ingénieur, la mise en œuvre d’une cartographie et la simulation se limitent souvent au brainstorming à base de cartes heuristiques. En tenant compte de certaines contraintes légales, il est possible de mettre en place une base de données sur ses concurrents et leurs produits (permettant de réaliser des benchmarks) ou leurs partenaires : comme nous l’avons déjà indiqué le choix d’un partenaire peut être lourd de conséquence. Par exemple dans les pays du Moyen Orient ou d’Europe de l’Est leur nombre est limité et ils ont souvent au-delà de leurs activités industrielles un rôle politique. Il ne s’agit plus d’une simple analyse de marché mais d’une compréhension parfois poussée des réseaux d’influence et des options politiques à venir ou passées, de même que des choix diplomatiques du pays. Le relationnel existant entre décideurs est difficilement quantifiable par une machine.

Des pays comme l’Inde sont en même temps suffisamment ouverts économiquement et diplomatiquement pour avoir des relations avec des pays antagonistes comme la Russie et les Etats Unis, le Japon et la Chine ou l’Iran et Israël. La taille du pays n’est pas un critère même si elle peut limiter les options comme en Chine (i) ou au Qatar et en Arabie Saoudite. On passe donc de la veille concurrentielle à l’analyse politique pour un suivi de dynamiques qui n’ont rien à voir avec le secteur industriel visé. Mais quelques soient les outils et méthodes utilisés on est toujours confrontés à des contraintes internes ou externes : les entreprises ont des cycles courts de 3, 6 ou 12 mois pour les décisions de gestion régulières et des cycles longs de 2, 3 ou 5 ans pour les décisions liées aux actionnaires et donc souvent au renouvellement des équipes de direction. Ce changement aboutit souvent à la réorganisation des équipes qui aboutit également à une désorganisation des processus.

Les incertitudes liées aux évolutions du management, de l’environnement et des concurrents s’opposent à la nécessité de prendre des décisions constamment, à la stratégie parfois réduite à la rentabilité seule et aux processus d’analyse asynchrones avec la vie de l’entreprise. Construire une équipe de veille/analyse peut prendre plusieurs mois voire années à la condition d’avoir les personnes formées, les outils adaptés et les moyens nécessaires dans la durée sans « horizon » à 2 ou 3 ans. Cette opposition entre les cycles et les processus conduit parfois les décideurs à agir de façon instinctive (ii), sans tenir compte d’informations pourtant disponibles et analysées, ou en fonction de critères financiers. Il ne s’agit pas de critiquer le concept de rentabilité, sans lequel une entreprise ne peut survivre, ou de nier la capacité de certains managers à agir en temps contraint. C’est un fait mais décider sans tenir compte de l’analyse de l’environnement est source d’échecs.

Le paradoxe réside bien dans la disponibilité des informations, ou la capacité à les intégrer aux processus, et leur non utilisation pour prendre des décisions. Cela pourrait s’expliquer par les différences « culturelles » entre formations à la recherche/analyse et celles à la gestion/direction. De fait même si les « business cases » font partie intégrante des formations en écoles de management, il s’agit d’identifier la meilleure solution en tenant compte, celle-ci étant connue en tenant compte de critères quantifiables, dans la situation présentée et non pas toutes les solutions afin de les évaluer et voir si une autre solution aurait pu être meilleure selon certains critères. Pour prendre une décision il ne faut pas hésiter trop longtemps, l’incertitude permanente n’étant pas un critère quantifiable puisqu’il représente un risque potentiel dans la gestion régulière (iii). Les décideurs ont des formations initiales et des profils psychologiques tendant à exclure les incertitudes (iv).

Par exemple, « l’analyse par hypothèses concurrentes » (v) illustre bien ces problématiques : créée par un analyste de la CIA, elle est faite pour invalider des hypothèses afin de garder les plus « plausibles ». Issue de la « culture » du renseignement elle donne à l’échelon hiérarchique un tableau synthétique et chiffré pour qu’il l’exploite à des fins de décision. Comme d’autres méthodes, elle représente une situation mais sans donner de réponse. Elle nécessite de plus de nombreuses vérifications car l’analyste doit vérifier en quoi les informations collectées valident ou invalident les hypothèses présentées. La génération d’hypothèses elle-même est une incertitude car elle dépend de la capacité des analystes à les imaginer (vi). Et même si elle a été conçue pour éviter les « biais cognitifs » (vii) elle est dépendante d’un certain « conformisme » (viii) de ses utilisateurs tant la culture interne des entreprises est souvent « homogène », par un recrutement issu de la même école (ix).

L’information élaborée vient parfois remettre en question une décision « logique » de gestion : ne pas travailler avec tel ou tel partenaire ou ne pas répondre à un appel d’offres truqué revient à ne pas atteindre l’objectif de chiffre d’affaires de l’année et même si le risque légal est identifié le décideur à l’origine du contact ou du projet peut vouloir ne pas en tenir compte. Dans ce genre de cas le cadre légal vient d’évoluer ajoutant une contrainte externe à la décision en déportant la responsabilité de l’(in)décision non plus sur l’analyste mais sur le dirigeant (x). Or dans une étude sur la manière dont les managers utilisent leur temps, le chercheur canadien Henry Mintzbeg a constaté qu’ils consacraient en moyenne neuf minute à chaque sujet méritant décision (xi) : « leur emploi du temps est si morcelé, ils subissent une telle pression de l’immédiat et du superficiel qu’ils sont obligés de raisonner à court terme ».

Neuf minutes : si l’information qui leur donnée n’est pas synthétiser à l’extrême, comment peuvent-ils en tenir compte pour prendre une décision ? Nous l’avons vu tout au long du cycle, l’humain est au cœur des processus : c’est lui collecte l’information, programme les logiciels pour l’interpréter, l’analyse par souvent les mêmes voire uniques méthodes enseignées, rédige des synthèses pour sa hiérarchie et prend des décisions. Les logiciels n’exploitent que les informations que nous entrons : si celles-ci sont incomplètes voire erronées, le résultat sera incomplet et erroné. Nous manquons structurellement de temps pour exploiter toutes les sources et mettre en œuvre toutes les méthodes d’analyse, elles même souvent issues d’un contexte ou milieu spécifique : une méthode financière peut-elle s’appliquer à l’armée et une méthode militaire peut-elle s’appliquer à une entreprise. Dans certains cas comme les « War Games » ou PESTEL, les transpositions sont utiles et instructives.

Mais à nouveau l’adaptation, la collecte des données nécessaires et l’utilisation va prendre du temps. Au-delà, la seule manière de rapprocher les rythmes de décision et d’analyse est d’en systématiser la formation pour les managers et la mise en œuvre à tous les niveaux (xii). Les outils logiciels sont là pour pallier le facteur temps, même s’ils génèrent de nouvelles contraintes, voire bientôt la décision elle-même si l’on considère les avancées dans le domaine des « intelligences artificielles » (xiii). La seule période où nous aurions du temps pour intégrer de nouvelles méthodes c’est en formation : or ici aussi le temps est devenu un facteur critique avec de nombreuses matières différentes et travaux à restituer. Afin de répondre à des processus complexes, les formations se spécialisent en excluant de fait l’interdisciplinarité. Il en résulte que « le manager qui ne voudrait décider qu’en totale connaissance de cause ne déciderait jamais » (xiv), antithèse de tout le travail de recherche/analyse !

——-

Références

i La Chine malgré sa taille est un pays où même si plusieurs réseaux existent le Parti Communiste, qui a plusieurs dizaines de millions de membres, contrôle tous les niveaux économiques et sociaux.

ii « Ils se croyaient les meilleurs : histoire des grandes erreurs de management », Christine Kerdellant, 2017, page 17.

iii Les risques « hors tableur » dans « Intelligence économique, décision stratégique et analyse de l’environnement incertain: l’analyse des hypothèses concurrentes », Philippe Silberzahn, blog personnel, 1er Mars 2012

iv « Myers-Briggs Type Indicator – Decision-Making Style Report », https://www.cpp.com/pdfs/smp261190.pdf

v « Analysis of Competing Hypotheses », Richards J. Heuer- https://www.cia.gov/library/center-for-the-study-of-intelligence/csi-publications/books-and-monographs/psychology-of-intelligence-analysis/art11.html

vi Silberzahn 2012

vii « Psychology of Intelligence Analysis », Richards J. Heuer, Center for the Study of Intelligence, https://www.cia.gov/library/center-for-the-study-of-intelligence/csi-publications/books-and-monographs/psychology-of-intelligence-analysis/PsychofIntelNew.pdf

viii « Établir une culture d’entreprise : les pour / les contre », http://www.dynamique-mag.com/article/etablir-culture-entreprise-pour-contre.8576

ix Il y a des entreprises à culture ingénieur, financier, commercial, communiquant avec, à partir des niveaux hiérarchiques supérieurs, un recrutement parmi le réseau dont on est issu.

x Loi Sapin II du 9 décembre 2016 relative à la transparence, à la lutte contre la corruption et à la modernisation de la vie économique

xi Kerdellant 2017

xii « Pourquoi il faut renforcer l’enseignement de l’analyse stratégique en France », Pierre Memheld, 21 Décembre 2016, https://theconversation.com/pourquoi-il-faut-renforcer-lenseignement-de-lanalyse-strategique-en-france-70569

xiii « Intelligence Artificielle : Vers de meilleures décisions humaines, avec ou sans humain ? » – https://comarketing-news.fr/intelligence-artificielle-vers-de-meilleures-decisions-humaines-avec-ou-sans-humain/ – 9 Janvier 2017

xiv Kerdellant 2017

Prédiction: Pourquoi les experts se trompent plus que les chimpanzés | Le blog de Philippe Silberzahn

« Le domaine de la prédiction est le bûcher des vanités, mais cela semble particulièrement le cas pour les experts. C’est en tout cas ce que montrent les travaux très originaux d’un chercheur américain, Philip Tetlock. Il montre que les experts se trompent plus que les généralistes, et plus encore que… des chimpanzés lançant des fléchettes au hasard! Regardons pourquoi. »

Source : Prédiction: Pourquoi les experts se trompent plus que les chimpanzés | Le blog de Philippe Silberzahn