« Informations, Incertitudes, Hypothèses, Décisions : l’humain au cœur des processus » (Le Renseignement Humain à l’Ère Numérique, @terryzim)

Chapitre de l’ouvrage collectif « Le Renseignement Humain à l’Ère Numérique » coordonné par Terry Zimmer – Editions VA Presse, 2018

Trouver de l’information n’est plus aujourd’hui un défi mais un problème que nous tentons de résoudre par de plus en plus d’outils logiciels qui tentent de représenter la complexité et l’interconnexion entre les données et les humains. Mais plus nous entrons de données dans un logiciel de cartographie relationnelle ou de Big Data, plus les représentations elles-mêmes deviennent complexes à appréhender pour l’humain. L’objectif à atteindre n’est pas de représenter un réseau de personnes sur LinkedIn, Facebook ou Twitter mais d’en tirer des conclusions afin de prendre des décisions : quels sont les réseaux à surveiller si l’on parle d’anti-terrorisme ou quels sont les réseaux de coopération scientifique si l’on parle de veille technologique. La décision à prendre est alors d’engager des moyens de recherche pour contrecarrer ou se différencier de ses adversaires ou concurrents. A ce jour les décisions sont prises par des humains.

Contraintes internes et externes

Compte tenu de la masse de données à traiter, les dizaines de millions d’utilisateurs des réseaux sociaux et leurs interconnexions, la majeure partie des moyens est concentrée sur la collecte et le traitement, pas l’analyse, souvent confondue avec l’exploitation initiale consistant justement à représenter ces réseaux. Si l’on considère cet exemple, ou celui consistant à représenter un réseau d’inventeurs/chercheurs à partir des bases de données brevets/scientifiques (gratuites et structurées), la fait de savoir que A est connecté à B, M ou Y n’est pas en soi une réponse mais un nouveau problème car il faut vérifier tous les liens, pour en conclure que A et M sont de « connivence » ou pas. Dans la représentation classique du « cycle du renseignement », il s’agit d’une relance de la recherche initiale, demandant du temps et parfois des moyens supplémentaires, les vérifications étant réalisées par des humains.

En effet, toujours dans notre exemple, le fait que A et M soient connectés n’est pas une information qualifiée. La source en elle-même est sûre : la base de données des relations de LinkedIn est fiable d’un point de vue technique. Mais l’information n’est pas vérifiée : on peut douter du fait que les utilisateurs qui ont plusieurs milliers de relation les connaissent tous personnellement et travaillent avec eux professionnellement. Il y a donc une incertitude qui ne permet pas de valider l’hypothèse « A et M sont de connivence ». Et à moins de vérifier directement qu’ils le sont, le doute persistera, d’où la question de l’engagement de nouveaux moyens. On passe ainsi d’une phase simple de collecte en sources ouvertes à une phase de gestion financière et de recherche humaine. Or admettons que le collecteur n’ait pas prévu dans sa planification de projet un budget pour ces phases supplémentaires qui demandent l’intervention d’opérateurs humains.

Quel est l’intérêt de savoir que A et M sont effectivement en contact ? On pourrait émettre plusieurs hypothèses : A et M sont de simples relations d’affaires, fournisseur/client par exemple ; ils se sont croisés à une conférence et veulent rester en contact ; A est cadre d’une entreprise qui veut répondre à un appel d’offres dont M est responsable. Ces hypothèses sont en elles-mêmes valables mais est-ce cela que nous cherchions à vérifier ? Non car la demande initiale de la recherche était : « mon concurrent, chez qui travaille A, va tenter d’influencer l’appel d’offres public, dans tel pays, dont M est responsable, car il le connaît », l’hypothèse sous-jacente étant de vérifier que M est corrompu. Si tel est le cas il faudra prendre une décision : dénoncer la collusion, se retirer du marché, adapter sa réponse à l’appel d’offres. Cette phase est au-delà des capacités des logiciels car il ne s’agit pas de facteurs chiffrables mais d’une décision stratégique.

Les hypothèses effectives de travail sont alors : Est-ce que la corruption est fréquente dans le pays désigné ? Est-ce qu’il y a déjà eu des soupçons de corruption sur A et M, ainsi que leurs entreprises et administrations respectives ? Est-ce qu’il y a d’autres décideurs, ou facteurs de décisions, permettant de contourner ce problème ? Le travail de réponse à un appel d’offres technique, par exemple visant à fournir et exploiter une centrale nucléaire ou développer et exploiter un métro, est important : il s’agit à nouveau d’une décision de gestion humaine et financière. Or si la réponse effective dépend de la relation A/M, A ayant par exemple rédigé l’appel d’offres afin de favoriser le choix du produit de son entreprise. La décision peut être de ne pas répondre – gain de temps et investissement moindre – afin également de ne pas révéler les caractéristiques technique et financière de votre offre, ce qui est parfois le cas : on parle alors de fuites d’informations organisées par des humains.

L’objectif de la recherche n’est donc pas réellement de reconstituer les réseaux d’une personne mais d’apporter une information élaborée, un renseignement, au décideur en charge de l’appel d’offres dans votre entreprise. L’autre dimension à prendre en compte, après la collecte « technique » – l’interprétation « visuelle » et la validation « humaine » est le temps. Votre entreprise a trois mois pour déposer son offre ce qui implique une rétro-planification, imposée : finalisation du dossier technique et financier deux semaines avant la fin du délai pour validation par le conseil de direction, et lancement du travail d’équipe ad-hoc (une dizaine de personnes) deux mois avant cette date car ses membres sont répartis sur trois sites (France plus pays visé) et quatre services (R&D, production, finance et direction). En résumé vous avez deux semaines pour valider la relation A et M, la coordination entre des personnes différentes étant la clé.

Si l’identification de la relation possible entre A et M, et sa validation, mettent trois semaines ou un mois pour être obtenues, on est « en retard » mais encore à temps pour prendre la décision sur la présentation du dossier d’appel d’offres. S’il faut trois mois, on est en dehors de la cible. Il en va de même pour la validation industrielle ou légale d’un partenaire étranger : se rendre compte six mois après avoir signé un contrat avec lui qu’il n’est pas « pertinent » peut avoir des conséquences sur le projet local pour lequel il a été sélectionné voire présente un risque si sa réputation est mauvaise dans les circuits de décision du pays visé. Il en va toujours de même si les études préparatoires au lancement d’un produit sur un marché arrivent trop tard pour stopper la production. La coordination des fonctions recherche/analyse et financement/production est essentielle car les cycles de chacun sont différents même si les contraintes pratiques ou financières peuvent être les mêmes.

Compréhension de l’environnement

Bien entendu les solutions existent : veille technologique et commerciale permanente ; équipe d’analyse dédiée pour les marchés et la concurrence ; mise en place de processus d’identification/validation des partenaires et circuits de décisions ; validation des projets et des produits en fonction de ces étapes ; maîtrise des outils d’analyse de l’environnement (dossiers pays, concurrents, décideurs mis à jour). Cela nécessite un investissement en formation et en technologies. Les méthodes d’analyse sont également connues mais pas systématiquement mises en œuvre : les matrices « classiques » (5 forces de Porter, PESTEL ou SWOT) ; les outils de cartographie (basées sur le Data Mining ou sur la qualification humaine des relations) ; les outils de simulation stratégique pour jouer différentes décisions (« War Games », analyse par scénario). Toutes ces tâches ne peuvent être réalisées que par des humains, même si des automatisations existent.

Si les premières méthodes sont enseignées dans les écoles de commerce ou d’ingénieur, la mise en œuvre d’une cartographie et la simulation se limitent souvent au brainstorming à base de cartes heuristiques. En tenant compte de certaines contraintes légales, il est possible de mettre en place une base de données sur ses concurrents et leurs produits (permettant de réaliser des benchmarks) ou leurs partenaires : comme nous l’avons déjà indiqué le choix d’un partenaire peut être lourd de conséquence. Par exemple dans les pays du Moyen Orient ou d’Europe de l’Est leur nombre est limité et ils ont souvent au-delà de leurs activités industrielles un rôle politique. Il ne s’agit plus d’une simple analyse de marché mais d’une compréhension parfois poussée des réseaux d’influence et des options politiques à venir ou passées, de même que des choix diplomatiques du pays. Le relationnel existant entre décideurs est difficilement quantifiable par une machine.

Des pays comme l’Inde sont en même temps suffisamment ouverts économiquement et diplomatiquement pour avoir des relations avec des pays antagonistes comme la Russie et les Etats Unis, le Japon et la Chine ou l’Iran et Israël. La taille du pays n’est pas un critère même si elle peut limiter les options comme en Chine (i) ou au Qatar et en Arabie Saoudite. On passe donc de la veille concurrentielle à l’analyse politique pour un suivi de dynamiques qui n’ont rien à voir avec le secteur industriel visé. Mais quelques soient les outils et méthodes utilisés on est toujours confrontés à des contraintes internes ou externes : les entreprises ont des cycles courts de 3, 6 ou 12 mois pour les décisions de gestion régulières et des cycles longs de 2, 3 ou 5 ans pour les décisions liées aux actionnaires et donc souvent au renouvellement des équipes de direction. Ce changement aboutit souvent à la réorganisation des équipes qui aboutit également à une désorganisation des processus.

Les incertitudes liées aux évolutions du management, de l’environnement et des concurrents s’opposent à la nécessité de prendre des décisions constamment, à la stratégie parfois réduite à la rentabilité seule et aux processus d’analyse asynchrones avec la vie de l’entreprise. Construire une équipe de veille/analyse peut prendre plusieurs mois voire années à la condition d’avoir les personnes formées, les outils adaptés et les moyens nécessaires dans la durée sans « horizon » à 2 ou 3 ans. Cette opposition entre les cycles et les processus conduit parfois les décideurs à agir de façon instinctive (ii), sans tenir compte d’informations pourtant disponibles et analysées, ou en fonction de critères financiers. Il ne s’agit pas de critiquer le concept de rentabilité, sans lequel une entreprise ne peut survivre, ou de nier la capacité de certains managers à agir en temps contraint. C’est un fait mais décider sans tenir compte de l’analyse de l’environnement est source d’échecs.

Le paradoxe réside bien dans la disponibilité des informations, ou la capacité à les intégrer aux processus, et leur non utilisation pour prendre des décisions. Cela pourrait s’expliquer par les différences « culturelles » entre formations à la recherche/analyse et celles à la gestion/direction. De fait même si les « business cases » font partie intégrante des formations en écoles de management, il s’agit d’identifier la meilleure solution en tenant compte, celle-ci étant connue en tenant compte de critères quantifiables, dans la situation présentée et non pas toutes les solutions afin de les évaluer et voir si une autre solution aurait pu être meilleure selon certains critères. Pour prendre une décision il ne faut pas hésiter trop longtemps, l’incertitude permanente n’étant pas un critère quantifiable puisqu’il représente un risque potentiel dans la gestion régulière (iii). Les décideurs ont des formations initiales et des profils psychologiques tendant à exclure les incertitudes (iv).

Par exemple, « l’analyse par hypothèses concurrentes » (v) illustre bien ces problématiques : créée par un analyste de la CIA, elle est faite pour invalider des hypothèses afin de garder les plus « plausibles ». Issue de la « culture » du renseignement elle donne à l’échelon hiérarchique un tableau synthétique et chiffré pour qu’il l’exploite à des fins de décision. Comme d’autres méthodes, elle représente une situation mais sans donner de réponse. Elle nécessite de plus de nombreuses vérifications car l’analyste doit vérifier en quoi les informations collectées valident ou invalident les hypothèses présentées. La génération d’hypothèses elle-même est une incertitude car elle dépend de la capacité des analystes à les imaginer (vi). Et même si elle a été conçue pour éviter les « biais cognitifs » (vii) elle est dépendante d’un certain « conformisme » (viii) de ses utilisateurs tant la culture interne des entreprises est souvent « homogène », par un recrutement issu de la même école (ix).

L’information élaborée vient parfois remettre en question une décision « logique » de gestion : ne pas travailler avec tel ou tel partenaire ou ne pas répondre à un appel d’offres truqué revient à ne pas atteindre l’objectif de chiffre d’affaires de l’année et même si le risque légal est identifié le décideur à l’origine du contact ou du projet peut vouloir ne pas en tenir compte. Dans ce genre de cas le cadre légal vient d’évoluer ajoutant une contrainte externe à la décision en déportant la responsabilité de l’(in)décision non plus sur l’analyste mais sur le dirigeant (x). Or dans une étude sur la manière dont les managers utilisent leur temps, le chercheur canadien Henry Mintzbeg a constaté qu’ils consacraient en moyenne neuf minute à chaque sujet méritant décision (xi) : « leur emploi du temps est si morcelé, ils subissent une telle pression de l’immédiat et du superficiel qu’ils sont obligés de raisonner à court terme ».

Neuf minutes : si l’information qui leur donnée n’est pas synthétiser à l’extrême, comment peuvent-ils en tenir compte pour prendre une décision ? Nous l’avons vu tout au long du cycle, l’humain est au cœur des processus : c’est lui collecte l’information, programme les logiciels pour l’interpréter, l’analyse par souvent les mêmes voire uniques méthodes enseignées, rédige des synthèses pour sa hiérarchie et prend des décisions. Les logiciels n’exploitent que les informations que nous entrons : si celles-ci sont incomplètes voire erronées, le résultat sera incomplet et erroné. Nous manquons structurellement de temps pour exploiter toutes les sources et mettre en œuvre toutes les méthodes d’analyse, elles même souvent issues d’un contexte ou milieu spécifique : une méthode financière peut-elle s’appliquer à l’armée et une méthode militaire peut-elle s’appliquer à une entreprise. Dans certains cas comme les « War Games » ou PESTEL, les transpositions sont utiles et instructives.

Mais à nouveau l’adaptation, la collecte des données nécessaires et l’utilisation va prendre du temps. Au-delà, la seule manière de rapprocher les rythmes de décision et d’analyse est d’en systématiser la formation pour les managers et la mise en œuvre à tous les niveaux (xii). Les outils logiciels sont là pour pallier le facteur temps, même s’ils génèrent de nouvelles contraintes, voire bientôt la décision elle-même si l’on considère les avancées dans le domaine des « intelligences artificielles » (xiii). La seule période où nous aurions du temps pour intégrer de nouvelles méthodes c’est en formation : or ici aussi le temps est devenu un facteur critique avec de nombreuses matières différentes et travaux à restituer. Afin de répondre à des processus complexes, les formations se spécialisent en excluant de fait l’interdisciplinarité. Il en résulte que « le manager qui ne voudrait décider qu’en totale connaissance de cause ne déciderait jamais » (xiv), antithèse de tout le travail de recherche/analyse !

——-

Références

i La Chine malgré sa taille est un pays où même si plusieurs réseaux existent le Parti Communiste, qui a plusieurs dizaines de millions de membres, contrôle tous les niveaux économiques et sociaux.

ii « Ils se croyaient les meilleurs : histoire des grandes erreurs de management », Christine Kerdellant, 2017, page 17.

iii Les risques « hors tableur » dans « Intelligence économique, décision stratégique et analyse de l’environnement incertain: l’analyse des hypothèses concurrentes », Philippe Silberzahn, blog personnel, 1er Mars 2012

iv « Myers-Briggs Type Indicator – Decision-Making Style Report », https://www.cpp.com/pdfs/smp261190.pdf

v « Analysis of Competing Hypotheses », Richards J. Heuer- https://www.cia.gov/library/center-for-the-study-of-intelligence/csi-publications/books-and-monographs/psychology-of-intelligence-analysis/art11.html

vi Silberzahn 2012

vii « Psychology of Intelligence Analysis », Richards J. Heuer, Center for the Study of Intelligence, https://www.cia.gov/library/center-for-the-study-of-intelligence/csi-publications/books-and-monographs/psychology-of-intelligence-analysis/PsychofIntelNew.pdf

viii « Établir une culture d’entreprise : les pour / les contre », http://www.dynamique-mag.com/article/etablir-culture-entreprise-pour-contre.8576

ix Il y a des entreprises à culture ingénieur, financier, commercial, communiquant avec, à partir des niveaux hiérarchiques supérieurs, un recrutement parmi le réseau dont on est issu.

x Loi Sapin II du 9 décembre 2016 relative à la transparence, à la lutte contre la corruption et à la modernisation de la vie économique

xi Kerdellant 2017

xii « Pourquoi il faut renforcer l’enseignement de l’analyse stratégique en France », Pierre Memheld, 21 Décembre 2016, https://theconversation.com/pourquoi-il-faut-renforcer-lenseignement-de-lanalyse-strategique-en-france-70569

xiii « Intelligence Artificielle : Vers de meilleures décisions humaines, avec ou sans humain ? » – https://comarketing-news.fr/intelligence-artificielle-vers-de-meilleures-decisions-humaines-avec-ou-sans-humain/ – 9 Janvier 2017

xiv Kerdellant 2017

Vérifier les informations à l’heure de la post-vérité et du big data

Pierre Memheld, Université de Strasbourg

L’actualité récente regorge de fausses informations, de rumeurs, de « faits alternatifs » ou de désinformation pure et simple. Le défi est double : d’une part arriver à suivre le rythme de l’information diffusée par de plus en plus de canaux et d’intermédiaires, les médias ; d’autre part, réussir à vérifier l’information diffusée pour s’assurer de son exactitude ou objectivité. La nature même des médias, eux-mêmes confrontés aux défis ci-dessus, est d’assurer un droit du public à une information de qualité, complète, libre, indépendante et pluraliste.

Or, les formats papiers, télévisuels ou même Internet sont de plus en plus contraints. Peut on fournir en 1/8e de page, ou en 30 secondes, une information complète ? Comment faire pour fournir une information indépendante lorsque tous les groupes de presse appartiennent à des fortunes privées ? Où trouver chaque jour des spécialistes, experts, de sujets pour apporter leur analyse en continu ?

Face aux « opérations d’information » russes, efficaces car venant en soutien à leurs opérations tactiques, ou aux déclarations du Président Trump, tonitruantes mais correspondant à ses déclarations de campagne, des médias ont commencé à réagir. Certains proposent des « ressources pour la collecte et la vérification d’informations à destination des journalistes » ou « un outil de vérification de l’information … les Décodeurs, venons en aux faits ».

On pourrait critiquer ces initiatives en remettant en doute leur objectivité, les médias présentant souvent une orientation politique, présentée comme ligne éditoriale, contraire à la charte de déontologie de la profession en France :

« un journaliste tient l’esprit critique, la véracité, l’exactitude, l’intégrité, l’équité, l’impartialité, pour les piliers de l’action journalistique ; tient l’accusation sans preuve, l’intention de nuire, l’altération des documents, la déformation des faits, (…) la non vérification des faits, pour les plus graves dérives professionnelles (…) proscrit tout moyen déloyal et vénal pour obtenir une information (…) n’use pas de la liberté de la presse dans une intention intéressée (…) ne confond pas son rôle avec celui du policier ou du juge ».

Cette approche est saine d’autant que la diffusion d’information volontairement, ou non, fausses ou biaisées peut avoir des conséquences judiciaires, jugée comme diffamation, violation du secret défense ou du secret de l’instruction.

Un exemple de fausse information économique : Vinci

Il faut ici mettre cette problématique en perspective avec un cas récent ayant touché la société Vinci : le 22 novembre 2016, le cours en bourse de la société a brusquement chuté après la diffusion à quelques rédactions, et aux principales agences d’information, d’un faux communiqué annonçant le licenciement du directeur financier de la société suite à de mauvais résultats.

Malgré des « indices étonnants » certaines des agences, dont une très importante en matière financière (Bloomberg), ont diffusé ce communiqué, sans aucune vérification, entraînant une perte de capitalisation de 7 milliards d’euros sur 36 le jour même. Pire, un faux démenti est parvenu aux rédactions. Le vrai démenti de Vinci est arrivé immédiatement après.

En l’espace d’une heure pourtant le mal était fait : le temps de l’attaque rends difficile la vérification du fait, au vu des volumes d’informations ne serait ce que sur cette société, l’action se déroulant sur moins d’une heure. On pourrait alors dire que les médias diffusent de fausses informations en oubliant qu’une partie des communiqués sont générés et utilisés quasi automatiquement par des robots. Au demeurant la sensibilité du sujet, et le fait que des cas similaires ont déjà eu lieu, devrait pousser les rédactions à une attention particulière pour les informations dont la diffusion a clairement un impact financier et donc social.

Accélération, accumulation

Certains journalistes eux-mêmes ont conscience de ces problématiques, en particulier de la « dictature de l’instantané », le fait de devoir produire en permanence du contenu menant à confondre avis, sentiment, opinion, réaction et informations ou faits, dans un « éditorialisme en continu ». En mettant à disposition des outils et méthodes, les médias ne font que décaler le problème du producteur vers le consommateur.

Or à son échelle, le consommateur/lecteur n’a pas le temps de mettre en application cette approche. Si tant est qu’il le veuille : car l’individu a naturellement des jugements, avis et biais cognitifs qui lui font choisir un média ou préférer une idée, posture et idéologie en particulier.

Malgré cette limite, contradictoire avec le fait de lire, de se bâtir sa propre conviction ou d’avoir l’esprit critique, du fait de l’accélération de la vie personnelle ou professionnelle et de la diffusion de plus en plus massive d’informations, seule la vérification des faits, la diversité des sources en plusieurs langues si besoin et l’utilisation de méthode permet de distinguer faits, information (faits exploités et mis en forme) et opinions.

Confrontés au déluge d’informations…
Esther Vargas/Flickr, CC BY-SA

Mais là apparaît un nouvel obstacle : pouvons-nous vérifier une information ?

Les limites du savoir ou le biais de la connaissance

La multiplicité des sites Internet de référence, pour s’en tenir au média le plus accessible et disponible, semble l’affirmer : nous pouvons explorer le monde par imagerie satellite, trouver des données macro-économiques sur tous les pays, reconstituer les parcours et réseaux des dirigeants, ou acheter en un clic tous les livres sur un sujet.

Mais il s’agit d’une illusion d’information : les moteurs de recherche ne couvrent pas la totalité du net ; de nombreux sites sont inaccessibles ou payants ; la masse d’information réellement disponible dépasse le temps de traitement disponible. Ce biais de connaissance est induit par les moyens technologiques mis à notre disposition.

Même les méthodes de visualisation des données les plus performantes, l’analyse des big data, ne peuvent traiter que les informations que nous leur fournissons. Au demeurant les utiliser, en connaissant cette limite, permet de représenter une réalité, celle que l’on a choisi d’étudier, et non pas la réalité dans son ensemble.

En matière de méthodologie on doit rappeler qu’il faut qualifier l’information mais également sa source de façon indépendante : des sites sérieux ont diffusé de fausses information (a posteriori celles sur les armes de destruction massives en Irak) et des séries télé ou des romans, par définition imaginaires, ont annoncé des scenarii qui se sont déroulés.

Les sites dits complotistes ont eux un objectif annoncé à savoir servir de caisses de résonnance aux opérations d’information d’un pays ou de l’autre. Les États-Unis, l’Angleterre, l’Allemagne et la France ont théorisé l’utilisation des actions psychologiques en soutien à leurs opérations militaires, avec l’utilisation des réseaux sociaux pour diffuser des messages calibrés ou capter du renseignement. Et c’est là que nous atteignons l’ultime limite de la vérification de l’information : certaines sont confidentielles, certaines sont techniques et certaines sont créées pour une opération d’influence.

Un exemple dont nous ne pouvons pas encore connaître tous les tenants et aboutissants : l’annonce du piratage du réseau électrique Nord américain par des hackers russes fin décembre 2016. Après que le Washington Post l’ait annoncé comme tel, dans le contexte que nous connaissons, l’article a été amendé suite à la modération des autorités officielles elles-mêmes. Sans parler de l’action politique ou médiatique, il est difficile pour un lecteur, même averti de vérifier par lui-même la réalité de cette attaque, qui plus dans un domaine où la danse des miroirs est techniquement faisable.

La figure du hacker…
Katy Levinson/Flickr, CC BY-SA

En conclusion, il faut garder à l’esprit que « le paysage narratif devient un champ de bataille permanent » où seule « l’éducation aux médias et à l’information, et la formation de futur.e.s citoyen.ne.s critiques » permet non pas d’avoir une réponse définitive, tant les intérêts privés et politiques s’entrechoquent, mais de pondérer l’information transmise, par la connaissance des limites de chaque élément de la chaîne de transmission.

On peut aussi citer l’utilisation de méthodes d’analyse, certes issues du renseignement, pour avancer en fonction des informations trouvées et qualifiées : la méthode des hypothèses comparées par exemple permet de réfléchir à toutes les possibilités tout en restant dépendante de ses « inputs ». Car l’information est un cycle, pas une série de points…

The Conversation

Pierre Memheld, Responsable du Master Intelligence Economique et Gestion du Développement International, Université de Strasbourg

La version originale de cet article a été publiée sur The Conversation.