DSI

Comprendre pour agir à l’heure du big data : une approche stratégique de la donnée

Par Bertrand Boyer, Lieutenant-colonel, saint-cyrien, breveté de l’École de guerre et diplômé de Télécom Paris Tech. Membre de la Chaire de cyberdéfense et cybersécurité, il est l’auteur de plusieurs ouvrages. Article publié dans DSI HS n°52, février-mars 2017

Les enjeux liés à la sécurisation des systèmes d’information, colonne vertébrale des transformations numériques, sont aujourd’hui pleinement pris en compte dans les réponses mises en place. Les outils et systèmes interconnectés assurent certes une circulation plus aisée de l’information, mais se sont révélés être parallèlement de redoutables producteurs de données dont on mesure aujourd’hui à peine les potentialités.

La pleine mesure de certaines évolutions n’en est qu’à ses prémices et la surabondance des données générées aujourd’hui impose de repenser notre rapport à l’information comme à son traitement. Cette tendance touche directement le militaire dans l’exercice de son métier, qu’il s’agisse de la conduite des opérations au niveau tactique ou de la prise de décision au niveau opérationnel ou stratégique. Le terme « big data » désigne classiquement des volumes de données très importants générés ou agrégés par les systèmes d’information et qui dépassent les capacités de traitement des systèmes courants. Les enjeux techniques qui entourent le big data sont donc liés à la fois au volume et à la vitesse de création de nouvelles données, à leur stockage et à leur traitement. L’arrivée des objets connectés et le développement des échanges entre machines introduisent, en outre, une nouvelle difficulté liée à la variété des données générées. Dans ce contexte, la prise de décision opérationnelle, qui repose classiquement sur l’analyse d’un problème et l’élaboration d’une réponse, s’avère de plus en plus complexe. Les armées, comme les forces de sécurité, sont directement touchées par ce phénomène et doivent s’engager résolument dans une prise en compte de la donnée pour ce qu’elle a d’essentiel : son impact sur les opérations. Une stratégie de la donnée ne peut exclusivement reposer sur une approche issue d’une logique de maîtrise de l’information et de gestion des flux, mais doit s’incarner dans une refonte du modèle de traitement et d’exploitation au service de la prise de décision.

Adopter une approche stratégique de la donnée c’est avant tout s’interroger sur l’évolution des besoins liés aux engagements actuels et probables. L’ennemi étant aujourd’hui un système complexe qui évolue dans un environnement volatile, la compréhension de cet environnement est un élément essentiel pour l’accomplissement des missions. Les métiers de l’analyse sont alors directement concernés par ces changements. Enfin l’émergence du big data nous permet d’agir sur la donnée de masse, de produire des effets sur nos systèmes et contre nos adversaires. Face à ces défis, des spécialités au croisement des sciences dures et des sciences sociales émergent alors même que les circuits de formation sont balbutiants. Le data scientist occupe une place centrale, mais doit parallèlement s’insérer dans un groupe pluridisciplinaire nettement plus large. Il convient donc de ne pas reléguer ces questions au seul domaine de l’expertise technique : les données sont pour les armées à la source de la décision, comme elles sont un carburant de la croissance pour les entreprises.

Quelles données pour quels usages ?

Dans le cadre spécifique des engagements militaires, les données peuvent schématiquement être divisées en deux grands sous-ensembles. Le premier regroupe les données propres aux armées, c’est-à-dire celles que nos systèmes génèrent, et le second, celles que nous collectons. À la fois producteur et consommateur, c’est à un double effort conceptuel qu’il faut consentir pour élaborer une stratégie opérative efficiente.

À l’image de l’industrie ou des administrations, l’activité quotidienne des armées contribue à la production de données nécessaires au fonctionnement de l’institution. Une partie de ces dernières fait l’objet d’un traitement, d’un stockage, mais de nombreuses sont délaissées, voire détruites. Pourtant, des applications concrètes peuvent voir le jour dans les domaines aussi divers que le recrutement, la formation, l’entraînement, la simulation, la logistique ou le maintien en condition.

L’arrivée progressive des objets connectés (1) qui, à terme, constitueront un « Internet des objets » (IoT – Internet of Things) doit être accompagnée pour valoriser certains segments de l’activité militaire. Ces objets, qui permettent la collecte de données sur l’environnement des individus ou des machines ainsi que sur leurs interactions, intègrent progressivement l’ensemble des systèmes d’armes et accompagnent le combattant dans ses missions (armement, transmissions, robots, équipements de vision ou de protection). Ils peuvent par ailleurs être déployés sur le terrain de façon autonome sous la forme de capteurs abandonnés. Des systèmes d’armes de haute technologie, servis par des hommes, représentent alors un champ de collecte potentiel particulièrement intéressant.

Le domaine médical est ainsi le premier à connaître des applications immédiates. Les données de santé pourraient ainsi être collectées et traitées pour favoriser la performance collective d’une unité. Leur croisement avec celles issues du recrutement, de la sélection ou de la formation permettrait par exemple de proposer des parcours de spécialités adaptés ou encore de constituer des unités élémentaires plus homogènes selon des critères de capacités physiques, d’aptitudes au tir, d’endurance à l’effort, etc.

Outre les données générées, les armées, dans le cadre de leurs engagements, dépendent de plus en plus du traitement d’informations exogènes d’une grande diversité. Une des conséquences de cette diversité se matérialise par la multiplication des réseaux et de leurs niveaux de confidentialité associés. La donnée agrégée est ainsi au cœur des mécanismes de prise de décision. La Numérisation de l’Espace de Bataille (NEB) n’est alors que l’aboutissement d’un mouvement engagé depuis les années 1990 où la réflexion s’est cristallisée sur la nécessité de mieux gérer l’augmentation des flux d’informations à caractère opérationnel. Face à cette situation et aux délais accrus de traitement, il était impératif d’accélérer le tempo du cycle décisionnel pour supplanter celui de l’adversaire. Cette vision repose sur l’idée que la victoire appartient au plus rapide des deux belligérants, celui dont la boucle OODA (Orient, Observe, Decide, Act) est la plus courte. Les effets tactiques de cette approche ont, dans le cadre des conflits symétriques ou dissymétriques, connu des réalisations spéculaires (Golfe, 1991 ; Afghanistan, 2001 ; Irak, 2003). Pour autant, elle ne constitue qu’une réponse partielle et ne considère pas l’ensemble des potentialités offertes aujourd’hui par les données de masse.

Agir avec les données de masse : la révolution de l’analyse

Pour les forces, évoluer dans un « environnement big data » pose avant tout la question de notre rapport à la donnée et à la prise de décision. La donnée, loin de dissiper le « brouillard de la guerre » ne fait que l’épaissir si elle n’est pas appréhendée, travaillée, analysée. Il n’est pas simplement question de « management de l’information », qui regroupe la gestion des flux, la curation, le traitement et la présentation synthétique, mais bien plus de construire des modèles d’analyse et de présentation permettant une valorisation informationnelle.

L’exploitation opérationnelle du big data peut faire émerger une nouvelle vision des engagements, beaucoup moins statistique et plus orientée vers la compréhension des phénomènes et des acteurs (adversaires, parties en conflit, environnement opérationnel). Pour les métiers de l’analyse, cette transformation repose avant tout sur la combinaison d’outils d’exploitation de plus en plus automatisés (voire intégrant une forme d’intelligence artificielle) et sur la capacité à conserver l’apport humain indispensable à l’appréciation d’une situation.

S’il est impératif d’améliorer la collecte, le transport sécurisé, le stockage structuré et hiérarchisé ainsi que la capacité d’interrogation des bases, il convient d’accompagner ces évolutions techniques d’une refonte de la formation des opérateurs humains chargés de l’analyse. Outre une indispensable expertise de la matière traitée, ces derniers devront intégrer le changement de paradigme induit par la permanence des flux. L’analyse est encore organisée suivant un modèle où l’exploitant cherche par lui-même l’information à traiter sur la base de requêtes. Agissant en mode « pull », l’analyste est rapidement confronté à ses propres limites de traitement et peut alors saturer, délaisser une information capitale, augmenter les délais de production et ainsi être désynchronisé avec les décideurs. Le modèle est issu d’une époque où la donnée était rare et où l’effort devait être porté sur la collecte et donc le développement de capteurs. Devant cette difficulté d’accès à l’information, disposer de plus de données était donc synonyme d’une meilleure compréhension des phénomènes.

L’analyste pourrait, en outre, sembler être aujourd’hui directement en concurrence avec le décideur lui-même. Celui-ci dispose d’un accès permanent à l’information contribuant à ce qu’il se forge son propre point de vue. Or, dans ce contexte, l’aide à la décision ne consiste plus à fournir davantage d’informations, mais à délivrer un produit exploitable. Une approche big data permet d’inverser cette tendance et de repenser les produits de l’analyse pour en faire de véritables outils au service de la décision. Au mode « pull », il est aujourd’hui possible de substituer un mode « push » dans lequel l’analyste ne sera alimenté que par une information valorisée et déjà raffinée, le libérant ainsi d’une partie du traitement. Ce gain doit également permettre l’évolution des produits pour intégrer pleinement les besoins et contraintes des décideurs ou des chefs en opérations. Ainsi, des analyses plus visuelles, sous format numérique permettant une mise à jour en temps réel, ouvriraient la porte à des interactions plus fluides entre consommateurs et producteurs, garantissant un véritable service d’aide à la décision.

Agir sur les données de masse : opportunités et vulnérabilités opérationnelles

Si le croisement de données de masse présente l’intérêt majeur de faire émerger de nouvelles informations sur un adversaire, son comportement prévisible et ses faiblesses, notre propre dépendance à la donnée induit de nouvelles vulnérabilités que ce dernier ne manque pas lui-même d’exploiter. Le besoin croissant d’information peut ainsi induire une forme de paralysie dans la prise de décision. Alimentée en continu, la chaîne de commandement peut avoir tendance à repousser ses choix par crainte qu’un nouvel élément ne vienne modifier son appréciation initiale de la situation. Paradoxalement, alors que la numérisation devait réduire la boucle OODA, elle peut, à l’inverse, engendrer son blocage.

D’autre part, en matière de conduite des opérations, la complexité des engagements impose de disposer aux plus bas échelons tactiques d’informations contextualisées et adaptées. La question du traitement de l’intégration des données à caractère opérationnel (situation ennemie, amis, logistique, cartographique) et de leur diffusion devient centrale avec le développement des capteurs et des systèmes d’information tactiques. La liberté d’action du chef passe par un choix entre deux modèles opposés. Faut-il garantir l’accès à des données brutes au plus grand nombre et donc favoriser un traitement local par des équipes spécialisées ? Ou faut-il, au contraire, privilégier la diffusion vers les unités de produits déjà élaborés répondant à leurs besoins ? Les technologies actuelles ne sont pas toutes à maturité pour pouvoir trancher, mais elles devront répondre à ce dilemme.

Si elle constitue une vulnérabilité, la dépendance aux données offre toutefois de nouvelles opportunités d’action face à des adversaires de nature conventionnelle ou irrégulière. Les transferts non sécurisés de données entre capteurs, le libre accès à certains outils ou services en ligne ouvrent pour les forces la possibilité de construire de nouveaux modes d’action pour dégrader, détruire ou modifier les données dont l’adversaire se nourrit. Certaines techniques permettant de leurrer des systèmes de détection existent d’ores et déjà, mais l’utilisation massive par des adversaires irréguliers d’outils grand public, tant pour leur propagande que pour leur communication, renouvelle le champ des possibles en matière de guerre de l’information. Dans ce contexte, une analyse poussée des dépendances informationnelles de l’adversaire devient un préalable et constitue une nouvelle forme de renseignement.

Alimentée en continu par un ensemble complexe de données, la chaîne de commandement est soumise à une pression accrue, au risque d’« infobésité ». Pour minimiser ce risque, la « fonction analyse », par la qualité de ses produits d’exploitation, est le premier acteur de la transformation numérique en cours. Cette transformation passe également par la constitution d’équipes pluridisciplinaires capables d’appréhender la donnée tant dans ses aspects techniques que dans son impact opérationnel. L’approche stratégique par les données ouvre ainsi un champ d’action nouveau pour les armées. Les opportunités liées à l’exploitation du big data, pour l’amélioration et l’optimisation de l’outil de défense, dans le cadre de la préparation à la décision comme dans celui de la conduite des opérations, restent partiellement à explorer. Loin d’une quête pour disposer d’encore plus de données, la première étape de cette transformation consiste à valoriser celles dont nous disposons déjà.

Article publié dans DSI HS n°52, février-mars 2017

Note

(1) À l’exemple du programme SCORPION au sein de l’armée de Terre.

Pin It on Pinterest

X