DSI HS

Robotique et adversaires irréguliers : du bricolage à la bataille des narrations

Le MUSCL (Modular Unmanned Surface Craft, Littoral), prototype d’USV américain, sur l’Hudson, à proximité d’une centrale nucléaire. Si ce type de robot peut être utilisé pour la surveillance des berges et des cours d’eau à proximité d’infrastructures critiques, ils peuvent également être assez facilement construits par des groupes irréguliers cherchant à attaquer des bâtiments en mer ou à proximité des ports. (© NY militia)

Entretien avec Peter W. Singer, senior fellow à la Brookings Institution (Washington), auteur de Wired for War. The Robotics Revolution and the 21st Century Warfare. Entretien paru dans DSI hors-série n°10, février-mars 2010.

Durant la guerre de 2006, le Hezbollah a utilisé quelques drones équipés de systèmes­ de contrôle LOS. L’armée israélienne en a détruit au moins un, tandis que d’autres ne l’ont pas été. Pourrions-nous, à court terme, avoir à faire face à des insurgés ou à des terroristes employant des systèmes robotisés ? Pensez-vous qu’ils puissent eux-mêmes construire ces systèmes, sans le soutien des États ?

Peter W. Singer : L’été dernier, lors d’une conférence de défense nationale, Jim Tuttle, directeur de la division science et technologie du Département de la Sécurité intérieure, a minimisé l’idée que quiconque puisse jamais avoir recours à une telle technologie contre les États-Unis. « Quel terroriste pourrait avoir un Predator ? » De telles affirmations pourraient nous conduire droit dans le mur. Des insurgés en Irak ont déjà réussi à intercepter des contenus vidéo de certains de nos drones à l’aide de logiciels à 30 dollars achetés sur Internet (nous connaissions le risque sécuritaire depuis des années, mais nous avons présumé avec arrogance que personne au Moyen-Orient ne serait capable d’y arriver). Par ailleurs, le dernier kamikaze en Afghanistan a visé une équipe de renseignement de la CIA, pensant que l’agence projetait des attaques de drones.

Mais nos adversaires n’apprennent pas seulement à adapter notre technologie. Ils explorent également comment l’utiliser par eux-mêmes. Quarante-trois autres nations construisent, achètent et utilisent de la robotique militaire aujourd’hui, allant de la Chine, qui a révélé récemment sa version du Predator et des proto­types d’un chasseur robotisé, jusqu’à des États plus faibles tels que la Biélorussie et le Pakistan. Cela soulève d’immenses questions de concurrence nationale. Et plus encore, à l’instar des logiciels, la guerre devient « open source ». À la différence des avions de transport, des bombes atomiques et des avions de chasse, la robotique ne requiert pas une énorme infrastructure pour être construite et utilisée. On peut monter les éléments à partir de pièces sur étagère ou même avec une technologie de bricolage. Quelqu’un a construit une version du drone américain Raven pour à peine 1 000 dollars. Cela signifie que des acteurs­ non étatiques peuvent également les utiliser. Le Hezbollah a fait voler quatre drones au cours de son récent­ conflit contre Israël, alors qu’un insurgé en Irak a construit son propre EEI robotisé, un skateboard télécommandé chargé d’explosifs. Même des groupes qui affirment travailler avec nous, mais qui pourraient un jour présenter un danger, sont en train de passer à l’acte. Une milice privée le long de la frontière américano-mexicaine réalise des vols de surveillance avec ses propres­ systèmes non pilotés qui leur ont coûté 25 000 dollars.

Cela crée une série d’effets ricochet dans le jeu du terrorisme. Premièrement, une plus longue portée. Pour donner un exemple de ce qui peut être fait, un aveugle de 82 ans a construit un drone qui a suivi la route de Lind­bergh au-dessus de l’Atlantique, un élément dont il faut tenir compte alors que les insurgés parlent de plus en plus de frapper nos ­bases éloignées, ici aux États-Unis et en Europe. Deuxièmement, un éventail d’actions plus large pouvant être réalisées sans pour autant être suicidaires, en constituant un « al Qaïda 2.0 » et en rendant plus dangereuse la génération suivante d’individus comme ­Timothy McVeigh (1). Un chercheur de « la DARPA » m’a dit que « pour 50 000 dollars à peine, je pourrais paralyser Manhattan ». Et, troisièmement, des mouvements sociaux qui pourraient voir apparaître de nouveaux acteurs engagés dans le terrorisme, du genre d’Unabomber ou de ceux qui attaquent des cliniques où sont pratiqués des avortements. De même qu’on ne pouvait pas penser que des individus allaient­ détourner un avion pour l’écraser tout simplement contre un gratte-ciel, il est temps pour nous d’imaginer un monde d’IED aériens­ et d’attentats-suicides à la bombe sans avoir besoin de se suicider. Parce que ce ne sera pas de la science-fiction, mais plutôt un avenir­ proche dans lequel il nous faudra nous défendre. Compte tenu de cela, nous devrons également laisser libre cours à notre imagination en matière de contre-terrorisme et de contre-renseignement.

La pensée doctrinale émergente en France tend à considérer le recours à la robotique comme une compensation tactique dans le cadre de la réduction des forces humaines dans les armées occidentales. Les robots devraient donc assumer les missions les plus dangereuses tandis que les hommes occuperaient le terrain, même pendant les périodes de contre-insurrection. Est-ce que la pensée tactique aux États-Unis suit les mêmes schémas ?

La pensée, aux États-Unis suit la même ligne. Mon souci est double : d’une part, il y a peu d’affrontements entre doctrine et tactique. L’une des choses qu’on apprend à la guerre est que ce n’est pas de connaître la quantité ou la qualité de votre technologie, mais votre doctrine, l’ensemble de votre formation, votre organisation, etc. et comment s’attendre à ce que vous vous battiez et gagniez, qui compte le plus. Mais, comme me l’a dit un capitaine de l’US Air Force quelque part au Moyen-Orient, « ce n’est pas “Réfléchissons-y mieux”, c’est seulement “Donnez-moi plus !” ».

C’est là une étape importante, dans la mesure où nous ne voulions absolument pas de la robotique. Mais ce n’est encore pas la même chose que de le faire bien. Certes, nous avons le même nombre de véhicules terrestres non pilotés (UGV) qu’il y avait de chars dans l’armée britannique à la fin de la Première Guerre mondiale. Mais bien entendu, ce sont les Allemands qui ont su le mieux tirer parti des chars lors de la Seconde Guerre mondiale. Alors, doit-on utiliser nos systèmes simplement comme des plates-formes avec des hommes ? N’y a-t-il pas de différence ? Ou doit-on les déployer autour d’un système « maître », avec le commandement et le contrôle centralisés et la puissance de feu répartie ? Ou bien doit-on les utiliser comme des essaims (noyau centraux), avec commandement et contrôle distribués et puissance de feu centralisée ? En choisissant bien, on domine. En choisissant mal, on se souviendra de vous pour avoir construit la version robotisée de la ligne Maginot.

Mais une deuxième préoccupation surgit si l’on considère seulement les robots pour remplacer les hommes sur les missions les plus dangereuses. Il faut réfléchir non pas simplement à ce que le robot peut faire, mais à ce qu’il devrait faire. Il y a des missions dangereuses où la main de l’homme est encore souhaitable, l’instinct­ humain, le sens de la responsabilité humain, quel que soit le risque. En revanche, il y a des missions non dangereuses pour lesquelles la machine est souhaitable simplement pour ses performances ou son efficacité. Par exemple, nous avons construit des tireurs d’élite robotisés, ce qui me préoccupe, mais nous n’avons pas déployé de camions robotisés (une technologie qui a déjà cinq ans), ce qui est tout aussi étonnant.

Pendant « Tempête du Désert » (1991) et « Liberté irakienne » (2003), les hommes se sont rendus à des drones. Avons-nous une idée de la réaction des populations (dont nous essayons de « gagner le cœur et l’esprit ») devant le fait que les premiers adversaires qu’elles pourraient rencontrer pourraient être des robots ?

L’ironie dans tout cela, bien qu’à l’avenir il ­devrait y avoir de plus en plus de machines, c’est que ce seront toujours nos erreurs humaines qui seront derrière et que cela reflétera toujours notre psychologie humaine. Un exemple de politique de cette guerre est l’impact des robots sur ce que le général des Marines James Mattis, du Joint Forces Command, décrit comme étant « la bataille de la narration », toute cette « guerre des idées » cruciale que nous livrons contre des groupes radicaux. Quel est le message que nous pensons transmettre avec nos robots soldats par rapport à ce que perçoit réellement l’opinion publique étrangère ? Pour mon livre, j’ai interviewé des gens sur cette question et j’ai trouvé des divergences frappantes.

Certains, comme un responsable supérieur du Département d’État de l’administra­tion Bush, sont convaincus que l’absence d’hommes dans la guerre « … joue en faveur de notre force. Ce qui fait peur aux gens, c’est notre technologie ». Mais si l’on s’adresse à des gens au Liban, par exemple, ils décrivent notre recours croissant à des systèmes inha­bités comme quelque chose de différent. Un éditorialiste là-bas me l’a présenté (alors qu’un drone vrombissait au dessus de nos têtes)­ comme « … juste une autre manifestation de l’insensibilité et de la cruauté des Israéliens et des Américains, qui sont aussi des lâches parce qu’ils envoient des machines pour nous combattre… qui ne veulent pas se battre­ avec nous comme de vrais hommes, parce qu’ils ont peur de se battre ».

Ou, comme le dit un analyste (en faisant une comparaison avec la science-fiction) : « Le tableau de tout cela nous fait paraître sacrément méchants, comme l’Empire galactique (2) de La Guerre des étoiles, et l’autre côté ressemble à l’Alliance Rebelle ». Ce sont, bien entendu, des perceptions, pas des réalités. Personnellement, je ne pense certainement pas qu’un pilote de Predator puisse être lâchement comparé à un terroriste qui place une bombe près d’un car scolaire. Mais dans la bataille des idées, les perceptions peuvent compter autant ou plus que les réalités. Je ne dis pas que nous ne devrions pas employer les robots, mais plutôt nous rendre compte qu’il y a des répercussions. Tous deux suscitent la peur, tout en la révélant involontairement. 

Propos recueillis par Joseph Henrotin, le 12 janvier 2010.

Entretien paru dans DSI hors-série n°10, février-mars 2010.

Notes

(1) NDLR : McVeigh est l’auteur de l’attentat au camion piégé contre l’immeuble fédéral d’Oklahoma City, qui a fait 168 morts et 800 blessés en 1995.

(2) NdT : L’auteur mentionne « the Evil empire » c’est-à-dire « l’empire du Mal » notion avancée par George Bush II dans sa lutte contre le terrorisme, mais dans La Guerre des étoiles de George Lukas dont il est fait état ici, il s’agit de l’Empire galactique.

Bienvenue sur Defense24.news.
Ce site regroupe une sélection d'articles et d'entretiens principalement issus du magazine DSI (Défense et Sécurité Internationale). Bonne lecture !

NATHAN_WIDGET

Pin It on Pinterest

X