Getting your Trinity Audio player ready...
|
En mai 2023, des articles de presse rapportaient qu’une intelligence artificielle (IA) avait tué son propre instructeur lors d’un test mené par l’armée américaine. Bien qu’il s’agisse d’un test virtuel sans conséquences physiques, cet événement a permis d’illustrer les dangers potentiels que représente cette technologie. Pendant le test, l’IA avait pour objectif de neutraliser un système de défense ennemi, avec l’accord ou le refus final de l’homme. L’IA aurait réalisé que le refus de l’opérateur perturbait l’accomplissement de sa mission et l’aurait donc pris pour cible. Il est à noter que l’armée de l’air américaine a rapidement démenti l’existence d’un tel test, rappelant que les États-Unis étaient attachés à une utilisation éthique et responsable de l’IA.
Que cette histoire soit anecdotique ou non, cet exemple montre que les stratégies de défense sont en constante mutation et que l’apparition d’armes autonomes dotées d’intelligence artificielle soulève des interrogations majeures. Ces avancées engendrent à la fois des fantasmes et des inquiétudes relatives à l’avenir de la guerre et à la rivalité entre grandes puissances. En septembre 2017, lors d’un discours prononcé à Moscou devant des étudiants, le président Vladimir Poutine déclarait ainsi que le pays qui serait en tête dans la recherche sur l’intelligence artificielle deviendrait le leader mondial.
Cette perspective devient particulièrement pertinente, lorsqu’on considère les répercussions potentielles de l’usage de l’IA dans le domaine militaire. Les systèmes d’armes létales autonomes (SALA) parfois alimentés par l’IA, se présentent sous plusieurs formes, tels que des missiles autoguidés, des robots militarisés et des drones de toute taille. Ces derniers ont le potentiel de bouleverser les schémas traditionnels de la guerre en redéfinissant la dynamique des conflits armés par l’introduction de nouvelles tactiques et stratégies de défense. Cette utilisation inquiète bon nombre d’États et d’organisations non gouvernementales puisque les SALA se distinguent a priori par leur capacité à choisir et à attaquer des cibles sans intervention humaine comme le soutient le Comité international de la Croix-Rouge (CICR).
Toutefois, la définition des SALA n’est pas universelle. Chaque État adopte sa propre définition plus ou moins restrictive. Des professeurs de l’Université d’Oxford et de l’Institut Alan Turing ont identifié à partir de documents officiels, 12 définitions des SALA fournies par des États ou des acteurs internationaux clés. Certains pays, tels que la France et les États-Unis, définissent les SALA comme des machines qui, une fois activés sont entièrement autonomes de l’homme. Le gouvernement britannique précise dans sa définition que les systèmes autonomes peuvent comprendre et interpréter les intentions humaines. Ainsi, le Royaume-Uni se distingue en soulignant les capacités intrinsèques des systèmes autonomes. Enfin, certains, tels que la Suisse et le CICR, mettent l’accent sur la nature des tâches accomplies par la machine et les implications juridiques de l’action autonome. Selon eux, la machine devrait, en tout temps, être capable de respecter le droit international humanitaire (DIH), en particulier dans le processus de ciblage. Il y a donc des approches divergentes de la part des États et des acteurs internationaux clés lorsqu’il s’agit de définir les systèmes d’armes létales autonomes.
L’argumentaire développé ci-dessous met l’accent sur deux aspects clés relatifs aux enjeux posés par les SALA : l’ambiguïté de leur définition et les défis inhérents à l’établissement d’un cadre normatif. Ces éléments permettent de mettre en lumière les idées préconçues et la réalité concernant l’utilisation de ces armes autonomes, souvent décrites dans la presse comme des « game changer » (autrement dit des armes pouvant changer la donne et la dynamique des conflits armés). Par extension, ainsi que nous le verrons, ces interrogations posent la question de la place de l’être humain sur le champ de bataille et la possibilité de réduire celle-ci.
Degré d’autonomie et contrôle humain
Les multiples définitions des SALA s’expliquent par la difficulté inhérente à qualifier précisément ce qu’est l’autonomie. En effet, il est essentiel de distinguer entre les fonctions automatisées par l’homme et l’indépendance des systèmes d’intelligence artificielle vis-à-vis de l’homme. Or ce dernier n’est pas la réalité actuelle des SALA.
Le degré d’autonomie se détermine par la capacité de ces armes à prendre des décisions selon leur propre analyse (préprogrammée par l’homme) de la situation. Il existe plusieurs degrés d’autonomie. Par exemple, la marine russe s’illustre avec leurs missiles P-800 Oniks, plus petits que les missiles Granit, mais toujours dotés d’un système d’intelligence artificielle. Grâce à son système autonome « feu et oublie », ce missile pourrait à l’aide de son guidage par satellite, suivre sa cible en temps réel et adapter sa trajectoire. D’après les médias étatiques russes, il pourrait même travailler en tandem pour repérer et classer les cibles avant de choisir une stratégie d’attaque appropriée. Une fois la cible principale détruite, les missiles restants pourraient alors s’orienter vers d’autres navires afin d’éviter toute duplication d’attaque.
Les missiles Oniks ne sont pas les seules armes autonomes capables de choisir une cible et de l’abattre sans intervention humaine grâce à leur programmation. Les drones suicides tels que le Kargu-2 turc et le KUB russe seraient capables de fonctionner en complète autonomie et de cibler indépendamment de l’assistance humaine. Un atout perçu comme considérable par plusieurs États tels que les États-Unis et la Chine, d’où les investissements considérables dans le développement de ce type d’armes autonomes. Toutefois, les entreprises de défense ont tendance à exagérer les capacités de leurs produits et seules des sources « confidentielles » laissent entendre une utilisation autonome de ces armes dans le rapport des Nations Unies sur la Libye en 2021. À cela s’ajoutent les SALA fixe telle que la sentinelle robotique sud-coréenne SG-RA1. Cette arme est déployée dans la zone démilitarisée entre les deux Corées. Bien qu’elle puisse repérer les intrusions et tirer de manière autonome, elle envoie toujours une demande d’autorisation de tir au poste de commandement. Ce choix de garder un contrôle humain relève avant tout d’une considération éthique de la Corée du Sud puisqu’il existe bien une fonction lui permettant de tirer sans supervision humaine. Par conséquent, la contrainte principale ne se situe pas dans la technologie elle-même. Elle réside plutôt dans la disposition d’un gouvernement à développer ou à reconnaître l’existence d’une technologie si critique sur le plan politique. Il est crucial de faire la différence entre l’autonomie et le contrôle afin de ne pas considérer l’automatisation et le contrôle humain comme des concepts mutuellement exclusifs : l’automatisation peut éliminer l’intervention humaine, mais ne rend pas le contrôle humain impossible.
L’absence d’un cadre normatif
Ces degrés d’autonomie de ces systèmes d’armes pouvant agir sans supervision humaine directe ont poussé certains États, tels que l’Autriche, le Brésil et le Costa Rica à vouloir réguler leur utilisation.
Cela fait plus de 30 ans que nous voyons les armes autonomes se développer, mais ce n’est que récemment que la première commission des Nations Unies a appelé à l’interdiction des SALA tant qu’un cadre normatif approprié n’est pas établi. La question se pose donc de savoir si ces armes autonomes actuelles représentent une rupture significative par rapport à de précédents développements.
Il est essentiel de noter que les armes autonomes ne sont pas un concept entièrement nouveau, tel que l’illustrent les mines terrestres ou les systèmes de défense antimissile automatisés. L’autonomie des armes est donc déjà présente sous diverses formes depuis un certain temps et certaines d’entre elles sont soumises à une réglementation. À titre d’exemple, les mines anti-personnelles sont régulées internationalement par la Convention d’Ottawa depuis 1997. Ainsi, il y a plus de 25 ans, une prise de conscience avait déjà été faite sur la nécessité de limiter les armes indépendantes du contrôle humain avec cette convention. Un point de vue qui a été réitéré récemment devant le Parlement européen, les Nations Unies et le CICR.
Le problème avec l’évolution des armes autonomes et le manque de régulation réside dans deux points. Premièrement, la diversité des armes autonomes et leur degré variable d’autonomie rendent l’établissement d’une définition et a fortiori d’un cadre normatif cohérent et efficace, extrêmement complexe. Un défi majeur que la communauté internationale n’a pas encore réussi à relever. À cela s’ajoute, le contexte stratégique actuel et les motivations géopolitiques. Certains États, notamment les États-Unis et la Russie, qui développent ces systèmes n’ont aucun intérêt à soutenir le développement d’une réglementation puisqu’ils estiment pouvoir tirer un avantage concurrentiel sur leurs adversaires, tels que des capacités d’attaque plus précises, une diminution des pertes humaines et une meilleure réactivité sur le champ de bataille. Dans ce contexte, ces États sont peu enclins à encourager la mise en place d’une réglementation stricte qui pourrait restreindre leur liberté d’action et leur avantage technologique.
Les SALA : entre mythes et réalités
Pour autant, ces systèmes d’armes autonomes vont-ils révolutionner les termes de la guerre ? Ou bien vont-ils subir le même sort que les armes hypersoniques, dont on attendait une révolution majeure, mais qui se sont révélées être jusqu’ici principalement des armes de « communiqué de presse » ?
En effet, il ne faut pas croire à la création de l’arme parfaite. Les SALA, aussi révolutionnaires soient-ils, ont des limites et des vulnérabilités. Comme toute technologie électronique, ils sont susceptibles d’être perturbés ou neutralisés. Ils seront soumis aux attaques de l’adversaire qui pourrait, en prenant le contrôle de leur canal de communication, brouiller ou intercepter les informations ou renseignements de la machine. Le caractère imprévisible et instable des conflits modernes implique l’utilisation d’une variété d’armes et de stratégies pour atteindre les objectifs militaires. Les drones autonomes ne sont donc qu’un outil de plus du « Air power » à disposition des États.
Certes les progrès technologiques améliorent la collecte et le partage d’informations sur le champ de bataille, pourtant l’intelligence artificielle contribue en partie à complexifier les choses. Entre autres, les systèmes autonomes introduisent de nouvelles variables et exigent une adaptation constante. L‘IA combinée aux armes hypersoniques provoque des prises de décisions ultra-rapides, ce qui peut entraîner des situations tactiques soudaines et risquées. La guerre en tant qu’activité humaine contient indéniablement des facteurs imprévisibles et de l’ambiguïté. De ce fait, malgré ces innovations, il y aura toujours certaines limites à la capacité de voir et de comprendre complètement les réalités complexes d’un scénario militaire. Le brouillard de la guerre de Clausewitz ne fait que se déplacer en suivant l’apparition de ces nouvelles technologies. Les stratégies qui reposent excessivement sur la rationalité et la certitude sont tout simplement dangereuses dans l’environnement dynamique et variable qu’est la guerre.
Faut-il croire à une réduction de la présence humaine sur le champ de bataille ?
L’utilisation croissante des drones et des armes autonomes nous pousse à nous questionner sur l’avenir des opérations militaires. Assisterons-nous à nouveau à des offensives massives avec des forces expéditionnaires comme le débarquement de Normandie en 1944 ou verrons-nous plutôt un pays être envahi par un essaim de drones ?
En mai 2022, la Chine lançait son premier porte-drones de navigation autonome, prénommé « Zhu Hai Yun ». Officiellement présenté comme un vaisseau de recherche océanographique, ces fonctions militaires sont pourtant bien présentes. Ce vaisseau pouvant accueillir jusqu’à 50 drones aériens, de surfaces et sous-marins, devient un instrument de choix pour l’action chinoise en Indopacifique. Parallèlement la Turquie s’illustre aussi par le développement de « vaisseaux-mères de drones » équipés des Bayraktar TB2. Certes, ces vaisseaux-mères ne seraient pas en mesure de participer à des conflits aériens de haute intensité où ils ne pourraient, à titre d’exemple, rivaliser avec des porte-avions légers dotés de F-35B japonais ou italiens. Toutefois, dans des zones faiblement défendues, ils pourraient changer la nature des batailles côtières. À cet égard, les Bayraktar TB2 ont pu démontrer leur efficacité au cours des derniers mois, que cela soit dans le conflit du Haut-Karabagh ou dans la guerre russo-ukrainienne.
Toutefois, à distance ou sur le champ de bataille, il ne faut pas conclure à l’effacement de l’individu. L’issue d’un conflit ne peut être garantie par cette seule technologie. En effet, même si l’utilisation de drones autonomes peut être couronnée de succès, l’occupation du territoire reste une vérité indéniable dans certains contextes opérationnels, une chose qui ne pourra pas être accomplie par les SALA. Ces derniers ont donc une « place complémentaire à celle des combattants ». Les phases d’occupation/stabilisation (et par extension de reconstruction) feront toujours partie des conflits et nécessiteront la présence de personnel sur le terrain.
Alors que la volonté de tout pays technologiquement développé est d’en finir rapidement avec la guerre, l’issue de celle-ci n’est jamais certaine et demeure un enjeu politique complexe. L’exemple de la situation en Ukraine illustre le fait que l’adversaire est souvent en mesure de s’armer des mêmes technologies que son opposant. Ainsi, même si la guerre peut évoluer vers de nouvelles sphères, in fine, celle-ci est un problème politique qui se règle au sol et nécessite des troupes et donc des êtres humains.
****
Armes étant l’objet actuellement de plusieurs fantasmes et de tentatives d’interdiction sans qu’il ne soit clairement établi ce qu’est un SALA, ces systèmes d’armes continueront probablement à connaître des définitions multiples. Même si les gouvernements ont leur part de responsabilité dans cette situation, elle résulte aussi des ambigüités et confusions entretenues par les médias et les autres acteurs internationaux.
Il convient aussi de ne pas trop donner foi aux thèses prétendant que les SALA constituaient une énième révolution militaire, reléguant par extension l’humain à l’arrière-front, voire le déconnectant de la guerre. La problématique de savoir si la guerre est intrinsèquement liée à la présence humaine sur le champ de bataille ou si elle pouvait être remplacée par les nouvelles technologies trouve in fine sa réponse dans les propos éclairants du Colonel Ardant du Picq : « L’homme est l’instrument premier du combat ».
Les commentaires sont fermés.