Les jeux de décision de Leader’s Digest doivent inciter les abonnés de cette newsletter à de se mettre – dans le cadre de scénarios – dans le rôle de personnes qui se trouvent confrontées à des défis éthiques ou tactiques.
Nous commençons par répéter le scénario présenté la dernière fois ; ensuite, nous présentons une appréciation des points les plus importants à discuter. Dr. Florian Demont, éthicien militaire à la chaire de conduite et de communication, de l’Académie militaire de l’EPF de Zurich, rend hommage à la recommandation d’action qui mérite le plus d’être discutée.
Jeu de décision de Leader’s Digest #11
Scénario
La Suisse est en guerre. L’utilisation à grande échelle de drones pour la reconnaissance et comme moyen de combat est devenue une réalité dans les conflits récents et a également fait son entrée dans l’armée suisse. Les premiers essaims de drones destinés à repousser les essaims de drones adverses ont été testés et introduits avec succès. L’armée a toutefois continué de définir et d’imposer l’homme dans la boucle comme principe de base pour l’utilisation de systèmes autonomes.
Après des cyberattaques persistantes, l’adversaire a attaqué les stations radar d’altitude avec des missiles de croisière et les a en grande partie détruites. L’armée a pris des positions de défense dans l’Oberland zurichois et a installé des capteurs acoustiques et optiques de grande portée. Les troupes au sol proches du front ont résisté aux premiers raids aériens et aux attaques de drones. Il y a toujours des survols de drones de reconnaissance qui permettent des tirs d’artillerie à longue portée et l’engagement de drones de combat adverses sur des emplacements de troupes et des capteurs. Au cours des combats, des drones propres ont été utilisés pour repousser les drones de reconnaissance et de combat, en partie avec succès. Ces mesures ont toutefois entraîné la chute d’un gros drone de combat adverse au-dessus d’une zone habitée, ce qui a causé la mort de plusieurs civils.
La situation est désormais la suivante : Le poste de commandement de l’unité de front reçoit l’alerte selon laquelle un essaim de drones de taille moyenne est en approche. La trajectoire est fortement aléatoire, ce qui laisse supposer un pilotage autonome, basé sur l’IA, sans trajectoire prédéfinie. Le soldat responsable de l’engagement de ses propres essaims de drones avec fonction de recherche autonome par intelligence artificielle signale que les drones sont prêts à être engagés. Il sait toutefois, grâce à l’instruction, que la précision de visée de ses propres drones est parfois très différente. En même temps, la reconnaissance par drone signale que les troupes terrestres ennemies se préparent à une attaque.
Les mouvements de l’essaim de drones ennemis sont si imprévisibles que les capteurs ne fournissent que des vecteurs de vol imprécis et des cibles potentielles. L’utilisation de sa propre défense antiaérienne est problématique contre ces drones, car ils volent trop bas et de manière imprévisible. Une ligne rouge virtuelle marque le dernier moment à partir duquel des dommages collatéraux et des victimes civiles au sein de la propre population ne peuvent plus être exclus – et cette ligne rouge s’approche rapidement. Le déploiement de son propre essaim de drones pourrait causer des dommages collatéraux à la population civile dans les zones proches de la frontière.
Le commandant responsable de l’engagement de son propre essaim de drones est soumis à une pression massive pour agir. Il s’agirait du premier engagement d’un essaim de drones autonomes dans ce conflit par l’armée suisse. De plus, le commandant doit s’assurer qu’il est en mesure de repousser une éventuelle attaque au sol avec ses troupes.
Questions
- Comment agiriez-vous en tant que commandant ?
- Qui est responsable de l’utilisation des essaims de drones ?
- Comment doit-on traiter le thème de l’intelligence artificielle, dans un contexte où d’autres ont pris l’homme-out-of-the-loop et misent sur l’autonomie totale des systèmes de combat ?
Recommandation d’action du jeu de décision de Leader’s Digest #11
Nous avons reçu quatre participations au jeu de décision de novembre. Les solutions présentées montrent une réflexion approfondie sur la question tactique, éthique et aussi technique et illustrent la complexité de la problématique en question.
Le commandant est confronté à une décision complexe et multidimensionnelle. Comme l’ont souligné les participants, la situation comprend trois menaces qui, à première vue, semblent indépendantes les unes des autres : D’une part, l’essaim de drones de taille moyenne contrôlés par l’IA et dont la cible est inconnue, d’autre part, l’attaque par des troupes au sol. A cela s’ajoute un troisième danger, celui des dommages collatéraux potentiels pour la population civile.
La solution proposée par le cap Raphael Iselin se distingue par sa profondeur et sa clairvoyance. Il va au-delà de la simple prise de décision et analyse la situation en détail en tenant compte des points de vue technique, tactique et éthique. Sa structuration claire de différents scénarios et l’évaluation minutieuse de leurs conséquences sont particulièrement convaincantes. Ses réflexions ne tiennent pas seulement compte des nécessités militaires immédiates, mais aussi des conséquences à plus long terme qui peuvent résulter de l’utilisation de la technologie.
Il convient également de souligner la manière dont Iselin souligne la flexibilité de sa perspective. Au lieu d’être figé dans une décision rigide, il propose une approche qui peut être adaptée aux possibilités techniques des drones et à la situation tactique. La combinaison entre la retenue dans l’utilisation des drones jusqu’au « last responsible moment » et l’option d’utiliser les drones de manière ciblée pour la défense ou l’appui au sol montre un bon degré d’adaptabilité. Son approche différenciée des menaces et sa capacité à anticiper les conséquences potentielles, tant pour les civils que pour l’efficacité militaire, rendent sa proposition non seulement éthiquement justifiée, mais aussi tactiquement intelligente.
Enfin, Iselin convainc par ses arguments sur la responsabilité et les implications éthiques de l’utilisation de l’intelligence artificielle. Sa position claire, selon laquelle la responsabilité doit être répartie le long d’une chaîne de commandement transparente, montre une prise de conscience de l’importance des normes juridiques et morales. Dans l’ensemble, Iselin ne propose pas seulement une solution, mais un concept entièrement réfléchi qui répond aux défis de la guerre moderne avec intelligence et intégrité. Grâce à cette combinaison de détails, d’approche innovante et de clarté morale, nous lui décernons à nouveau un exemplaire de « The Five Dysfunctions of a Team » de Patrick Lencioni. Nous remercions tous les participants pour leur participation active et leurs envois stimulants.