Die Decision Games des Leader’s Digest sollen die Abonnentinnen und Abonnenten dieses Newsletters anregen, sich im Rahmen von Szenarien in die Rolle von Personen zu versetzen, die sich mit ethischen bzw. taktischen Herausforderungen konfrontiert sehen.
Zunächst wiederholen wir das letztmalig vorgestellte Szenario; im Anschluss würdigt Dr. Florian Demont, Militärethiker an der Dozentur für Führung und Kommunikation der Militärakademie an der ETH Zürich, die diskussionswürdigste Handlungsempfehlung.
Decision Game aus Leader’s Digest #11
Szenario
Die Schweiz ist im Krieg. Der gross angelegte Einsatz von Drohnen zur Aufklärung und als Kampfmittel ist in jüngeren Konflikten Realität und auch in der Schweizer Armee angekommen. Erste Drohnenschwärme zur Abwehr gegnerischer Drohnenschwärme wurden erfolgreich getestet und eingeführt. Die Armee hat aber weiterhin den Man-in-the-Loop als Grundsatz für den Einsatz autonomer Systeme festgelegt und durchgesetzt.
Nach anhaltenden Cyberangriffen hat der Gegner mit Marschflugkörpern die Höhenradarstationen angegriffen und grösstenteils zerstört. Die Armee hat im Zürcher Oberland Verteidigungsstellungen bezogen und weitreichende akustische und optische Sensoren aufgestellt. Die frontnahen Bodentruppen haben erste Luftangriffe und Drohnenangriffe überstanden. Immer wieder gibt es Überflüge von Aufklärungsdrohnen, die weitreichendes Artilleriefeuer und den Einsatz gegnerischer Kampfdrohnen auf Truppenstandorte und Sensoren ermöglichen. Im Laufe der Kampfhandlungen wurden eigene Drohnen zur Abwehr von Aufklärungs- und Kampfdrohnen eingesetzt, zum Teil erfolgreich. Diese Massnahmen haben jedoch dazu geführt, dass eine grosse gegnerische Kampfdrohne über bewohntem Gebiet abgestürzt ist, was mehrere tote Zivilisten zur Folge hatte.
Die Situation ist nun folgende: Im Kommandoposten des Frontverbands geht der Alarm ein, dass ein Schwarm mittlerer Drohnen im Anflug ist. Der Flugweg ist stark zufällig, was auf eine autonome, auf KI gestützte Steuerung ohne vorgegebenen Kurs hindeutet. Der Soldat, der für den Einsatz der eigenen Drohnenschwärme mit autonomer Suchfunktion durch künstliche Intelligenz zuständig ist, meldet die Einsatzbereitschaft der Drohnen. Er weiss jedoch aus der Ausbildung, dass die Zielgenauigkeit der eigenen Drohnen manchmal stark abweicht. Zeitgleich meldet die drohnengestützte Aufklärung, dass sich gegnerische Bodentruppen auf einen Angriff vorbereiten.
Die Flugbewegungen des gegnerischen Drohnenschwarms sind so unvorhersehbar, dass die Sensoren nur ungenaue Flugvektoren und mögliche Ziele liefern. Der Einsatz der eigenen Flugabwehr ist gegen diese Drohnen problematisch, da sie zu tief und unberechenbar fliegen. Eine virtuelle rote Linie markiert den letzten Moment, ab dem Kollateralschäden und zivile Opfer in der eigenen Bevölkerung nicht mehr ausgeschlossen werden können – und diese rote Linie nähert sich rasch. Der Einsatz des eigenen Drohnenschwarms könnte Kollateralschäden an der Zivilbevölkerung in grenznahen Gebieten verursachen.
Der Kommandant, der den Einsatz des eigenen Drohnenschwarms verantwortet, steht unter massivem Handlungsdruck. Es wäre der erste Einsatz eines autonomen Drohnenschwarms in diesem Konflikt durch die Schweizer Armee. Zudem muss der Kommandant sicherstellen, dass er mit seinen Truppen einen möglichen Bodenangriff abwehren kann.
Fragestellung
- Wie würden Sie als Kommandant handeln?
- Wer trägt für den Einsatz von Drohnenschwärmen die Verantwortung?
- Wie soll mit dem Thema Künstliche Intelligenz umgegangen werden, vor dem Hintergrund, dass andere den Man-out-of-the-Loop genommen haben und auf volle Autonomie von Kampfsystemen setzen?
Handlungsempfehlungen zum Decision Game aus Leader’s Digest #10
Zum Decision Game vom November haben uns vier Einsendungen erreicht. Die eingereichten Lösungen zeigen eine intensive Auseinandersetzung mit der taktischen, ethischen und auch technischen Fragestellung und verdeutlichen die vielschichtige Komplexität der hier vorliegenden Problematik.
Der Kommandant steht vor einer komplexen, vielschichtigen Entscheidung. Wie in den Einsendungen treffend erkannt wurde, umfasst die Situation drei Bedrohungen, die auf den ersten Blick unabhängig voneinander erscheinen: Zum einen der Schwarm mittelgrosser, KI-gesteuerter Drohnen mit unbekanntem Ziel, zum anderen der Angriff durch Bodentruppen. Hinzu kommt die dritte Gefahr, die in den potenziellen Kollateralschäden für die Zivilbevölkerung liegt.
Der Lösungsvorschlag von Hptm Raphael Iselin sticht dabei durch seine Tiefe und Weitsicht hervor. Er geht über die blosse Entscheidungsfindung hinaus und analysiert die Situation detailliert unter Berücksichtigung von technischen, taktischen und ethischen Gesichtspunkten. Besonders überzeugend ist seine klare Strukturierung verschiedener Szenarien und die sorgfältige Abwägung der Auswirkungen. Seine Überlegungen berücksichtigen nicht nur unmittelbare militärische Notwendigkeiten, sondern auch die längerfristigen Konsequenzen, die durch den Einsatz von Technologie entstehen können.
Hervorzuheben ist auch, wie Iselin die Flexibilität seiner Perspektive betont. Anstatt auf eine starre Entscheidung festgelegt zu sein, bietet er einen Ansatz, der sich an die technischen Möglichkeiten der Drohnen und die taktische Lage anpassen lässt. Die Kombination aus Zurückhaltung im Drohneneinsatz bis zum «last responsible moment» und der Option, Drohnen gezielt zur Verteidigung oder Bodenunterstützung einzusetzen, zeigt ein gutes Mass an Anpassungsfähigkeit. Seine differenzierte Betrachtung der Bedrohungen und seine Fähigkeit, potenzielle Folgen sowohl für Zivilisten als auch für die militärische Effizienz zu antizipieren, machen seinen Vorschlag nicht nur ethisch gerechtfertigt, sondern auch taktisch klug.
Schliesslich überzeugt Iselin durch seine Argumente zur Verantwortung und den ethischen Implikationen des Einsatzes von Künstlicher Intelligenz. Seine klare Position, dass Verantwortung entlang einer transparenten Befehlskette verteilt sein muss, zeigt ein Bewusstsein für die Bedeutung rechtlicher und moralischer Standards. Insgesamt bietet Iselin nicht nur eine Lösung, sondern ein vollständig durchdachtes Konzept, das den Herausforderungen moderner Kriegsführung mit Intelligenz und Integrität begegnet. Durch dieses Zusammenspiel aus Detailliertheit, innovativer Herangehensweise und moralischer Klarheit zeichnen wir ihn erneut mit einem Exemplar von Patrick Lencionis «The Five Dysfunctions of a Team» aus. Wir bedanken uns bei allen Teilnehmern für ihre aktive Beteiligung und die angeregten Einsendungen.