* . * . * .

Einsatz im Gaza-Krieg: Die KI gibt ihm 20 Sekunden. Dann muss der Soldat entschieden, ob ein Mensch stirbt

Bei den neusten Angriffen in Gaza sterben wieder hunderte Zivilisten. Ein möglicher Grund: Israel verlässt sich auf Künstliche Intelligenz. Und die hat ihre Tücken.

Der Waffenstillstand in Gaza ist gescheitert. Erneut bombardiert die israelische Armee das Gebiet. Über 400 Menschen sollen laut palästinensischen Angaben allein in der ersten Nacht seit dem Wiederaufflammen der Kämpfe gestorben sein. Darunter zahlreiche Kinder. Und erneut stellt sich die Frage: Warum sterben in Gaza so viele Zivilisten? Weil Israel schlicht so viel bombardiert, jeden, alles, ohne Unterschied, ohne jedwede intelligente Steuerung?

Tatsächlich könnte ein Grund genau im Gegenteil liegen – im Einsatz von Künstlicher Intelligenz.

Die Nutzung von KI durchs Militär sei kein neues Phänomen, sagt Frank Sauer von der Bundeswehr-Universität in München. “KI hat erst einmal den gleichen Nutzen für das Militär wie auch im zivilen Leben, sie hilft bei der Organisation. KI wird in allen Bereichen eingesetzt. Zum Beispiel können Kampfflieger auf Grundlage von ausgewerteten Daten passgenau ihre Ersatzteile bestellen.” 

Israels Militär setzt KI allerdings nicht nur für logistische oder administrative Zwecke ein. Mithilfe von KI markiert die Armee Ziele, die dann zum Abschuss freigegeben werden. “Lavender”, “Ghospel” und “Where is Daddy?”, heißen die Programme. 

Ein Punktesystem entscheidet in Gaza über Leben und Tod

“Lavender” soll mögliche menschliche Ziele ausmachen; “Ghospel” erkennt Gebäude und Infrastruktur, die möglicherweise von Gegner genutzt werden. Und “Where is Daddy?” kann den Aufenthaltsort von Personen bestimmen. Das ergaben Recherchen des Oscar-gekrönten Journalisten Yuval Abraham. Der israelische Journalist konnte mit einem halben Dutzend anonymer Quellen innerhalb des israelischen Militärs sprechen.

“Der Gazastreifen ist sehr genau aufgeklärt und überwacht. Das israelische Militär hat sehr viele Datenpunkte, die sie jeder einzelnen Person individuell zuordnen können”, sagt Sauer. Wo war eine Person? Wie lange? Mit wem hat sie gesprochen? Wie oft? “Lavender produziert aus diesen Daten einen Score, der mit einer gewissen Wahrscheinlichkeit angibt, ob es sich bei der Person um ein Hamas-Mitglied handelt”, erklärt der Militärexperte. 

Das Ergebnis: Die KI markierte vor allem zu Beginn des Krieges in kürzester Zeit zehntausende Ziele im dichtbesiedelten Gazastreifen. So viele, dass eine menschliche Überprüfung kaum noch möglich war. Im Schnitt 20 Sekunden, so berichtet Abraham, hatten die Soldaten, um über den nächsten Angriff zu entscheiden. “Das Problem ist nicht unbedingt, dass man KI verwendet, um Informationen zu analysieren und Ziele zu identifizieren, sondern die Geschwindigkeit, die dadurch entsteht”, sagt Laura Bruun, vom Friedensforschungsinstitut Sipri. Die menschliche Entscheidung würde dabei in den Hintergrund treten. Zumal häufig das Phänomen zu beobachten sei, dass Menschen der Maschine mehr vertrauten als sich selbst. “Automation-Bias” nennt sich dieser Effekt. Dabei hatte die KI, laut Abraham, eine Fehlerquote von zehn Prozent. 

Tote Palästinenser in Deir el-Balah: Kein Ort in Gaza scheint sicher
© Abdel Kareem Hana/AP/dpa

Mit dem Völkerrecht nicht vereinbar

“Aus militärischer Sicht ist hier etwas schiefgegangen”, sagt Sauer. Eine Überprüfung der Ziele in Gaza habe nur noch kursorisch stattgefunden. Zum Beispiel seien Audiomitschnitte lediglich dahingehend überprüft worden, ob es sich um eine männliche, erwachsene Stimme handele. Bruun und Sauer sind sich einig: Die Standards, die zur Freigabe von Zielen eingesetzt wurden, waren viel zu niedrig. Abraham berichtet, dass das israelische Militär eine Quote für Luftangriffe festgelegt habe: 15 bis 20 tote Zivilisten nehme man in Kauf, wen es gelingt, ein Hamas-Mitglied der niederen Ränge zu töten.

Ein weiterer Faktor, der zu der hohen Zahl an Toten geführt haben dürfte: Israel hat Zielpersonen vor allem in ihrem eigenen Haus getötet. Das KI-Tool “Where is Daddy?”, informierte die zuständigen Einheiten, sobald eine Zielperson die eigenen vier Wände betrat. In der Nacht wurde das Gebäude dann bombardiert. Die Armee wollte damit vermutlich sicher gehen, dass die Zielperson nicht vor dem Luftschlag schon wieder woanders ist. Die Konsequenzen dieser Strategie dürfte den Verantwortlichen bewusst gewesen sein. Der Name des Programms gibt zumindest einen Hinweis darauf, wer meistens getroffen wurde: Väter – und ihre Familien.

Ein solches Vorgehen sei kaum mit dem Kriegsvölkerrecht in Einklang zu bringen, sagt Politikwissenschaftler Frank Sauer. “Man kann nicht einfach eine 500 Pfund Bombe auf ein Haus werfen, nur weil man mit einer gewissen Wahrscheinlichkeit annimmt, dass sich dort eventuell ein Hamas-Mitglied aufhält, und dabei völlig außen vor lassen, wer sich möglicherweise noch dort befindet.” Israel begründet die Verwendung der KI genau damit: Ihr Einsatz helfe, das humanitäre Völkerrecht einzuhalten: Je genauer und präziser die Zielmarkierung, desto weniger zivile Opfer. 

Grundsätzlich könne eine KI dafür sorgen, dass weniger Zivilisten zu Schaden kommen und nur noch die “Bad Guys” gezielt angegriffen werden, gibt auch Frank Sauer zu. “Im Lichte der Geschichte würde ich allerdings Fragezeichen dahinter machen, ob es uns gelingt, dieses Potenzial wirklich auszuschöpfen, ohne in die Fallen reinzutappen, die der Einsatz von KI uns zugleich stellt.” 

Letzten Endes, könnten nur Menschen darüber entscheiden, ob es sich bei einem von der KI ausgegeben Ziel tatsächlich um ein legitimes Ziel handele, sagt auch Laura Bruun. “Bei der Zielerfassung geht es darum zu unterscheiden: Wer ist Kombattant und wer nicht? Aber das ist nicht immer so eindeutig. Was ist, wenn ein Kämpfer sich ergibt? Oder verwundet ist? Dabei geht es auch um Verhältnismäßigkeit. Es ist sehr schwer – wenn nicht gar unmöglich – für eine Maschine oder eine KI, solche Urteile zu fällen.” Deshalb, so formuliert es Frank Sauer: “Beim Einsatz von KI durch das israelische Militär ist im Zusammenspiel von Mensch und Maschine einiges schiefgegangen.” 

Die Software sagt: Unruhestifter. Oder nicht

Wird das israelische Militär bei seiner erneuten Offensive auf den Gazastreifen nun in gleichem Maße auf KI zurückgreifen? Sauer hält es für “plausibel”, dass auch weiterhin KI eingesetzt wird. Journalist Yuval Abbraham hat sogar Indizien, dass es bald noch weiter gehen wird: Israel arbeite an einem ChatGPT ähnlichen Programm zur Überwachung der besetzten Gebiete. Der KI könne man Fragen zu bestimmten Personen stellen – der Computer würde dann antworten, ob dieser Mensch ein möglicher “Unruhestifter” ist. 

Es klingt wie Science-Fiction. Noch.




Source link : https://www.stern.de/politik/ausland/gaza–israel-nutzt-ki-bei-der-entscheidung-zum-angriff-35565606.html

Author : Marlon Saadi

Publish date : 2025-03-19 18:48:00

Copyright for syndicated content belongs to the linked Source.
This entry was posted in Stern and tagged .
Exit mobile version