Online Magazine
KI überwacht bewaffnete Konflikte

Derzeit steht der Krieg in der Ukraine im Fokus der Weltöffentlichkeit. Dabei geraten andere Krisenherde aus dem Blick. Jan Dirk Wegner, von der Universität Zürich, und sein Team wollen das ändern: Zusammen mit dem Roten Kreuz entwickeln sie derzeit eine KI zum globalen Remote Monitoring bewaffneter Konflikte.
Mit Jan Dirk Wegner sprach Eliane Eisenring
Herr Wegner, was gehört für Sie alles zum Begriff «bewafftneter Konflikt»?
Grundsätzlich jede Auseinandersetzung, aufgrund deren es zu Zerstörungen und zur Gefährdung von Menschenleben kommt. Dazu zählen sowohl innerstaatliche wie auch ausserstaatliche Konflikte. Auch spielt es keine Rolle, welche Akteure involviert sind – ob politische Parteien oder kriminelle Gangs.
Technisch gesehen befassen wir uns hauptsächlich mit grossräumigen Zerstörungen oder mit punktuellen Schäden, die sich über eine grössere Fläche streuen. Das hat den Grund, dass wir mit Satellitenbildern arbeiten: sehr kleine Beschädigungen können wir darauf häufig gar nicht erkennen.
Was ist das Ziel von Remote Monitoring eines bewaffneten Konflikts, und wie wird das heutzutage gemacht?
Das Ziel ist es, eine flächendeckende Schadenskartierung oder zumindest eine Risikokarte zu erstellen. Momentan werden solche Karten zumeist manuell gezeichnet: Man kauft hochauflösende Satellitenbilder, Expert*innen schauen regelmässig, was sich darauf verändert und zeichnen das in einem geographischen Informationssystem (GIS) ein. Das ist sehr teuer, skaliert schlecht und man übersieht vieles.
Im zivilen Bereich übersteigt der Kauf solcher Satellitenbilder schnell die verfügbaren Ressourcen. Organisationen wie das Rote Kreuz, mit denen wir in diesem Projekt zusammenarbeiten, sprechen daher zumeist mit Leuten auf dem Boden – diese berichten übers Telefon, was in einem aktuellen Konflikt alles zerstört wurde.
Bei Remote Monitoring wäre ja die Idealvorstellung, permanent den ganzen Globus im Blick zu behalten. Zurzeit ist das aber zu teuer und zu aufwendig.
In Ihrem aktuellen Projekt entwickeln Sie eine Deep Learning-Lösung für Remote Monitoring. Wie soll diese die derzeitige Vorgehensweise verbessern?
Bei Remote Monitoring wäre ja die Idealvorstellung, permanent den ganzen Globus im Blick zu behalten. So könnte man frühzeitig erkennen, wenn sich irgendwo ein Konflikt entwickelt – auch in Gebieten, die aktuell nicht im Fokus stehen. Momentan wird ja z. B. viel über die Ukraine berichtet, aber davon, was in Mali oder in Niger passiert, hören wir nichts. Gerade für das Rote Kreuz oder auch Organisationen wie das World Food Programme wäre es wichtig, frühzeitig von einem Konflikt zu erfahren, damit sie zeitnah Hilfe leisten können.
Ein solches permanentes Monitoring ist aber derzeit wegen der bereits genannten Gründe nicht möglich – es wäre zu teuer, ständig von überall auf der Welt hochauflösende Satellitenbilder zu kaufen. Und auch zu aufwendig, diese laufend von Expert*innen auswerten zu lassen.
Unsere Idee ist es deshalb, statt von Anfang an teure, hochauflösende Satellitenbilder zu kaufen, zuerst Satellitenbilder des Sentinel-Programms der Europäischen Raumfahrtagentur ESA zu nutzen. Diese haben zwar eine viel schlechtere Auflösung – ein Pixel der Sentinel-2 Satelliten ist etwa 10 mal 10 Meter auf der Erdoberfläche, da sieht man vieles gar nicht. Dafür sind sie für fast den gesamten Globus öffentlich zugänglich und umsonst verfügbar.
Und diese Bilder würde Ihre Lösung dann analysieren?
Genau. Die KI könnte nämlich auch auf Bildern in mittlerer räumlicher Auflösung erkennen, wenn etwas passiert. Da die qualitativ reduzierten Satellitenbilder und auch die automatisierte Analyse viel günstiger sind, könnte man also laufend die gesamte Erde abdecken. Die KI würde neue Entwicklungen in definierte Schadensklassen einordnen – von wenig bis völlig zerstört. Und wenn sie erkennt, dass in einem Teil von Mali, wo gerade keine menschlichen Expert*innen draufschauen, Zerstörung stattfindet, kann das Rote Kreuz für diesen spezifischen Bereich hochauflösende Satellitenbilder kaufen und genauere Analysen durchführen – statt die Bilder für ganz Mali kaufen zu müssen.
Unsere KI könnte auch auf Satellitenbildern in mittlerer räumlicher Auflösung erkennen, wenn etwas passiert. Da solche Bilder und auch die automatisierte Analyse viel günstiger sind, könnte man also laufend die gesamte Erde abdecken.
Der Mensch wäre also nach wie vor in das Remote Monitoring involviert.
Auf jeden Fall. Das ist in allen kritischen Bereichen, in denen KI zum Einsatz kommt, so: Es ist kein vollautomatisierter Prozess, denn die Gefahr, dass Fehler im Algorithmus direkte Auswirkungen auf Menschenleben haben, ist zu gross. In unserem Projekt könnte die KI gewisse Konflikte völlig übersehen. Oder man schickt aufgrund der KI-Analyse Nahrung und Unterstützung an einen Ort, an dem gar nichts passiert. Statt den gesamten Ablauf von einer KI erledigen zu lassen, geht es vielmehr darum, die Ressourcen an menschlichen Expert*innen zielgerichteter einzusetzen.
Wie genau würde das Deep Learning-Modell die Satellitenbilder analysieren, bzw. wonach würde es suchen?
Der Algorithmus wird darauf trainiert, Veränderungen zu erkennen. Was nicht gut funktioniert, ist, ein einzelnes Bild in das Modell einzuspeisen und dann zu fragen, was ist kaputt und was nicht. Stattdessen braucht man eine Zeitserie an Satellitenbildern, um nachvollziehen zu können, was sich über die Zeit verändert hat. Die kleinst mögliche Serie sind zwei Bilder – ein Vorher- und ein Nachherbild – aber je mehr Bilder desto besser. Hier besteht die Schwierigkeit darin, Zerstörung aufgrund eines Konflikts von allen anderen Entwicklungen zu unterscheiden, wie Baustellen, Vegetationsunterschiede zu verschiedenen Jahreszeiten, etc. – es verändert sich ja ständig etwas.
Der Algorithmus wird darauf trainiert, Veränderungen zu erkennen. Die Schwierigkeit besteht darin, Zerstörung aufgrund eines Konflikts von allen anderen Entwicklungen zu unterscheiden, wie Baustellen, jahreszeitliche Unterschiede, etc.
WIE KÖNNEN KI-ANALYSEN VON SATELLITENBILDERN NOCH GENUTZT WERDEN?
Marlon Nuske vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) erklärt, dass wir durch die Analyse von Satellitenbildern Überschwemmungsgebiete erkennen, Waldbrände frühzeitig vorhersagen oder die Entwicklung von Grünflächen in Städten analysieren können.
Darüber hinaus nutzt das DFKI künstliche Intelligenz, um Kollisionen zwischen Satelliten und Weltraummüll zu verhindern.
Erfahre in diesem Interview mehr darüber, wie KI zur Überwachung der Erde und des Weltraums eingesetzt wird.
Mit welchen Daten trainieren Sie Ihren Algorithmus, solche spezifischen Zerstörungen zu erkennen?
Tatsächlich sind Trainingsdaten, also Satellitenbilder, die bereits in Hinblick auf Zerstörungen kategorisiert sind, nicht so leicht zu bekommen – ausser im militärischen Bereich, zu dem wir keinen Zugang haben. Glücklicherweise hat UNOSAT, eine Abteilung der Vereinten Nationen, eine enorme Menge solcher Karten manuell gezeichnet und mit Kontakten am Boden verifiziert – unter anderem auch im Kontext bewaffneter Konflikte. Viele dieser Daten sind öffentlich zugänglich. Nur deshalb haben wir überhaupt genug Referenzdaten, um unser Modell zu trainieren.
Sie streben, wie schon gesagt, ein globales Remote Monitoring bewaffneter Konflikte an – erreichen Sie das mit einem einzigen generalisierten Deep Learning-Modell? Oder sind dazu mehrere Modelle nötig?
Deep Learning-Modelle lernen ja aufgrund des Bildinhalts Muster zu unterscheiden und so eine Szene zu analysieren. Da z. B. die Ukraine völlig andere Landschaften und Baustile aufweist als etwa Mali, lernt das Modell auf ganz andere Texturen im Bild zu achten. Man kann daher kein Modell mit Daten aus der Ukraine trainieren und auf Mali anwenden. Auch die Schäden sind unterschiedlich: In Mali oder auch im Sudan kommt es häufig vor, dass ganze Dörfer abgebrannt werden – da ist dann einfach alles schwarz. In der Ukraine hingegen sind es zerschossene Betongebäude. Generalisierung funktioniert also eher schlecht – wie so oft bei KI-Lösungen.
Pragmatisch löst man das meist so: Man entwickelt ein Modell, trainiert das z. B. mit Daten aus der Ukraine und wendet es auch auf die Ukraine an. Für einen anderen Anwendungsfall nimmt man dasselbe Modell, trainiert es aber mit neuen Referenzdaten aus der entsprechenden Region. So beginnt man nicht jedes Mal von Null – man nimmt das bereits existierende Modell und passt es auf die neue Szene an.
UNOSAT, eine Abteilung der Vereinten Nationen, hat eine enorme Menge Karten manuell gezeichnet und mit Kontakten am Boden verifiziert. Nur deshalb haben wir überhaupt genug Referenzdaten, um unser Modell zu trainieren.
Sind mehrere Modelle nicht ein viel grösserer Aufwand?
Nein. Ob man fünf identisch aufgebaute Modelle hat und jedes für ein einzelnes Land trainiert, oder ein riesiges globales Modell, das auf allen Ländern gleichzeitig trainiert wird, spielt in Sachen Aufwand nur eine geringe Rolle. Von der Anwendungsseite her ist es häufig sogar ratsamer, mehrere einzelne Modelle zu haben. Sie sind leichter zu handhaben, präziser, und man kann besser nachvollziehen was passiert – Stichwort Explainability.
Wir achten in unserem Projekt darauf, in dieser Hinsicht viel Feedback vom Roten Kreuz zu bekommen. Damit wir verstehen, was sie eigentlich brauchen. Aus wissenschaftlicher Sicht möchte man immer eine allumfassende Lösung entwickeln, aber in der Praxis ist das häufig gar nicht gewünscht. Es reicht, wenn ein Modell für einen spezifischen Fall trainiert ist und da zuverlässig funktioniert.
Ihre KI-Lösung soll also in erster Linie dazu eingesetzt werden, Konflikte zu erkennen und deren Ausmass einzuordnen. Darüber hinaus, wie kann automatisiertes Monitoring bewaffneter Konflikte diese beeinflussen?
Zum einen dokumentiert es klar die Taten der verschiedenen Konfliktparteien und sorgt dafür, dass diese sich ihrer Verantwortung nicht entziehen können. Was das Rote Kreuz macht, geht ja bereits jetzt in diese Richtung: Die Karten, die sie manuell erstellen, z. B. im aktuellen Ukrainekonflikt, werden beiden Konfliktparteien – sowohl der ukrainischen als auch der russischen Seite – zur Verfügung gestellt. So kann keine Seite behaupten, sie hätte von einer Zerstörung oder einer anderen Entwicklung nichts gewusst.
Zum anderen können die kategorisierten Bilder auch im Nachhinein als Dokumentation der Zerstörungen innerhalb eines Konflikts genutzt werden. Etwa für die Beurteilung von Kriegsverbrechen.
Zum einen dokumentieren kategorisierte Bilder die Taten der verschiedenen Konfliktparteien und sorgt dafür, dass diese sich ihrer Verantwortung nicht entziehen können. Und auch später können sie als Dokumentation der Zerstörungen innerhalb eines Konflikts genutzt werden. Etwa für die Beurteilung von Kriegsverbrechen.
Könnte automatisiertes Monitoring sogar dabei helfen, einen Konflikt von Anfang an zu verhindern?
Tatsächlich könnte ich mir das vorstellen. Wenn allgemein bekannt ist, dass es ein Tool gibt, welches permanent überwacht, was am Boden passiert, könnte das die Hemmschwelle für bestimmte Konfliktparteien erhöhen, überhaupt in einen Konflikt einzutreten. Natürlich findet eine solche Überwachung heute schon statt, seitens des Militärs. Doch bei einem automatisierten Tool auf der zivilen Seite wüsste die Öffentlichkeit viel schneller Bescheid und könnte Druck ausüben.
Wie lange soll die Entwicklung dieses Deep Learning-Modells dauern?
Das Projekt ist auf vier Jahre ausgelegt. Ich hoffe aber, wir haben schon früher einen Prototypen, der für gewisse Schäden gute Ergebnisse liefert, und den wir in Rücksprache mit dem Roten Kreuz und anderen Stakeholdern weiterentickeln können.
Was wir in vier Jahren nicht haben werden, ist ein vollentwickeltes Tool, das wir der Weltöffentlichkeit vorstellen können. Dafür gibt es zu viele sensitive Fragestellungen, auch von Seiten des Roten Kreuzes, die zuerst geklärt werden müssen. Eine wichtige Frage ist zum Beispiel, ob man ein solches Tool überhaupt öffentlich machen sollte. Viele Karten, die das Rote Kreuz erstellt, sind letztendlich geheim, weil die Organisation nicht ihren Neutralitätsstatus verlieren möchte.
Weiter in die Zukunft geblickt: Was wollen Sie mit diesem Projekt langfristig erreichen?
Was spannend herauszufinden wäre, ist, wie man die Bevölkerung am Boden miteinbeziehen könnte. Schlussendlich entwickeln wir dieses Tool ja, um die Lebenssituation der betroffenen Menschen direkt zu verbessern. Wie genau das gehen könnte, gilt es noch herauszufinden.
Zur Person
Prof. Dr. Jan Dirk Wegner (*1982) ist seit 2017 Leiter des EcoVision Labs an der ETH Zürich und hat seit 2021 als ausserordentlicher Professor die Professur "Data Science for Sciences" an der Universität Zürich inne. Darüber hinaus ist er assoziiertes Mitglied am ETH AI Center und Direktor der PhD Graduate School "Data Science" an der Universität Zürich. Wegner forscht am Schnittpunkt von Machine Learning, Computer Vision und Fernerkundung zur Lösung wissenschaftlicher Fragen in den Umwelt- und Geowissenschaften. 2020 wurde er für die WEF Young Scientist Class als einer der 25 weltweit besten Forscher unter 40 Jahren ausgewählt, die sich für die Integration wissenschaftlicher Erkenntnisse in die Gesellschaft zum Wohle der Allgemeinheit einsetzen.
INTERVIEWS, PODCASTS, ARTIKEL: ENTDECKE UNSER ONLINE-MAGAZIN!

