Online Magazine
Was der Mond im Dunkeln hielt – und wie es KI sichtbar macht

Es gibt Regionen auf dem Mond, die weder Mensch noch Roboter jemals gesehen haben. Valentin Bickel und sein Team von der ETH Zürich machen diese nun erstmals sichtbar – mit einem KI-gestützten Tool namens HORUS. Im Interview erzählt Bickel, wie das funktioniert und warum wir dank künstlicher Intelligenz in Zukunft noch tiefere Einblicke in unser Universum erhalten könnten.
MIT VALENTIN BICKEL SPRACH OLIVER BOSSE
Herr Bickel, Sie und Ihr Team von der ETH Zürich erforschen «die schattigen Regionen des Mondes». Können Sie erläutern, was das bedeutet?
Die schattigen Regionen des Mondes, auch permanente Schattengebiete genannt, sind Krater und Vertiefungen an den beiden Polen des Mondes, die seit Millionen von Jahren keinen Sonnenstrahl abbekommen haben. Aus diesem Grund sind diese Regionen extrem kalt – sie zählen sogar zu den kältesten Orten in unserem Sonnensystem. Bei diesen Temperaturen konnten sich dort flüchtige Elemente und Verbindungen wie zum Beispiel Wasser ablagern, so genannte Volatile. Diese Volatile stehen im Fokus der meisten Missionen, die in den kommenden Jahren zum Mond fliegen werden – schliesslich haben sie grosses Potential eine Reihe von faszinierenden wissenschaftlichen Fragen zu beantworten: Woher kam das Wasser auf der Erde? Und wie hat sich unsere Sonne im Laufe ihrer Geschichte entwickelt? Zusätzlich hofft man, diese Volatile und andere Ressourcen in der Zukunft zu nutzen, um eine Basis auf dem Mond mit Wasser und Sauerstoff zu versorgen – oder um günstigen Raketentreibstoff herzustellen.
Topografische Karte des Mondsüdpols mit ihren dauerhaft beschatteten Regionen (Quelle).
Um Einblicke in diese sogenannte Südpolregion des Mondes zu erhalten, nutzen Sie Bilder der Mondsonde «Lunar Reconnaissance Orbiter» (LRO) – in Verbindung mit künstlicher Intelligenz. Welchen Beitrag leistet die KI hier? Welche neuen Erkenntnisse liefert sie?
LROs Kamera wurde für die sonnenbeschienenen Regionen des Mondes entwickelt. In Schattengebieten leiden die meisten Bilder unter extremem Rauschen, ähnlich wie eine Smartphone-Kamera in der Nacht, was die Aufnahmen grösstenteils unbrauchbar macht. Wir haben eine KI-gestützte (Deep-Learning-)Methode entwickelt, die das Rauschen in diesen Bildern entfernt. Diese optimierten Bilder erlauben uns neue, einzigartige Einblicke in Schattengebiete – Regionen, die zuvor noch kein Mensch oder Roboter erblickt hat.
Diese optimierten Bilder erlauben uns neue, einzigartige Einblicke in Schattengebiete – Regionen, die zuvor noch kein Mensch oder Roboter erblickt hat.
Wie funktioniert Ihre KI beziehungsweise Ihr Deep-Learning-Tool in technischer Hinsicht konkret?
Unser Tool HORUS – Hyper-effective nOise Removal Unet Software – besteht aus zwei Netzwerken. Netzwerk #1 (DestripeNet) wurde mit mehr als 70.000 Kalibrierungsbildern trainiert, die routinemässig auf der Nachtseite des Mondes aufgenommen werden. Zusätzlich nutzt Netzwerk #1 eine Reihe von Kamera-Umweltparametern so wie die Kameratemperatur, die einen starken Einfluss auf das Bildrauschen haben. Netzwerk #2 (PhotonNet) wurde mit Millionen von synthetischen Bildpaaren trainiert; dazu wurden „saubere“ Bilder mit synthetischem Rauschen versetzt. Netzwerk #2 hat dann gelernt, aus dem Rauschen saubere Bilder herzustellen. Beide Netzwerke arbeiten in zeitlicher Abfolge.
Können Sie etwas über den Entwicklungsprozess dieser KI-Lösung und die Herausforderungen dabei erzählen?
Die grösste Herausforderung war es, die Kamera und alle relevanten Bildverarbeitungsschritte zu verstehen und nachzuvollziehen. LRO nutzt eine Reihe verschiedener, komplexer Modi, um Bilder aufzunehmen, die dann vor dem Downlink vom Satelliten auf unterschiedliche Art und Weise verarbeitet und komprimiert werden. Bevor wir HORUS entwerfen konnten, war es wichtig, zu verstehen, wo genau eine KI-gestützte Lösung ansetzen kann – und mit welchen Daten wir genau arbeiten können, um die wissenschaftliche Integrität der Bilder zu bewahren.
Dank KI auch die Erde besser verstehen ...
Dank künstlicher Intelligenz lässt sich neben der Mondoberfläche auch die Erde auf neue Weise entdecken. KI in Kombination mit Satellitenbildern ermöglicht es beispielsweise, Erdoberflächenveränderungen im Laufe der Zeit besser zu identifizieren. Dies kann mitunter dabei helfen, gegen den Klimawandel vorzugehen.
Erfahre hier mehr!
Mit Ihrer Arbeit dürften Sie einen wesentlichen Beitrag dazu leisten, dass künftige Mondmissionen erfolgreich verlaufen. In erster Linie werden Sie potenzielle Landeplätze und vielversprechende Standorte für Erkundungen sichtbar machen und identifizieren, richtig?
Das ist zumindest unser Ziel. Unsere Bilder ermöglichen es Wissenschaftler*innen und Ingenieur*innen, einen ersten Blick in bestimmte Schattengebiete zu werfen: Welches Schattengebiet sieht interessant aus? Wo liegen besonders viele Felsbrocken auf der Oberfläche? Wie könnte man am einfachsten und sichersten in ein bestimmtes Schattengebiet vordringen? All diese gewonnenen Informationen haben einen echten praktischen Nutzen: Man könnte zum Beispiel eine Landestelle so platzieren, dass die Distanz zu einem besonders interessanten Schattengebiet minimiert wird. Im besten Fall helfen unsere Bilder auch dabei, potentielle Risiken für Roboter und Astronaut*innen vorzeitig zu identifizieren.
HORUS-Bild einer permanent beschatteten Region auf dem Leibnitz-Plateau eingebettet in ein reguläres Narrow-Angle-Camera-Bild (Quelle).
Sie arbeiten mit der NASA aber auch anderen Institutionen zusammen. Bei welchen Mondmissionen wird Ihr Team von der ETH konkret mitarbeiten und wie genau?
Für dieses spezielle Projekt läuft die Zusammenarbeit mit der NASA und den Kolleg*innen von anderen Institutionen auf rein wissenschaftlicher Basis. Soweit ich weiss, gibt es leider keine konkreten Pläne für Missionsbeteiligungen, zumindest im Bereich der lunaren Schattengebiete. Allerdings ist momentan noch vieles im Umbruch – bis dahin nutzen wir HORUS für weitere wissenschaftliche Studien, die einen direkten oder indirekten Nutzen für zukünftige Missionen haben könnten.
Im besten Fall helfen unsere Bilder auch dabei, potentielle Risiken für Roboter und Astronaut*innen vorzeitig zu identifizieren.
Wie geht es in Ihrer aktuellen Forschung in diesem Bereich weiter? Soll oder kann die bestehende KI-Lösung noch weiterentwickelt werden?
Die Leistungsfähigkeit von HORUS wird hauptsächlich von der Qualität und Quantität der verfügbaren Trainingsdaten gesteuert. Wir erwarten eine Flut von neuen Daten vom Mond in den nächsten Jahren – mit diesen Daten wollen wir HORUS weiter verbessern.
Öffnet Ihre Forschung respektive Ihr erfolgreicher KI-Ansatz noch weitere Türen? Könnten damit allenfalls auch andere Ecken im Weltall sichtbar gemacht werden?
Auf jeden Fall. Im Kern ist HORUS ein Werkzeug, das Umweltparameter und Kalibrierungsdaten benutzt, um das Bildrauschen in low-light Aufnahmen zu reduzieren. Im Prinzip könnte man eine Variante von HORUS für jeden bildgebenden Sensor entwickeln und nutzen, vorausgesetzt es gibt ausreichend Trainingsdaten.
Welches Potenzial sehen Sie im Allgemeinen in Ihrem Forschungsbereich für Technologien wie KI – und wo stehen wir heute?
Die Planetenforschung ist noch ganz am Anfang, was KI angeht. Die Astrophysik und Astronomie sind da schon wesentlich weiter. Dennoch sehe ich persönlich für alle diese Forschungsfelder immer noch sehr grosses Potential für KI-gestützte Methoden. Besonders interessant ist zum Beispiel die Anwendung von KI, um die teilweise extrem grossen Datensätze – Terabytes bis zu Petabytes – systematisch und vor allem schnell nach interessanten Objekten und/oder Ereignissen zu durchforsten, die dann wissenschaftlich analysiert werden können. Für einen Menschen ist es unmöglich, ein Archiv mit mehr als 2 Millionen Satellitenbildern durchzusehen – eine KI leistet das in ein paar Tagen.
Noch mehr zum Thema KI im Weltall
Die Idee, künstliche Intelligenz für Problemstellungen im Weltall einzusetzen, ist nicht neu. Die European Space Agency (ESA) und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) verfolgen beispielsweise den Ansatz, mit KI Kollisionen zwischen Satelliten und Weltraumschrott zu verhindern.
Lies hier das Interview mit Marlon Nuske!
Was ist Ihr persönliches Forschungsziel oder -wunsch?
Ich stehe erst am Beginn meiner Karriere, aber mein persönliches Ziel ist es, KI-gestützte Methoden für die Planetenforschung und -exploration nutzbar zu machen. Wir stehen am Beginn eines grossen Abenteuers – wir kehren zurück zum Mond! – und mein Wunsch ist es, zukünftigen Missionen zum Erfolg zu verhelfen. Die nächsten Jahre werden sehr aufregend werden.
Zur Person
Valentin Bickel (*1990) ist ein Planetenwissenschaflter an der ETH Zürich. Seine Forschung beschäftigt sich mit der Geomorphologie und Evolution von planetaren Oberflächen, KI-gestützter Fernerkundung und Boden-/Terramechanik. Ab November 2022 wird Bickel seine Forschung an der Universität Bern fortführen.