Motivation
Zukünftige Explorationsmissionen benötigen fortgeschrittene Fähigkeiten wie die einer präzisen und sicheren Landung auf planetaren Körpern oder der Durchführung von Rendezvous und Docking-Operationen. Viele dieser Missionen werden sowohl in der Erd- und Mondumgebung stattfinden, als auch bei weit entfernten Zielen wie dem Mars oder den Eismonden von Jupiter und Saturn. Für eine zuverlässige Operation ist sowohl Autonomie des Raumfahrtzeuges nötig, als auch die Verwendung des Zielkörpers als Navigationsreferenz. Als vielversprechend für die Umsetzung dieses Konzepts gilt die Verwendung von Methoden und Technologien der optischen Navigation. Wenig überraschend muss für diese modernen Ansätze ein deutlich höherer Grad an Details über das Missionsziel an Bord verarbeitet werden. Diese stammen zum einen aus Daten aktueller Kartierungsmissionen, aus denen beispielsweise Kataloge mit georeferenzierten Landmarken abgeleitet werden können. Ergänzt werden solche a priori Informationen mit Messungen die im Verlauf der Mission gemacht werden, sie finden Anwendung z.B. für den Abgleich mit einem an Bord vorhandenen Landmarkenkatalog oder zur Beurteilung der Beschaffenheit des Landegebiets. Aus allen diesen Anwendungen ergibt sich der Bedarf nach deutlich verbesserter Rechenkapazität, nach neuartigen optischen Sensoren und nach komplexen Algorithmen zur Verarbeitung der durch sie gelieferten Daten.
Aus dieser Motivation heraus entwickelt die Abteilung Navigations- und Regelungssysteme des DLR-Instituts für Raumfahrtsysteme im Verbund mit anderen Instituten ein GNC-System, welches Inertialsensoren mit neuartigen Sensoren und Verfahren der optischen Navigation integriert. Aufbauend auf den vorhandenen Kompetenzen in den beteiligten Instituten soll ein Navigationssystem entwickelt werden, welches einem Landefahrzeug eine autonome, präzise und sichere Landung auf dem Mond ermöglicht.
Überblick
Die vom GNC-System verwendete Sensorik umfasst IMU, Star Tracker, Kamera(s), Altimeter und einen Flash Lidar. Die daraus entstehenden Sensordaten werden verarbeitet in Algorithmen wie Kraternavigation, Feature Tracking, oder Landeplatzbewertung, deren Ergebnisse dann zu einer umfassenden Zustandsschätzung fusioniert werden.
Projektziele:
Erreichte Meilensteine
Nächste Schritte
Nach erfolgreicher Demonstration der Funktionalität des integrierten Systems aus Sensorik und Navigationsrechner gilt es, die Algorithmen auf die Anforderungen von Flugsoftware hin zu optimieren und die Hardware in raumfahrtqualifizierbare Breadboards zu überführen.