Raumfahrt | 24. August 2017 | von Daniel Leidner | 2 Kommentare

Angeleitet aus dem All: Roboter-Experiment zwischen ISS und Oberpfaffenhofen

Quelle: DLR (CC-BY 3.0)
Rollin' Justin und die Solarpanele, die er während des SUPVIS-Experiments inspizieren soll.

Wenn es um die Fernsteuerung von Robotertechnologie für Raumfahrtanwendungen geht, ist das Institut für Robotik und Mechatronik des Deutschen Zentrums für Luft- und Raumfahrt (DLR) schon lange Vorreiter. Bereits 1993 wurde weltweit erstmalig während des ROTEX-Experiments gezeigt, wie ein Roboter einen Gegenstand im Weltall einfangen kann - und zwar ferngesteuert. Zuletzt hat Kosmonaut Sergei Volkov die daraus entstehende Technologie genutzt, um im Dezember 2015 einen Roboter auf der Erde von der Internationalen Raumstation (ISS) aus zu bedienen. Ein feinfühliger Joystick hat es dem Kosmonauten dabei sogar ermöglicht, mit dem Institutsdirektor Prof. Albu-Schäffer auf den Erfolg der damaligen Kontur-2-Mission anzustoßen.##markend##

Jetzt, zwei Jahre später, soll das Experiment "SUPVIS Justin" an diesen Erfolg anknüpfen. Am Freitag, den 25. August 2017, soll zum ersten Mal ein Roboter als intelligenter Assistent eines Astronauten eingesetzt werden. ESA-Astronaut Paolo Nespoli, der zurzeit auf der ISS ist, soll mit Hilfe des humanoiden Roboters Rollin' Justin den Ernstfall einer zukünftigen Marsmission üben. Der gebürtige Italiener soll von dem Außenposten im All aus Roboter Justin in Oberpfaffenhofen steuern. Anders als bei der Kontur-2-Mission soll diesmal aber keine direkte Fernsteuerung eingesetzt, sondern die künstliche Intelligenz des Roboters genutzt werden, um komplexe Aufgaben teilautonom auszuführen. Das bedeutet, dass Nespoli den Roboter nicht dauerhaft aktiv steuert, ihn aber bei der Lösung der Aufgabe anleitet.

Quelle: DLR (CC-BY 3.0)
Der humanoide Roboter wird über ein Tablet-PC instruiert.

Dieses Szenario ist stellvertretend für zukünftige Explorationsszenarien, in denen ganze Flotten von Robotern die Landung bemannter Marsmissionen vorbereiten sollen. Dabei hat der Astronaut lediglich ein Tablet-PC, mit dem er den Roboter wie einen Kollegen instruieren kann. Der Roboter selbst ist mit den notwendigen Fähigkeiten ausgestattet, um komplexe Befehle zu interpretieren und umzusetzen. Auf das Kommando "Inspiziere das Solarpanel" reagiert der Roboter beispielsweise mit einer geschickten Abfolge von Aktionen und präsentiert dem Astronauten anschließend die Informationen der Anlage - vollkommen selbstständig. Paolo Nespoli kann so die Solarfarm am Institut für Robotik und Mechatronik warten, ohne dabei selbst vor Ort zu sein. Justin ist damit der erste Roboter, der dank künstlicher Intelligenz eine wahre Stütze für Astronauten darstellt.
 
Das SUPVIS Justin-Experiment ist Teil der Multi-purpose End To End Robotic Operations Network (METERON) Mission und wird noch bis zum Jahr 2018 fortgeführt. Dann soll auch der deutsche Astronaut Alexander Gerst zusammen mit Rollin' Justin für zukünftige Marsmissionen trainieren.

 

TrackbackURL

Über den Autor

Daniel Leidner hat an der Hochschule Mannheim technische Informatik studiert und fand es schon immer spannend, wenn seine Software die Welt außerhalb des Computers beeinflussen konnte. Der Einstieg in die Robotik lag damit nahe, sodass er bereits seine Masterarbeit am Institut für Robotik und Mechatronik des DLR geschrieben, bevor er anschließend seine Arbeit als wissenschaftlicher Mitarbeiter angetreten hat. Seit 2016 ist er Leiter des Rollin' Justin-Teams und seit 2017 außerdem Leiter der Gruppe für semantische Planung in der Abteilung für kognitive Robotik. zur Autorenseite

Kommentare

2 Kommentare | RSS-Feed Kommentare
H. Schmidt
25. August 2017 um 09:14 Uhr

Der Roboter erkennt ja einzelne Objekte. Kann der Roboter jedem Objekt eine Zahl zuweisen?

Dann könnte der User eine Zahlenfolge angeben. Den Befehl konkretisieren.

Man gibt also einen Befehl mit Zahlenfolge ab und der Roboter bestätigt, was er in der Zukunft machen will.

Elke Heinemann
30. August 2017 um 09:39 Uhr

Der Nutzer bekommt die Kameraansicht des Roboters angezeigt. Über dieser Ansicht sind 3D-Modelle der Objekte, die der Roboter kennt, eingeblendet. Der Astronaut kann diese Objekte anwählen, um so zu spezifizieren, welches Objekt manipuliert werden soll.