1. Juli 2020
Openvocs meets DeepSpeech

DLR und Mo­zil­la er­for­schen Tech­no­lo­gie zur Sprach­steue­rung von Ro­bo­tern

openvocs Benutzeroberfläche
open­vocs Be­nut­ze­ro­ber­flä­che: Soft­ware aus dem Raum­fahrt­be­reich zur Sprach­über­tra­gung
Credit: DLR (CC-BY 3.0)

openvocs Benutzeroberfläche: Software aus dem Raumfahrtbereich zur Sprachübertragung

Im Pro­jekt "open­vocs" ent­wi­ckelt das Deut­sche Raum­fahrt­kon­troll­zen­trum des DLR ei­ne of­fe­ne und fle­xi­ble Platt­form für die Kon­troll­raum­kom­mu­ni­ka­ti­on. In Kom­bi­na­ti­on mit der Spra­cher­ken­nung könn­te da­mit künf­tig auch die Sprach­steue­rung von pla­ne­ta­ren Ro­vern und an­de­ren Ro­bo­tern mög­lich sein. Die Soft­wa­re­lö­sung soll zur frei­en Nut­zung auf Smart­pho­nes, Ta­blets und an­de­ren gän­gi­gen Ein­ga­be­ge­rä­ten zur Ver­fü­gung ge­stellt wer­den.
  • Schwerpunkte: Raumfahrt, Digitalisierung, Künstliche Intelligenz, Robotik

Bei der Steuerung von Satelliten oder dem Betrieb des Columbus-Labors auf der Internationalen Raumstation ISS dürfen keine Fehler passieren. Jeder Arbeitsschritt und jeder Befehl folgt einer festgelegten Prozedur und wird dokumentiert. Um den Sprechfunk des Kontrollraums automatisiert in Textprotokolle zu überführen und Schlüsselinhalte gleichzeitig zu verlinken, entwickelt das Deutsche Raumfahrtkontrollzentrum (GSOC) des DLR „openvocs“ – eine Software zur Sprachübertragung. Die Technologie könnte künftig auch Astronauten zur Kommandierung von Mondrovern oder anderen Robotersystemen dienen. Dazu untersucht das Deutsche Zentrum für Luft- und Raumfahrt (DLR) in Zusammenarbeit mit der Mozilla Corporation, ob die offene Spracherkennungsplattform „DeepSpeech“ für eine sprachbasierte Robotersteuerung verwendet werden kann. Ziel ist es, eine offene Softwarelösung zu entwickeln, die zur freien Nutzung auf Smartphones und anderen gängigen Eingabegeräten geeignet ist. Ein erster Prototyp soll bis zum Herbst erarbeitet werden.

Die Sprachübertragung in openvocs basiert auf der Web-Echtzeitkommunikation WebRTC und stellt  die Verbindungen zwischen Spracheingabegerät und Roboter her. Dieser offene Übertragungsstandard wird von allen großen Browsern unterstützt, sodass eine Vielzahl von Endgeräten als Sprachterminal genutzt werden können. So ist die Basistechnologie WebRTC auch bei Datentransfers von Videokonferenzen, Chats oder Desktop-Sharing üblich.

Die DLR-Wissenschaftler verfolgen den Ansatz, zuerst die Spracheingabe mittels der DeepSpeech-Plattform in Text umzuwandeln. Die künstliche Intelligenz von openvocs soll diesen Text dann analysieren und festgelegte Kommandos erkennen. Für das Testszenario nutzen die Entwickler eine Roversteuerung mit einfachen Befehlssätzen wie „nach links“, „nach rechts“, „vorwärts“ oder „rückwärts“. Im letzten Schritt aktiviert die Texterkennung die entsprechende Motorsteuerung des Roboters – der Sprachbefehl wird ausgeführt.

Die Sprachkommandos können individuell programmiert werden. Dazu nutzen die Experten des GSOC maschinelles Lernen und testen, wie gut das neue Sprachmodell die gelernten Befehle erkennt. Hier gilt es unter anderem Mehrfachbedeutungen von Worten und andere semantische Überlagerungen, sowie Verneinungen korrekt zuzuordnen. So muss die Software beispielsweise lernen, dass der Ausdruck „niemanden zurücklassen“ kein Bewegungsbefehl ist, und dass die Kommandos „zurück“ und „rückwärts“ dieselbe Wortbedeutung haben.

Darüber hinaus arbeiten die Experten aus Berlin und Oberpfaffenhofen an einer möglichst intuitiven Bedienung. Um die Sprachsteuerung zu aktivieren soll kein Triggerbefehl notwendig sein. Stattdessen sollen die vordefinierten Kommandos automatisch im Sprachstrom erkannt werden. Ferner benötigt Mozillas DeepSpeech-Plattform keine Cloud-Lösung zur Datenverarbeitung und lässt sich als Software herunterladen und individuell trainieren. Nutzer können das “speech-to-text“-Model direkt auf den Roboter laden und verfügen damit über eine lokale Spracherkennung. Dank der Opensource Lizenz von „DeepSpeech“ ist künftig auch die freie Nutzung der DLR-Technologieentwicklung möglich.

"Wir haben das openvocs-Projekt im DLR mit dem Ziel zur Bereitstellung einer offenen und flexiblen Plattform für Kontrollraumkommunikation gestartet. Die Spracherkennungslösung von Mozilla fügt sich hier nahtlos ein. Ich freue mich sehr über die Kombination beider Arbeiten, da dies ganz neue und spannende Möglichkeiten für die Kommunikation im Raumfahrtbereich bietet", sagt openvocs-Systemingenieur Markus Töpfer vom DLR-Raumflugbetrieb und Astronautentraining.

Kelly Davis, Manager Machine Learning Group von Mozilla, ergänzt: „Das Interesse des DLR an unserer STT-Technologie bestätigt insbesondere unsere Arbeit an Leistungsoptimierungen für Embedded-Systeme und kleine Geräteplattformen. Auch wenn wir noch in der Testphase sind: Ehrlicherweise ist das Kind in mir auch begeistert von der Idee vielleicht eines Tages in den Himmel schauen zu können und zu wissen, dass wir eine kleine Rolle bei dem gespielt haben, was sich so viele Kilometer über uns abspielt."

In den kommenden Monaten baut das Deutsche Raumfahrtkontrollzentrum die Schnittstelle „Sprache-zu-Text“ für die neue Kommunikationslösung auf und bindet diese in die  openvocs-Plattform des DLR ein. Gemeinsam mit Mozilla erforscht das Entwicklerteam gezielt die Grundlagentechnologien, sodass Astronauten und Nutzer auf der Erde ihre Hände in Zukunft frei bewegen können, wenn sie einen Roboter steuern.

Kontakt
  • Bernadette Jung
    Kom­mu­ni­ka­ti­on Ober­pfaf­fen­ho­fen, Weil­heim, Augs­burg
    Deut­sches Zen­trum für Luft- und Raum­fahrt (DLR)

    Po­li­tik­be­zie­hun­gen und Kom­mu­ni­ka­ti­on
    Telefon: +49 8153 28-2251
    Fax: +49 8153 28-1243
    Münchener Straße 20
    82234 Weßling
    Kontaktieren
  • Markus Töpfer
    Raum­flug­be­trieb und Astro­nauten­trai­ning
    Deut­sches Zen­trum für Luft- und Raum­fahrt (DLR)
    Telefon: +49 30 6705-5343
    Rutherfordstraße 2
    12489 Berlin-Adlershof
    Kontaktieren
Neueste Nachrichten

Cookies erleichtern die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen zum Datenschutz erhalten Sie über den folgenden Link: Datenschutz

Hauptmenü