Für den Menschen ist es selbstverständlich, für ein technisches System bisher aber noch nicht realisiert: die Fähigkeit einem Gespräch anderer Menschen zuzuhören und Handlungen darauf abzustimmen. Hoch komplexe Assistenzsysteme, wie Anflug-, Rollverkehrs-, Turnaround- oder Abflugmanagementsysteme unterstützen Operateure ohne diese Fähigkeit, womit diese in ihrer Unterstützungswirkung deutlich hinter den technischen Möglichkeiten zurück bleiben. Eine benutzerfreundliche Assistenzfunktion sollte wie beim menschlichen Bearbeiter allein aufgrund von Erkennung der Absichten der Bediener Vorschläge zur Lösung weiterer Aufgaben anbieten und Warnungen hinsichtlich negativer Wirkungen der erklärten Absicht geben.
Im Rahmen des AcListant-Projekts (Active Listening Assistant) wird dies exemplarisch für die Kommunikation zwischen Lotsen und Piloten realisiert. Aktuelle Assistenzsysteme in der Luftfahrt wie ein Arrival Manager (AMAN) sind heute dazu in der Lage, effiziente Anflugreihenfolgen zu planen und Führungsanweisungen für optimale Anflüge vorzuschlagen. Planabweichungen wie Änderungen der Landereihenfolge werden zwischen Lotsen und Piloten über einen Sprachkanal ausgetauscht. Das elektronische System erfährt davon erst durch Änderung der Flugbahn der Flugzeuge aus den Radardaten (blaue Pfeile in Abbildung) mit bis zu 30 Sekunden Verzögerung. Dadurch kann die Planung des Assistenzsystems erst verspätet nachgefahren werden.
Das AcListant-System wird diesen Nachteil beheben, indem es die Kommunikation zwischen Lotse und Pilot analysiert und als zusätzliche Informationsquelle berücksichtigt (roter Pfeil in Abbildung). Ermöglicht wird diese Verbesserung durch eine Erweiterung des Assistenzsystems um eine Sprachverarbeitungskomponente. Die Planung informiert die Sprachverarbeitung über erwartete Lotsenanweisungen, d.h. sie liefert ständig aktuelle Kontextinformationen. Die Sprachverarbeitung erkennt unter Verwendung des von außen gelieferten Kontextes Sprachkommandos. Das Assistenzsystem kann dadurch seine Planungsgrundlagen, d.h. sein Wissen über mögliche zukünftige Systemzustände, ständig und frühzeitig verbessern.
AcListant entlastet die Nutzer eines Assistenzsystems von der Aufgabe, über eine ggf. komplexe Benutzerschnittstelle manuelle Eingaben in das Assistenzsystem vorzunehmen. Große Teile der menschlichen Zusammenarbeit werden mit Hilfe der menschlichen Sprache koordiniert. Dies gilt vor allem dann, wenn es sich um komplexe Zusammenhänge wie Metakonzepte handelt. Das Assistenzsystem unterstützt den Bediener und fordert nun nicht mehr die umgekehrte wenig effektive Unterstützung vom Bediener ein.
Das Nachfolgeprojekt AcListant-Strips
Im Projekt AcListant konnte die Leistung von Anflugmanagementsystemen (AMAN) durch den Einsatz von Assistant Based Speech Recognition (ABSR) verbessert werden. Große Potentiale werden ABSR aber auch als zusätzliches Eingabegerät zugeschrieben, um Maus und Tastatureingaben bei Lotsen zu ersetzen.
Im Mai 2015 wurde daher das Nachfolgeprojekt AcListant-Strips gestartet. Papierflugstreifen wurden oder werden von Flugsicherungen auch in der Anflugkontrolle zunehmende durch elektronischen Lösungen ersetzt. Dies kann jedoch die Arbeitsbelastung des Lotsen erhöhen, wenn er die neuen elektronischen Flugstreifen und Radar-Labels per Maus und Tastatur nachführen muss. AcListant-Strips beschreibt ein Konzept, welches mittels ABSR den Eingabeaufwand des Lotsen bei elektronischen Flugstreifen miniert. Es quantifiziert die Vorteile, die sich ergeben, wenn eine Spracherkennung als primäres Eingabegerät für das Nachführen der elektronischen Flugstreifen verwendet wird. Maus- und Tastatureingaben sind dann nur notwendig in solchen Fällen, wo die Spracherkennung fehlschlägt.
DLR-Institut für Flugführung (Leitung) DLR-Technologiemarketing Universität des Saarlandes DFS-Deutsche Flugsicherung