Transferable Explainable Knowledge
Übertragbares und erklärbares Wissen ist eine Fachgruppe in der Abteilung Kognitive Robotik.
Verschiedene Anwendungsbereiche der Robotik setzen unterschiedliche Autonomiestufen voraus, von direkter Kontrolle wie Telepräsenz im chirurgischen Kontext über gemeinsame Kontrolle (Shared Control) in der Assistenzrobotik bis hin zu höheren Autonomieformen in der planetaren Exploration und der Produktion. Um höhere Autonomiestufen vor allem in unstrukturierten Umgebungen zu erreichen, ist es notwendig, dass der Roboter auf Wissen darüber, was er tut und wieso er es tut, zurückgreifen kann. Laut unserer Annahme kann er nur dann adaptives, zielgerichtetes Verhalten an den Tag legen. Das Hauptziel der Gruppe „Transferable Explainable Knowledge“ (übertragbares, erklärbares Wissen) ist deshalb den Robotern erklärbares Wissen über ihre Umgebung und Fertigkeiten zur Verfügung zu stellen.
Ein wichtiger Schritt um dieses Ziel zu erreichen ist die Entwicklung von Fertigkeitsrepräsentationen, die ein robustes, zielgerichtetes Verhalten erlauben. Zusätzlich sollten diese die Übertragung von Fertigkeiten zwischen verschiedenen Robotern, Aufgaben und Objekten erleichtern. Unser Ansatz setzt voraus, diese Fertigkeiten auf verschiedenen Abstraktionsebenen abzubilden. Abstrakte Ebenen wurden in Sprachen wie PDDL (Planning Domain Description Language) implementiert, die unter anderem in Action Templates verwendet werden, oder als graphische Zustandsmaschine wie RAFCON umgesetzt. Im Gegensatz dazu wird prozedurales Wissen erlernt oder intuitiv programmiert, wie in der Fachgruppe Interaktives Lernen von Fertigkeiten erforscht wird.
Zudem erforscht die Gruppe Übertragbares und erklärbares Wissen wie Wissen über den Zustand der (Um-)Welt kompakt dargestellt werden kann. Diese Weltmodellrepräsentation verbindet verschiedene Abstraktionsebenen (sensorische Messreihen, Zustandsvariablen, symbolisches Wissen) miteinander, um die Übertragung solchen Wissens zwischen den Robotern zu vereinfachen. Eine besonders interessante Fragestellung für uns ist, wie dieses Weltmodell mit der Zeit iterativ verfeinert werden kann, weil der Roboter immer komplexere und vielseitigere Aufgaben lösen soll.
Ein wichtiger Vorteil der expliziten Wissensrepräsentation ist, dass das Wissen erklärbar wird. Darunter verstehen wir, dass es interpretiert werden kann und von Menschen verstanden wird. Als Beispiel hierfür dient unsere "Green Button Challenge", wo einige Roboter in der Lage waren zu erklären, was sie gerade tun und wieso.