Aufbau

Hardware

Das System basiert auf einer vierrädrigen mobilen Plattform, die ursprünglich vom Lehrstuhl für Steuerungs- und Regelungstechnik (LSR) der Technischen Universität München gebaut wurde. Wir haben den elektronischen Teil der Radsteuerung dahingehend verändert, dass die Plattform in unsere Steuerungsarchitektur integriert wurde. Daher können die Plattform und der Arm als 10-Achsensystem für Manipulationsaufgaben angesteuert werden. Um das System durch das Labor zu navigieren, kann die Plattform unabhängig über eine Bahnerzeugungsschnittstelle gesteuert werden. Die Plattform ist zwar omnidirektional, aber nicht holonom ausgelegt.

Um die Manipulationsmöglichkeiten des Systems zu erweitern, wird der DLR-Leichtbauarm II mit der DLR-Hand auf der Plattform montiert. Alle Systeme werden in Echtzeit von PowerPC-Platinen gesteuert, die unter VxWorks in einem VME-Bus-Rack laufen. Für die Nicht-Echtzeit-Softwarekomponenten wie Navigation, Bildauswertung und Kollisionsvermeidung wird außerdem ein Laptop mit Linux an das System angeschlossen. Alle Computer sind per WLAN mit der Laborinfrastruktur verbunden.

Sichtanwendungen werden durch ein auf einer Schwenk-/Neigevorrichtung montierten Digiclops-Stereo-Sichtsystem auf der Plattform unterstützt. Digiclops liefert Weitwinkel-Videobilder sowie eine 2½-D-Punktwolke (Tiefenbild).

Der Roboter kann entweder mithilfe des oben auf der Plattform befindlichen Push-Sensors oder einer 3D-Maus interaktiv durch das Labor gesteuert werden.

Software

Zu den Softwarekomponenten des Systems gehören die Steuerungssoftware für die Plattform, den Arm und die Hand sowie ein aufgabenorientiertes Programmiersystem, das die Kontrolle der Echtzeit-Regelbausteine ermöglicht.

Innerhalb dieses Systems lassen sich aus kleinen sensorbasierten Vorgängen mühelos komplexe Manipulationsaufgaben bilden. Aufgrund der Verwendung der Sensorinformationen sind geringere Abweichungen der realen Welt von der modellbasierten View innerhalb des Systems zulässig. Das bedeutet, dass kleinere Änderungen in der Umgebung nicht automatisch die Neuprogrammierung der gesamten Aufgabe nach sich ziehen.

Zur Darstellung der Umgebung wird eine Szenenanalyse-Software integriert, die Stereobilder verarbeitet. Dieses System kann einen Satz bekannter Objekte erkennen und lokalisieren. Vor der Aktivierung einer Manipulationsaufgabe wird mithilfe dieser Szenenanalysekomponente ein sogenanntes World Model Update durchgeführt.