DLR Portal
Home|Sitemap|Kontakt|Barrierefreiheit Impressum und Nutzungsbedingungen Datenschutz Cookies & Tracking |English
Sie sind hier: Home:Robotersysteme:Mensch-Maschine-Schnittstellen:HUG
Erweiterte Suche
Institut für Robotik und Mechatronik
Abteilungen
Robotersysteme
Flugsysteme
Hände
Humanoide
Industrie
Laufroboter
Medizin/Pflege
Mobile Plattformen
Mensch-Maschine-Schnittstellen
HUG
FingerTac
Joystick RJo
VibroTac
Raumfahrt
Historie
Anwendungsfelder
Forschungsthemen
Projekte
Technologietransfer
Veröffentlichungen und Downloads
Stellenangebote
Anreise
News-Verzeichnis

HUG

HUG - the bimanual haptic device

HUG ist die haptische Eingabestation für die telemanipulierte Steuerung des humanoiden Roboters Justin. Mit Hilfe seiner beiden Leichtbauroboterarme kann HUG die Bewegungen des Menschen messen und ihm gleichzeitig Kräfte aus der entfernten Umgebung darstellen.

Das Robotersystem HUG wurde im Jahr 2010 erstmals der Öffentlichkeit präsentiert.

Technische Daten

Größe: Höhe der Basis: 1,46m; Länge der Roboterarme (ohne Tool): 1,10m
Gewicht: ca. 50kg (davon dynamische Masse ca. 2 x 10kg)
Freiheitsgrade: 2 × 7
Nominale Nutzlast: 20kg
Sensoren: pro Gelenk: 1 Drehmomentsensor und 2 Positionssensoren
zusätzlich pro Roboterarm: 6-DoF Kraftmomentensensor vor den Endeffektoren
Besonderheiten: • Verschiedenartige Endeffektoren können angeschlossen werden (z.B. Joysticks, Halterungen für Datenhandschuhe oder aktive Geräte zur Darstellung der Griffkraft)
• Eine mehrschichtige Sicherheitsarchitektur (mit redundanten Sensoren, magnetischen Sicherheitskupplungen und intelligenten Sicherheitschecks) erkennt Fehler und schützt vor Unfällen
• Ein optisches Trackingsystem mit 5 Kameras misst die Bewegung des Kopfes

Systembeschreibung

Wie müsste ein haptisches Gerät aussehen, das eine möglichst realistische haptische Erfahrung ermöglicht? Dies war eine der Kernfragen bei der Erforschung und Entwicklung von HUG. HUG ist ein zweiarmiges haptisches Interaktionsgerät das mit zwei DLR/KUKA Leichtbaurobotern ausgestattet ist, die den Arbeitsraum menschlicher Arme nahezu komplett abdecken. Eine mehrschichtige Sicherheitsarchitektur kombiniert mit einer optimalen Regelstrategie garantiert eine zuverlässige, robuste und intuitive Bedienung für den Menschen. Ein Head-Mounted Display, zusätzliche vibrotaktile Geräte und ein breites Spektrum an Endeffektoren erhöhen den Immersionsgrad für den Benutzer und ermöglichen den Einsatz in einem breiten Anwendungsspektrum.

HUG kommt bei den folgenden Forschungsthemen zum Einsatz:

  • Telemanipulation von SpaceJustin
  • Montagesimulation virtueller Prototypen (Mockups)
  • Training von Astronauten und Mechanikern
  • Rehabilitation

Video

The DLR Bimanual Haptic Device auf Vimeo

HUG - Bildergalerie

Telemanipulierte Steuerung

Telemanipulierte Steuerung mit HUG 

Quelle: DLR (CC-BY3.0).

  • Download 3,31 MB

Galerie teilen:

  • Facebook
  • twitter

HUG - das zweiarmige haptische Gerät des DLR

Ein Mensch bedient das haptische Gerät HUG und spürt über dessen Roboterarme die Kräfte aus der entfernten oder virtuellen Welt. 

Quelle: DLR (CC-BY 3.0).

  • Download 3,11 MB

Galerie teilen:

  • Facebook
  • twitter

HUG teleoperiert EDAN

HUG steuert den robotischen Rollstuhl EDAN im Rahmen des Projekts SMiLE. Das Foto entstand auf der Messe Automatica. 

Quelle: DLR (CC-BY 3.0).

  • Download 9,32 MB

Galerie teilen:

  • Facebook
  • twitter

Magnetische Sicherheitskupplung

Die ergonomische und anpassbare Handhalterung ermöglicht die gleichzeitige Verwendung von Datenhandschuhen. Diese Halterung wird mittels einer patentierten magnetischen Sicherheitskupplung an HUGs Roboterarme befestigt. Falls zu hohe Kräfte zwischen Mensch und Roboter auftreten, entkoppelt sich diese Sicherheitskupplung und unterbricht die Notausschleife, so dass die Roboter umgehend zum Stillstand kommen. 

Quelle: DLR (CC BY-NC-ND 3.0).

  • Download 6,03 MB

Galerie teilen:

  • Facebook
  • twitter

Das Telepräsenzsystem aus SpaceJustin und HUG

Ein Bediener telemanipuliert unter Verwendung von HUG den humanoiden Roboter SpaceJustin und spürt dabei die Kräfte aus der entfernten Welt. 

Quelle: DLR (CC-BY 3.0).

  • Download 2,32 MB

Galerie teilen:

  • Facebook
  • twitter

Ein Mitarbeiter im zweiarmigen haptischen Interaktionsgerät HUG

Das haptisches Interaktionsgerät HUG stellt auftretende Kräfte möglichst realistisch an den Menschen dar – eine Anforderung aus den Bereichen der Telemanipulation und der Interaktion mit komplexen virtuellen Welten, insbesondere bei der Telerobotik mit SpaceJustin, bei Montagesimulationen in der virtuellen Welt, bei der Rehabilitation und beim Training von Astronauten und Mechanikern. 

Quelle: DLR (CC-BY 3.0).

  • Download 2,77 MB

Galerie teilen:

  • Facebook
  • twitter

Ein Mitarbeiter im zweiarmigen haptischen Interaktionsgerät HUG

Das haptisches Interaktionsgerät HUG stellt auftretende Kräfte möglichst realistisch an den Menschen dar – eine Anforderung aus den Bereichen der Telemanipulation und der Interaktion mit komplexen virtuellen Welten, insbesondere bei der Telerobotik mit SpaceJustin, bei Montagesimulationen in der virtuellen Welt, bei der Rehabilitation und beim Training von Astronauten und Mechanikern. 

Quelle: DLR (CC-BY 3.0).

  • Download 3,09 MB

Galerie teilen:

  • Facebook
  • twitter

Galerie teilen:

  • Facebook
  • twitter

Veröffentlichungen

  • J. Vogel, D. Leidner, A. Hagengruber, M. Panzirsch, B. Bäuml, M. Denninger, U. Hillenbrand, L. Suchenwirth, et al.: An Ecosystem for Heterogeneous Robotic Assistants in Caregiving, IEEE Robotics and Automation Magazine, 2021 (accepted)
  • M. Sagardia, T. Hulin, K. Hertkorn, P. Kremer, S. Schätzle: A Platform for Bimanual Virtual Assembly Training with Haptic Feedback in Large Multi-Object Environments, ACM VRST 2016, Munich, Germany, 2016.
  • T. Hulin, K. Hertkorn, P. Kremer, S. Schätzle, J. Artigas, M. Sagardia, F. Zacharias, C. Preusche: The DLR Bimanual Haptic Device with Optimized Workspace (Video), ICRA2011, Shanghai, China, 2011.
  • T. Hulin, M. Sagardia, J. Artigas, S. Schätzle, P. Kremer, C. Preusche: Human-Scale Bimanual Haptic Interface, Enactive08, Pisa, Italy, 2008.
Kontakt
Dr.-Ing. Thomas Hulin
Deutsches Zentrum für Luft- und Raumfahrt (DLR)

Institut für Robotik und Mechatronik
, Analyse und Regelung komplexer Robotersysteme
Oberpfaffenhofen-Weßling

Tel.: +49 8153 28-1306

Fax: +49 8153 28-1134

Verwandte Themen
HUG im 360°-Rundgang
LBR III
EDAN
Forschungsthemen
Haptisches Rendering: Kollisionserkennung und -berechnung
Telemanipulation
Ergonomie/ Human Factors
Stabile Haptische Interaktion und Regelung
Multimodales Training von Mechanikern und Astronauten
Interaktive Robotervisualisierung
Projekte
Projekt VR-OOS: Virtuelle Realität für On-Orbit Servicing
Projekt SMiLE
Projekt STAMAS
Videos
The DLR Bimanual Haptic Device
Telerobotische Montage von Cubesats unter Verwendung virtueller Kraftfelder
Downloads
HUG-Flyer 2016 (2,91 MB)
Copyright © 2022 Deutsches Zentrum für Luft- und Raumfahrt e.V. (DLR). Alle Rechte vorbehalten.