DLR Portal
Home|Sitemap|Kontakt|Barrierefreiheit Impressum und Nutzungsbedingungen Datenschutz Cookies & Tracking |English
Sie sind hier: Home:Veröffentlichungen und Downloads:Software:AugmentedAutoencoder
Erweiterte Suche
Institut für Robotik und Mechatronik
Abteilungen
Robotersysteme
Anwendungsfelder
Forschungsthemen
Projekte
Technologietransfer
Veröffentlichungen und Downloads
Publikationen
Software
AugmentedAutoencoder
DLR CalDe und DLR CalLab
RAFCON
cvkit
Stable Baselines3
Datensätze
Flyer
Stellenangebote
Anreise
News-Verzeichnis
Drucken

Augmented Autoencoders



6-DOF-Objekt-Lageschätzung ist essentiell für autonome robotische Manipulation, Augmented-Reality-Anwendungen, autonomes Fahren, etc.

Augmented Autoencoders (AAEs) sind ein am Institut entwickelter Ansatz, um neuronale Netze zur Objekt-Lageschätzung mit synthetischen gerenderten Bildern von 3D-Modellen zu trainieren. Er erlaubt das Lernen komplexer Features zur Lageschätzung ohne das aufwendige Annotieren von Bildern mit Objektposen. Durch eine Domain-Randomization-Strategie während des Trainings wird die Übertragbarkeit auf echte Sensordaten sichergestellt. Im Gegensatz zu vielen anderen Ansätzen wird kein direktes Mapping von Bildern zu Posen gelernt, wodurch der Ansatz mit Objektsymmetrien umgehen kann.

Initial wird eine auf Deep Learning basierte Objekt-Detektion durchgeführt (RetinaNet). Falls Tiefendaten zur Verfügung stehen, kann dieser Ansatz einen Iterative Closest Point (ICP) intialisieren, um nicht nur robuste, sondern auch sehr präzise Objektlagen zu bestimmen.

Bei der European Conference on Computer Vision (ECCV) 2018 erhielt die Publikation den Best Paper Award.

Der Code ist Open Source auf GitHub verfügbar: https://github.com/DLR-RM/AugmentedAutoencoder.


Verwandte Artikel
AIMM
THR-Datensatz
T-LESS
rc_visard
Copyright © 2023 Deutsches Zentrum für Luft- und Raumfahrt e.V. (DLR). Alle Rechte vorbehalten.