• Home
  • Over ons
  • Uw publicatie
  • Catalogus
  • Recensies
  • Help
  • Account
  • Contact / Impressum
Dissertatie - Publicatiereeks - Congresbundel - Vakboek - Collegedictaat/Studieboek - CD-Rom/DVD - Online Publicatie
Winkelmandje
Catalogus : Details

Christian Nißler

Environment- and Self-Modeling through Camera-Based Pose Estimation

voorkantachterkant
 
ISBN:978-3-8440-7048-4
Reeks:Fortschritte der Robotik/Progress in Robotics
Uitgever: Prof. Dr.-Ing. Ulrike Thomas
Chemnitz
Volume:2
Trefwoorden:Pose Estimation; Calibration; Camera-Camera Calibration; Localization; Hand-Eye Calibration
Soort publicatie:Dissertatie
Taal:Engels
Pagina's:234 pagina's
Gewicht:347 g
Formaat:21 x 14,8 cm
Bindung:Softcover
Prijs:49,80 € / 62,30 SFr
Verschijningsdatum:December 2019
Kopen:
  » plus verzendkosten
Download:

Beschikbare online documenten voor deze titel:

U heeft Adobe Reader, nodig, om deze bestanden te kunnen bekijken. Hier vindt u ondersteuning en informatie, bij het downloaden van PDF-bestanden.

Let u er a.u.b. op dat de online-bestanden niet drukbaar zijn.

 
 DocumentDocument 
 Soort bestandPDF 
 Kosten37,35 EUR 
 ActiesTonen en kopen van het bestand - 8,4 MB (8818245 Byte) 
 ActiesKopen en downloaden van het bestand - 8,4 MB (8818245 Byte) 
     
 
 DocumentInhoudsopgave 
 Soort bestandPDF 
 Kostengratis 
 ActiesHet bestand tonen - 1,8 MB (1838803 Byte) 
 Actiesdownloaden van het bestand - 1,8 MB (1838803 Byte) 
     

Gebruikersinstellingen voor geregistreerde online-bezoekers

Hier kunt u uw adresgegevens aanpassen en uw documenten inzien.

Gebruiker:  niet aangemeld
Acties:  aanmelden/registreren
 Paswoord vergeten?
Aanbevelen:Wilt u dit boek aanbevelen?
Recensie-exemplaarBestelling van een recensie-exemplaar.
VerlinkingWilt u een link hebben van uw publicatie met onze online catalogus? Klik hier.
SamenvattingEnvironments, in which robots can assist humans both in production tasks as well as in everyday tasks, will demand advanced capabilities of these robotic systems of cooperating with humans and other robots. To achieve this, robots should be able to navigate and manipulate in dynamic environments safely. As such, it is essential that a robot can accurately determine its pose (i.e., its position and orientation) in the environment based on optical sensors.
However, both the map of the robot’s surrounding as well as its sensors can contain inaccuracies, which can cause problematic consequences.
The work presented here focuses on this issue by introducing several novel computer vision-based methods. These approaches lead to a set of challenges which are addressed in this thesis. These are:

  • How accurately can a robot estimate its pose in a known environment, i.e., assuming that a precise map of its surrounding is available?
  • Secondly, how can a model of the robot’s surroundings be created if no map of its surroundings is known a priori?
  • Lastly, how can this be done if neither a priori environment models nor models of the robot’s internal state are available?
Regarding the first research question, it is shown that high accuracy can be achieved based on camera information only. This is applicable both for classical cameras and 3D cameras.
To answer the second question, a method is introduced, with which a highly accurate model of a robot’s environment can be created. A significant advantage of this method is that it can run in parallel and doesn’t need either particular movements of the robot nor requirements on the type of camera images used.
Extending this to the third question, it is demonstrated that simultaneously to obtaining a model of the surroundings, an internal model can be obtained employing similar approaches.
An important benefit of all these methods is that they are based solely on optical sensors, namely on cameras and depth sensors. This makes these approaches very easy and cost-effective to apply to a robotic system.
The introduced methods are experimentally evaluated throughout this thesis employing different mobile robotic systems, ranging from industrial manipulators to humanoid robots.
Going beyond traditional robotics, this work examines how the presented methods can also be applied to human-machine interaction. It shows, that by solely visually observing the movement of the muscles in the human forearm and by employing machine learning methods, the corresponding hand gestures can be determined, opening entirely new possibilities in the control of robotic hands and hand prostheses.


Umgebungen, in denen Roboter Menschen sowohl bei industriellen Produktionsaufgaben als auch im Alltag assistieren können, werden ausgereifte Fähigkeiten der robotischen Systeme zur Kooperation mit Menschen und anderen Robotern erfordern.
Um dies zu erreichen, ist es erforderlich, dass Roboter sicher in dynamischen Umgebungen navigieren und mit ihrem Umfeld interagieren können. Daher ist es essentiell, dass ein Roboter präzise seine Pose, das heißt seine Position und Orientierung, in der Umgebung bestimmen kann.
Allerdings kann sowohl das Modell der Umgebung als auch die Sensoren des Roboters fehlerhaft sein, was zu problematischen Konsequenzen führen kann. Die hier präsentierte Arbeit befasst sich mit dieser Problemstellung, indem mehrere neuartige Methoden des maschinellen Sehens vorgestellt werden. Diese Ansätze führen zu einer Reihe von Herausforderungen, die im Rahmen dieser Dissertation behandelt werden. Diese sind:

  • Welche Genauigkeit kann für einen Roboter erreicht werden, um seine Pose in einer bekannten Umgebung zu bestimmen, das heißt unter der Annahme, dass eine hochgenaue Karte der Umgebung zur Verfügung steht?
  • Des Weiteren, wie kann ein Modell der Umgebung des Roboters erstellt werden, falls keine Karte der Umgebung a priori bekannt ist?
  • Und schließlich, wie kann der Fall behandelt werden, falls weder a priori Umgebungsmodelle noch Modelle zum internen Status des Roboters zur Verfügung stehen?
Hinsichtlich der ersten wissenschaftlichen Fragestellung wird in dieser Arbeit dargestellt, dass eine hohe Genauigkeit basierend auf Kamerainformationen erreicht werden kann. Dies ist sowohl für klassische Kameras als auch für Tiefensensoren anwendbar.
Um die zweite Fragestellung zu beantworten, wird eine Methode vorgestellt, mit welcher ein hochgenaues Modell der Umgebung eines Roboters erstellt werden kann. Ein großer Vorteil dieses Verfahrens ist, dass es parallel ablaufen kann und weder spezielle Bewegungen des Roboters benötigt noch Voraussetzungen an die Art der eingesetzten Kameras stellt.
Schließlich wird dies auf die dritte Fragestellung erweitert und es wird aufgezeigt, wie simultan zur Erstellung eines Modells der Umgebung auch ein internes Modell des Roboters bestimmt werden kann.
Ein wichtiger Vorzug all dieser Methoden ist, dass sie rein auf optischen Sensoren basieren, also auf Kameras und Tiefensensoren. Dies ermöglicht es, die gezeigten Methoden sehr einfach und preisgünstig auf unterschiedlichen Robotersystemen zu implementieren.
Die vorgestellten Verfahren werden im Rahmen dieser Arbeit experimentell evaluiert, indem verschiedene robotische Systeme verwendet werden. Diese Systeme reichen von klassischen Industrierobotern bis hin zu humanoiden Robotern.
Über traditionelle Robotik hinausgehend, wird des Weiteren dargelegt, wie diese Methoden auch im Rahmen der Mensch-Maschine Interaktion angewandt werden können. Hier wird gezeigt, dass nur durch Betrachtung der Muskelbewegung im Unterarm eines Menschen mittels Methoden des maschinellen Lernens zugehörige Handgesten bestimmt werden können, was zum Beispiel neue Möglichkeiten in der Ansteuerung von robotischen Händen und modernen Handprothesen eröffnet.