Details
Original language | German |
---|---|
Qualification | Doctor of Engineering |
Awarding Institution | |
Supervised by |
|
Date of Award | 30 Oct 2019 |
Place of Publication | Hannover |
Publication status | Published - 2019 |
Abstract
Cite this
- Standard
- Harvard
- Apa
- Vancouver
- BibTeX
- RIS
Hannover, 2019. 154 p.
Research output: Thesis › Doctoral thesis
}
TY - BOOK
T1 - Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen
AU - Fritsche, Paul
N1 - Dissertation
PY - 2019
Y1 - 2019
N2 - Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.
AB - Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.
U2 - 10.15488/7254
DO - 10.15488/7254
M3 - Dissertation
CY - Hannover
ER -