Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen

Publikation: Qualifikations-/StudienabschlussarbeitDissertation

Autoren

  • Paul Fritsche

Organisationseinheiten

Forschungs-netzwerk anzeigen

Details

OriginalspracheDeutsch
QualifikationDoktor der Ingenieurwissenschaften
Gradverleihende Hochschule
Betreut von
Datum der Verleihung des Grades30 Okt. 2019
ErscheinungsortHannover
PublikationsstatusVeröffentlicht - 2019

Abstract

Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.

Zitieren

Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen. / Fritsche, Paul.
Hannover, 2019. 154 S.

Publikation: Qualifikations-/StudienabschlussarbeitDissertation

Fritsche, P 2019, 'Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen', Doktor der Ingenieurwissenschaften, Gottfried Wilhelm Leibniz Universität Hannover, Hannover. https://doi.org/10.15488/7254
Fritsche, P. (2019). Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen. [Dissertation, Gottfried Wilhelm Leibniz Universität Hannover]. https://doi.org/10.15488/7254
Fritsche P. Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen. Hannover, 2019. 154 S. doi: 10.15488/7254
Download
@phdthesis{f1e5ea8f71e649e6a45373a629d3610b,
title = "Umgebungsmodellierung mit Radarsensoren und gest{\"o}rten Sichtbedingungen",
abstract = "Ein mobiler Roboter ben{\"o}tigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuf{\"u}hren. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. F{\"u}r diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und fl{\"u}ssige Schwebeteilchen (Aerosole) f{\"u}r die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht f{\"u}r RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeintr{\"a}chtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme f{\"u}r autonome Stra{\ss}enfahrzeuge. Dementsprechend liefern popul{\"a}re Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht gen{\"u}gend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuf{\"u}hren. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeintr{\"a}chtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang besch{\"a}ftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierf{\"u}r werden drei Fusionsverfahren und ein SLAM-Verfahren ausf{\"u}hrlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren erm{\"o}glichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich w{\"a}ren. Mit der durch die fusionierten Daten ermittelten Konzentrationsgr{\"o}{\ss}e wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.",
author = "Paul Fritsche",
note = "Dissertation",
year = "2019",
doi = "10.15488/7254",
language = "Deutsch",
school = "Gottfried Wilhelm Leibniz Universit{\"a}t Hannover",

}

Download

TY - BOOK

T1 - Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen

AU - Fritsche, Paul

N1 - Dissertation

PY - 2019

Y1 - 2019

N2 - Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.

AB - Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.

U2 - 10.15488/7254

DO - 10.15488/7254

M3 - Dissertation

CY - Hannover

ER -

Von denselben Autoren