Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen

Research output: ThesisDoctoral thesis

Authors

  • Paul Fritsche

Research Organisations

View graph of relations

Details

Original languageGerman
QualificationDoctor of Engineering
Awarding Institution
Supervised by
Date of Award30 Oct 2019
Place of PublicationHannover
Publication statusPublished - 2019

Abstract

Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.

Cite this

Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen. / Fritsche, Paul.
Hannover, 2019. 154 p.

Research output: ThesisDoctoral thesis

Fritsche, P 2019, 'Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen', Doctor of Engineering, Leibniz University Hannover, Hannover. https://doi.org/10.15488/7254
Fritsche, P. (2019). Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen. [Doctoral thesis, Leibniz University Hannover]. https://doi.org/10.15488/7254
Fritsche P. Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen. Hannover, 2019. 154 p. doi: 10.15488/7254
Download
@phdthesis{f1e5ea8f71e649e6a45373a629d3610b,
title = "Umgebungsmodellierung mit Radarsensoren und gest{\"o}rten Sichtbedingungen",
abstract = "Ein mobiler Roboter ben{\"o}tigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuf{\"u}hren. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. F{\"u}r diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und fl{\"u}ssige Schwebeteilchen (Aerosole) f{\"u}r die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht f{\"u}r RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeintr{\"a}chtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme f{\"u}r autonome Stra{\ss}enfahrzeuge. Dementsprechend liefern popul{\"a}re Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht gen{\"u}gend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuf{\"u}hren. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeintr{\"a}chtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang besch{\"a}ftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierf{\"u}r werden drei Fusionsverfahren und ein SLAM-Verfahren ausf{\"u}hrlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren erm{\"o}glichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich w{\"a}ren. Mit der durch die fusionierten Daten ermittelten Konzentrationsgr{\"o}{\ss}e wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.",
author = "Paul Fritsche",
note = "Dissertation",
year = "2019",
doi = "10.15488/7254",
language = "Deutsch",
school = "Gottfried Wilhelm Leibniz Universit{\"a}t Hannover",

}

Download

TY - BOOK

T1 - Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen

AU - Fritsche, Paul

N1 - Dissertation

PY - 2019

Y1 - 2019

N2 - Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.

AB - Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen.

U2 - 10.15488/7254

DO - 10.15488/7254

M3 - Dissertation

CY - Hannover

ER -

By the same author(s)