Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Sitzung
S03: Bildanalyse - Computer Vision
Zeit:
Donnerstag, 21.02.2019:
9:00 - 10:30

Chair der Sitzung: Martin Weinmann
Ort: EH 03 (Exnerhaus)
EXNH-01/55 Peter-Jordan-Straße 82, 1. Obergeschoß OST 119 Sitzplätze

zu Beginn mit Innovationsforum 3
(Kurzvorträge der ausstellenden Fachfirmen)

G. Tutsch, SynerGIS: ArcGIS Pro – das Desktop GIS für Ihre Image Plattform




Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Deep Learning-basierte Objektdetektion für Anwendung in der Partikelfilter basierten Landmarkennavigation

P. Pirner1, T. Abmayr1, M. Wimmer1, D. Richter1, H. Runge2

1Hochschule München, Deutschland; 2DLR German Aerospace Center, EOC

Da aktuell eingesetzte satellitenbasierte Positionierungsverfahren diversen Einschränkungen unterliegen, müssen im Kontext des autonomen Fahrens neue Möglichkeiten zur Lokalisierung gefunden werden. Dazu stellt diese Arbeit eine autarke Lösung mittels Landmarken und eines Partikelfilters vor. Im Bereich des Autobahnkreuzes A99 / A94 bei München liegen hochgenaue Positionsinformationen über diverse Verkehrszeichen vor. Diese Daten wurden vom Deutschen Zentrum für Luft- und Raumfahrt per Radarfernerkundung erhoben und können in dieser Arbeit als Landmarken genutzt werden. Dazu werden diese optisch mit Hilfe von Deep Learning detektiert und daraus ein Winkel zwischen Fahrzeug und Landmarke bestimmt. Diese Daten dienen einem bearing-only Partikelfilter nach einer initialen Positionierung als Eingaben für eine globale Positionsbestimmung.
Es wird das Verfahren zur Aufbereitung eines Bildes für eine verzeichnungsfreie Darstellung aufgezeigt und die damit mögliche Winkelextraktion beschrieben. Des Weiteren werden die Ergebnisse von Neuronalen Netzen unter Verwendung verschiedener Trainingsbilder bzw. -optionen ausgewertet und gegenübergestellt. Anschließend wird mittels einer aufgezeichneten Fahrt im Bereich des erwähnten Autobahnkreuzes eine globale Lokalisierungslösung mit den ermittelten Winkelmessungen im Rahmen eines bearing-only Partikelfilters implementiert.
Es wird gezeigt, dass mit diesen Technologien und Algorithmen ein autonomes Positionierungsverfahren realisiert werden kann, welches GPS-ähnliche Genauigkeiten aufweist.



Large Scale Oil Palm Detection On Satellite Images Using Deep Learning

M. Freudenberg, N. Nölke, A. Agostini, F. Wörgötter, C. Kleinn

University of Göttingen, Germany

Present studies on oil palm tree detection and counting using machine- learning based methods and high-resolution imagery as Quickbird (0.6 m) are limited in their performance. Thus, these methods are not proven to be useful for large area applications. We present an enhanced method to quickly detect individual oil palms from high-resolution satellite imagery (0.3 m WorldView-3) over a large area, using a U-Net deep neural network. Our approach is more than three times faster than previous methods, while maintaining a comparable accuracy between 88% and 92%.

The global demand for oil palm is increasing and environmental and ecological concerns are calling for plans to make palm oil production less environmental detrimental and more sustainable. When sustainability of a renewable natural resource is at stake, base information on its development is required, both in terms of plantation area and in terms of plantation characteristics (e.g. locations of individual oil palms). Such data are not only of major interest for plantation owners and managers but also for governmental institutions (e.g. for monitoring unauthorized expansion of oil palm plantations), for research organizations, and for the public. Our study area is in Jambi, Indonesia and covers an area of 348km² mainly characterized by large oil palm plantations of different age.

The U-Net receives an image patch and produces a probability map of oil palm locations. Using a peak detection algorithm single oil palm positions can be extracted from the probability map, which permits the inference of several palm positions at once. Previous deep learning approaches use a classifier, which produces a single probability per input instead of a probability map, thereby making it slower.
In Jambi we find 2.1 million palms, located in large plantations. Reliably identifying the positions of individual palm trees may be a base component of a remote sensing oil palm monitoring system in which, for example, growth or vitality variables are also assessed for each individual oil palm tree.



Automatic Generation Of Large Point Cloud Training Datasets Using Label Transfer

T. Peters, C. Brenner

Universität Hannover, Deutschland

Many state of the art solutions of recognition, interpretation or planning problems are based on deep learning techniques. For example, in the domain of autonomous driving, deep learning is used for object segmentation and classification, motion planning, and even end-to-end learning. In classical supervised learning, networks are trained with data of a specific domain for the given task. However, if one domain intersects with another domain, the knowledge can be transferred between tasks. This procedure is called transfer learning. Autonomous cars often use different sensors in order to solve related tasks, for example cameras and LiDAR sensors, which makes this a viable approach.

In this work, we describe a framework for the automatic annotation of large scale point clouds. Our input data is generated using a mobile mapping system, which features LiDAR as well as camera image acquisition. In a first step, we labelled images of the measurement campaigns using pre-trained CNN (convolutional neural network) models for semantic segmentation. To that end, we ran PSPNet, which was trained on the cityscapes dataset. Then, since all camera poses are known from the mobile mapping GNSS/ IMU system, the image labels were transferred to the 3D points measured by the LiDAR scanners. Using this approach, we are able to automatically generate very large amounts of labelled point clouds, which can be used as training data. However, the dataset contains label noise, mainly because of calibration- and classification-errors, label policy, and occlusions which occur due to platform or object movements.

In the paper, we are showing to what extend the quality of the labels are degrading by investigating different types of label noise. We do this by comparing the transferred labels with a manually annotated reference dataset. Furthermore, we are improving the label transfer by implementing a full ray-tracing. Additionally, by storing the aggregated labels in histograms, we are able to show that some types of noise are identifiable in the labels itself. In the end, we are investigating different approaches for label noise reduction and show their effectiveness.



Open-Source Segmentierungsevaluierung Zur Unterstützung Objektbasierter Bildanalyse

S. Böck, M. Immitzer, C. Atzberger

University of Natural Resources and Life Sciences, Vienna, Österreich

Die in den letzten 20 Jahren gestiegene Verfügbarkeit räumlich hochaufgelöster Satellitendaten, hat zur vermehrten Entwicklung objektbasierter Bildanalysemethoden im Bereich der Fernerkundung geführt. Häufig erfolgt beim Einsatz der objektbasierten Bildanalyse zur Landbedeckungs- und Landnutzungsklassifikation, in einem ersten Schritt die Segmentierung der Eingangsdaten in nicht-überlappende Segmente, die das gesamte Betrachtungsgebiet erschöpfend abdecken. Die Segmentierung wird üblicherweise unter Zuhilfenahme computergestützter Segmentierungsalgorithmen durchgeführt. Die so gewonnen Segmente können durch Merkmale beschrieben werden, die neben Deskriptoren der spektralen Eigenschaften auch Formparameter, Nachbarschaftsbeziehungen und hierarchische Beziehungen umfassen. Diese beschreibenden Attribute werden in der Regel in einem anschließenden Schritt zur überwachten Klassifikation genutzt. Der Qualität des Segmentierungsergebnisses wird eine besondere Bedeutung zugesprochen, da sie Einfluss auf die erzielbare Klassifikationsgüte hat.

Durch die Anwendung verschiedener Segmentierungsalgorithmen, sowie unterschiedlicher Parametrisierungen der einzelnen Verfahren, ist unter geringem Aufwand eine Vielzahl unterschiedlicher Segmentierungsergebnisse generierbar. Die Wahl des optimalen Segmentierungsergebnisses für die weitere Auswertung stellt, nicht zuletzt auch wegen der Abhängigkeit von der gegebenen Fragestellung, eine zentrale Herausforderung in der praktischen Anwendung der objektbasierten Bildanalyse dar. Die Auswahl erfolgt in der Praxis häufig auf Grundlage der visuellen Bewertung durch eine Analystin. Während diese Herangehensweise geeignet ist gute Ergebnisse zu erzielen, ist ihre Anwendbarkeit durch den erforderlichen Zeitaufwand auf kleine Untersuchungsgebiete und eine überschaubare Anzahl zu vergleichender Segmentierungsergebnisse beschränkt. Des Weiteren ist die visuelle Bewertung der Qualität eines Segmentierungsergebnisses inhärent subjektiv und ihre Reproduzierbarkeit dadurch limitiert.

Um die Wahl eines geeigneten Segmentierungsergebnisses objektiver und reproduzierbarer zu machen, wurden unterschiedliche empirische Methoden zur Segmentierungsevaluierung entwickelt, die meist in un-überwachte und überwachte Ansätze gegliedert werden. Die Eignung eines Evaluierungsmaßes hängt dabei abermals von der vorliegenden Anwendung beziehungsweise der gegebenen Fragestellung ab. Während in den vergangenen Jahren eine kontinuierliche Entwicklung von Evaluierungsmethoden stattgefunden hat, ist eine breite und routinemäßige Anwendung von Segmentierungsevaluierungsverfahren noch nicht zu beobachten. Dieser Umstand kann zu einem gewissen Teil mit einem Mangel an gebrauchsfertigen Softwareimplementierungen begründet werden. Im wissenschaftlichen Umfeld entwickelte Maße stehen potentiellen Nutzern daher häufig nur eingeschränkt zur Verfügung. Dies führt einerseits dazu, dass in der wissenschaftlichen Literatur vorgeschlagene Ansätze oftmals lediglich an Beispieldatensätzen demonstriert werden, eine breitere praktische Anwendung jedoch ausbleibt. Andererseits macht dies unterschiedliche Ansätze bezüglich ihrer Effektivität schwerer vergleichbar.

In der Bemühung einen Beitrag zu leisten um genannte Einschränkungen zu überwinden, wurde ein Softwarepaket als Erweiterung der populären Open-Source Statistikumgebung R entwickelt, das diverse bestehende un-überwachte und überwachte Segmentierungsevaluierungsmethoden bereitstellt. Darüber hinaus ermöglicht ein flexibler Aufbau des Pakets neue Evaluierungsansätze zu entwickeln und unter geringem Aufwand umzusetzen. Die auf diese Weise bereitgestellten Möglichkeiten werden an einem Beispieldatensatz demonstriert.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DLT 2019
Conference Software - ConfTool Pro 2.6.128
© 2001 - 2019 by Dr. H. Weinreich, Hamburg, Germany