Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Sitzung
S05: Auswertung von Fernerkundungsdaten
Zeit:
Donnerstag, 21.02.2019:
11:15 - 13:00

Chair der Sitzung: Thomas Bauer
Ort: EH 05 (Exnerhaus)
EXNH-02/64 Peter-Jordan-Straße 82, 2. Obergeschoß OST 119 Sitzplätze

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

ALS Klassifizierung Mit Submanifold Sparse Convolutional Networks

S. Schmohl, U. Sörgel

Institut für Photogrammetrie, Universität Stuttgart, Deutschland

Flugzeuglaserscanning (ALS) liefert Massendaten in Form von 3D-Punktwolken. Um hieraus semantische Information über Objekte zu gewinnen, wird als Zwischenschritt oftmals jedem 3D-Punkt eine Klasse aus einem gegebenen Katalog von Objektkategorien zugewiesen.

Convolutional Neural Networks (CNNs) haben sich in den letzten Jahren als State-of-the-art in der Bildanalyse etabliert. Deren Anwendung auf Voxelgitter ist jedoch wegen des hohen Speicher- und Rechenbedarf begrenzt. Da sich voxelierte ALS-Punktwolken durch eine stark inhomogene räumliche Verteilungsdichte kennzeichnen, stellen Submanifold Sparse Convolutional Networks (SSCN) eine effizientere Alternative zu konventionellen CNNs dar.

Zur Semantischen Segmentierung verwenden wir ein SSCN nach dem U-Net-Schema. Am Ende des Netzes wird jedem Eingangs-Voxel die semantische Klasse mit der laut Netzwerk höchsten Wahrscheinlichkeit zugewiesen.

Wir validieren das Verfahren auf dem ISPRS Vaihingen 3D Semantic Labeling Benchmark-Datensatz und erzielen eine Klassifizierungsgenauigkeit von 84,2% bei einer Voxelgröße von 0,5m mit einem Ensemble aus 10 Netzen. Die Inferenz-Zeit pro Netz beträgt dabei für die etwa 410.000 Punkte bzw. 210.000 Voxel 0,8s.



Accuracy Analysis Of Digital Elevation Models From Very High Resolution Satellite Imagery

A.-M. Loghin, J. Otepka, W. Karel, M. Pöchtrager, N. Pfeifer

Department of Geodesy and Geoinformation (GEO), Technische Universität Wien

In recent years, the derivation of Digital Elevation Models (DEMs) from very high resolution stereo satellite imagery has become an interesting option and research topic, because the sub-meter GSD (Ground Sampling Distance) suggests that accuracy in the dm domain should be possible. Current optical earth observation satellites are able to collect multi-view images of the same area during a single pass, and thus satellite imagery became an important source for 3D information extraction.

Photogrammetrically derived DEMs play a significant role in many engineering, land planning, geomorphology, forestry and infrastructure applications. To guarantee reasonable analyses in the multiple applications, surface models with high quality are needed. While previous research demonstrates the potential of Very High Resolution (VHR) stereo / tri-stereo satellite imagery for DEM reconstruction, questions about the accuracy of the derived models and their roughness were not fully investigated. Therefore, the main focus of this contribution is to analyse and assess the potential in geometric accuracy of DEMs generated from high-resolution Pléiades and WorldView-3 stereo and tri-stereo scenes. We suggest a method for DEM generation, which ensures that the stochastic properties of the reconstructed surface are preserved. We study the impact of the different acquisition geometries (stereo / tri-stereo, ground sample distance, viewing and incidence angles) on the estimated surface and its properties as, e.g., roughness.

The study area is located in Allentsteig, Lower Austria, a hilly region covered by arable lands and coniferous forests stretching from 300 m to 690 m a. s. l. The entire photogrammetric workflow, comprising the satellite image triangulation, dense matching and 3D reconstruction were performed with the Match-AT and Match-T DSM modules of the Trimble Inpho software. The 3D reconstructed point clouds are interpolated into high resolution Digital Surface Models (DSMs) and their absolute vertical accuracy is evaluated against a LiDAR-derived Digital Terrain Model (DTM). We focus on the assessment analyses in free, open and smooth areas, without any vegetation or artificial structures like buildings or infrastructure. For this, a mask derived from available LiDAR DSM and DTM was used. The vertical quality of the reconstructed DEMs derived from the tri-stereo combination is analysed with traditional and robust accuracy measurements, resulting in non-Gaussian distributions of errors, with a RMSE of 1.13 m (1.61 pixels) for Pléiades and of 0.37 m (1.19 pixels) for WorldView-3. When compared to ground truth LiDAR DTM, the elevation differences show an undulation (~1.5 pixel), similar to waves that are visible in the along track direction.In order to minimize this effect and the vertical error caused by horizontal and vertical offsets, the photogrammetrically derived DEMs are aligned to the reference DTM by applying an affine 3D transformation determined with the least squares matching (LSM) techniques. The results show improvements in the vertical accuracy to 0.77 m (1.1 pixels) and 0.24 m (0.77 pixels) for Pléiades and WorldView-3 tri-stereo scenes, respectively, and a decrease of the “wave-effect” to less than one pixel.



Relevance Assessment of Spectral Bands for Land Cover and Land Use Classification: A Case Study Involving Multispectral Sentinel-2-like and Hyperspectral Data

M. Weinmann, U. Weidner

Karlsruhe Institute of Technology (KIT), Deutschland

Land cover and land use classification is commonly performed on the basis of aerial or satellite imagery representing either multispectral or hyperspectral data. In the case of multispectral data, the number of spectral bands is relatively low and the spectral bands are rather wide. In contrast, the number of spectral bands is relatively high for the case of hyperspectral data, while the spectral bands themselves are rather narrow. Consequently, a more characteristic description of the spectral properties of the Earth’s surface can be expected for the latter case in comparison to the use of multispectral data.
In contrast to multispectral data, where the neighboring spectral bands are well-separated by a sufficiently large margin across wavelengths, the spectral bands of hyperspectral data are located directly next to each other so that the acquired reflectance values of neighboring spectral bands tend to be strongly correlated. This kind of redundancy typically has a negative impact on classification results, so that approaches for dimensionality reduction or band selection are commonly used. While dimensionality reduction techniques transform the given data to a new space, band selection techniques allow conclusions about relationships with respect to physical properties as they retain a subset of the original spectral bands which, in turn, can further be used for conclusions regarding a diversity of environmental applications.
In this paper, we comprehensively investigate the potential of both multispectral and hyperspectral data, and we thereby comparatively assess the relevance of involved spectral bands for the considered classification task. We present a framework which comprises different data-driven techniques for assessing the relevance of spectral bands with respect to the given classification task. This includes both classifier-dependent techniques and classifier-independent techniques. The classifier-dependent techniques comprise 1) a sequential forward selection of spectral bands based on sequentially training a Random Forest classifier based on different sets of spectral bands and 2) the Mean Decrease in Permutation Accuracy (MDPA), a measure assessed during the training of a Random Forest classifier. The classifier-independent techniques comprise 1) a general relevance metric taking into account the relations between the given spectral bands and the defined classes to identify relevant spectral bands and 2) an approach taking into account both the relation between spectral bands and classes to identify relevant spectral bands and the relation among features to identify and discard redundant spectral bands. Based on the selected bands, we finally perform a pixel-based classification using a Random Forest classifier to also quantify the effect on the derived classification results.
As the available datasets contain either hyperspectral or multispectral data, we consider commonly used hyperspectral datasets for which a semantic labeling is available on a per-pixel basis, and we adequately transform these hyperspectral datasets to multispectral Sentinel-2-like data products using the Sentinel-2 Spectral Response Functions (S2-SRFs). For performance evaluation, we consider two classification tasks, one focusing on the semantic interpretation of an urban area and one focusing on the semantic interpretation of an agricultural area. For both classification tasks, the data has been acquired from an airborne platform in low-altitude flight campaigns.
After briefly summarizing related work (Section 2), we present our framework in detail (Section 3) and we demonstrate its performance on two benchmark datasets (Section 4). This is followed by a detailed discussion of the derived results (Section 5). Finally, we provide concluding remarks and suggestions for future work (Section 6).



Techniken zur kombinierten Darstellung von 2D-Bodenradar und 3D-Punktwolken zur Analyse des Straßenraums

J. Wolf, S. Discher, J. Döllner

Hasso-Plattner-Institut, Deutschland

Bodenradar-Informationen sind essentiell im Rahmen von Straßenbauarbeiten und ermöglichen beispielsweise die frühzeitige Erkennung von sich bildenden Schlaglöchern. Sie geben Aufschluss über nicht sichtbare Bereiche unterhalb der Straßenoberfläche und die strukturelle Beschaffenheit des Untergrunds. Die Verortung dieser zweidimensionalen Daten in einem dreidimensionalen Straßenraum ermöglicht eine intuitive Wahrnehmung der Gesamtsituation. Insbesondere eignet sich hierzu die Kombination mit parallel zum Bodenradar aufgenommenen 3D-Punktwolken, wodurch sowohl unter- als auch oberirdisch eine detaillierte Gesamtübersicht des Straßenraums entsteht.

Die kombinierte Darstellung der unterschiedlichen Datentypen erfordert dabei spezielle Visualisierungs- und Interaktionstechniken, um ein räumliches Verständnis für die Daten korrekt zu vermitteln. Nutzern wird dadurch die visuelle Analyse der Daten erleichtert, beispielsweise mittels Hervorhebung von auffälligen Teilgebieten des betrachteten Straßenraumes.

Wir präsentieren die prototypische Implementierung eines Visualisierungstools, mit dessen Hilfe 2D-Bodenradar-Informationen und 3D-Punktwolken kombiniert dargestellt werden können. Dadurch wird eine einfache Verortung der Bodenradar-Informationen im Straßenraum ermöglicht. Nutzer können die Darstellung für den jeweiligen Anwendungszweck anpassen, Ausschnitte der Daten auf Basis der aktuellen Fragestellung wählen und diese im Detail betrachten.

Die Daten aus mehreren parallelen Bodenradar-Scans werden als übliche B-Scan-Darstellungen in der 3D-Punktwolke platziert. Die Positionierung wird aus der Trajektorie abgeleitet, die den Weg des Messfahrzeugs während der Aufnahme beschreibt. Parallele Bodenradar-Scans können in einer quaderförmigen Struktur zusammengefasst werden, die durch Einfügen von interpolierten Zwischenwerten einen geschlossenen dreidimensionalen Körper ergibt. Dieser wird wahlweise an der tatsächlichen Position unterhalb der Straßenoberfläche dargestellt oder zur besseren Sichtbarkeit leicht angehoben. Durch gleichzeitiges Anheben derjenigen Punkte aus der 3D-Punktwolke, die sich direkt oberhalb der quaderförmigen Struktur befinden, bleibt das räumliche Verhältnis zwischen Bodenradar-Scans und Straßenoberfläche bestehen.

Die Implementierung eines interaktiven Filters ermöglicht es weiterhin, die 3D-Punktwolke in einem Bereich um den Mauszeiger herum auszublenden, um einen freien Blick auf die Oberseite des Bodenradar-Scans zu schaffen.

Neben der vereinfachten manuellen Auswertung der Daten an einer bestimmten Position eignet sich die Kombination der beiden Datenquellen auch zur automatisierten Vorauswahl beachtenswerter Gebiete. So können Anomalien in den Bodenradar-Scans mittels Verfahren des Machine Learnings automatisiert lokalisiert und im Bodenradar-Scan und der Punktwolke zur weiteren Betrachtung durch einen Nutzer hervorgehoben werden. Der Abgleich mit ebenfalls automatisiert detektierten Gullideckeln und ähnlichen auf der Straßenoberfläche sichtbaren Strukturen ermöglicht weiterhin, dass die gefundenen Anomalien der Bodenradar-Scans gefiltert werden können. So entsteht ein Analysewerkzeug, das dem Nutzer in kürzester Zeit einzelne Bereiche in den Datensätzen präsentiert, denen besondere Beachtung gewidmet werden sollte. Großflächige Analysen ganzer Straßen oder Stadtgebiete lassen sich dadurch um ein Vielfaches schneller durchführen.

Die von uns vorgestellte Kombination der Datenquellen 2D-Bodenradar und 3D-Punktwolke ermöglicht eine intuitiv erfassbare Darstellung eines Straßenraums und dessen Beschaffenheit im ober- und unterirdischen Bereich. Die Visualisierung erlaubt gezielte Ansichten der im jeweiligen Anwendungsfall interessanten Bereiche und ermöglicht einen effizienten Zugriff auf die Daten eines bestimmten Messpunkts. Die automatisierte Analyse und Anomalie-Detektion ermöglichen zudem eine schnelle Auswertung relevanter Gebiete innerhalb großer Datenmengen. Der Ansatz wurde unter Benutzung großer realweltlicher Datensätze hinsichtlich seiner praktischen Anwendbarkeit evaluiert.



Lithological classification using multi-sensor data and Convolutional Neural Networks

M. Brandmeier1, Y. Chen1,2

1Esri Deutschland GmbH, Deutschland; 2Technische Universität München

Deep learning has been used successfully for computer vision problems, e.g. image classification, target detection and many more. We use deep learning in conjunction with ArcGIS to implement a model with advanced Convolutional Neural Networks (CNN) for lithological mapping in the Mount Isa region (Australia). The area is ideal as there is only sparse vegetation and besides freely available Sentinel-2 and ASTER data, several geophysical datasets are available from exploration campaigns. There are first studies based on Sentinel-2 data for geological applications (Ge, 2018) and ASTER has a long history in lithological mapping. By fusing the data and thus covering a wide spectral range as well as capturing geophysical properties of rocks, we aim at improving classification accuracies. This approach can be used for other applications that aim at classifying landcover.

Based on a proposed 3-D CNN-based feature extraction model (Ghamisi, 2016) , we developed an end-to-end deep learning model with 2-D convolutional and deconvolutional layers using Tensorflow. Our model was inspired by the family of U-Net architectures, where low-level feature maps (encoders) are concatenated with high-level ones (decoders), which enables precise localization. This type of network architecture was especially designed to effectively solve pixel-wise classification problems, which appropriate for lithological or landcover classification. We spatially resampled and fused multi-sensor remote sensing data with different bands and geophysical data into an image cube as input for our model. The connection between ArcGIS and the deep learning libraries was achieved by using the Python API for ArcGIS and implementing the workflow into Jupyter Notebooks. Our model classifies each pixel of the multiband imagery into different types of rocks according to a defined probability threshold.

After fitting our model on 50 million pixels, result show that the overall accuracy based on Sentinel-2 bands alone is around 66%, similar to results in combinations with ASTER bands that helped to improve results by a few percent to almost 70%. By including both, ASTER and geophysical data, results could not be improved. In addition, we face major problems with mislabeling of the ground-truth data and spectral similarities of several classes. In conclusion, by fusing Sentinel-2 and ASTER spectral bands that perfectly capture major absorption features of clay minerals and mafic minerals such as pyroxenes and carbonates, we achieve rather good classification results for the different lithologies.

Ge, W. a. (2018). Lithological Classification Using Sentinel-2A Data in the Shibanjing Ophiolite Complex in Inner Mongolia, China. Remote Sensing, 10.

Ghamisi, Y. C. (2016). Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Networks. IEEE Transactions on Geoscience and Remote Sensing, 54(10):6232--6251.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DLT 2019
Conference Software - ConfTool Pro 2.6.128
© 2001 - 2019 by Dr. H. Weinreich, Hamburg, Germany