Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
S06: Mobile Mapping Systeme und UAV
Zeit:
Donnerstag, 21.02.2019:
11:15 - 13:00

Chair der Sitzung: Norbert Haala
Ort: EH 03 (Exnerhaus)
EXNH-01/55 Peter-Jordan-Straße 82, 1. Obergeschoß OST 119 Sitzplätze

zu Beginn mit Innovationsforum 5
(Kurzvorträge der ausstellenden Fachfirmen)

H. Schulze, DUCTIM-X: HERON® Mobile Mapping in perfektem Zusammenspiel mit terrestrischen Scans, Handscannern, UAV-Daten, Georefenzierungen etc.
M. Huber, Allterra: Moderne Technologien für die Vermessung 2019
P. Knopf, skyability: Anwendung von Drohnen im Bereich Vermessung
C. Wieser, Phase One: Phase One IXM Aerial Metric Cameras




Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

A Compact Multispectral VisNIR Enhanced SWIR Imaging System For Remote Sensing Drone Applications

A. Jenal1,2

1Hochschule Koblenz, Deutschland; 2Universität zu Köln, Deutschland

Short-wave infrared imaging is in high demand for many current issues in remote sensing applications like precision agriculture or mineralogy investigation among many other examples. In the past, SWIR camera systems were comparatively heavyweight and complex modules. Moreover, the high costs of several ten thousand euros for a unit represented a general exclusion criterion for many applications. However, due to advances in InGaAs sensor technology as well as in the field of microtechnology in recent years, newer camera modules are overcoming these disadvantages as mentioned above and are more readily available. So-called SWaP cameras represent the latest trend in this optimization process with the focus on „Seize, Weight, and Power“ reduction. Thanks to the small form factor, the energy-efficient uncooled (TEC-less) design, and their high sensitivity, these modules are ideally suited for integration in lightweight remote sensing systems for daylight operations.

In this contribution, we describe the development of a two-channel multispectral snapshot imaging system with a sensitivity ranging from the visible to the short-wave infrared spectrum (approx. 600 nm to 1700 nm). Due to the compact form factor and the power-efficient components of the system, it is suitable for many applications where weight and power consumption are critical like for drone applications. The system is capable of measuring simultaneously two freely selectable channels out of the sensor‘s spectral range, by using custom-selected filter arrangements. The presentation covers in detail the selection of the individual parts for the optical components, the choice of suitable sensor modules, as well as a capable processing unit. To set up the complete integrated system several custom-made mechanical and electronic components have been designed and manufactured. The implementation of specific software for controlling, capturing, and storing images followed the completion of the hardware. A first drone-born test flight of the prototype took place at the University of Cologne in June 2018.


UAV Remote Sensing Data Handling: A Transition from Testing to Long-Term Data Acquisition for Intensive Forest Monitoring

S. Krause1,2,3, M. Strer1, J.-P. Mund2, T. Sanders1

1Thuenen Institute for Forest Ecosystems, Germany; 2Eberswalde University for Sustainable Development, Germany; 3University of Bonn, Meckenheimer Allee 166, 53115 Bonn, Germany

Motivation: Using Unmanned Aerial Vehicles (UAVs) as a nearfield remote sensing platform for operational forest research has been in the testing phase in recent years. The possibility to acquire high temporal, spatial and spectral resolution datasets by means of self-determined guidelines rather than adapting to secondary sources is of interest (Torresan et al., 2016). During this testing phase, selected datasets have been acquired, processed and analysed on local computers and in-house servers. The next stage in the progression of this rapidly developing technology is now however the establishment of long-term data collection schemes which require the capacity to handle the storage and processing of “Big Data” (Li et al., 2016). This paper explores the challenges in transitioning from the testing phase of UAV-based remote sensing technology to a long-term data acquisition scheme capable of handling Big Data and high capacity processing.

Methods: Ongoing data acquisition is currently being carried out at the Britz research station located approx. 50 km north-east of Berlin, Germany. UAV-based multispectral imagery of various forest stands is collected at weekly intervals with various on-board sensors and processed in accordance to current research requirements. Naming convention protocols were created for the various stages of the acquisition and processing workflows. Each flight mission is added to a PostgreSQL database via semi-automatic methods. Images are locally pre-processed with a scripted workflow to match histograms and vignetting correction, converted to TIFF and uploaded to a cloud computing service (e.g. Amazon EC2 resources) and processed with Structure from Motion (SfM) software in a semi-automatic process resulting in photogrammetric 2D and 3D products. Finally, the pre-processed imagery alongside the SfM projects are deleted to save storage space, and the final photogrammetric products are archived and entered into a localized database alongside processing history metadata and a primary key linking the datasets to the original flight mission and metadata.

Results: Protocols developed ensure the possibility for users to search for relevant datasets depending on current research. For example, a spring phenology study of a Pinus sylvestris stand at the Britz research station would implement weekly datasets from April to June originating from flight missions with multispectral imagery (Near-Infrared, Red, Green) of Site No 9, sensor angle at nadir, and reflectance panel information. The use of cloud computing services is implemented “on demand” and enables the rapid processing of multiple datasets while freeing up local computers and servers for other tasks. The implementation of such cloud computing workflows can prove cost-effective as “instances” on the cloud can be disabled when no longer required and the purchase of costly additional local computing capacity eliminated. Furthermore, timely datasets can be rapidly made available for researchers for further processing and analysis as well as made available to the public on a regular basis via a Web Mapping Service (WMS).

References:

Li, S., et al., (2016). Geospatial big data handling theory and methods: A review and research challenges. ISPRS Journal of Photogrammetry and Remote Sensing, 115, 119–133.

Torresan, C., et al., (2016). Forestry applications of UAVs in Europe: a review. International Journal of Remote Sensing, 1–21.


UHD Mapping von Teststrecken für automatisiertes Fahren

R. Ladstädter, P. Luley, S. Ladstätter, H. Mayer

Joanneum Research, Österreich

Die Überprüfung autonomer Fahrfunktionen zunächst auf geschlossenen, dann auf öffentlichen Straßen ist für die Zulassung solcher Fahrzeuge unumgänglich. Dabei entsteht der Bedarf an hochgenauen und hochauflösenden Karten der Straßeninfrastruktur, den sogenannten „UHD-Maps“ (Ultra-High-Definition Maps). In diesen Karten sollen einerseits alle für (autonome) Fahrzeuge relevanten Objekte wie Verkehrszeichen, Hinweisschilder, Fahrbahnmarkierungen, Betonleitwände, Lärmschutzwände, aber in weiter Folge auch die Fahrbahn selbst als sogenannte „Ground-Truth“ repräsentiert sein.

Joanneum Research betreibt am Standort in Graz ein Forschungslabor für hochautomatisiertes Fahren (HAF) dessen Infrastruktur über den Zukunftsfond des Landes Steiermark gefördert wurde. Als wichtige Grundlage für Forschungstätigkeiten im Bereich HAF wird eine exakte Kenntnis über die statischen Objekte des Straßenraums angesehen um beurteilen zu können, ob die eingesetzte Sensorik und die auf den Sensordaten aufgesetzten Algorithmen (z.B. für Positionierung) zuverlässig arbeiten oder nicht. Als genaue und sehr effiziente 3D-Erfassungsmethode kann für diesen Zweck Mobile Mapping eingesetzt werden, d.h. mobiles Laser-Scanning und photogrammetrische Bildaufnahme vom fahrenden Fahrzeug aus. Im Rahmen des erwähnten Forschungslabors hat Joanneum Research daher ein Pegasus:Two Ultimate System von Leica Geosystems in der Dual-Scanner-Ausführung beschafft, welches dem Forschungslabor seit Mai 2018 zur Verfügung steht.

In der Steiermark wurden im Rahmen des Projekts ALP.Lab (Austrian Light Vehicle Proving Region for Automated Driving) Streckenabschnitte der Autobahnen A2 und A9, sowie der Schnellstrassen S6 und S35 als öffentliche Teststrecken definiert. Für dieses ca. 425km umfassende Streckennetz sollte nun auf Basis von Mobile Mapping Daten aktuelles UHD-Kartenmaterial erstellt werden. Als Referenzsystem wurde ETRS89/ETRF2000/Austria 2002 festgelegt, das der international anerkannten Realisierung des europäischen Referenzsystems ETRS89 in Österreich entspricht und eine innere Genauigkeit von +/-5mm in der Lage und +/- 1cm in der Höhe aufweist. Damit ist die Grundlage für eine hochgenaue absolute Positionierung mit homogener Genauigkeit in Österreich (aber auch grenzübergreifend) gegeben.

Im Zeitraum Juli – September 2018 wurden bereits ca. 85% des Gesamtstreckennetzes mit dem Pegasus System aufgenommen, die restlichen Abschnitte werden aufgrund von zahlreichen Baustellen wie z.B. der Generalsanierung der A2 im Bereich zwischen den Knoten Graz- Ost und Graz-West erst im Spätherbst abgeschlossen werden können. Eine Sperre der Autobahnen war aufgrund der hohen Verkehrsbelastung im Großraum Graz nicht möglich. Um dennoch möglichst wenig Beeinträchtigung (Scanabschattungen) durch andere Fahrzeuge zu erhalten wurde der Verkehr durch ASFINAG Begleitfahrzeuge ca. 50m hinter dem Mobile Mapping Fahrzeug zurückgehalten. Durch die gewählte Befahrungsgeschwindigkeit von 80km/h wurde einerseits noch eine ausreichende hohe Punktdichte erreicht, auf der anderen Seite konnten die Behinderungen des Verkehrs im Rahmen gehalten werden.

Für die Generierung der Karte wurde ein semi-automatischer Workflow basierend auf den georeferenzierten LIDAR- und Bilddaten angelehnt an den „Road2Simulation“ Leitfaden der DLR entwickelt. Die digitalisierten 3D Objekte werden in einer Geo-Datenbank abgelegt und können bei Bedarf in diverse Ausgabeformate (z.B. OpenDrive) konvertiert werden. Zusätzlich können die aufgenommenen Messbilder und die LIDAR Punktwolke ortbezogen abgefragt werden.

In diesem Beitrag werden daher sowohl die Datenerfassung der Teststrecken mittels Mobile Mapping als auch die weitere Verarbeitung der Daten bis zur hochgenauen Karte (UHD-Map) beschrieben. Anhand einiger Beispiele soll der hohe Informationsgehalt einer solchen Karte gezeigt werden. Als Ausblick wird skizziert, an welchen Methoden bei Joanneum Research geforscht wird, um die UHD-Karten durch unterschiedliche Aufnahmesysteme (auch low-cost) möglichst automatisiert aktuell halten zu können (automatisierte Karten-Updates).


Error Analysis of Oblique Aerial Image Observations

W. Karel1, F. Remondino2, N. Pfeifer1

1Research Group Photogrammetry, Department of Geodesy and Geoinformation, TU Wien, Vienna, Austria; 23D Optical Metrology Unit (3DOM), Bruno Kessler Foundation (FBK), Trento, Italy

While the first aerial photographs in history were oblique, such images used to serve for visualizations and object identification in reconnaissance and archaeology only. In recent years, however, fostered by progress both in hard- and software and by demands mostly in city modelling and urban planning, major manufacturers have started to offer platforms that comprise oblique cameras. These platforms typically combine a nadir-looking with four oblique cameras that point for-, back-, and sidewards, with little or no overlap, resulting in their characteristic combined footprint resembling a Maltese cross. Studies have shown that the search for homologous points in nadir and oblique images is non-trivial, probably due to the largely different perspectives involved. A pragmatic solution to orient the oblique images is to only introduce the nadir images into a bundle block adjustment and derive the oblique image orientations from them using pre-calibrated relative orientations. However, this approach does not exploit the full potential of the imagery and hence, photogrammetric research has sought ways to enhance the geometric coupling of all involved images using their content on-the-job. With increasing success in this quest, though, it turned out that point observation residuals in oblique images follow different, generally broader distributions than those in nadir images. We investigate the residuals according to their position in image and object space, and according to perspective distortions. First results show that down-weighting observations in oblique images helps to result in better orientations.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DLT 2019
Conference Software - ConfTool Pro 2.6.126
© 2001 - 2019 by Dr. H. Weinreich, Hamburg, Germany