Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Sitzung
S02: Optische 3D-Messtechnik
Zeit:
Donnerstag, 21.02.2019:
9:00 - 10:30

Chair der Sitzung: Eberhard Gülch
Ort: EH 05 (Exnerhaus)
EXNH-02/64 Peter-Jordan-Straße 82, 2. Obergeschoß OST 119 Sitzplätze

zu Beginn mit Innovationsforum 2
(Kurzvorträge der ausstellenden Fachfirmen)

R. Becker, Geodyn: Trenderfassung durch Multi-Temporale Luftbilder
G. Kemper, GGS: Innovative Multisensorsysteme
R. Fuchsbauer; GOECKE: GOECKE Sonderanfertigungen im Vermessungszubehörbereich
H. Fischer, SphereOptics: SphereOptics-Innovationen zur Hyperspektralsensorik und Sensorkalibration




Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Kombination von terrestrischem Laserscanning, UAV- und Nahbereichsphotogrammetrie zur Erfassung komplexer Kirchenbauwerke in Georgien

T. Luhmann1, M. Chizhova2, D. Gorkovchuk3, A. Jepping1

1Jade Hochschule Oldenburg, Deutschland; 2Universität Bamberg, Deutschland; 3SPM3D Ltd., Kyiv, Ukraine

Im Rahmen einer Messkampagne zur dreidimensionalen Erfassung mehrerer russisch-orthodoxer Kirchen in Tbilisi (Georgien) wurden im September 2018 photogrammetrische Aufnahmen und terrestrische Laserscans durchgeführt. Ziel war die vollständige räumliche Rekonstruktion mit einer Ortsauflösung und Genauigkeit von ca. 1cm unter teilweise erschwerten äußeren Bedingungen, die den Einsatz unterschiedlicher Messtechniken erforderten.

Das terrestrische Laserscanning wurde parallel mir einem Leica BLK 360 und einem Faro Focus 3D vorgenommen. Dazu wurden einige Verknüpfungspunkte im Umfeld der Objekte signalisiert, um zum einen die jeweilige Registrierung zu unterstützen und zum anderen ein Bezugssystem für die photogrammetrische Auswertung zu schaffen. Der Punktabstand in den Punktwolken variiert entfernungsbedingt zwischen 1mm und 30mm. Mit beiden Scannern wurden zudem digitale Bilder erfasst. Die überwiegend vollautomatisch berechnete Registrierung führte beim BLK zu einer mittleren Abweichung von ca. 10mm, beim Faro-Scanner zu ca. 7mm. Während der BLK-Scanner in der Erfassung deutlich schneller ist, sind dessen Punktwolken jedoch stärker verrauscht als beim Faro-Scanner. Insgesamt wurden pro Kirche ca. 25-40 Standpunkte benötigt.

Die UAV-Aufnahme erfolgte mit einer manuell gesteuerten DJI Mavic Pro und der zugehörigen 12 Mpixel-Digitalkamera. Es wurden jeweils mehrere manuell gesteuerte Bildflüge durchgeführt, die aus zwei in verschiedenen Flughöhen mäanderförmig geflogenen Bildverbänden mit ca. 80% gegenseitiger Überlappung sowie zwei kreisförmig angelegten Flügen in zwei unterschiedlichen Entfernungen zum Objekt bestanden. Die Bildanordnung wurde so gewählt, dass einerseits eine vollständige Erfassung des Kirchturms sowie der Dachformen ermöglicht wurde, andererseits eine zuverlässige Kamerakalibrierung durch hinreichende Objekttiefe und Schnittgeometrie gewährleistet wurde. Die Bildmaßstäbe variierten zwischen ca. 800 und 9000, die GSD entsprechend zwischen 2mm und 15mm. Insgesamt wurden pro Objekt ca. 360 bis 700 Bilder erfasst.

Zusätzlich wurden vom Boden aus terrestrische Bildaufnahmen mit zwei digitalen Spiegelreflexkameras (Canon D200, f=10-20mm und Canon D6 Mark II, f=24-50mm) aufgenommen. Da beide Kameras ausschließlich über Zoom-Objektive verfügten, wurde das Objektiv in der jeweils kürzesten Brennweite fixiert. Enge örtliche Verhältnisse, Vegetation, Besucher und starke Sonnenbestrahlung erschwerten die Aufnahme. Aufnahmen von erhöhten Standpunkten konnten nicht realisiert werden. Die Bildmaßstäbe variierten zwischen ca. 120 und 2000, die GSD entsprechend zwischen <1mm und 6mm. Insgesamt wurde pro Bildverband ca. 200-500 Bilder aufgenommen.

Die Auswertung der Laserscandaten erfolgte mit den Programmpaketen Leica Recap und Cyclone Register sowie Faro Scene. Die photogrammetrischen Bildverbände wurden mit den SfM-Softwarepaketen Agisoft Photoscan, RealityCapture und iWitness Pro sowohl getrennt als auch gemeinsam ausgeweitet. Das Programm RealityCapture erlaubt darüber hinaus, dass gleichzeitig Bild- und Scandaten ausgewertet werden können. Die Datumsfestlegung erfolgte über die lokal signalisierten Passpunkte, deren Sollkoordinaten aus der Faro-Messung extrahiert werden.

Der Beitrag gibt einen Überblick über die Messungen und Auswertungen mit Fokus auf die vergleichende Analyse der Messdaten und Registrierungen der beiden Laserscanner, die photogrammetrischen Auswertungen sowie auf die Ergebnisse der Datenfusion von Punktwolken verschiedener Sensoren mit sehr unterschiedlichen Auflösungen.



Evaluation Of The Microsoft HoloLens For The Mapping Of Indoor Building Environments

P. Hübner, S. Landgraf, M. Weinmann, S. Wursthorn

Karlsruher Institut für Technologie, KIT, Deutschland

ABSTRACT
Mobile augmented reality (AR) devices like the Microsoft HoloLens (Microsoft, 2018) that are capable of accurate real-time inside-out
tracking offer potential for the in-situ visualization of building information modelling (BIM) data, e.g. in the domains of facility
management (Gheisari and Irizarry, 2016), cultural heritage (Barazzetti and Banfi, 2017) or education (Arashpour and Aranda-Mena,
2017). This of course, implies the availability of building model data for the building environments to be augmented.
While in recent years, building construction projects are increasingly conducted with the aid of BIM techniques (Ghaffarianhoseini et al.,
2017) which results in building models arising together with their corresponding physical buildings, there are many existing buildings for
which building model data does not exist. As manually modelling existing buildings based on two-dimensional plans or manual in-situ
measurements is a laborious and costly endeavour, the automatic or semi-automatic acquisition of three-dimensional building model
geometry is currently an active field of research (Lu and Lee, 2017; Ma and Liu, 2018). In this context, the acquisition of indoor building
geometry is mostly done by specialized high-accuracy active sensors like laser scanners or computationally expensive image-based 3D
reconstruction techniques (Dai et al., 2013).
The HoloLens is not only capable of augmenting indoor environments with corresponding building model data (Hübner et al., 2018), but
is also equipped with a depth sensor that improves indoor tracking and provides geometric information about its surroundings in the
form of triangle meshes. While the geometric accuracy and resolution of these meshes can certainly not compete with the accuracy of
laser scanners, derived building models should principally be sufficient for the task of visualizing building-related information with
mobile AR devices like the HoloLens itself. Compared to laser scanners, the HoloLens as a mapping device enables comfortable and
time-efficient indoor mapping. A mesh of a hallway of approximately 30 meters for example can be captured in a matter of few minutes
just by casually walking through it with the device and looking around, while overlaying a floor plan with the derived mesh shows that
its overall geometry is quite accurate. Furthermore, the HoloLens can be considered as a comparatively low-cost mapping device in
relation to professional laser scanners.
In this paper, we comprehensively evaluate the indoor mapping capacity of the Microsoft HoloLens. While evaluation in terms of the
accuracy of various distances measured within indoor data captured with the HoloLens has been done e.g. by Liu et al. (2018) or Huang
et al. (2018), we provide an extensive, quantitative evaluation of the mapping accuracy of whole room-scale meshes against a ground
truth provided by a terrestrial laser scanner. Different types of rooms are considered (empty hallway, office room with tables, stairwell,
inner courtyard). Furthermore, we provide a quantitative evaluation of the distance range of the involved depth sensor and investigations
concerning the drift effects in large-scale indoor mapping with the HoloLens.
After briefly summarizing related work (Section 2), we provide detailed information about our evaluation procedures (Section 3),
followed by a presentation of our qualitative and quantitative evaluation results (Section 4) and an extensive discussion (Section 5).
Finally, we provide concluding remarks and suggestions for further research (Section 6).
REFERENCES
Arashpour, M. and Aranda-Mena, G., 2017. Curriculum Renewal in Architecture, Engineering, and Construction Education: Visualizing Building Information Modeling via Augmented Reality. In: Proceedings of the 9th International Structural Engineering and Construction Conference (ISEC 2017), pp. 1–6.
Barazzetti, L. and Banfi, F., 2017. Historic BIM for Mobile VR/AR Applications. Springer International Publishing AG, chapter 10, pp. 271–290.
Dai, F., Rashidi, A., Brilakis, I. and Vela, P., 2013. Comparison of Image-Based and Time-of-Flight-Based Technologies for Three-Dimensional Reconstruction of Infrastructure. Journal of Construction Engineering and Management 139(1), pp. 929–939.
Ghaffarianhoseini, A., Tookey, J., Ghaffarianhoseini, A., Naismith, N., Azhard, S., Efimova, O. and Raahemifarb, K., 2017. Building Information Modelling (BIM) Uptake: Clear Benefits, Understanding its Implementation, Risks and Challenges. Renewable and Sustainable Energy Reviews 75, pp. 1046–1053.
Gheisari, M. and Irizarry, J., 2016. Investigating Human and Technological Requirements for Successful Implementation of a BIM-based Mobile Augmented Reality Environment in Facility Management Practices. Facilities 34(1/2), pp. 69–84.
Huang, J., Yang, B. and Chen, J., 2018. A Non-Contact Measurement Method based on HoloLens. International Journal of Performability Engineering 14(1), pp. 144–150.
Hübner, P., Weinmann, M. and Wursthorn, S., 2018. Marker-Based Localization of the Microsoft HoloLens in Building Models. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLII-1, pp. 195–202.
Liu, Y., Dong, H., Zhang, L. and Saddik, A. E., 2018. Technical Evaluation of HoloLens for Multimedia: A First Look. IEEE Multimedia 25(3), pp. 1–7.
Lu, Q. and Lee, S., 2017. Image-Based Technologies for Constructing As-Is Building Information Models for Existing Buildings. Journal of Computing in Civil Engineering 31(4), pp. 04017005/1–14.
Ma, Z. and Liu, S., 2018. A Review of 3D Reconstruction Techniques in Civil Engineering and their Applications. Advanced Engineering Informatics 37, pp. 163–174.
Microsoft, 2018. Microsoft HoloLens. https://www.microsoft.com/de-de/hololens. last accessed: 10/2018.



Filter-based Pose Estimation for electric Vehicles relative to a Ground-based charging platform using on-board camera Images

A. Hanel2, P. Sudi1, S. Pfenninger1, E. Steinbach3, U. Stilla2

1ServiceXpert Gesellschaft für Service-Informationssysteme mbH, Hamburg; 2Photogrammetrie und Fernerkundung, Technische Universität München, München; 3Lehrstuhl für Medientechnik, Technische Universität München, München

Efficient inductive charging of electric vehicles requires the accurate alignment of the vehicle above a ground-based inductive charging platform. This can be achieved using on-board cameras observing the charging platform during the approach manoeuvre. In this contribution, a method for vehicle pose estimation relative to the charging platform is proposed. Vehicle dynamics data obtained from independent pose estimates relying on either markers or markerless features are fused by Kalman filtering to mutual vehicle pose estimates, wherefore the method can be used even when the vehicle is close to the charging platform and the markers are no longer visible in the on-board camera images. The method has been tested with simulated data along trajectories of typical approach manoeuvers to parking lots with a charging platform at the end of the trajectories. Independent from the vehicle motion model and the tested trajectory, deviations of estimated positions from the ground truth of around 0.5 m at the charging platform have been achieved when using dynamics data from both independent pose estimates with an extended Kalman filter.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DLT 2019
Conference Software - ConfTool Pro 2.6.128
© 2001 - 2019 by Dr. H. Weinreich, Hamburg, Germany