Digitaler Zwilling eines 6-Achs Roboters in Unity für AI
Manuel Gleinser, Carsten Wittenberg, Nicholas Schloer
Hochschule Heilbronn, Deutschland
Der erstellte Zwilling soll zukünftig als Basis für Forschungsprojekte, insbesondere im Bereich maschinelles Lernen, dienen.
Im Rahmen dieser Arbeit soll die Tauglichkeit von Unity als Plattform zur ganzheitlichen Umsetzung von digitalen Zwillingen ergründet werden. Dabei soll ein physikalisch repräsentatives Modell des realen Zwillings erstellt, und Kommunikation zwischen den Zwillingen realisiert werden. Motivation dafür ist, dass Unity alle nötigen Werkzeuge mitbringt um eine 3D-Visualisierung des Roboters, und der Umgebung zu erstellen, und über verknüpfte C#-Skripte auch Mittel zur Integrierung komplexer Programme liefert.
Zu Simulationszwecken soll dem digitalen Zwilling eine selbstständige Steuerung verliehen werden. Dabei soll der Roboter anders als bei vielen existierenden Anwendung nicht nur durch simple Verschiebung der Bauteile anhand von simplen Bewegungsgleichungen, sondern durch Motorkräfte in seinen Gelenken angetrieben werden. Dazu wird die in Unity enthaltene Physik-Engine ohne Zusatzmodule verwendet. Außerdem soll der digitale Zwilling in der Lage sein durch Kommunikation mit dem realen Zwilling dessen Bewegungen zu verfolgen.
Entwicklung und Realisierung eines Ansatzes zur robotergestützten Sortierung chaotisch gelagerter Objekte
Tim Heitkamp, Sven Bodenburg, Tatsiana Malechka
Fachhochschule Münster, Deutschland
Ein klassisches und weiterhin aktuelles Problem der Automatisierungstechnik stellt die Vereinzelung von chaotisch gelagerten Teilen dar. In diesem Beitrag wird ein Konzept und dessen Anwendung für das Greifen unsortierter Teile vorgestellt. Die Implementierung der Routine erfolgt in C++ unter Verwendung von ROS sowie der Point Cloud Library. Es wird von der Situation ausgegangen, in der die zu greifenden Rohteile separiert auf einer Ebene vor dem Manipulator liegen. Die Pose wird in 2 Schritten ermittelt: (1) Mittels des RANSAC-Algorithmus und der Eucidean Cluster Extraction werden die Positionen der Objekte erkannt. (2) Mit der Fast Point Feature Histogramm Methode wird die Orientierung der Objekte bestimmt. Über die so ermittelte Lage der Objekt sind die Greifpunkte bekannt, sodass abschließend je nach Objekpose entsprechende Greifroutinen durchgeführt werden.
Entwicklung und Kombination neuartiger Sensorik zum Sehen und Fühlen für den ReBel Cobot
Hendrik Böhne, Kimberly Dirkes, Leon Hänschke, Tobit Ralf Kayser, Lennart Reitinger, Lukas Versteegen, Dietmar Gerhardt, Sonja Podjawerschek
Hochschule Bochum, Campus Velbert/Heiligenhaus, Deutschland
Das Projekt zur Mensch-Roboter-Kollaboration an der Hochschule Bochum hatte das Ziel, einen sicheren Übergabeprozess eines Werkstücks von einem Roboterarm (igus ReBel Cobot) in die Hand eines Menschen zu entwickeln. Dabei wurden drei Teilprojekte bearbeitet, die sich jeweils mit unterschiedlichen sensorischen Ansätzen zur Erkennung der Hand und der Kollisionsvermeidung befassten. Im ersten Teilprojekt wurde eine kameragestützte Objekterkennung implementiert, die mithilfe von maschinellem Lernen die Position der Hand und des Werkstücks bestimmt. Das zweite Teilprojekt befasste sich mit der Entwicklung eines kapazitiven Frontsensors, der die Position der Hand unter dem Werkstück erkennt. Beide Systeme nutzen unterschiedliche Technologien, um die Sicherheit der Übergabe zu gewährleisten. Im dritten Teilprojekt wurde ein kapazitiver Kollisionssensor entwickelt, der den Roboter vor Hindernissen, wie menschliche Körperteile, stoppen lässt. Alle Sensorkonzepte arbeiten redundant, um die Zuverlässigkeit zu erhöhen. Das Projekt bot den Studierenden neben den technischen Herausforderungen auch die Möglichkeit, verschiedene Ansätze zu diskutieren, zu realisieren und die Zusammenarbeit in interdisziplinären Teams zu stärken.
Human-Robot Interaction in Urban Areas - Development and Validation of Acceptance Model in the Scope of Proximity Theory
Yekaterina Strigina1, Swaraj Tendulkar1, Felix Wilhelm Siebert2, Frank Schrödel1, Venkata Prashanth Uppalapati1
1Hochschule Schmalkalden, Deutschland; 2Technical University of Denmark (DTU), Denmark
It is envisioned that autonomous logistic robots share road system space with humans in the future. For pedestrians to accept and interact with such robots, it is essential to research how pedestrians behave in relation to such logistic robots in real-life environments. This allows the derivation of rules for logistic robots' spatial behaviour. In this study, a sensor-equipped logistic robot was controlled in a wizard-of-oz design and appeared to move autonomously through a pedestrian-shared space. Through the controlled variation of road infrastructure factors such as path width along a pre-defined route and the structured quasi-experimental analysis of varying environmental factors such as pedestrian encounters and initial distance and trajectories, we derive factors that relate to pedestrians' proximal behaviour towards logistic robots in real-life environments. In addition to the robot-sensor-based analyses, human-robot encounters are classified by an accompanying human observer, who marks critical interactions such as the robot blocking the way for a pedestrian or robot-related pedestrian trajectory changes. Effects that are known from laboratory studies are found, e.g. smaller proximal margins of lateral encounters with the robot compared to longitudinal approaches. As a novel finding, a strong relation between pedestrian density and minimal human-robot approach distances is identified.
Entwicklung eines robotergestützten Systems zur standardisierten Applikation von Hautpflegeprodukten
Janine Breithecker1, Mateusz Szymanski2, Alexander Stolpmann1
1Technische Hochschule Wildau, Deutschland; 2Beiersdorf AG und Technische Hochschule Wildau, Deutschland
Der Abstract beschreibt die aktuelle Entwicklung eines robotergestützten Systems zur Applikation von Hautpflegeprodukten in dermatologischen Studien. Der Fokus liegt dabei auf der Automatisierung der Applikation, um Effizienz und Präzision bei der Anwendung von Cremes und Lotionen zu gewährleisten. Kollaborierende Roboter (Cobots) übernehmen sowohl die Messung als auch die standardisierte Applikation der Produkte. Ein Prototyp des Systems nutzt eine Kraftsensorik, die den Auftragsdruck reguliert, während die Programmierung des Roboters mithilfe von Python und der UR3e-Echtzeitschnittstelle erfolgt. Erste Tests zeigen positive Ergebnisse in Bezug auf Funktionalität und Benutzerfreundlichkeit. Die weitere Optimierung des Systems zielt darauf ab, die Qualität und Reproduzierbarkeit der dermatologischen Studien zu verbessern.
Sensorfusion einer KI-gestützten Objekterkennung mit Positionsmessung
Viktoria Stegemann, Alexander Morbitzer, Maximilian Püschel, Sebastian Heitzmann, Stefan Kipfelsberger, Martin Versen
Technische Hochschule Rosenheim, Deutschland
Für eine Automatisierungslösung wird ein von künstlicher Intelligenz (KI) gestütztes System zur Detektion von unterschiedlichen Objekten sowie deren Positionsmessung entwickelt. Die Objekterkennung erfolgt unter Verwendung eines Jetson Nano von Nvidia. Zur Positionsbestimmung auf einem Förderband wird ein Inkrementaldrehgeber ROD 420 eingesetzt. Der Positionswert wird mit einem selbst entwickelten Messystem auf einem Arty A7 Field Programmable Gate Array (FPGA) errechnet und zur Sensorfusion an den Jetson Nano übertragen.
Flexible Testplattform für mobile Robotik mit Anwendungsbeispiel des Flottenmanagements in der Intralogistik
Nico Beyer, Jens Jäkel
Hochschule für Technik, Wirtschaft und Kultur Leipzig, Deutschland
Intralogistische Prozesse lassen sich durch mobile Roboter effizienter und kostengünstiger gestalten, jedoch stellt die Koordination und Integration von Robotern mit Gebäudetechnik eine Herausforderung dar. In einer Bachelorarbeit wurde daher ein modularer Demonstrator entwickelt, der eine flexible Testumgebung für mobile Roboter, wie den Turtlebot 4, bereitstellt. Der Demonstrator ermöglicht die Integration und Steuerung von Gebäudesystemen wie Türen und Aufzügen und kann an unterschiedliche Szenarien angepasst werden. Zudem erlaubt er die Erprobung von Flottenmanagementsystemen wie Open-RMF, um mehrere Roboter zu koordinieren. Die Plattform wird in der Forschung und Lehre genutzt und ist online dokumentiert.
PiCoPlace – ein Mixed-Reality-Game zur Demonstration der Telemanipulation eines Industrieroboters
Thomas Pospiech, Michael Gysin
Hochschule Heilbronn, Deutschland
Im vergangenen Jahr wurde eine moderne Methode zur manuellen und kollisionsfreien Telemanipulation von Industrierobotern basierend auf einem digitalen Zwilling vorgestellt. Das umgesetzte Gesamtkonzept erscheint den Autoren als funktionssicher und in der Bedienung kinderleicht zu sein, wobei eine Verifikation dieses Eindrucks noch nicht erbracht werden konnte. Aus diesem Grund wurde ein Demonstrator bzw. ein Spiel entwickelt und auf dem Techday 2024 an der Hochschule Heilbronn der breiten Öffentlichkeit vorgestellt. Das Ziel dieses Demonstrators ist, neben dem Vermitteln von „Spaß an der Technik“, herauszufinden, ob wirklich jedes Kind bzw. Jugendlicher in der Lage ist einen Industrieroboter mit dem entwickelten Gesamtkonzept aus [1] zu bedienen. Der Spielcharakter soll hierbei die Motivation steigern und im Unterbewusstsein ein (positiver) Stressfaktor beim Bediener entwickeln. Der vollständige Beitrag beschreibt den Demonstrator ausführlich (zum Nachbauen) und es werden die gewonnen Erkenntnisse wiedergeben. Im vorliegenden Abstract wird vor allem der Demonstrator mit seinen zum Einsatz kommenden Funktionseinheiten aus [1] beschrieben. Der Demonstrator zeigt außerdem auch, dass ein digitaler Zwilling einen direkten Mehrwert für einen Anwendungsfall bieten kann – ohne diesen wäre eine Telemanipulation so nicht realisierbar.
Automatische Referenzierung und Pfadplanung eines Manipulators für mobile Handhabungsaufgaben an der Modellfabrik
Philipp Wilbers, Sven Bodenburg, Falk Salewski
Fachhochschule Münster, Deutschland
Automatische Planung von Roboterbewegungen während der Laufzeit wird in den fortwährend flexibleren und a-priori unbekannten Umwelten des Roboters immer wichtiger. In diesem Kontext betrachtet dieser Beitrag die Situation, in der die Modellfabrik der FH Münster durch einen Autonomes Mobile Robot (AMR) automatisch mit Rohteilen bestückt werden soll. Die Berechnung der Bewegung eines 6-DoF Manipulators zur Übergabe der Rohteile muss aufgrund folgender a-priori unbekannter Situation während der Laufzeit erfolgen: (1) die Pose des AMR vor der Modellfabrik ist aufgrund der Ungenauigkeit der autonomen Fahrt unbekannt und (2) der genaue Ablageort auf der Modellfabrik ist zum Zeitpunkt der Übergabe un-bekannt. Aufgrund des Punktes (1) ist zudem eine Referenzierung zwischen AMR und Modellfabrik notwendig. In diesem Beitrag wird ein Konzept und dessen Umsetzung für die onlinefähige automatische Referenzierung und Planung von kollisionsfreien Bewegungen für die oben beschriebene Anwendung vorgestellt. Die Referenzierung erfolgt unter Zuhilfenahme eines QR-Codes mittels der Infinitisimal Plane-based Pose Estimation Methode. Nun kann ein kollisionsfreier Pfad geplant werden. Hierfür wird der RRT*-Algorithmus in Kombination von Kollisionskörpern verwendet.
Die Prozedur ist in Python unter Nutzung der Open CV Library umgesetzt und erfolgreich getestet worden.
|