Sitzung | ||
1.2 Demonstrationsforum
| ||
Präsentationen | ||
Akzeptanz durch Nutzer und datenschutzkonforme Erfassung von Analyse-Daten: Rights Engine 1Digital Learning GmbH, Deutschland; 2Rheinisch-Westfälische Technische Hochschule (RWTH) Aachen; 3Ruhr-Universität Bochum Der Einsatz von Learning Analytics in der Praxis steht oft vor zwei Herausforderungen: Akzeptanz durch Nutzer und datenschutzkonforme Erfassung von Analyse-Daten. Beide Herausforderungen können durch den Einsatz von Pseudonymisierung sowie Zustimmungs-Management für Datensammlung, -Verarbeitung und -Abruf gelöst werden. ALiSe als Selbstlern-Lernplattform für die Studieneingangsphase Bergische Universität Wuppertal, Deutschland Mangelnde schulische Basisqualifikationen der Studierenden im Bereich Mathematik sowie Text- und Sprachverständnis Deutsch haben sich in der Studieneingangsphase zu einem maßgeblichen Passungsproblem entwickelt (Heublein 2017, Kürten 2000, Pitton/Scholten-Akoun 2016). Zur eigenständigen Aufarbeitung der individuellen Defizite wurden daher in den letzten Jahren digitale Systeme für Self-Assessments oder Selbstlernangebote entwickelt. Hoher Zeitaufwand bei der Selbsttestung und eine fehlende Verknüpfung Lerninhalte-Testergebnis führten in der Vergangenheit jedoch zu berichteten Akzeptanzproblemen aufseiten der Studierenden. Bei Lehrenden hingegen fehlen Möglichkeiten, das Angebot auf die Anforderungen der eigenen Lehre hin auszurichten. Das Projekt „Adaptives Lernen in der Studieneingangsphase (ALiSe)“ versucht diese Hemmnisse zu beheben, indem durch Computer-Adaptives Testen (CAT) kurze Testdauern mit hoher diagnostischer Information sichergestellt und den Studierenden auf deren Testergebnisse hin passgenau ausgerichtete Lernangebote präsentiert werden. Lehrende können zudem Testverfahren und Lernangebote durch die Umsetzung in Moodle als Open Source und die Bereitstellung der Inhalte als OER anpassen. Wir stellen die Umsetzung des ALiSe-Projektes als Live-Demonstration für Mathematik und Deutsch vor. BuddyAnalytics – Ein Dashboard zur Kohortenverfolgung und evidenzbasierten Curriculumsentwicklung für Studiengangdesigner Learning Technologies Research Group, RWTH Aachen University, Deutschland Getrieben durch die Digitalisierung, erzeugen Studierende immer mehr Daten in den unterschiedlichen Systemen ihrer Hochschulen, darunter Moduleinschreibungen, Prüfungsanmeldungen und Leistungsartefakte in Campus-, Lernmanagement- oder Prüfungssystemen (Ifenthaler, 2020). Solche Daten werden im Kontext von Learning Analytics u.a. mit Methoden des Maschinellen Lernens und Data Mining analysiert (Chatti et al., 2012). Im Fokus steht dabei meist die Betrachtung von Lern- und Prüfungsprozessen (Zawacki-Richter et al., 2020). Weniger Beachtung findet die Analyse übergreifender Studienverlaufsdaten, für die Daten aus verschiedenen Hochschulsystemen zusammengeführt werden (Baumann et al., 2015, 2020). Individuelle Studienberatungen, Studienverlaufsempfehlungen oder die Gestaltung von Studiengängen erfolgen nur eingeschränkt evidenzbasiert, da belastbare Daten zum Studienverlauf und der Kohortenverfolgung fehlen. In diesem Beitrag wird BuddyAnalytics, ein interaktives Dashboard zur Kohortenverfolgung und evidenzbasierten Curriculumsentwicklung für Studiengangsdesigner vorgestellt. Studiengangsdesigner können mittels BuddyAnalytics in der Planung und Koordination, sowie dem Qualitätsmanagement und der Weiterentwicklung von Studiengängen unterstützt werden. Basierend auf Studienverlaufsdaten können Erkenntnisse über das Studierendenverhalten abgeleitet und zur begründeten Entscheidungsfindung herangezogen werden. Das Dashboard wird derzeit im Rahmen des Projekts AIStudyBuddy entwickelt und ein erster Prototyp soll vorgestellt werden. Der Austausch mit dem Fachpublikum unterstützt die Weiterentwicklung und zielgruppengerechte Ausgestaltung. Learning Analytics in Mathematik-Lehrveranstaltungen – Adaptive und interaktive Handlungsempfehlungen in Dashboards Ruhr-Universität Bochum, Deutschland In einem Großteil mathematischer Lehrveranstaltungen werden durch den Einsatz wöchentlicher Aufgaben kontinuierlich Angebote zur Auseinandersetzung mit den entsprechenden Inhalten gemacht. Insbesondere bei digitalen Aufgaben entstehen Daten, die durch Learning Analytics (LA) mit dem Ziel, Lernen besser zu verstehen, ausgewertet werden können. Diese Daten umfassen beispielsweise die Bearbeitungszeit, die Anzahl der unternommenen Versuche oder die Art der fehlerhaften Antworten. Im Rahmen des Projekts KI:edu.nrw wurden Auswertungsalgorithmen (Analytics Engines) und Ergebnisdarstellungen entwickelt. Die Analytics Engines verarbeiten die Lerndaten der Studierenden und generieren Analysen, die in einer Datenbank abgelegt werden. Diese werden dann durch eigens entwickelte Widgets in zwei übergeordneten Dashboards - einem für Lernende und einem für Lehrende - grafisch dargestellt. So wird zum Beispiel automatisch ermittelt, bei welchen Aufgaben auch ansonsten gute Studierende nur wenig Punkte erreicht haben, was ein Zeichen für eine notwendige Verbesserung der Aufgabe sein kann. Ein besonderer Fokus des Projekts liegt auf der Bereitstellung direkt umsetzbarer Erkenntnisse („actionable insights“) und dem Aufzeigen von Möglichkeiten zur Verbesserung des Lernens und Lehrens in Form konkreter Empfehlungen. Bei der Demonstration wird ein beispielhafter Einblick in die Dashboards gegeben. Außerdem werden erste Erfahrungen aus dem Einsatz in mathematischen Lehrveranstaltungen vorgestellt. Towards a Flexible User Interface for `Quick and Dirty' Learning Analytics Indicator Design Universität Duisburg-Essen, Deutschland Research on Human-Centered Learning Analytics (HCLA) has provided demonstrations of a successful co-design process for LA tools with different stakeholders. However, there is a need for `quick and dirty' methods to allow the low-cost design of LA indicators. Recently, Indicator Specification Cards (ISC) have been proposed to help different learning analytics stakeholders co-design indicators in a systematic manner. In this paper, we aim at improving the user experience, flexibility, and reliability of the ISC-based indicator design process. To this end, we present the development details of an intuitive and theoretically-sound ISC user interface that allows the low-cost design of LA indicators. Further, we propose two approaches to support the flexible design of indicators, namely a task-driven approach and a data-driven approach. Von der Forschung in die Praxis: Entwicklung eines Dashboards für die Studienberatung Ruhr-Universität Bochum, Deutschland Dashboards sind ein wesentlicher Bestandteil der praktischen Umsetzung von Learning Analytics [Jivet et al., |