Musik und Bezugnahme im Spannungsfeld von Mensch und Künstlicher Intelligenz. Musikpädagogische Überlegungen auf Grundlage der kunstanalytischen und praktischen Philosophie
Constanze Elisabeth Tinawi
HfMDK Frankfurt, Deutschland
Musik, verstanden als holistisch konstituiertes Sinnsystem, nimmt immerzu Bezug, sowohl innerhalb als auch außerhalb der Musik. Inwiefern unterscheiden sich diese Bezugnahmen, vergleicht man non-Computer-Musik[1] mit KI[2]-basierter Musikpraxis[3] und welche Konsequenzen lassen sich daraus ästhetisch und praktisch philosophisch für eine wissenschaftlich fundierte musikpädagogische Diskussion über KI-Musik[4] ableiten?
In meinem Vortrag mache ich zunächst auf der Grundlage der Symboltheorie Nelsons Goodmans deutlich, dass hinsichtlich Bezugnahmen innerhalb von Musik aus philosophieanalytischer Perspektive keinerlei Anlass für eine ästhetische Hierarchisierung zwischen KI- und „menschlich generierter“ Musik vorliegt. Hinsichtlich Bezugnahmen außerhalb der Musik zeige ich jedoch deutliche Unterschiede: Es sind die metaphorischen Exemplifikationen, nach Goodman Phänomene, bei denen das Medium gewechselt wird, also etwa von Klang auf Gefühle übertragen oder auf Farben oder Architektur Bezug genommen wird, bei denen die Sinnhaftigkeit non-Computer-Musik' von einer KI unerreicht bleibt. Deutlich mache ich diese Unterschiede auch auf der Grundlage philosophisch-kognitionswissenschaftlicher Ebene: In The promise of artificial intelligence (2019) argumentiert der US-amerikanische Philosoph und Kognitionswissenschaftler Brian Cantwell Smith in Anlehnung an Hubert Dreyfus und John Haugeland, menschliches (analytisches) Denken und Intelligenz beständen eben nicht aus klar abgrenzbaren logischen Folgerungen, sondern vielmehr aus der geschickten Bewältigung von mannigfachen individuellen komplexen sozialen Umgebungen, in die sich der Mensch auf die Welt geworfen sieht. Auf dieser gedanklichen Grundlage expliziere ich, dass das Wesen sinniger außermusikalischer Bezugnahmen nicht als Abfolge klar artikulierter Schritte verstanden werden kann, sondern in der aktualen menschlichen Musikpraxis, in einem komplexen Prozess des Aktiv-In-Der-Welt- Musikalischen-Sinn-Machens. Stützen will ich meine Überlegungen hierzu auch durch den enaktivistischen Ansatz des US-amerikanischen Philosophen und Kognitionswissenschaftlers Alva Noë.
[1] Musik, deren Praxis keinerlei computertechnische Mittel in Anspruch nimmt.
[2] Künstliche Intelligenz.
[3] Der Begriff Musikpraxis soll hier sowohl die Praxis des kompositorischen Akts als auch die Aufführungspraxis umfassen.
[4] Der Terminus KI-Musik steht bei diesem Vortrag für Musik, die von einer künstlichen Intelligenz generiert oder weitgehend unterstützt wurde.
Literatur:
Brian Cantwell Smith, The promise of artificial intelligence, Massachusetts 2019.
Daniel M. Feige, Die Natur des Menschen. Eine dialektische Anthropologie, Berlin 2022.
Nelson Goodman, Languages of Art, 2. Auflage, Indianapolis/Cambridge 1976.
Martin Heidegger, Sein und Zeit, 19. Auflage, Tübingen 2006.
Gunnar Hindrichs, Die Autonomie des Klangs, Berlin 2014.
Alva Noë, Strange Tools. Art and human nature, New York 2016.
Auf den Spuren des 'musikalischen Habitus der Maschine' - Musikpädagogik in Zeiten maschinellen Lernens
Johannes Treß
Pädagogische Hochschule Freiburg, Deutschland
KI-basierte Anwendungen und Inhalte sind aus unserem Alltag nicht mehr wegzudenken und durchdringen zunehmend auch den Bereich der Musikpädagogik, z. B. durch algorithmisch sortierte Hörempfehlungen, KI-generierte Unterrichtspläne oder Audioinhalte auf Plattformen wie TikTok und YouTube. Die aktuelle Diskussion über KI-basierte Softwaresysteme konzentriert sich stark auf maschinelles Lernen und Deep-Learning-Techniken. Diese Methoden, die auf der statistischen Analyse umfangreicher Datenkorpora beruhen, sind für die Entwicklung von KI-Software von entscheidender Bedeutung. Trotz ihres statistischen Charakters weisen die Algorithmen des maschinellen Lernens eine erhebliche soziotechnische Verflechtung auf. Airoldi (2022) beschreibt sie als "eminently social animals". Sowohl Airoldi als auch Romele betonen die Ähnlichkeit zwischen dieser Perspektive auf Softwaretechnologien und Bourdieus Konzept des Habitus (1977), die sie weiterentwickeln hin zu einem "machine habitus" (Airoldi 2022) bzw. "digital habitus" (Romele 2024). Sie argumentieren, dass machine learning algorithms nicht nur bestehende soziale Strukturen durch den (teil-)automatisierten Datenauswertungsprozess einbetten, sondern selbst wesentlich zur Strukturierung des sozialen Lebens durch permanente Mensch-Maschine-Interaktionen beitragen. Romele sieht in der Architektur solcher Systeme eine erhebliche Bedrohung und stellt fest "the reiterated and almost constant contact of subjects with digital machines ends up flattening individuals into their own sameness” (Romele, 2024, ". 128). Diese theoretische Grundlage bildet die Basis des vorliegenden Beitrags, der die Implikationen eines 'musikalischen Habitus der Maschine' untersucht, wie er sich in KI-basierten Inhalten durch eingebettete Klassifikationen, Dispositionen, Strukturen und Spuren zeigt. Um sich diesen eingebetteten Strukturen im Sinne einer Ethnographie der Algorithmen (Seaver 2017) zu nähern, werden in diesem Beitrag drei für die Musikpädagogik relevante Beispiele vorgestellt und analysiert: Musikunterrichtsplanung mit ChatGPT, KI-basierte Bilderzeugung mittels Midjourney und Songproduktion mit Suno.ai. Die Analyse zeigt, dass die unkritische Integration von KI-generierten Inhalten in musikpädagogiche Unterrichtsformate eine ernsthafte Bedrohung für die Vielfalt der Musikpädagogik darstellen kann und möglicherweise zu einer globalen Homogenisierung von musikalischen Praktiken und Vorstellungen führt. Abschließend werden mögliche Antworten, alternative Wege und (subversive) Strategien vorgestellt, um dieser Homogenisierungstendenz entgegenzuwirken und Handlungsfähigkeit auch angesichts solch umfassender Transformationsprozesse zu gewährleisten.
Preparing Music Educators for the Future: An Autoethnographic Account of Teaching Songwriting and Composition with AI in Secondary School
Charles White
Max-Weber-Kolleg für kultur- und sozialwissenschaftliche Studien Max-Weber-Kolleg der Universität Erfurt und Universität Graz (Cotutelle)
Introduction
In my lecture, I provide an autoethnographic account of teaching songwriting and composition using AI music generative platforms to five Year 9 classes, totaling 118 students aged 13-14, at a secondary school in the United Kingdom.
The lecture will present qualitative insights and personal observations from the teaching experience, highlighting the emergence of creativity through the interaction between students and AI in music composition and songwriting activities. Recognizing that "creativity results in large part from interaction and collaboration with other individuals," (Ho, 2019), the proposed lecture addresses how AI can facilitate collaborative creative processes between both human and non-human agents.
The lecture highlights the importance of the transition from Human-Computer Interaction (HCI) to Human Artificial Intelligence Interaction (HAII) as a key part of postdigital education.
Digital Transformation and CIE Learning Spaces
The digital transformation necessitates Creativity, Innovation, and Entrepreneurship (CIE) learning spaces in pre-service teacher training programs. As Papageorgiou and Kokshagina (2022) write, CIE emphasizes multidisciplinary problem-solving and action-oriented mindsets, preparing learners for lifelong adaptability in uncertain environments. The proposed lecture discusses how AI-powered music tools can facilitate this holistic approach to learning, fostering self-efficacy and agency in students as they tailor their personalized learning paths.
Addressing Contemporary Educational Challenges
The U.S. Department of Education’s Office of Educational Technology (2023) underscores the need to rethink teacher professional development to align with the technological advances in education. This lecture will highlight the importance of developing educational frameworks that not only incorporate advanced technologies but also equip music educators with the necessary skills to use such tools effectively.
Educational Implications and Technological Integration
The lecture will discuss the application of AI generative music-making platforms such as BandLab SongStarter, Aiva, Wavtool, and Audio Design Desk, to enhance music teacher training programs and support student learning. The findings suggest that incorporating AI tools into music teacher training programs can equip future educators with the skills necessary to teach creative aspects of music, including composition, songwriting, and improvisation.
Conclusion
By examining these themes, the lecture aims to contribute to the ongoing discourse on postdigital research in music education, addressing both the challenges and opportunities presented by technological advancements. Through this lecture, I aim to provide insights into the evolving landscape of music education in the digital age, offering practical approaches for integrating AI tools into music teaching and fostering creativity, innovation, and entrepreneurship (CIE) in music education.
|