Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
Digitalisierung und Methodik II
Zeit:
Freitag, 22.09.2023:
16:30 - 18:30

Chair der Sitzung: Wolfgang Drescher
Ort: Raum 137 (Rhythmiksaal)


Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen
16:30 - 17:00

Musiktheorie und Künstliche Intelligenz: Was ist der Stand?

Pierre Basso

Hochschule für Musik Karlsruhe, Institut für Musikinformatik und Musikwissenschaft, Deutschland

In diesem Vortrag wird untersucht, welche Verbindung zwischen Künstlicher Intelligenz (KI) und Musiktheorie hergestellt werden kann, und an welcher Stelle überhaupt Berührungspunkte vorhanden sind. Insbesondere werden wir uns mit der Frage beschäftigen, wie KI-Technologien die Komposition von Musik unterstützen können. Zusätzlich wird auch hinterfragt, welche Vorteile und Nachteile sich für einen didaktischen Ansatz ergeben, und welche Aspekte wir als Musiktheoretiker*innen in den kommenden Jahren in Betracht ziehen sollten. Darüber hinaus werden wir auch diskutieren, welche Auswirkungen bestimmte Entwicklungen auf die Musiktheorie haben könnten.

Dabei werden wir uns auf Beispiele aus der aktuellen Forschung beziehen.

Zunächst wird sich dieser Vortrag mit Chat-GPT und der Technologie des Prompt Engineering sowie deren Relevanz für die Musiktheorie befassen. Mit der geradezu revolutionären Einführung von Chat-GPT im November 2022 wurde erstmals künstliche Intelligenz für die breite Öffentlichkeit zugänglich gemacht und von dieser enorm und schnell angenommen. Chat-GPT ist ein intelligentes Dialogmodell, das in der Lage ist, auf Folgefragen zu antworten, einige Fehler zu korrigieren, falsche Annahmen herauszufiltern und unangemessene Anfragen abzulehnen.

Das Weiteren werden Modelle, die Musik direkt erzeugen können, vorgestellt und gegebenenfalls hinterfragt. Coconet versucht Choräle von J.S. Bach zu rekonstruieren oder Lücken zu füllen. Soundraw und AIVA versuchen echte Kompositionen in zahlreichen Genres und Besetzungen zu generieren. Hinter solchen Programmen verstecken sich ethische Fragen zum Beispiel: zum Urheberrecht und zur Zukunft des Künstlersubjekts an sich.

Abschließend geht es um die Bearbeitung einer Audio-Datei, um Midi-Dateien zu erzeugen oder einzelne Tracks eines fertigen Songs zu extrahieren. Programme wie Piano Scribe oder Lalal.AI können neue Möglichkeiten für digitale Konzepte in der Lehre eröffnen.



17:00 - 17:30

Grundlagen einer formalen Tonfeldtheorie

Martin Rohrmeier

École Polytechnique Fédérale de Lausanne, Schweiz

Seit dem Entwurf von Bernhard Haas ist die Tonfeldtheorie im Verlauf der letzten knapp 20 Jahre zu einem der wichtigsten Ansätze zur Analyse erweiterter Tonalität im 19. Jahrhundert und darüber hinaus avanciert. Während der Ansatz von zahlreichen Analytikern aufgegriffen und an vielen Einzelwerken demonstriert wurde, fehlen nach wie vor zwei wichtige Entwicklungsschritte für die Fortentwicklung der Theorie: (a) eine übergreifende und über Einzelanalysen hinausgehende Validierung mit modernen Korpusmethoden, sowie (b) eine präzise Formalisierung der Konzepte, Relationen und Vorhersagen der Theorie mit aktuellen (mathematischen) Werkzeugen der Theoriebildung – insbesondere auch im Vergleich zu anderen, formaleren Ansätzen wie z.B. der Neo-Riemannian Theory oder der Set Theory, die sich denselben Gegenstandsbereich beschreiben.

Dieser Beitrag schlägt eine Formalisierung der Tonfeldtheorie als musikalische Grammatik mit Methoden der Theorie formaler Sprachen und Grammatiken vor. Formale, generative Grammatiken ermöglichen es, die Bildung von (musikalischen) Sequenzen mit wenigen rekursiven zugrunde liegenden Regeln zu beschreiben. In einer ersten Fassung konzentriert sich der Formalismus auf die formale Charakterisierung von Harmoniesequenzen. Die formale Grammatik nimmt (1) eine Menge von abstrakten Kategorien und (2) eine Menge von abstrakten Regeln an, mit deren Hilfe Harmoniefolgen schrittweise abgeleitet (=erklärt) werden. Als abstrakte Kategorien werden transpositionsinvariante Akkordrepräsentationen, Akkordtransformationen, sowie Tonarten und drei Tonfelder (Oktatonik/Funktion, Hexatonik/Konstrukt, Quintenreihe) angenommen – letztere abgeleitet aus den Basisdimensionen des Eulerschen Tonnetzes. Die Interpretation des Regelsatzes vermittelt auf allgemeiner Ebene zwischen Interpretation und Struktur, hier im Konkreten zwischen musikalischen Effekten und Relationen zwischen Objekten (Akkorden, Tonarten, Tonfeldern, Tönen). Die Regeln charakterisieren elementare Relationen zwischen Kategorien, die Relationen diatonischer Tonalität erweitern, insbesondere: generalisierte Prolongation, Modulation und erweiterte Tonfeldmodulation, Vorbereitungsbildung, plagale Fortschreitung, Substitution, Kontrastbildung, sowie Tonfeldteilung, -expansion, -kontraktion, und Quintenverschiebung. Aufgrund der rekursiven Anwendung der formalen Regeln auf beliebiger Abstraktionsebene entsteht die in der Literatur angenommene Hierarchie bzw. Schichtenreduktion von Tonfeldanalysen bereits aus der mathematischen Rekursion des Formalismus selbst.

Die vorgestellte Formalisierung wird an diversen Beispielen erläutert und in ihrer musikhistorischen Reichweite diskutiert, sowie der Zusammenhang zwischen individueller, hermeneutischer Expertenanalyse und dem Formalismus als Notationsgrammatik reflektiert. Abschließend werden notwendige Erweiterungen zur Analyse auf Tonebene problematisiert und die Möglichkeiten zur Validierung qua Korpusanalyse diskutiert.



17:30 - 18:00

Reconstruct and Decompose: Extracting and Sonifying Rhythmic, Melodic and Spectral Patterns for Analytical and Creative Use

Egor Polyakov

HMT Leipzig, Deutschland

Since the introduction of the first commercially available spectrographs, the process of deconstructing spectrograms into various symbolic representations has played a vital role in music composition. Risset and Wessel (1999) described this process as an "exploration of timbre by analysis and synthesis," which involved not only the decomposition of various machine-generated representations into sheet music notation, a crucial aspect of spectral music (Kursell & Schäfer, 2016), but also the creation of frequency tables central to computer-synthesized works (Harvey, 1981). Furthermore, they emphasized the importance of an "acute ear and judgment" as a key factor in the creative process, necessitating active interaction not only as an analyst but also as a listener or interpreter, ultimately leading to a deeper understanding of the musical material.

This concept, which combines analysis, synthesis, and acoustical perception into a cohesive process, has been pivotal for the development of several software designs, dating back to Music V (1967) (Risset, 1994). Environments like OpenMusic and Audiosculpt, along with their various possibilities for interconnectivity, have excelled in embodying this concept, allowing complex interactions between analysis, symbolic representation, and resynthesis. Unfortunately, due to the discontinuation of Audiosculpt's development and the incompatibility of its latest version with modern 64-bit systems, many useful interactions familiar to users in the 2000-2010s have become inaccessible on current platforms.

In response to this challenge, we developed several Python-based tools centered around analysis, sonification, and symbolic representation. These tools were primarily based on adaptations of FMP Notebook scripts (Müller, 2021) and the Verovio framework (Pugin et al., 2014). We refined their practical functionality through several lecture cycles at HMT Leipzig, resulting in a robust and versatile set of tools designed for musicologists, composers, and researchers. In our planned talk, we aim to showcase multiple implementations of our toolset, with a focus on pattern recognition applications for a range of analytical and creative purposes.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: GMTH 2023
Conference Software: ConfTool Pro 2.8.101+TC
© 2001–2024 by Dr. H. Weinreich, Hamburg, Germany