Kommunikationstechnik: Nach der Sprache kommt die Musik

Im Zuge der zunehmenden Digitalisierung von Musikdaten sind in den vergangenen Jahren zwar umfangreiche, aber in der Regel unstrukturierte Musikdatenbestände entstanden. Hauptziel des Music Information Retrieval ist es, multimodale und komplexe Musikdatenbestände zu erschließen. Eine entscheidende Bedeutung kommt hierbei der Annotation, Verlinkung und Strukturierung des Datenbestandes zu, was allerdings aufgrund der enormen Datenmassen manuell nicht bewerkstelligt werden kann. Genau an diesem Punkt setzt die Aufgabenstellung der Musiksynchronisation an, bei der es um die automatische Verlinkung zweier Datenströme unterschiedlicher Formate geht. Über die neuesten Entwicklungen auf diesem Sektor referierte Dr. Meinard Müller vom Max-Planck Institut für Informatik in Saarbrücken.

„Synchronisationstechniken eröffnen neuartige Möglichkeiten der Navigation zwischen verschiedenen Aufnahmen eines Musikstücks“, erläuterte Müller. Dabei könne der Benutzer mittels geeigneter Slider beim Abspielen von Aufnahmen nahtlos zwischen den unterschiedlichen Interpretationen hin- und herpendeln. Diese Funktionalität könne mit dem Anzeigen von Suchergebnissen oder zuvor extrahierten strukturellen Informationen kombiniert werden. Ein solcher Interpretationswechsler sei unter anderem für das Digitale Beethoven-Haus in Bonn in Form eines digitalen Exponats entwickelt worden. Dort stünden dem Musikliebhaber momentan 27 verschiedene Aufnahmen der berühmten „Appassionata“-Klaviersonate von Ludwig von Beethoven zur Verfügung, die man mit Hilfe des Interpretationswechslers direkt miteinander vergleichen könne.

Insbesondere die Analyse von auf Wellenformen basierenden Audiodaten ist im Hinblick auf effizientes und effektives Musikretrieval von fundamentaler Bedeutung. Aufgabe der auch als Audio-Fingerprinting bezeichneten Audioidentifikation ist es, einen gegebenen Ausschnitt einer Audioaufnahme als Bestandteil genau dieser Aufnahme zu erkennen. Mit Hilfe der Audioidentifikation lässt sich exakt ermitteln, in welchem Stück und an welcher Position einer Audio-CD ein bestimmter Audioausschnitt enthalten ist. Das Hauptziel der Strukturanalyse ist es wiederum, sich wiederholende Strukturen zu erkennen und daraus die musikalische Form zu bestimmen. Die automatisierte Interpretationsanalyse kann wiederum als eine komplementäre Aufgabenstellung angesehen werden, in der es darum geht, die Unterschiede und Gemeinsamkeiten in verschiedenen Interpretationen eines Musikstücks zu erfassen.

Am Max-Planck Institut für Informatik wurde ein auf Musiksynchronisation basierendes Verfahren beschrieben, das den Tempoverlauf einer Interpretation vollautomatisch bestimmt. Der Kern der Innovation basiert darauf, eine uninterpretierte MIDI-Datei mit der jeweiligen Audioaufnahme zu verlinken. Eine MIDI-Datei (englisch: musical instrument digital interface) ist also eine digitale Schnittstelle für Musikinstrumente und erlaubt als Datenübertragungs-Protokoll die Übermittlung musikalischer Steuerinformationen zwischen elektronischen Instrumenten wie Keyboards, Synthesizern, oder auch PCs bzw. Laptops. Die hierfür erforderlichen zeitlich hoch auflösenden und zugleich robusten Synchronisationsverfahren befinden sich noch in der Entwicklung.

Leave a Reply

Your email address will not be published.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.