• Genetische Improvisation
  • Empirische Untersuchung
  • Labor
  • Publikationen
  • Kontakt

GENETISCHE IMPROVISATION

Ein Forschungsprojekt zu evolutionären
Strukturen in improvisierter Musik

LABOR



Wie entwickeln sich musikalische Ideen im Verlauf einer Improvisation? Lässt sich eine Klangzelle als genetischer Code beschreiben? Diese Fragen stehen im Zentrum des laufenden Forschungsprojekts Genetische Improvisation an der Hochschule für Musik Nürnberg, dessen Ziel es ist, Strukturen evolutionärer Entwicklungslogik in der Musik aufzuspüren und zu beschreiben. Die Schnittstelle von Musik und Evolution wurde bisher meist aus anthropologischer Perspektive über sehr lange Zeiträume betrachtet. Der im Gegensatz dazu mikroskopische Blick auf Entwicklungen innerhalb eines Musikstücks ist dabei nicht nur aus musikwissenschaftlicher Sicht interessant: Für die im Bereich der musical metacreation verbreiteten evolutionären Algorithmen stellt John McCormack bisher fehlende Theorien zur Musik, die evolutionäre Strukturen berücksichtigen, als Desiderat heraus. Mit dem Software-Paket GenImpro entsteht ein integriertes System zur Analyse von Forschungsdaten und künstlerischen Anwendung als generatives System.

EMPIRISCHE UNTERSUCHUNG


 



Das Untersuchungsobjekt bilden empirische Analysen musikalischer Improvisationen. Darin zeigen sich viel stärker als in komponierter Musik – weil unmittelbar und ohne Übersetzungsleistung zu und wieder aus einem Notentext – die Prozesse bei der Entstehung und Weiterentwicklung musikalischer Ideen. In einer Laborsituation, die nur akustische Kommunikation zwischen den Probanden erlaubt, werden deren frei – unter Vorgabe einer ungefähren Dauer – improvisierte Stücke aufgezeichnet und in GenImpro analysiert. Zentral ist dabei die Rolle des Klangs und dessen medialer Charakter, der die musikalische Interaktion in zweierlei Hinsicht formt: Zum einen in seinem direkten Wirken auf den Improvisationspartner, zum anderen in größerem Zusammenhang mit semantischer Qualität als Träger musikalischer Metainformationen. Beides zusammen bildet ein in stark abstrahierten Kategorien beschriebenes Genom einer Klangzelle. In einem späteren Schritt soll es dann möglich sein, die gewonnenen Daten als hypothetisches Modell in einen genetischen Algorithmus einzuspeisen und damit dessen Voraussagegenauigkeit zu evaluieren. So bemisst sich gleichzeitig auch die Anwendbarkeit in Algorithmen der künstlichen Kreativität und damit verbunden der künstlerische Wert des computergenerierten genetischen Klangcodes.

LABOR


  GENIMPRO

ANALYSE

Klangzellen nach evolutionärer Entwicklung untersuchen

FORSCHUNGSUMGEBUNG

Zusammenhänge visualisiert erforschen

METAKREATION

Mit genetischen Algorithmen neue Strukturen erzeugen

  Auf GitHub ansehen


Mithilfe des integrierten Software-Werkzeugs GenImpro können die aufgezeichneten Improvisationen analysiert und zu einem Modell der Entwicklungsprinzipien angereichert werden. In einem späteren Schritt sollen anhand des entstanden Genomalgorithmus neue Strukturen erzeugt werden können.

Analyse

Die Aufbereitung der aufgezeichneten Forschungsdaten erfolgt automatisiert mit Hilfe von Python-Skripten und der essentia-Bibliothek in mehreren Schritten: Zunächst wird die Aufnahme in einzelne Klangereignisse (sonic events) segmentiert nach mehreren klanglichen Merkmalen beschrieben (feature extraction) Das Aufzeichnen der Merkmale hat dabei zwei unterschiedliche Ziele: Zum einen soll darüber eine Vergleichbarkeit von Klängen im technischen Sinne erreicht werden, für die eine Zuordnung von Merkmalen zu bestimmten wahrnehmbaren Klangeigenschaften keine notwenige Voraussetzung ist. Zum zweiten soll damit eine Annäherung an das Timbre eines Klangs versucht werden, das als "complex set of auditory attributes" (Stephen McAdams 1999) stark an subjektive Wahrnehmung gekoppelt ist. Anschließend werden diese nach den aus psychologischen Aspekten aus der Gestalttheorie Aspekten Nähe, Ähnlichkeit und kontinuierliche Entwicklung zu Klangzellen (sequences) gruppiert. Jede Klangzelle erhält als phänotypische Beschreibung ein Set aus zusammengefassten Parametern der enthaltenen Einzelklänge. Wenn alle Phänotypen der Testreihe vorliegen, erfolgt darüber eine Clusteranalyse, die Clusterzentren im Parameterraum ermittelt und so die Genomstruktur formt. Der Abstand zu den Clusterzentren bestimmt den Genotyp der einzelnen Klangzelle und kann über eine Ähnlichkeitsmatrix Aufschluss über deren Verwandtschaftsgrad geben.

Forschungsumgebung

Über ein interaktives, Browser-basiertes Interface können die extrahierten genetischen Zusammenhänge der Aufnahmen visualisiert werden. Die Darstellung der Klangzellen ist entweder zeitbasiert linear oder genealogisch als phylogenetischer Baum. In einer Detailansicht zeigen sich Übergänge in einzelnen Parametern sowohl der Phänotypen als auch der Genotypen, die als Basis zur Entwicklung eines Modells der genetischen Abläufe innerhalb der Improvisation ausgewertet werden können.

Metakreation

Die Funktionen zur generativen Nutzung sind bisher noch nicht implementiert und werden erst im Laufe des Forschungsprojekts ergänzt. Geplant dafür ist eine Python-basierte Server-Applikation, die über das Open Sound Control-Protokoll angebunden werden kann und nach dem aus der Analyse ermittelten genetischen Modell neue Strukturen erzeugt. So soll es möglich sein, GenImpro an verbreitete Anwendungen wie Max/MSP, PureData, Supercollider etc. zur Klangerzeugung oder Steuerung von Live-Elektronik anzubinden.

PUBLIKATIONEN


photo by Wiertz Sébastien / CC BY

  • Trump, S. (2015). GenImpro: Analysewerkzeug, Forschungsumgebung und generatives System für musikalische Evolution. in: Mensch und Computer 2015 – Workshopband (pp. 317-324). Berlin, Boston: DE GRUYTER
  • Trump, S. (2016). The Evolution of Sound Cells. Pivot Point for the Analysis and Creation of Musical Improvisation. in MUME 2016 - The Fourth International Workshop on Musical Metacreation. Paris



KONTAKT





Sebastian Trump

Sebastian Trump studierte Jazz-Saxophon und klassisches Saxophon an der Hochschule für Musik Nürnberg, sowie Sound Studies an der Universität der Künste Berlin. Bereits im Studium beschäftigte er sich mit Live-Elektronik und elektroakustischer Klangkunst. Sein digitales Musikinstrument Orphion fand weltweites Interesse und wurde u. a. im Medienmuseum des ZKM Karlsruhe (2012) und im Canadian Science and Technology Museum in Ottawa (2013) ausgestellt. Seit 2009 unterrichtet er Musikrealisation an der Hochschule für Musik Nürnberg und forscht an Schnittstellen zwischen Technologie und Performance.

Dieses Projekt wird gefördert durch die STAEDTLER Stiftung