favicon HOME

Op Art and More 

Sound and Waves   -   Klangbilder   -   Klangspiele    -   Stochastische Musik

Sound Machine - music non stop

Wellenbilder werden zu Klangbildern gewandelt. Verschiedene Wellenformationen mit ihren Frequenzen und Amplituden werden farblich als veränderliche Wellenmuster dargestellt. Die Wellen genau im Zentrum des Bildes werden als Vorgabe für einen Synthesizer akustisch umgesetzt.

Die Klangbilder und Töne sollen eine Reminiszenz an die Jazz-Rock Gruppen Soft Machine und Kraftwerk und insbesondere an Iannis Xenakis darstellen

Jan. 2021

Video Klangspiel



Die entstehenden Klangbilder und Töne basieren auf dem Stil stochastischer Musik des Komponisten Iannis Xenakis

Erläuterungen:

Für die Erzeugung der Videos mit ihren Klangbildern wurde eine eigenentwickelte Java-Software eingesetzt, die die Java Sound API und die Ansteuerung eines Synthesizers mit der dort enthaltenen Soundbank verwendet.

Die Aufnahmen basieren auf 3 variablen virtuellen Wellengeneratoren, wobei jedem Wellengenerator eigene Frequenzen und Amplituden zugewiesen werden.

Voreingestellt sind in dem angesteuerten Synthesizer die Simulation eines Musikinstruments über die Soundbank sowie ein Soundgenerator, über den die im Display sichtbaren optischen Wellenformationen zu einer Tonfolge über verschiedene Messpunkte im Videobild gewandelt und gemischt werden. In dem hier programmierten Soundgenerator wird voreingestellt, wie viele Messpunkte der optischen Wellen im Zentrum der Bildmitte zu einem Ton gemischt werden; dabei liegt die Bandbreite zwischen 1 und 141 Messpunkten, wobei die optische Position der einzelnen Messpunkte einer horizontalen Linie im Zentrum des Videobildes entspricht, wo wiederum jeder einzelne Messpunkt genau einem Pixel entspricht. Eine schmale Bandbreite führt dann zu kürzeren Tonfolgen, während bei einer eingestellten größeren Bandbreite durch Mittelung der einzelnen Messwerte längere und gleichförmigere Tonfolgen entstehen. Der jeweils erzeugte Ton aus den ermittelten Wellenwerten der Messpunkte im Zentrum des Videobildes ist dann das Ergebnis einer Überlagerung der gemittelten Werte mit den empfangenen Frequenzen und aktuellen Amplituden der Wellenmuster. Bildlich gesprochen bedeutet das, dass man als Hörer genau im Zentrum des Bildes säße und dort die einfallenden Wellen zu Tönen umgesetzt würden, hier allerdings ohne Stereoeffekt.

Die Tondauer hängt von der jeweiligen optischen Wellenformation mit ihrer Frequenz und Amplitude sowie der eingestellten Bandbreite ab und wird zusätzlich durch vom Algorithmus selbst gewählte veränderliche Zeitmuster modifiziert. Dabei können Töne durch Verdoppelung und Verdreifachung dynamisch vom Algorithmus über das jeweils aktuelle Zeitmuster selbsttätig verlängert werden. 

Voreingestellt wird auch eine Wellenmetrik, die sich optisch durch ihre Erscheinungsform von anderen einstellbaren Wellenmetriken unterscheiden kann, wodurch als Folge unterschiedlicher Wellenformationen verschiedene Varianten von Tonsequenzen erzeugt werden können. Die unterschiedlichen Wellenmetriken zeichnen sich dadurch aus, dass die Wellenausbreitung nicht nur auf herkömmlicher konzentrischer Ausbreitung beruht wie bei akustischen Quellen üblich, sondern beispielsweise auch hyperbolische oder auch andere Metriken nutzt, die sich optisch als unterschiedliche Grundtypen der Wellenmuster zeigen. Bisweilen werden auch invertierte Wellenausbreitungsrichtungen benutzt, bei denen die Wellen von außen zentral auf den Wellengenerator strömen, was natürlich in der Natur nicht vorkommt. Der Algorithmus hier kann aber diese Art von virtuellen Wellenformationen, die durch die jeweilige Wellenmetrik entstehen, selbständig vorgeben.

Jeder Wellengenerator sendet Wellen aus, die jeweils durch einen unterschiedlichen rgb-Farbwert (rot/grün/blau) repräsentiert werden. Die 3 rgb-Farbwerte werden dann bei jedem Pixel zu einem einzigen auf dem Bildschirm sichtbaren Farbton gemischt, so dass die Überlagerung der 3 Wellen genau in dem jeweiligen Pixel farblich wiedergegeben wird. Das Pixelfeld des gesamten Videobildes ergibt dann bunte Muster, die die Überlagerungen der Wellen zeigt und ihre ursprünglichen Wellenmuster erahnen lässt. Jeder einzelne rgb-Anteil der gemessenen und überlagerten Einzelwerte in den Messpunkten im Zentrum des Bildes wird entsprechend der oben beschriebenen Einstellungen als eigenständiger Ton/Note über den Soundgenerator zur Tonerzeugung an den Synthesizer auf  Basis der Soundbank mit dem simulierten Instrument übergeben. Dadurch wird für jeden einzelnen rgb-Wert ein eigener Ton gebildet, so dass bis zu 3 verschiedene Töne eines Instruments gleichzeitig gehört werden können, wobei sich beim Hören diese 3 Töne auch überlagern können.

Die Positionen der 3 Wellengeneratoren verändern sich eigenständig vom Algorithmus selbst gesteuert, wodurch die unterschiedlichen dynamischen Wellenmuster und daraus resultierend die verschiedenen Tonfolgen aus den im Zentrum des Bildes ermittelten Messwerten im Takt der Bildfolgen entstehen. Die Bewegungen der Wellengeneratoren werden mittels einer 2002 entwickelten Java-Funktion "spotmove" algorithmisch erzeugt, die schon früher bei mehreren Videos sowie interaktiven Kunstwerken von opartandmore eingesetzt wurde (z.B. Spot-Serie). Jeder Wellengenerator wird durch eine kleine dunkle kreisförmige Fläche optisch angezeigt. Die 3 von "spotmove" gesteuerten Bewegungen der Wellengeneratoren können dynamisch auch zu Überlagerungen führen. Eine Überlagerung aller 3 Wellengeneratoren gleichzeitig geschieht allerdings relativ selten. Im Extremfall bilden die 3 Generatoren dann für eine begrenzte Zeit einen gemeinsamen Ort von dem aus ähnliche oder auch gleichförmige Wellen ausgehen können. Eine temporäre oder auch länger andauernde Überlagerung von jeweils 2 Wellengeneratoren wird vom Algorithmus dagegen häufiger vorgenommen. Zwischen den Positionen der 3 Wellengeneratoren bestehen Nachbarschaftsbeziehungen, die von "spotmove" temporär zu ähnlichen oder gleichförmigen, aber auch anziehenden oder abstoßenden  oder unabhängigen Bewegungen geführt werden.

Eine 1. Version dieser Sound Machine wurde als Java-Applet "Interferenz" 2008 im Internet veröffentlicht. Diese Version konnte vom Internetbenutzer durch Mausinteraktionen direkt im Browser gesteuert werden, sofern Java Runtime Version (JRE) und die Java Soundbank auf dem PC installiert waren. Wegen der seinerzeit immer mehr zunehmenden Sicherheitsrisiken beim Einsatz von Java-Applets wird inzwischen die Ausführung von Java-Applets von den meisten Browser-Anbietern nicht mehr zugelassen (Ausnahme beispielsweise Pale Moon; siehe auch Proteopedia). Als Ersatz des usprünglichen Java-Applets "Interferenz" mit seiner nicht von allein endenden Ausgabe von Tonfolgen (music non stop) werden jetzt hier lediglich ein paar Beispiele mit Ausschnitten als Videos wiedergegeben, die allerdings nicht mehr die Interaktions- und Steuerungsmöglichkeiten der Sound Machine wie beim Java-Applet durch den Betrachter ermöglichen. 2021 wurde das Java-Applet "Interferenz" an eine höhere Bildschirmauflösung angepasst, die in den Videos hier auf dieser Webseite zu sehen ist (ca. 800x600).

     


Video- und Klangbild-Verzeichnis

Musikvideo startet nach Anklicken eines Bildes

music non stop I

strings
(3:42 min)

Bild Index

music non stop II

xylophone
(4:13 min)

Bild Index

music non stop III

synth strings
(3:06 min)

Bild Index

music non stop IV

backpipe
(3:41 min)

Bild Index

music non stop V

xylophone
(2:13 min)

Bild Index

music non stop VI

acoustic grand
(2:24 min)

Bild Index

music non stop VII

synth strings
(2:11 min)

Bild Index