Sound Machine
Die Klangbilder und Töne sollen eine Reminiszenz an die Jazz-Rock Gruppen Soft Machine und Kraftwerk und insbesondere an Iannis Xenakis darstellen
Video Klangspiel
Video startet nach Auswahl eines Vorschaubildes
Die entstehenden Klangbilder und Töne basieren auf dem Stil stochastischer Musik des Komponisten Iannis Xenakis
Erläuterungen zu Sounds by Swarm Intelligence:
Simulation eines Schwarms bestehend aus mehreren Teilschwärmen, bei denen die Bewegungen von bis zu 2000 Schwarmmitgliedern (sogenannte Boids)
als Strichspuren aufgezeichnet worden sind.
Für jeweils 4 oder 12 ausgewählte Boids (blau dargestellt) wurden die Bewegungen als sich überlagernde Tonfolgen im Stereoton wiedergegeben.
Die Bewegungen aller Boids erfolgt auf Basis der von Craig Reynolds entdeckten Schwarmregeln.
Durch kleine, vom Schwarm selbst erzeugte Hindernisse (winzige gelbe Punkte) schränken die Boids die Freiheit für Richtungsentscheidungen teilweise selbst wieder ein, wodurch sich
ungleichmäßige Bewegungsmuster ergeben. Während der Videoaufnahme wurden die Schwarmregeln leicht modifiziert, so dass sich das Schwarmverhalten bisweilen
verändert.
Für die ausgewählten Boids wurden die jeweiligen Positionen durch blaue Markierungen hervorgehoben. Diese ausgewählten Boids wurden hier als separate Tongeber eingesetzt Töne
über einen Synthesizer zu erzeugen.
Diese Boids können den Tonraum von 9 Oktaven bespielen. Einzelne Töne besitzen eine
Tondauer zwischen 1 (1000ms) und 16 (62ms). Die Töne umfassen die 6 Solfeggio-Frquenzen,
denen im Bereich der Esoterik eine heilsame Wirkung zugeschrieben wird. Die jeweils von einem Boid ausgewählte Frequenz ist hierbei abhängig von der eingeschlagenen Richtung des
Boids. Hörbar ist dann die Überlagerung aller Töne der ausgewählten Boids.
Eine (extreme) philosophische Interpretation des Schwarmverhaltens enthält ein Abschnitt zu weiteren Videokunstwerken der
Swarm Art,
die mittels Schwarmintelligenz erzeugt wurden.
Erläuterungen zu music non stop:
Wellenbilder werden zu Klangbildern gewandelt.
Verschiedene Wellenformationen mit ihren Frequenzen und Amplituden werden farblich als veränderliche Wellenmuster dargestellt.
Die Wellen genau im Zentrum des Bildes werden als Vorgabe für einen Synthesizer akustisch umgesetzt.
Für die
Erzeugung der Videos mit ihren Klangbildern wurde eine eigenentwickelte
Java-Software
eingesetzt, die die Java
Sound API und die Ansteuerung eines Synthesizers mit der dort
enthaltenen Soundbank verwendet.
Die Aufnahmen basieren auf 3 variablen virtuellen Wellengeneratoren, wobei
jedem Wellengenerator eigene Frequenzen und Amplituden zugewiesen werden.
Voreingestellt
sind in dem angesteuerten Synthesizer die
Simulation eines Musikinstruments über die Soundbank sowie ein Soundgenerator,
über den die im Display sichtbaren optischen Wellenformationen zu einer Tonfolge
über verschiedene Messpunkte im Videobild gewandelt und gemischt
werden. In dem hier programmierten Soundgenerator
wird voreingestellt, wie viele Messpunkte der optischen Wellen im
Zentrum der
Bildmitte zu einem Ton gemischt werden; dabei liegt die Bandbreite
zwischen 1 und 141 Messpunkten, wobei die optische Position der
einzelnen Messpunkte einer horizontalen Linie im Zentrum des
Videobildes
entspricht, wo wiederum jeder einzelne Messpunkt genau einem Pixel
entspricht. Eine schmale Bandbreite führt dann zu kürzeren
Tonfolgen, während bei einer eingestellten größeren Bandbreite durch
Mittelung der einzelnen Messwerte längere und gleichförmigere Tonfolgen
entstehen. Der
jeweils
erzeugte Ton aus den ermittelten Wellenwerten der Messpunkte im Zentrum
des Videobildes ist dann das Ergebnis einer
Überlagerung der gemittelten Werte
mit den empfangenen Frequenzen und aktuellen Amplituden
der
Wellenmuster. Bildlich gesprochen
bedeutet das, dass man als Hörer genau im Zentrum des Bildes säße und
dort
die einfallenden Wellen zu Tönen umgesetzt würden, hier allerdings ohne
Stereoeffekt.
Die Tondauer hängt von der jeweiligen optischen Wellenformation mit ihrer
Frequenz und Amplitude sowie der eingestellten Bandbreite ab und wird
zusätzlich durch vom Algorithmus selbst gewählte veränderliche Zeitmuster modifiziert.
Dabei können Töne durch Verdoppelung und Verdreifachung dynamisch vom
Algorithmus über das jeweils aktuelle Zeitmuster selbsttätig verlängert
werden.
Voreingestellt
wird auch eine Wellenmetrik, die
sich optisch durch ihre
Erscheinungsform von anderen einstellbaren Wellenmetriken unterscheiden
kann, wodurch
als Folge unterschiedlicher Wellenformationen verschiedene Varianten
von Tonsequenzen erzeugt werden können. Die
unterschiedlichen Wellenmetriken zeichnen sich dadurch aus, dass die
Wellenausbreitung nicht nur auf herkömmlicher konzentrischer
Ausbreitung beruht wie bei akustischen Quellen üblich,
sondern beispielsweise auch hyperbolische oder auch andere Metriken
nutzt, die sich als
unterschiedliche Grundtypen der Wellenmuster zeigen. Bisweilen werden
auch invertierte Wellenausbreitungsrichtungen benutzt, bei
denen die Wellen von außen zentral auf den Wellengenerator strömen, was
natürlich in der Natur nicht vorkommt. Der Algorithmus hier kann aber
diese Art von
virtuellen Wellenformationen, die durch die jeweilige Wellenmetrik
entstehen, selbständig vorgeben.
Jeder
Wellengenerator sendet Wellen aus, die jeweils durch einen
unterschiedlichen rgb-Farbwert
(rot/grün/blau) repräsentiert werden.
Die 3 rgb-Farbwerte werden dann bei jedem Pixel zu einem einzigen auf
dem Bildschirm
sichtbaren Farbton gemischt, so dass die Überlagerung der 3
Wellen genau in dem jeweiligen Pixel farblich wiedergegeben wird. Das
Pixelfeld
des gesamten Videobildes
ergibt dann bunte Muster, die die Überlagerungen der Wellen
zeigt und ihre ursprünglichen Wellenmuster erahnen lässt. Jeder
einzelne rgb-Anteil der gemessenen und überlagerten
Einzelwerte in den Messpunkten im Zentrum des Bildes wird entsprechend
der oben
beschriebenen Einstellungen als eigenständiger Ton/Note über den
Soundgenerator zur
Tonerzeugung an den Synthesizer auf Basis der Soundbank mit dem
simulierten Instrument übergeben. Dadurch wird für jeden einzelnen
rgb-Wert ein eigener Ton gebildet, so dass bis zu 3 verschiedene
Töne
eines Instruments gleichzeitig gehört werden können, wobei sich beim
Hören
diese 3 Töne auch überlagern können.
Die Positionen der 3 Wellengeneratoren verändern sich eigenständig vom
Algorithmus selbst gesteuert, wodurch die unterschiedlichen dynamischen
Wellenmuster und daraus resultierend die verschiedenen Tonfolgen aus
den im Zentrum des Bildes ermittelten Messwerten im Takt der Bildfolgen
entstehen. Die
Bewegungen der Wellengeneratoren werden mittels einer 2002
entwickelten Java-Funktion "spotmove" algorithmisch erzeugt, die schon
früher bei mehreren
Videos sowie interaktiven Kunstwerken von opartandmore eingesetzt wurde
(z.B.
Spot-Serie). Jeder
Wellengenerator wird durch eine kleine dunkle kreisförmige Fläche
optisch
angezeigt. Die 3 von "spotmove" gesteuerten Bewegungen der
Wellengeneratoren können dynamisch auch zu Überlagerungen
führen. Eine Überlagerung aller 3
Wellengeneratoren gleichzeitig geschieht allerdings relativ selten. Im
Extremfall bilden die 3 Generatoren dann für eine begrenzte
Zeit einen gemeinsamen Ort von dem aus ähnliche oder auch gleichförmige
Wellen ausgehen können. Eine temporäre oder auch länger andauernde
Überlagerung von jeweils 2
Wellengeneratoren wird vom Algorithmus dagegen häufiger vorgenommen.
Zwischen den Positionen der 3 Wellengeneratoren bestehen
Nachbarschaftsbeziehungen,
die von "spotmove" temporär zu ähnlichen oder gleichförmigen, aber auch
anziehenden oder abstoßenden oder unabhängigen Bewegungen geführt
werden.
Eine 1.
Version dieser Sound Machine wurde als Java-Applet
"Interferenz"
2008 im Internet veröffentlicht. Diese Version konnte vom Internetbenutzer
durch Mausinteraktionen direkt im Browser gesteuert werden, sofern Java
Runtime Version (JRE) und die Java
Soundbank auf dem PC installiert waren. Wegen der seinerzeit immer
mehr zunehmenden
Sicherheitsrisiken beim Einsatz von Java-Applets wird inzwischen die
Ausführung
von Java-Applets von den meisten Browser-Anbietern nicht mehr
zugelassen (Ausnahme beispielsweise Pale
Moon;
siehe auch Proteopedia).
Als
Ersatz des usprünglichen Java-Applets "Interferenz" mit seiner nicht
von allein endenden Ausgabe von Tonfolgen (music non stop) werden jetzt
hier lediglich ein paar Beispiele mit Ausschnitten als Videos
wiedergegeben, die allerdings nicht mehr die Interaktions- und
Steuerungsmöglichkeiten der Sound Machine wie beim Java-Applet durch
den Betrachter ermöglichen. 2021 wurde das Java-Applet "Interferenz" an
eine höhere Bildschirmauflösung angepasst, die in den Videos hier auf
dieser Webseite zu sehen ist (ca. 800x600).
Musikvideo startet nach Anklicken eines Bildes
Sounds by Swarm Intelligence
The four Boids
Vibraphone
(1:03 min)
März 2024
Telephone Lines
(2:19 min)
Juni 2024
The 12 Boids
Synth Bass 1
(3:48 min)
Juni 2024
(Musik beginnt nach 12 Sekunden)
music non stop series from 2021
music non stop I
strings
(3:42 min)
music non stop II
xylophone
(4:13 min)
music non stop III
synth strings
(3:06 min)
music non stop IV
backpipe
(3:41 min)
music non stop V
xylophone
(2:13 min)
music non stop VI
acoustic grand
(2:24 min)
music non stop VII
synth strings
(2:11 min)