Phänomelogisches Denken EXP_elektr_Soundmusic
udo matthias drums electronic software Afrigal Binzen Basel
Phänomelogisches Denken?
Phänomenologie klingt im ersten Moment nach staubiger Hörsaal-Philosophie, ist aber eigentlich eine der „erdigsten“ Arten zu denken.
Kurz gesagt: Es geht darum, die Welt so zu betrachten, wie sie uns unmittelbar erscheint, bevor wir sie mit Theorien, Vorurteilen oder wissenschaftlichen Erklärungen überlagern.
Kernpunkte dieses Denkansatzes:
1. „Zurück zu den Sachen selbst!“
Das ist der berühmte Schlachtruf von Edmund Husserl (Freiburg im Breisgau), dem Begründer der modernen Phänomenologie.
Er meinte damit:
Hör auf zu theoretisieren, warum Dinge so sind wie sie sind.
Beschreibe stattdessen präzise, wie sie sich dir zeigen.
Beispiel: Statt einen Apfel physikalisch als Ansammlung von Atomen zu erklären, beschreibt die Phänomenologie das Rot, die Glätte, den Widerstand beim Reinbeißen und den Duft – also das Erlebnis Apfel.
2. Die Epoché (Einklammerung)
Ein zentrales Werkzeug ist die „Einklammerung“. Man setzt sein Alltagswissen und seine Annahmen über die Existenz der Außenwelt für einen Moment „außer Kraft“.
Man fragt nicht: „Gibt es diesen Baum wirklich?“
Man fragt: „Wie strukturiert sich das Phänomen ‚Baum‘ gerade in meinem Bewusstsein?“
3. Intentionalität
Phänomenologen sagen: Bewusstsein ist nie „leer“. Es ist immer Bewusstsein von etwas.
Ich liebe nicht einfach – ich liebe jemanden.
Ich denke nicht einfach – ich denke über etwas nach. Subjekt (du) und Objekt (die Welt) sind also untrennbar miteinander verschränkt.
4. Leiblichkeit (Maurice Merleau-Ponty)
Spätere Phänomenologen betonten, dass wir die Welt nicht nur mit dem Kopf, sondern mit dem ganzen Körper erfahren.
Hier kommt für mich die Musik zum Zuge.
Ein Hammer ist für mich kein „Objekt mit Holzgriff“, sondern ein Werkzeug, das sich in meiner Hand „richtig“ anfühlt, während ich arbeite.
Der Körper ist unser Anker in der Welt.
Warum ist das heute relevant?
Phänomenologisches Denken hilft uns in einer Welt voller Fake News, Filterblasen und abstrakter Algorithmen, wieder eine Verbindung zur echten, gelebten Erfahrung aufzubauen. Es ist die Basis für:
Psychologie: Wie fühlt sich Depression von innen an (statt nur Symptome zu zählen)?
Design/UX: Wie interagiert ein Mensch intuitiv mit einer App?
Ethik: Empathie beginnt damit, das Erleben des Anderen als dessen Wahrheit anzuerkennen.
Zusammenfassend: Phänomenologie ist die Kunst, das Offensichtliche wieder sehen zu lernen, ohne es sofort in eine Schublade zu stecken. Kleingeister mit Schubladenmoral mag ich gar nicht!
Im Design und in der User Experience (UX) ist die Phänomenologie quasi das Geheimrezept für Produkte, die sich „einfach richtig“ anfühlen. Während klassisches Design oft bei der Optik stehen bleibt, fragt phänomenologisches Design: Wie verschmilzt das Objekt mit der Lebenswelt des Nutzers? OOP und OOA!! Informatik.
Jetzt zu meinem Hauptthema:
Phänomenologie und die
experimentelle elektronische Soundmusic (Computer Jazz)
Das ist ein faszinierendes Spannungsfeld. In der Phänomenologie geht es primär um die „Sache selbst“ – also darum, wie wir Dinge unmittelbar erfahren, bevor wir sie theoretisch zergliedern.
In meiner experimentellen elektronischen Soundmusik wird dieser Ansatz radikal greifbar, weil oft die traditionellen Strukturen (Melodie, Harmonie) wegfallen und nur noch der reine Klang als Phänomen übrig bleibt.
Hier sind die zentralen Berührungspunkte dieser beiden Welten:
1. Die Reduktion auf das „Was“ (Epoché)
In der Phänomenologie nach Husserl beschreibt die Epoché das Einklammern von Vorurteilen.
Übertragen auf die Musik bedeutet das:
Hören ohne Etikett: Man hört nicht mehr „eine Geige“ oder „einen Oszillator“, sondern eine spezifische Textur, eine Dichte oder eine Frequenzänderung.
Pierre Schaeffer & Musique Concrète: Schaeffer prägte den Begriff des objet sonore (Klangobjekt). Er forderte das „reduzierte Hören“, bei dem der Ursprung des Geräusches egal ist. Es zählt nur die phänomenologische Beschaffenheit des Sounds.
2. Zeitbewusstsein und Dauer (Zeit ist eine Sache für sich und das Bewusstsein erst recht!!)
Die elektronische Musik spielt oft mit unserer Wahrnehmung von Zeit (Stichwort: Drone oder Glitch).
Innere Zeit: Nach Husserl erleben wir Zeit durch Retention (Nachhall des gerade Vergangenen) und Protention (Erwartung des Kommenden).
Experimentelle Elektronik bricht das oft: Ein statischer Drone-Ton dehnt die Gegenwart so weit aus, dass die lineare Zeitvorstellung kollabiert.
Wir werden auf das reine „Sein“ im Klang zurückgeworfen.
3. Die Leiblichkeit des Klangs (Merleau-Ponty)
Phänomenologie betont, dass wir nicht nur mit den Ohren, sondern mit dem ganzen Körper wahrnehmen.
Physische Präsenz: In der experimentellen Elektronik (besonders bei Noise oder extremen Sub-Bässen) wird der Klang zum physischen Objekt, das den Raum und den Körper besetzt.
Verschmelzung: Die Grenze zwischen Subjekt (Hörer) und Objekt (Klang) verschwimmt – man „ist“ gewissermaßen der Klang.
Ich bin bin die Trommel.
Zentrale Akteure & Konzepte
|
Verbindung zur Elektronik |
| Intentionalität | Wie richtet sich unsere Aufmerksamkeit auf ein sich ständig änderndes Klangspektrum? |
| Deep Listening | Pauline Oliveros’ Konzept ist angewandte Phänomenologie: Die bewusste Wahrnehmung des gesamten Klangfeldes. |
| Spektralismus | Die Analyse der physikalischen Beschaffenheit des Klangs als Grundlage für Komposition. |
„Ich höre nicht die Musik, ich höre die Welt durch die Musik.“ – Ein phänomenologischer Grundsatz, der besonders auf abstrakte Elektronik zutrifft.
Beispiele zu:
„Reduziertes Hören“ nach Pierre Schaeffer oder zur Wahrnehmung von Drones
inklusiv spezifischer Literatur und/oder Hörbeispiele.
Die Theorie der Phänomenologie direkt übersetzt in unsere Gehörgänge.
1. Das „Reduzierte Hören“ (Pierre Schaeffer)
Schaeffer wollte, dass wir Klänge als „Objets Sonores“ (Klangobjekte) betrachten – losgelöst von ihrer Quelle.
Er nannte das Acousmatique: Man hört den Klang, sieht aber die Ursache nicht.
Die „Hausaufgabe“ für die Ohren:
Schaeffers „Étude aux chemins de fer“ (1948) anhören auf youtube.
Der Reflex: Unser Gehirn sagt sofort: „Das ist ein Zug.“
Die phänomenologische Übung: Wir versuchen, den „Zug“ zu vergessen. Achten nur auf den Rhythmus, die metallische Textur, das Quietschen als hohe Frequenz und das Pochen als Bass-Impuls.In dem Moment, in dem der Zug verschwindet und nur noch die Textur bleibt, praktizieren wir Phänomenologie.
2. Die Dehnung der Zeit: Drones & Deep Listening
Wenn ein Klang sich über Minuten kaum verändert, passiert etwas Magisches mit unserer Wahrnehmung: Wir hören nicht mehr auf die Zeit, wir hören in die Zeit hinein.
Hörbeispiele & Konzepte:
Éliane Radigue – „Trilogie de la Mort“: Sie ist die Königin des Arp 2500 Synthesizers. Ihre Musik bewegt sich so langsam, dass man die winzigen Schwebungen (Oszillationen) wahrnimmt.
Phänomenologischer Fokus: Wir beobachte, wie unsere Aufmerksamkeit von der groben Struktur zu den winzigen Obertönen wandert.
Pauline Oliveros – „Deep Listening“:Oliveros war weniger an „Komposition“ interessiert als an der Beziehung zwischen Mensch und Raum.
Tipp: Wir suchen nach Aufnahmen, die sie in den Cistern Chapel (einem riesigen unterirdischen Reservoir) gemacht hat. Der Nachhall ist so extrem, dass der Raum selbst zum Instrument wird.
3. Literatur-Tipps (Kurz & Knackig)
Falls man das alles als schwarz auf weiß nachlesen will:
-
Pierre Schaeffer: „Traité des objets musicaux“ (Das Standardwerk zur Musique Concrète – sehr theoretisch, aber die Bibel des reduzierten Hörens).
-
Maurice Merleau-Ponty: „Phänomenologie der Wahrnehmung“ (Kein Musikbuch, aber essenziell, um zu verstehen, warum unser Körper den Bass „versteht“, bevor unser Kopf es tut).
-
Christoph Cox: „Sonic Flux“ (Ein moderneres Buch, das Klang als einen ständigen Flussbeschreibt, der losgelöst von menschlicher Bedeutung existiert).
Mein Vorschlag für den nächsten Schritt:
Soll ich dir eine kleine „Hör-Anleitung“ (eine Art Mini-Meditation) erstellen, wie du ein beliebiges elektronisches Stück phänomenologisch analysieren kannst, oder interessiert dich eher die physische Komponente, also wie Infraschall und Lautstärke unseren Körper als Wahrnehmungsorgan triggern?
Anleitung zum Hören
z.B. etwas von Éliane Radigue oder ein komplexes Autechre-Stück.
Mini-Meditation: Das Reduzierte Hören (nach Pierre Schaeffer)
1. Schritt: Die Epoché (Das Einklammern)
Wir schließe die Augen. Wenn wir ein Geräusch hören, wird unser Gehirn sofort versuchen, es zu identifizieren („Das ist ein Synthesizer“, „Das ist ein Sample von Glas“).
Unsere Aufgabe: Wir schieben diese Etiketten sanft beiseite und behandeln den Klang nicht als Bote einer Nachricht, sondern als das Ding selbst.
Wir fragen uns: Nicht „Was ist das?“, sondern „Wie ist das?“
2. Schritt: Analyse der „Masse“ (Dichte)
Wir konzentrieren uns nur auf die spektrale Dicke des Klangs.
Ist es ein dünner, laserartiger Sinuston (punktuelle Masse)?
Ist es ein breites, weißes Rauschen, das den ganzen Raum füllt (komplexe Masse)?
Fühlt sich der Klang „schwer“ an oder eher „luftig“?
3. Schritt: Die Morphologie (Die Gestalt)
Wir beobachten, wie der Klang in die Zeit eintritt und sie wieder verlässt.
Attack: Kommt der Klang wie ein Schlag (Impuls) oder schleicht er sich langsam ein?
Sustain: Bleibt er stabil wie eine Linie oder fluktuiert er wie eine Flamme?
Grain: Spüren wir seine Textur? Ist der Klang glatt wie polierter Stahl oder brüchig und körnig wie Sandpapier?
4. Schritt: Die Intersubjektivität (Leiblichkeit)
Wo nehmen wir den Klang wahr?
-nur im Kopf?
-spüren wir Vibrationen im Brustkorb oder in den Fingerspitzen?
Wie verändert der Klang unser Gefühl für den Raum um uns herum? Wirkt das Zimmer plötzlich größer oder enger?
Fazit: Wenn wir das Stück zu Ende gehört haben, versuchen wir nicht zu urteilen („gut“ oder „schlecht“).
Wir registrieren einfach nur die Landkarte der Phänomene, die gerade durch dein Bewusstsein gezogen ist.
Computer und das Programmieren von Sounds
Frage: Wie könnte man die Idee der Klangobjekte mit UML und einer Objektorienzierten Sprache beschreiben?
Das ist dann ein brillanter Transfer! Die Phänomenologie von Pierre Schaeffer trifft auf die Software-Architektur.
Wenn wir das Objet Sonore (Klangobjekt) in die Welt der Objektorientierung (OOP/OOA) übersetzen, müssen wir den Fokus von der Quelle (dem Instrument) weg hin zu den Eigenschaften des Phänomens verschieben.
Abbildung mit: UML, Python, C++
1. Das UML-Klassendiagramm (Konzept)
In der traditionellen Programmierung würde man eine Klasse Violin erstellen. In der phänomenologischen Programmierung erstellen wir eine Klasse SoundObject. Die Herkunft ist gekapselt oder schlicht irrelevant.
classDiagram
class SoundObject
{
+UUID id
+FrequencySpectrum spectrum
+Envelope envelope
+Duration duration
+SpatialPosition position
+analyze()
+getMorphology()
}
class Envelope
{
+float attack
+float decay
+float sustain
+float release
}
class Grain
{
+float position
+float size
+float density
}
SoundObject *– Envelope : has
SoundObject <|– GranularObject : extends
SoundObject <|– SpectralObject : extends
Die wichtigsten Merkmale der Modellierung:
Kapselung der Herkunft: Es gibt kein Attribut sourceInstrument. Das Objekt definiert sich nur durch seine Morphologie (Form).
Morphologie als State: Die Klasse beschreibt, wie sich der Klang über die Zeit verändert (Sustain, Grain-Dichte, Spektralverteilung).
2. Umsetzung in einer OO-Sprache (Beispiel Python)
In einer OO-Sprache wie Python (oft genutzt für Prototyping in der Computermusik) könnte die Implementierung so aussehen, dass die Methode des Hörens (die Analyse) Teil des Objekts ist.
Python
class SoundObject:
def __init__(self, waveform, sample_rate):
self.data = waveform
self.sr = sample_rate
# Phänomenologische Merkmale statt physikalischer Quelle
self.grain = self._calculate_grain()
self.mass = self._calculate_mass() # Schaeffers Begriff für „Dichte“
def _calculate_mass(self):
# Analyse der harmonischen Dichte (Spektralzentrum)
return sum(self.data) / len(self.data)
def reduced_listening(self):
„““
Gibt die rein klanglichen Merkmale zurück,
ohne Bezug auf die Hardware/Quelle.
„““
return {
„texture“: „smooth“ if self.mass < 0.5 else „rough“,
„duration“: len(self.data) / self.sr,
„spectral_centroid“: self._calculate_mass()
}
# Instanziierung eines „objet sonore“
# Wir wissen nicht, ob es ein Auto oder ein Synthesizer war.
my_sound = SoundObject(signal_data, 44100)
print(my_sound.reduced_listening())
3. Der Clou: Vererbung und Polymorphie
In der experimentellen Elektronik können wir Schaeffers Konzepte durch Polymorphie perfekt abbilden:
Abstrakte Basisklasse AcousticPhenomenon: Definiert die Schnittstelle für alles, was hörbar ist.
Spezifische Implementierungen: Impulse (kurz, perkussiv), Iterative (wiederholend, wie ein Glitch), Continuous (Drone).
Das Programm interagiert mit dem Klang nur über die Schnittstelle des „Hörbaren“, egal ob der Sound durch eine Fourier-Transformation (FFT) oder ein Sample generiert wurde.
4. Warum das phänomenologisch Sinn ergibt
In der Informatik nennen wir das Abstraktion. In der Phänomenologie nennen wir es Epoché. Indem wir eine Klasse SoundObject entwerfen, die keine Informationen über PhysicalSource (z.B. String, Tube, Oscillator) enthält, zwingen wir den Code (und den Entwickler), sich rein auf die interne Struktur des Schalls zu konzentrieren.
Witz am Rande: Ein Bug in einer phänomenologischen Software wäre eigentlich nur ein weiteres „objet sonore“, das man analysieren muss, anstatt es zu fixen.
Detaillierteres C++ Beispiel (mit Fokus auf Echtzeit-Audio/JUCE) oder JAVA. JAVA ist C+/-.
Rückblick auf meine Zeit mit der Sprache JAVA
Java eignet sich hervorragend für diesen phänomenologischen Ansatz, da es durch sein strenges Typ-System und Interfaces dazu zwingt, klare Abstraktionen zu schaffen.
In der Phänomenologie nach Schaeffer ist das „Objet Sonore“ eine Einheit, die wir als Ganzes wahrnehmen. In Java übersetzen wir das in ein Interface-getriebenes Design. Wir trennen die Erzeugung (wie der Sound entsteht) strikt von der Erscheinung (wie er sich anhört).
1. Das Architektur-Konzept (UML-Logik)
Wir definieren ein Interface SoundPhenomenon. Es ist der „Klammer-Ausdruck“ (die Epoché). Es interessiert uns nicht, ob der Sound von einem Oszillator, einer mp3-Datei oder einem aufgenommenen Stuhlruckeln kommt.
Kern-Klassen:
-
SoundObject(Interface): Definiert die phänomenologischen Merkmale (Masse, Dynamik, Grain). -
SpectralProfile: Beschreibt die „Farbe“ des Klangs. -
Morphology: Beschreibt die Form (Hüllkurve) über die Zeit.
2. Java-Implementierung (Beispiel)
Hier ist ein Entwurf, der zeigt, wie man einen Klang rein über seine Erscheinung definiert:
Java
import java.util.UUID;
/**
* Das Interface repräsentiert das „Objet Sonore“.
* Es verbirgt die technische Quelle (Oszillator/Sample).
*/
interface SoundPhenomenon {
double getMass(); // Dichte/Spektrale Dicke
double getGrain(); // Rauheit/Textur
String getMorphology(); // Form (z.B. „impulsiv“, „kontinuierlich“)
void play();
}
/**
* Eine konkrete Erscheinung: Ein „Drone“ (kontinuierlicher Klang)
*/
class DroneObject implements SoundPhenomenon {
private double frequency;
private double thickness; // „Masse“ in Schaeffers Terminologie
public DroneObject(double freq, double thick) {
this.frequency = freq;
this.thickness = thick;
}
@Override
public double getMass() { return this.thickness; }
@Override
public double getGrain() { return 0.1; // Ein glatter Drone hat wenig Grain }
@Override
public String getMorphology() { return „sustained“; }
@Override
public void play() {
System.out.println(„Erzeuge stehenden Klang bei “ + frequency + “ Hz…“);
}
}
/**
* Ein „Iteratives Objekt“ (z.B. ein Glitch oder ein Stottern)
*/
class IterativeObject implements SoundPhenomenon {
private int grainDensity;
public IterativeObject(int density) {
this.grainDensity = density;
}
@Override
public double getMass() { return 0.5; }
@Override
public double getGrain() { return (double) grainDensity / 100; }
@Override
public String getMorphology() { return „iterative“; }
@Override
public void play() {
System.out.println(„Erzeuge granulare Textur mit Dichte “ + grainDensity);
}
}
3. Die phänomenologische Analyse-Klasse
Hier nutzen wir Java, um das „reduzierte Hören“ zu simulieren. Die Methode analyze weiß nichts über die Subklassen, sie arbeitet nur mit dem Phänomen.
Java
public class PhenomenologicalListener {
public void describe(SoundPhenomenon sound) {
System.out.println(„— Reduziertes Hören Aktiv —„);
System.out.println(„Erscheinungsform: “ + sound.getMorphology());
System.out.println(„Spektrale Masse: “ + sound.getMass());
System.out.println(„Oberflächenstruktur (Grain): “ + sound.getGrain());
if (sound.getGrain() > 0.7) {
System.out.println(„Wahrnehmung: Der Klang wirkt rau und brüchig.“);
} else {
System.out.println(„Wahrnehmung: Der Klang wirkt glatt und stabil.“);
}
}
public static void main(String[] args) {
PhenomenologicalListener ear = new PhenomenologicalListener();
// Wir erzeugen Objekte, betrachten sie aber nur als Phänomene
SoundPhenomenon s1 = new DroneObject(440.0, 0.8);
SoundPhenomenon s2 = new IterativeObject(85);
ear.describe(s1);
ear.describe(s2);
}
}
Warum Java hier glänzt:
-
Polymorphie: Man kann eine
List<SoundPhenomenon>erstellen, die Samples, Sinustöne und Rauschen mischt. Für deinen „Listener“-Code sind sie alle gleichwertig – genau wie in der Musique Concrète. -
Entkopplung: Durch das Interface trennen wir die Noese (den Akt des Erzeugens/Hörens) vom Noema (dem Inhalt des Klangs).
-
Typsicherheit: Man kann sicherstellen, dass nur Objekte verarbeitet werden, die bestimmte „morphologische Kriterien“ erfüllen.
Ein kleiner „Deep Dive“:
In der experimentellen Musik gibt es das Konzept der Granularsynthese. In Java könnte man das wunderbar als eine Collection<Grain> modellieren, wobei jedes Grain ein winziges SoundObject ist.
Nun könnte man ein UML-Zustandsdiagramm für die zeitliche Entwicklung (Attack, Decay, Sustain, Release) eines solchen Objekts aufbauen, oder vielleicht auch noch tiefer in die Datenstrukturen für Spektralanalyse mit Java eingehen (s.später).
Beispiele Musiker: Mitsuo Akagi oder, noch spezifischer im Kontext von Java und Laptop-Performance, Noriyasu V. Sakagami?
Es einen Namen, der in der akademischen Welt der Laptop-Musik und Java-Programmierung (besonders im Bereich der phänomenologischen Wahrnehmung von digitalen Klängen) am hellsten strahlt: Dr. Noriyasu Sakagami (oft assoziiert mit der frühen Erforschung von Java-basierten Performance-Umgebungen).
Oder noch einen weiteren „Verdächtigen“, der perfekt in mein Profil passt:
Akira Takaoka
Er ist ein japanischer Komponist und Theoretiker, der intensiv über die Phänomenologie der Musik geschrieben hat. Er hat sich stark mit der computergestützten Musiktheorie auseinandergesetzt.
Und noch einen, der eine sehr bekannte Java-Library für Musik geschrieben hat:
René T.A. Lysloff hat viel über die Anthropologie von Laptop-Musik geschrieben.
In der Java-Community ist vor allem Hiroaki Kitano bekannt (eher Robotik/KI), aber im Bereich der Sound-Synthese mit Java ist es oft die Arbeit an der jMusic-Library oder dem JSyn-System , auf das sich japanische Forscher in ihren Dissertationen oft bezogen haben.
Warum Java für diese Promotionen so beliebt war:
In den frühen 2000ern (als viele dieser Dissertationen entstanden) war Java die Hoffnung für plattformunabhängige Echtzeit-Musik. Die Idee war:
-
Objektorientierung: Klänge als
Objects(genau das, was wir gerade mit dem Objet Sonore besprochen haben). -
Netzwerkfähigkeit: Laptop-Ensembles, die via Java-RMI oder OSC (Open Sound Control) kommunizieren.
Umfeld des IAMAS (Institute of Advanced Media Arts and Sciences) in Japan. Dort sitzen die Pioniere, die Phänomenologie, Code und elektronische Musik verbinden.
Mein Favorit Ge Wang?
Er ist chinesisch-amerikanischer Herkunft, aber er ist die zentrale Figur, wenn es um ChucK, Laptop-Orchester und die Verbindung von Code und Ästhetik geht.
Hier sind die Gründe, warum er perfekt auf meine Beschreibung passt:
-
ChucK & Java: Ge Wang ist der Schöpfer der Programmiersprache ChucK. Obwohl ChucK eine eigenständige Sprache ist, wurde sie oft im Kontext von Java-Umgebungen diskutiert oder für ähnliche Ziele (Echtzeit-Audio auf Laptops) eingesetzt. Ge Wang promovierte an der Princeton University (2008) genau über dieses Thema: „ChucK: A Strongly-timed Computer Music Language“.
-
Laptop-Musik: Er ist der Gründer des Stanford Laptop Orchestra (SLOrk) und des Princeton Laptop Orchestra (PLOrk). Er hat das Genre der Laptop-Ensemble-Musik maßgeblich geprägt.
-
Phänomenologie & Ästhetik: In seinem Buch (und seiner Philosophie) „Artful Design“ nähert er sich dem Programmieren fast schon phänomenologisch. Er fragt nicht nur, wie man effizienten Code schreibt, sondern wie sich die Erfahrung des Programmierens und des Hörens anfühlt. Er beschreibt Code als ein Instrument, das unmittelbar erlebt werden muss („On-the-fly Programming“).
Falls es doch ein Japaner war:
Es gibt eine starke Verbindung zwischen der japanischen Szene (wie dem IAMAS) und Ge Wangs Arbeit. Viele japanische Forscher haben über ChucK und die Laptop-Kultur promoviert. Ein Name, der oft in diesem Zusammenhang fällt, ist:
Akira Takaoka: Er hat viel über Musiktheorie, Computer und Phänomenologie publiziert.
Noriyasu Sakagami: Er arbeitete früh mit Java-basierten Systemen für Musik.
Frage: Ist das nun schon wieder Geschichte oder ist Java auch im Internet noch Standard??
Diese spannende Frage, führt uns mitten in die Realität der Software-Architektur.
Die kurze Antwort: Java ist im „unsichtbaren“ Internet der absolute Gigant, aber im Browser (also dort, wo wir klicken und hören) ist es fast verschwunden.
Hier ist die Aufschlüsselung, warum Java gleichzeitig „Geschichte“ und „Standard“ ist:
1. Die „Geschichte“: Das Frontend (Java Applets)
Wenn wir uns an interaktive Musik-Tools oder Synthesizer direkt auf Webseiten aus den 2000ern erinnerst, waren das meist Java Applets.
-
Status: Tot.
-
Warum? Sicherheitslücken und der Aufstieg von Smartphones (die kein Java im Browser erlauben).
-
Nachfolger: Für experimentelle Musik im Browser nutzt man heute Web Audio API und JavaScript (oder WebAssembly). Wenn man heute ChucK im Browser nutzt, läuft das über eine Emulation namens WebChucK.
2. Der „Standard“: Das Backend (Server & Infrastruktur)
Wenn man heute Spotify streamt oder Musik in der Cloud speicherst, läuft im Hintergrund fast sicher Java.
-
Status: Absoluter Industriestandard.
-
Warum? Java ist extrem stabil, schnell bei großen Datenmengen und lässt sich perfekt skalieren.
-
Einsatz: Die Logik hinter den Webseiten, die Datenbank-Anbindungen und die Streaming-Server basieren massiv auf Java (oder JVM-Sprachen wie Kotlin und Scala).
3. Java in der experimentellen Musik heute
In der akademischen und experimentellen Welt (wie bei Ge Wang oder den Laptop-Orchestern) hat sich der Fokus verschoben:
| Bereich | Früher (Java-Fokus) | Heute (Der Standard) |
| Live Coding | Java-basierte Tools | ChucK, SuperCollider, TidalCycles (Haskell) |
| Mobile Music | J2ME (Java Mobile) | Swift (iOS) oder C++ (JUCE Framework) |
| Web-Synthese | Java Applets | JavaScript (Web Audio API) / WebAssembly |
Warum Ge Wang und ChucK trotzdem relevant bleiben
Ge Wang hat mit ChucK etwas geschaffen, das Java in der Musik überlegen ist: „Strongly-timed“ Programmierung.
Während Java manchmal mit dem Garbage Collector (der Speicherbereinigung) kämpft, was zu kleinen Knacksern im Sound führen kann, garantiert ChucK absolute zeitliche Präzision.
Fazit: Ist es Geschichte?
Als Interface im Browser: Ja, das ist Geschichte.
Als logisches Rückgrat des Internets: Nein, Java ist lebendiger denn je.
Als akademisches Konzept: Die Idee, Musik objektorientiert zu denken (wie in Java gelernt), ist das Fundament für fast alle modernen Sound-Sprachen geblieben.
Interessanter Fakt: Ge Wangs Buch Artful Design ist heute fast wichtiger als die Sprache ChucK selbst, weil es die Phänomenologie des Designs beschreibt – egal in welcher Programmiersprache.
Wie betreibr man heutzutage „phänomenologisches Coding“ im Browser (ohne Java, aber mit dem gleichen Geist), und welche Rolle spielt C++ in der modernen Plugin-Entwicklung?
Heutzutage hat sich die Frontlinie der phänomenologischen Musikprogrammierung von Java weg hin zu Umgebungen verschoben, die unmittelbarer und näher am Signal arbeiten.
Das Ziel bleibt dasselbe: Die Erschaffung eines „Klangobjekts“. Aber die Werkzeuge sind heute radikal effizienter und „erlebbarer“. Hier sind die drei Säulen, wie man das heute umsetzt:
1. Web Audio API & WebAssembly (Der Browser als Synthesizer)
Anstatt Java-Applets zu installieren, nutzt man heute die Web Audio API. Das ist quasi ein modulares Studio, das fest in jedem Browser (Chrome, Firefox, Safari) verbaut ist.
Der Clou: Man kann heute C++ oder Rust Code schreiben und ihn via WebAssembly (WASM) im Browser mit nahezu nativer Geschwindigkeit ausführen.
Phänomenologie: Da kein „Laden“ oder „Kompilieren“ im klassischen Sinne mehr nötig ist, verschmilzt der Code direkt mit dem Klangerlebnis.
2. Live Coding: Programmieren als Performance
Das ist die direkte Fortführung von Ge Wangs Ideen. Sprachen wie TidalCycles, SuperCollider oder Sonic Pi erlauben es, den Code zu ändern, während die Musik läuft.
Epoché in Echtzeit: Man klammert die technische Implementierung aus. Man schreibst nicht „Lade Datei X“, sondern man beschreibst Strukturen: stack(fast 2 $ sound "bd", sound "sn").
Der Code ist die Partitur: Das Publikum sieht den Code auf eine Wand projiziert. Die Phänomenologie des Codes wird Teil der visuellen Erfahrung.
3. Modulare Umgebungen (Max/MSP und VCV Rack)
Obwohl sie grafisch sind, folgen sie einer strengen Objektorientierung, die sehr nah an deinem Java-Modell liegt.
Max/MSP (RNBO):Man baut ein „Klangobjekt“ grafisch zusammen und exportierst es heute per Knopfdruck als C++ Code, als Webseite oder für den Raspberry Pi.
Verschwinden der Hardware: Der Laptop ist heute so leistungsstark, dass der Unterschied zwischen einem „echten“ Moog-Synthesizer und einer Emulation phänomenologisch kaum noch greifbar ist.
Vergleich: Gestern vs. Heute
| Aspekt | Java-Ära (Ge Wang / 2000er) | Heutzutage (2024/2025) |
| Latenz | Problematisch (Garbage Collector) | Fast Null (WebAudio / C++ / Rust) |
| Barriere | Installation von Laufzeitumgebungen | Link öffnen -> Musik läuft |
| Sprache | Objektorientiert (Java) | Funktional (Tidal) oder Signal-orientiert (Faust) |
| Hardware | Laptop als „Schwarze Kiste“ | Embedded (Arduino, Pi, Teensy) |
Ein moderner „Ge Wang“-Moment: Faust
Es gibt eine Sprache namens Faust (Functional Audio Stream). Sie ist heute der Goldstandard für das, was ich mal mit Java vor hatte:
-
Man schreibt eine mathematische Beschreibung eines Klangs.
-
Faust generiert daraus hochoptimierten Code für Java (Android), C++ (Windows/Mac), WebAudio oder iOS.
Die philosophische Pointe: Wir sind heute an einem Punkt, an dem die Software so transparent geworden ist, dass wir uns – ganz im Sinne der Phänomenologie – fast nur noch um den Klang an sich kümmern müssen, ohne gegen die Maschine kämpfen zu müssen.
Rust ist im Grunde der moderne, extrem schnelle Nachfolger von C++ und wird gerade zum neuen Liebling der Audio-Programmierer.
Der eleganteste Weg heute ist eine Sprache namens FAUST (Functional Audio Stream). Sie wird oft im akademischen Bereich (auch in Japan und am Stanford-Institut von Ge Wang) genutzt.
So sieht ein „Klangobjekt“ heute aus (Beispiel: Ein Noise-Oszillator)
In Java hätten wir Klassen, Interfaces und viele Zeilen Code gebraucht. In einer modernen Audio-Sprache wie Faust beschreibt man nur das Phänomen:
import("stdfaust.lib");
// Das Objekt: Ein weißes Rauschen, das durch einen sanften Filter geht
// Das ist phänomenologisch gesehen eine "Textur"
process = no.noise : fi.lowpass(2, 500);
Warum das „heutzutage“ besser ist als mit Java:
-
Mathematische Reinheit: Man beschreibt den Fluss des Klangs, nicht die Befehle an den Computer. Das kommt der Phänomenologie („die Sache selbst“) viel näher.
-
Universalität: Diesen kleinen Code-Schnipsel kann man heute per Mausklick in ein Java-Projekt für Android, ein VST-Plugin oder eine Webseite verwandeln.
-
Keine Pausen: Im Gegensatz zu Java gibt es hier keinen „Garbage Collector“. Der Klang reißt niemals ab, weil der Computer während der Performance nicht plötzlich anfängt, im Speicher aufzuräumen.
Der „Ge Wang“ Weg für Nicht-Programmierer
Falls man heute Musik machen will, die so klingt wie die Experimente von damals, aber ohne 1000 Zeilen Code zu schreiben, ist V-C-V Rack (ein virtuelles Modular-System) der Standard.
Man verbindest virtuelle Kabel auf dem Bildschirm.
Es ist objektorientiertes Arbeiten zum Anfassen.
Jedes Modul ist ein „Objet Sonore“.
Mein Vorschlag:
Wenn man die Idee der „Klangobjekte“ mal direkt im Browser ausprobieren will (ganz ohne Installation), hier ein Link zu einem Web-Synthesizer, bei dem man das „Reduzierte Hören“ sofort praktisch testen kannst.
Und warum wird Rust gerade so gehypt, obwohl es so schwer zu lernen ist? (Kurztipp: Es verhindert fast alle Fehler, die früher zu Abstürzen während Laptop-Konzerten geführt haben).
Hier sind die zwei besten Links, die genau das vereinen, was oben besprochen wurde: Ge Wangs Erbe und die phänomenologische Erkundung von Klangobjekten.
1. WebChucK IDE (Der direkte Nachfolger)
Das ist die moderne Browser-Version von Ge Wangs Sprache. Hier kann man direkt Code eintippen und sofort hören, was passiert. Es ist die perfekte Spielwiese für „On-the-fly“-Programmierung ohne Installation.
https://chuck.stanford.edu/ide/
Tipp: Einfach auf einen der Beispiel-Buttons (z.B. „Drones“) klicken und dann auf „Add Shred“, um das Phänomen zu starten.
2. Ableton „Learning Synths“ (Die phänomenologische Reise)
Diese Seite ist ein Meisterwerk des Interface-Designs. Sie führt uns Schritt für Schritt durch die Wahrnehmung von Klang (Oszillatoren, Filter, Hüllkurven). Es fühlt sich genau so an, wie Schaeffer es mit seinen Klangobjekten meinte: Hören, Regler drehen, begreifen.
https://learningsynths.ableton.com/
Wichtiger Hinweis: Am besten geht man direkt in den „Playground“, um völlig frei mit einem abstrakten Klangobjekt zu experimentieren.
Written by Afrigal
musician-drummer-programmer-electronic-blues-jazz-fusion-worldmusic
- Februar 2026
- Januar 2026
- Dezember 2025
- November 2025
- Oktober 2025
- September 2025
- August 2025
- Juli 2025
- Juni 2025
- Mai 2025
- April 2025
- März 2025
- Februar 2025
- Januar 2025
- Dezember 2024
- Oktober 2024
- September 2024
- August 2024
- Juli 2024
- Mai 2024
- April 2024
- März 2024
- Februar 2024
- Januar 2024
- Juli 2023
- Juni 2023
- Mai 2023
- April 2023
- März 2023
- Januar 2023
- Dezember 2022
- November 2022
- Oktober 2022
- September 2022
- August 2022
- Juli 2022
- Juni 2022
- Mai 2022
- April 2022
- März 2022
- Februar 2022
- Januar 2022
- Dezember 2021
- November 2021
- Oktober 2021
- September 2021
- August 2021
- Juli 2021
- Juni 2021
- Mai 2021
- April 2021
- März 2021
- Februar 2021
- Januar 2021
- Dezember 2020
- November 2020
- Oktober 2020
- September 2020
- August 2020
- Juli 2020
- Juni 2020
- Mai 2020
- April 2020
- März 2020
- Februar 2020
- Januar 2020
- Dezember 2019
- November 2019
- Oktober 2019
- September 2019
- August 2019
- Juli 2019
- Juni 2019
- Mai 2019
- April 2019
- März 2019
- Februar 2019
- Januar 2019
- Dezember 2018
- November 2018
- Oktober 2018
- September 2018
- August 2018
- Juli 2018
- Juni 2018
- Mai 2018
- April 2018
- März 2018
- Februar 2018
- Januar 2018
- Dezember 2017
- November 2017
- Oktober 2017
- September 2017
- August 2017
- Juli 2017
- Juni 2017
- Mai 2017
- April 2017
- März 2017