Skip to content

Menu

  • Jazz Projekt Binzen
  • elektronisch-experimentelle-musik & theorie
  • Spektralmusik Spektralismus Fourier
  • Gedanken von mir und anderen
  • Musik Spiritualität Mystik Politik
  • Klanglandschaften
  • Interessen allgemein
  • Avantgarde Electronic Experimental
  • Computer Music & Horror Vacui
  • Eigenes Afrigal
  • AI/KI Kunst Live Coding
  • Coding //******
  • Kunst, Raum & NEUE Musik
  • generative art
  • Hardware Hacking & Circuit Bending
  • modular&Co
  • afrigal udo matthias
  • afrigal udo matthias#2
  • afrigal udo matthias#3
  • afrigal udo matthias#4
  • afrigal udo matthias#5
  • Afrika & Afrigal
  • Physik des Schlagzeus u.a.
  • Folgen mit Datenschutz Erklärung
  • Ablaze Records
  • diverse Links
  • Eric Dolphy
  • Ornette Coleman
  • Frank Zappa
  • Free Form Jazz
  • freie Improvisation
  • Improvisierte Musik
  • Fusion
  • Fusion 2
  • Fusion 3
  • guitar man !!
  • Iron Maiden
  • Jazz neue Drums
  • Jazztime 1
  • Jazztime 2
  • Jazztime 3
  • King Crimson
  • Masterclasses
  • Metal
  • Musik Archäologie – Music archeology
  • NEO Krautrock & Show me your Lips
  • New Thing & History
  • nicht’s Neues
  • Noise Rock
  • Pink Floyd
  • Prog
  • RNBO 2
  • Meine TvA

Archiv

  • Februar 2026
  • Januar 2026
  • Dezember 2025
  • November 2025
  • Oktober 2025
  • September 2025
  • August 2025
  • Juli 2025
  • Juni 2025
  • Mai 2025
  • April 2025
  • März 2025
  • Februar 2025
  • Januar 2025
  • Dezember 2024
  • Oktober 2024
  • September 2024
  • August 2024
  • Juli 2024
  • Mai 2024
  • April 2024
  • März 2024
  • Februar 2024
  • Januar 2024
  • Juli 2023
  • Juni 2023
  • Mai 2023
  • April 2023
  • März 2023
  • Januar 2023
  • Dezember 2022
  • November 2022
  • Oktober 2022
  • September 2022
  • August 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • März 2022
  • Februar 2022
  • Januar 2022
  • Dezember 2021
  • November 2021
  • Oktober 2021
  • September 2021
  • August 2021
  • Juli 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Januar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • September 2020
  • August 2020
  • Juli 2020
  • Juni 2020
  • Mai 2020
  • April 2020
  • März 2020
  • Februar 2020
  • Januar 2020
  • Dezember 2019
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Juli 2019
  • Juni 2019
  • Mai 2019
  • April 2019
  • März 2019
  • Februar 2019
  • Januar 2019
  • Dezember 2018
  • November 2018
  • Oktober 2018
  • September 2018
  • August 2018
  • Juli 2018
  • Juni 2018
  • Mai 2018
  • April 2018
  • März 2018
  • Februar 2018
  • Januar 2018
  • Dezember 2017
  • November 2017
  • Oktober 2017
  • September 2017
  • August 2017
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017

Calendar

Februar 2026
M D M D F S S
 1
2345678
9101112131415
16171819202122
232425262728  
« Jan.    

Kategorien

  • Afrigal
  • Afrigal
  • Art Kunst allgemein
  • Ästhetik
  • Blues & Rock
  • Computer Music
  • diverse Links
  • drummer
  • elektronische Klangmusik
  • experimental
  • Filmkunst
  • Free Improvisation
  • Free Jazz
  • Hacking electronic
  • Industrial
  • Jazz
  • Klanglandschaften
  • Kunst Raum Neue Musik
  • Lärm
  • Musik & Spiritualität
  • Neo Krautrock
  • Noise
  • NOISE
  • positive Negativität
  • Power Electronic
  • Psychoakustik
  • Radio & Co
  • Soundart
  • Soundeffekt
  • Sounds aus dem Weltall
  • Udo matthias drums
  • Unterricht MAXMSP Live Java Assembler etc.

Copyright Afrigal - Udo Matthias - electronic 2026 | Theme by ThemeinProgress | Proudly powered by WordPress

Afrigal - Udo Matthias - electronic
  • You are here :
  • Home
  • Afrigal ,
  • Art Kunst allgemein ,
  • Ästhetik ,
  • elektronische Klangmusik ,
  • experimental
  • Phänomelogisches Denken EXP_elektr_Soundmusic

≡
Start Blog Über Kontakt
Written by Afrigal on 21/02/2026

Phänomelogisches Denken EXP_elektr_Soundmusic

Afrigal . Art Kunst allgemein . Ästhetik . elektronische Klangmusik . experimental Article
udo matthias drums electronic software Afrigal Binzen Basel

Phänomelogisches Denken?

Phänomenologie klingt im ersten Moment nach staubiger Hörsaal-Philosophie, ist aber eigentlich eine der „erdigsten“ Arten zu denken.

WeiterlesenSounds Udo

Kurz gesagt: Es geht darum, die Welt so zu betrachten, wie sie uns unmittelbar erscheint, bevor wir sie mit Theorien, Vorurteilen oder wissenschaftlichen Erklärungen überlagern.

Kernpunkte dieses Denkansatzes:

WeiterlesenAfrigal Facebook

1. „Zurück zu den Sachen selbst!“

Das ist der berühmte Schlachtruf von Edmund Husserl (Freiburg im Breisgau), dem Begründer der modernen Phänomenologie.

WeiterlesenAfrigal erste Versuche

Er meinte damit:

Hör auf zu theoretisieren, warum Dinge so sind wie sie sind.

WeiterlesenModular Music

Beschreibe stattdessen präzise, wie sie sich dir zeigen.

Beispiel: Statt einen Apfel physikalisch als Ansammlung von Atomen zu erklären, beschreibt die Phänomenologie das Rot, die Glätte, den Widerstand beim Reinbeißen und den Duft – also das Erlebnis Apfel.

2. Die Epoché (Einklammerung)

WeiterlesenDesert Blues

Ein zentrales Werkzeug ist die „Einklammerung“. Man setzt sein Alltagswissen und seine Annahmen über die Existenz der Außenwelt für einen Moment „außer Kraft“.

Man fragt nicht: „Gibt es diesen Baum wirklich?“

WeiterlesenTery Bozzio Marco Ianetta

Man fragt: „Wie strukturiert sich das Phänomen ‚Baum‘ gerade in meinem Bewusstsein?“

3. Intentionalität

Phänomenologen sagen: Bewusstsein ist nie „leer“. Es ist immer Bewusstsein von etwas.

WeiterlesenMarco Iannetta

Ich liebe nicht einfach – ich liebe jemanden.

Ich denke nicht einfach – ich denke über etwas nach. Subjekt (du) und Objekt (die Welt) sind also untrennbar miteinander verschränkt.

4. Leiblichkeit (Maurice Merleau-Ponty)

WeiterlesenIDM

Spätere Phänomenologen betonten, dass wir die Welt nicht nur mit dem Kopf, sondern mit dem ganzen Körper erfahren.

Hier kommt für mich die Musik zum Zuge.

WeiterlesenWilfrid Kirner

Ein Hammer ist für mich kein „Objekt mit Holzgriff“, sondern ein Werkzeug, das sich in meiner Hand „richtig“ anfühlt, während ich arbeite.

Der Körper ist unser Anker in der Welt.

Warum ist das heute relevant?

WeiterlesenNew Blues Studies with guitar, contactmicrophon, ableton...und??

Phänomenologisches Denken hilft uns in einer Welt voller Fake News, Filterblasen und abstrakter Algorithmen, wieder eine Verbindung zur echten, gelebten Erfahrung aufzubauen. Es ist die Basis für:

Psychologie: Wie fühlt sich Depression von innen an (statt nur Symptome zu zählen)?

WeiterlesenTest #11

Design/UX: Wie interagiert ein Mensch intuitiv mit einer App?

Ethik: Empathie beginnt damit, das Erleben des Anderen als dessen Wahrheit anzuerkennen.

Zusammenfassend: Phänomenologie ist die Kunst, das Offensichtliche wieder sehen zu lernen, ohne es sofort in eine Schublade zu stecken. Kleingeister mit Schubladenmoral mag ich gar nicht!

WeiterlesenLokal Hyper ??

Im Design und in der User Experience (UX) ist die Phänomenologie quasi das Geheimrezept für Produkte, die sich „einfach richtig“ anfühlen. Während klassisches Design oft bei der Optik stehen bleibt, fragt phänomenologisches Design: Wie verschmilzt das Objekt mit der Lebenswelt des Nutzers? OOP und OOA!! Informatik. 

Jetzt zu meinem Hauptthema:

Phänomenologie und die

experimentelle elektronische Soundmusic (Computer Jazz)

WeiterlesenInteraktive Komposition

Das ist ein faszinierendes Spannungsfeld. In der Phänomenologie geht es primär um die „Sache selbst“ – also darum, wie wir Dinge unmittelbar erfahren, bevor wir sie theoretisch zergliedern.

In meiner experimentellen elektronischen Soundmusik wird dieser Ansatz radikal greifbar, weil oft die traditionellen Strukturen (Melodie, Harmonie) wegfallen und nur noch der reine Klang als Phänomen übrig bleibt.

WeiterlesenAndrea Hersperger

Hier sind die zentralen Berührungspunkte dieser beiden Welten:

1. Die Reduktion auf das „Was“ (Epoché)

In der Phänomenologie nach Husserl beschreibt die Epoché das Einklammern von Vorurteilen.

WeiterlesenAfrigal - Hey Joe JIMI

Übertragen auf die Musik bedeutet das:

Hören ohne Etikett: Man hört nicht mehr „eine Geige“ oder „einen Oszillator“, sondern eine spezifische Textur, eine Dichte oder eine Frequenzänderung.

WeiterlesenAndrea voice/vocal

Pierre Schaeffer & Musique Concrète: Schaeffer prägte den Begriff des objet sonore (Klangobjekt). Er forderte das „reduzierte Hören“, bei dem der Ursprung des Geräusches egal ist. Es zählt nur die phänomenologische Beschaffenheit des Sounds.

2. Zeitbewusstsein und Dauer (Zeit ist eine Sache für sich und das Bewusstsein erst recht!!)

Die elektronische Musik spielt oft mit unserer Wahrnehmung von Zeit (Stichwort: Drone oder Glitch).

WeiterlesenLagirfa

Innere Zeit: Nach Husserl erleben wir Zeit durch Retention (Nachhall des gerade Vergangenen) und Protention (Erwartung des Kommenden).

Experimentelle Elektronik bricht das oft: Ein statischer Drone-Ton dehnt die Gegenwart so weit aus, dass die lineare Zeitvorstellung kollabiert.

WeiterlesenHenrik Schwarz

Wir werden auf das reine „Sein“ im Klang zurückgeworfen.

3. Die Leiblichkeit des Klangs (Merleau-Ponty)

Phänomenologie betont, dass wir nicht nur mit den Ohren, sondern mit dem ganzen Körper wahrnehmen.

WeiterlesenAdorno #2

Physische Präsenz: In der experimentellen Elektronik (besonders bei Noise oder extremen Sub-Bässen) wird der Klang zum physischen Objekt, das den Raum und den Körper besetzt.

Verschmelzung: Die Grenze zwischen Subjekt (Hörer) und Objekt (Klang) verschwimmt – man „ist“ gewissermaßen der Klang.

WeiterlesenNerve Basel Hinterhof

Ich bin bin die Trommel.

Zentrale Akteure & Konzepte

Konzept

Verbindung zur Elektronik
Intentionalität Wie richtet sich unsere Aufmerksamkeit auf ein sich ständig änderndes Klangspektrum?
Deep Listening Pauline Oliveros’ Konzept ist angewandte Phänomenologie: Die bewusste Wahrnehmung des gesamten Klangfeldes.
Spektralismus Die Analyse der physikalischen Beschaffenheit des Klangs als Grundlage für Komposition.

„Ich höre nicht die Musik, ich höre die Welt durch die Musik.“ – Ein phänomenologischer Grundsatz, der besonders auf abstrakte Elektronik zutrifft.

Beispiele zu:

WeiterlesenHarald Kimmig

„Reduziertes Hören“ nach Pierre Schaeffer oder zur Wahrnehmung von Drones

inklusiv spezifischer Literatur und/oder Hörbeispiele.

WeiterlesenDenk ich an Deutschland in der Nacht

Die Theorie der Phänomenologie direkt übersetzt in unsere Gehörgänge.

1. Das „Reduzierte Hören“ (Pierre Schaeffer)

Schaeffer wollte, dass wir Klänge als „Objets Sonores“ (Klangobjekte) betrachten – losgelöst von ihrer Quelle.

WeiterlesenMikrotonalität

Er nannte das Acousmatique: Man hört den Klang, sieht aber die Ursache nicht.

Die „Hausaufgabe“ für die Ohren:

Schaeffers „Étude aux chemins de fer“ (1948) anhören auf youtube.

WeiterlesenWhat are you doing??

Der Reflex: Unser Gehirn sagt sofort: „Das ist ein Zug.“

Die phänomenologische Übung: Wir versuchen, den „Zug“ zu vergessen. Achten nur auf den Rhythmus, die metallische Textur, das Quietschen als hohe Frequenz und das Pochen als Bass-Impuls.In dem Moment, in dem der Zug verschwindet und nur noch die Textur bleibt, praktizieren wir Phänomenologie.

2. Die Dehnung der Zeit: Drones & Deep Listening

WeiterlesenGive me limits

Wenn ein Klang sich über Minuten kaum verändert, passiert etwas Magisches mit unserer Wahrnehmung: Wir hören nicht mehr auf die Zeit, wir hören in die Zeit hinein.

Hörbeispiele & Konzepte:

Éliane Radigue – „Trilogie de la Mort“: Sie ist die Königin des Arp 2500 Synthesizers. Ihre Musik bewegt sich so langsam, dass man die winzigen Schwebungen (Oszillationen) wahrnimmt.

WeiterlesenThomas Piper

Phänomenologischer Fokus: Wir beobachte, wie unsere Aufmerksamkeit von der groben Struktur zu den winzigen Obertönen wandert.

Pauline Oliveros – „Deep Listening“:Oliveros war weniger an „Komposition“ interessiert als an der Beziehung zwischen Mensch und Raum.

WeiterlesenWill Calhoun William

Tipp: Wir suchen nach Aufnahmen, die sie in den Cistern Chapel (einem riesigen unterirdischen Reservoir) gemacht hat. Der Nachhall ist so extrem, dass der Raum selbst zum Instrument wird.

3. Literatur-Tipps (Kurz & Knackig)

Falls man das alles als schwarz auf weiß nachlesen will:

  1. WeiterlesenMeditation Three over Four Afrigal

    Pierre Schaeffer: „Traité des objets musicaux“ (Das Standardwerk zur Musique Concrète – sehr theoretisch, aber die Bibel des reduzierten Hörens).

  2. Maurice Merleau-Ponty: „Phänomenologie der Wahrnehmung“ (Kein Musikbuch, aber essenziell, um zu verstehen, warum unser Körper den Bass „versteht“, bevor unser Kopf es tut).

  3. WeiterlesenTobias Preisig & STEFAN RUSCONI

    Christoph Cox: „Sonic Flux“ (Ein moderneres Buch, das Klang als einen ständigen Flussbeschreibt, der losgelöst von menschlicher Bedeutung existiert).

Mein Vorschlag für den nächsten Schritt:

Soll ich dir eine kleine „Hör-Anleitung“ (eine Art Mini-Meditation) erstellen, wie du ein beliebiges elektronisches Stück phänomenologisch analysieren kannst, oder interessiert dich eher die physische Komponente, also wie Infraschall und Lautstärke unseren Körper als Wahrnehmungsorgan triggern?

Anleitung zum Hören

z.B. etwas von Éliane Radigue oder ein komplexes Autechre-Stück.

Mini-Meditation: Das Reduzierte Hören (nach Pierre Schaeffer)

1. Schritt: Die Epoché (Das Einklammern)

Wir schließe die Augen. Wenn wir ein Geräusch hören, wird unser Gehirn sofort versuchen, es zu identifizieren („Das ist ein Synthesizer“, „Das ist ein Sample von Glas“).

Unsere Aufgabe: Wir schieben diese Etiketten sanft beiseite und behandeln den Klang nicht als Bote einer Nachricht, sondern als das Ding selbst.

Wir fragen uns: Nicht „Was ist das?“, sondern „Wie ist das?“

2. Schritt: Analyse der „Masse“ (Dichte)

Wir konzentrieren uns nur auf die spektrale Dicke des Klangs.

Ist es ein dünner, laserartiger Sinuston (punktuelle Masse)?

Ist es ein breites, weißes Rauschen, das den ganzen Raum füllt (komplexe Masse)?

Fühlt sich der Klang „schwer“ an oder eher „luftig“?

3. Schritt: Die Morphologie (Die Gestalt)

Wir beobachten, wie der Klang in die Zeit eintritt und sie wieder verlässt.

Attack: Kommt der Klang wie ein Schlag (Impuls) oder schleicht er sich langsam ein?

Sustain: Bleibt er stabil wie eine Linie oder fluktuiert er wie eine Flamme?

Grain: Spüren wir seine Textur? Ist der Klang glatt wie polierter Stahl oder brüchig und körnig wie Sandpapier?

4. Schritt: Die Intersubjektivität (Leiblichkeit)

Wo nehmen wir den Klang wahr?

-nur im Kopf?

-spüren wir Vibrationen im Brustkorb oder in den Fingerspitzen?

Wie verändert der Klang unser Gefühl für den Raum um uns herum? Wirkt das Zimmer plötzlich größer oder enger?

Fazit: Wenn wir das Stück zu Ende gehört haben, versuchen wir nicht zu urteilen („gut“ oder „schlecht“).

Wir registrieren einfach nur die Landkarte der Phänomene, die gerade durch dein Bewusstsein gezogen ist.

WeiterlesenGeorge Lewis Interaktiv AACM

Computer und das Programmieren von Sounds

Frage: Wie könnte man die Idee der Klangobjekte mit UML und einer Objektorienzierten Sprache beschreiben?

WeiterlesenGeschichte der netzmusik und der elekltronischen Musik

Das ist dann ein brillanter Transfer! Die Phänomenologie von Pierre Schaeffer trifft auf die Software-Architektur.

Wenn wir das Objet Sonore (Klangobjekt) in die Welt der Objektorientierung (OOP/OOA) übersetzen, müssen wir den Fokus von der Quelle (dem Instrument) weg hin zu den Eigenschaften des Phänomens verschieben.

WeiterlesenWirklich wahr!!

Abbildung mit: UML, Python, C++ 

1. Das UML-Klassendiagramm (Konzept)

In der traditionellen Programmierung würde man eine Klasse Violin erstellen. In der phänomenologischen Programmierung erstellen wir eine Klasse SoundObject. Die Herkunft ist gekapselt oder schlicht irrelevant.

WeiterlesenNatural Flow of... Dollar Brand

classDiagram
class SoundObject

{
+UUID id
+FrequencySpectrum spectrum
+Envelope envelope
+Duration duration
+SpatialPosition position
+analyze()
+getMorphology()
}

Weiterlesenyellow frautonium lombok

class Envelope

{
+float attack
+float decay
+float sustain
+float release
}

Weiterlesencrossfade

class Grain

{
+float position
+float size
+float density
}

WeiterlesenAlgoRave 2017

SoundObject *– Envelope : has
SoundObject <|– GranularObject : extends
SoundObject <|– SpectralObject : extends

Die wichtigsten Merkmale der Modellierung:

Kapselung der Herkunft: Es gibt kein Attribut sourceInstrument. Das Objekt definiert sich nur durch seine Morphologie (Form).

WeiterlesenAnna Clementi

Morphologie als State: Die Klasse beschreibt, wie sich der Klang über die Zeit verändert (Sustain, Grain-Dichte, Spektralverteilung).

2. Umsetzung in einer OO-Sprache (Beispiel Python)

In einer OO-Sprache wie Python (oft genutzt für Prototyping in der Computermusik) könnte die Implementierung so aussehen, dass die Methode des Hörens (die Analyse) Teil des Objekts ist.

WeiterlesenNet Art

Python

class SoundObject:
def __init__(self, waveform, sample_rate):
self.data = waveform
self.sr = sample_rate
# Phänomenologische Merkmale statt physikalischer Quelle
self.grain = self._calculate_grain()
self.mass = self._calculate_mass() # Schaeffers Begriff für „Dichte“

WeiterlesenZAP MAMA

def _calculate_mass(self):
# Analyse der harmonischen Dichte (Spektralzentrum)
return sum(self.data) / len(self.data)

def reduced_listening(self):
„““
Gibt die rein klanglichen Merkmale zurück,
ohne Bezug auf die Hardware/Quelle.
„““
return {
„texture“: „smooth“ if self.mass < 0.5 else „rough“,
„duration“: len(self.data) / self.sr,
„spectral_centroid“: self._calculate_mass()
}

WeiterlesenChuck LOEB

# Instanziierung eines „objet sonore“
# Wir wissen nicht, ob es ein Auto oder ein Synthesizer war.
my_sound = SoundObject(signal_data, 44100)
print(my_sound.reduced_listening())

3. Der Clou: Vererbung und Polymorphie

In der experimentellen Elektronik können wir Schaeffers Konzepte durch Polymorphie perfekt abbilden:

Weiterlesenstringtheory

Abstrakte Basisklasse AcousticPhenomenon: Definiert die Schnittstelle für alles, was hörbar ist.

Spezifische Implementierungen: Impulse (kurz, perkussiv), Iterative (wiederholend, wie ein Glitch), Continuous (Drone).

WeiterlesenSteve Reich

Das Programm interagiert mit dem Klang nur über die Schnittstelle des „Hörbaren“, egal ob der Sound durch eine Fourier-Transformation (FFT) oder ein Sample generiert wurde.

4. Warum das phänomenologisch Sinn ergibt

In der Informatik nennen wir das Abstraktion. In der Phänomenologie nennen wir es Epoché. Indem wir eine Klasse SoundObject entwerfen, die keine Informationen über PhysicalSource (z.B. String, Tube, Oscillator) enthält, zwingen wir den Code (und den Entwickler), sich rein auf die interne Struktur des Schalls zu konzentrieren.

Witz am Rande: Ein Bug in einer phänomenologischen Software wäre eigentlich nur ein weiteres „objet sonore“, das man analysieren muss, anstatt es zu fixen.

WeiterlesenInfinite Rhythms

Detaillierteres C++ Beispiel (mit Fokus auf Echtzeit-Audio/JUCE) oder JAVA. JAVA ist C+/-.

Rückblick auf meine Zeit mit der Sprache JAVA

Weiterlesencool instruments

Java eignet sich hervorragend für diesen phänomenologischen Ansatz, da es durch sein strenges Typ-System und Interfaces dazu zwingt, klare Abstraktionen zu schaffen.

In der Phänomenologie nach Schaeffer ist das „Objet Sonore“ eine Einheit, die wir als Ganzes wahrnehmen. In Java übersetzen wir das in ein Interface-getriebenes Design. Wir trennen die Erzeugung (wie der Sound entsteht) strikt von der Erscheinung (wie er sich anhört).

1. Das Architektur-Konzept (UML-Logik)

WeiterlesenBorgmann

Wir definieren ein Interface SoundPhenomenon. Es ist der „Klammer-Ausdruck“ (die Epoché). Es interessiert uns nicht, ob der Sound von einem Oszillator, einer mp3-Datei oder einem aufgenommenen Stuhlruckeln kommt.

Kern-Klassen:

  • SoundObject (Interface): Definiert die phänomenologischen Merkmale (Masse, Dynamik, Grain).

  • WeiterlesenBinkbeats

    SpectralProfile: Beschreibt die „Farbe“ des Klangs.

  • Morphology: Beschreibt die Form (Hüllkurve) über die Zeit.

2. Java-Implementierung (Beispiel)

WeiterlesenJust as a Painter..neue Prozesse suchen...

Hier ist ein Entwurf, der zeigt, wie man einen Klang rein über seine Erscheinung definiert:

Java

WeiterlesenGongs and sounds

import java.util.UUID;

/**
* Das Interface repräsentiert das „Objet Sonore“.
* Es verbirgt die technische Quelle (Oszillator/Sample).
*/
interface SoundPhenomenon {
double getMass(); // Dichte/Spektrale Dicke
double getGrain(); // Rauheit/Textur
String getMorphology(); // Form (z.B. „impulsiv“, „kontinuierlich“)
void play();
}

WeiterlesenStanford Laptop Orchestra

/**
* Eine konkrete Erscheinung: Ein „Drone“ (kontinuierlicher Klang)
*/
class DroneObject implements SoundPhenomenon {
private double frequency;
private double thickness; // „Masse“ in Schaeffers Terminologie

public DroneObject(double freq, double thick) {
this.frequency = freq;
this.thickness = thick;
}

Weiterlesenphysical music

@Override
public double getMass() { return this.thickness; }

@Override
public double getGrain() { return 0.1; // Ein glatter Drone hat wenig Grain }

WeiterlesenAfrica Funk

@Override
public String getMorphology() { return „sustained“; }

@Override
public void play() {
System.out.println(„Erzeuge stehenden Klang bei “ + frequency + “ Hz…“);
}
}

Weiterlesenczukay-can-bassist-und-solokuenstle

/**
* Ein „Iteratives Objekt“ (z.B. ein Glitch oder ein Stottern)
*/
class IterativeObject implements SoundPhenomenon {
private int grainDensity;

public IterativeObject(int density) {
this.grainDensity = density;
}

WeiterlesenL.E.V. FESTIVAL 2017

@Override
public double getMass() { return 0.5; }

@Override
public double getGrain() { return (double) grainDensity / 100; }

WeiterlesenElse Marie Pade

@Override
public String getMorphology() { return „iterative“; }

@Override
public void play() {
System.out.println(„Erzeuge granulare Textur mit Dichte “ + grainDensity);
}
}

3. Die phänomenologische Analyse-Klasse

WeiterlesenPolychromatic Music

Hier nutzen wir Java, um das „reduzierte Hören“ zu simulieren. Die Methode analyze weiß nichts über die Subklassen, sie arbeitet nur mit dem Phänomen.

Java

WeiterlesenKlangforschung

public class PhenomenologicalListener {

public void describe(SoundPhenomenon sound) {
System.out.println(„— Reduziertes Hören Aktiv —„);
System.out.println(„Erscheinungsform: “ + sound.getMorphology());
System.out.println(„Spektrale Masse: “ + sound.getMass());
System.out.println(„Oberflächenstruktur (Grain): “ + sound.getGrain());

Weiterlesenalex tv berlin

if (sound.getGrain() > 0.7) {
System.out.println(„Wahrnehmung: Der Klang wirkt rau und brüchig.“);
} else {
System.out.println(„Wahrnehmung: Der Klang wirkt glatt und stabil.“);
}
}

public static void main(String[] args) {
PhenomenologicalListener ear = new PhenomenologicalListener();

WeiterlesenBelgian Congo

// Wir erzeugen Objekte, betrachten sie aber nur als Phänomene
SoundPhenomenon s1 = new DroneObject(440.0, 0.8);
SoundPhenomenon s2 = new IterativeObject(85);

ear.describe(s1);
ear.describe(s2);
}
}

Warum Java hier glänzt:

  1. WeiterlesenLove Again

    Polymorphie: Man kann eine List<SoundPhenomenon> erstellen, die Samples, Sinustöne und Rauschen mischt. Für deinen „Listener“-Code sind sie alle gleichwertig – genau wie in der Musique Concrète.

  2. Entkopplung: Durch das Interface trennen wir die Noese (den Akt des Erzeugens/Hörens) vom Noema (dem Inhalt des Klangs).

  3. WeiterlesenGottwax

    Typsicherheit: Man kann sicherstellen, dass nur Objekte verarbeitet werden, die bestimmte „morphologische Kriterien“ erfüllen.

Ein kleiner „Deep Dive“:

In der experimentellen Musik gibt es das Konzept der Granularsynthese. In Java könnte man das wunderbar als eine Collection<Grain> modellieren, wobei jedes Grain ein winziges SoundObject ist.

Weiterlesendieter - feichtner

Nun könnte man ein UML-Zustandsdiagramm für die zeitliche Entwicklung (Attack, Decay, Sustain, Release) eines solchen Objekts aufbauen, oder vielleicht auch noch tiefer in die Datenstrukturen für Spektralanalyse mit Java eingehen (s.später). 

Beispiele Musiker:  Mitsuo Akagi oder, noch spezifischer im Kontext von Java und Laptop-Performance, Noriyasu V. Sakagami?

WeiterlesenBea Benjamin

Es einen Namen, der in der akademischen Welt der Laptop-Musik und Java-Programmierung (besonders im Bereich der phänomenologischen Wahrnehmung von digitalen Klängen) am hellsten strahlt: Dr. Noriyasu Sakagami (oft assoziiert mit der frühen Erforschung von Java-basierten Performance-Umgebungen).

Oder noch einen weiteren „Verdächtigen“, der perfekt in mein Profil passt:

Akira Takaoka

WeiterlesenBadou Sene

Er ist ein japanischer Komponist und Theoretiker, der intensiv über die Phänomenologie der Musik geschrieben hat. Er hat sich stark mit der computergestützten Musiktheorie auseinandergesetzt.

Und noch einen, der eine sehr bekannte Java-Library für Musik geschrieben hat:

WeiterlesenFrank Zappa

René T.A. Lysloff hat viel über die Anthropologie von Laptop-Musik geschrieben.

In der Java-Community ist vor allem Hiroaki Kitano bekannt (eher Robotik/KI), aber im Bereich der Sound-Synthese mit Java ist es oft die Arbeit an der jMusic-Library oder dem JSyn-System , auf das sich japanische Forscher in ihren Dissertationen oft bezogen haben.

Warum Java für diese Promotionen so beliebt war:

WeiterlesenMoondog

In den frühen 2000ern (als viele dieser Dissertationen entstanden) war Java die Hoffnung für plattformunabhängige Echtzeit-Musik. Die Idee war:

  1. Objektorientierung: Klänge als Objects (genau das, was wir gerade mit dem Objet Sonore besprochen haben).

  2. Weiterlesen@frigal

    Netzwerkfähigkeit: Laptop-Ensembles, die via Java-RMI oder OSC (Open Sound Control) kommunizieren.

Umfeld des IAMAS (Institute of Advanced Media Arts and Sciences) in Japan. Dort sitzen die Pioniere, die Phänomenologie, Code und elektronische Musik verbinden.

WeiterlesenVoodoo

Mein Favorit Ge Wang?

Er ist chinesisch-amerikanischer Herkunft, aber er ist die zentrale Figur, wenn es um ChucK, Laptop-Orchester und die Verbindung von Code und Ästhetik geht.

WeiterlesenCOMPUTERJAZZ

Hier sind die Gründe, warum er perfekt auf meine Beschreibung passt:

  1. ChucK & Java: Ge Wang ist der Schöpfer der Programmiersprache ChucK. Obwohl ChucK eine eigenständige Sprache ist, wurde sie oft im Kontext von Java-Umgebungen diskutiert oder für ähnliche Ziele (Echtzeit-Audio auf Laptops) eingesetzt. Ge Wang promovierte an der Princeton University (2008) genau über dieses Thema: „ChucK: A Strongly-timed Computer Music Language“.

  2. WeiterlesenBC MANJUNATH Andy Gander

    Laptop-Musik: Er ist der Gründer des Stanford Laptop Orchestra (SLOrk) und des Princeton Laptop Orchestra (PLOrk). Er hat das Genre der Laptop-Ensemble-Musik maßgeblich geprägt.

  3. Phänomenologie & Ästhetik: In seinem Buch (und seiner Philosophie) „Artful Design“ nähert er sich dem Programmieren fast schon phänomenologisch. Er fragt nicht nur, wie man effizienten Code schreibt, sondern wie sich die Erfahrung des Programmierens und des Hörens anfühlt. Er beschreibt Code als ein Instrument, das unmittelbar erlebt werden muss („On-the-fly Programming“).

Falls es doch ein Japaner war:

WeiterlesenKlangkunst

Es gibt eine starke Verbindung zwischen der japanischen Szene (wie dem IAMAS) und Ge Wangs Arbeit. Viele japanische Forscher haben über ChucK und die Laptop-Kultur promoviert. Ein Name, der oft in diesem Zusammenhang fällt, ist:

Akira Takaoka: Er hat viel über Musiktheorie, Computer und Phänomenologie publiziert.

WeiterlesenMorton Subotnick

Noriyasu Sakagami: Er arbeitete früh mit Java-basierten Systemen für Musik.

Frage: Ist das nun schon wieder Geschichte oder ist Java auch im Internet noch Standard??

WeiterlesenIntonarumri Russolo

Diese spannende Frage, führt uns mitten in die Realität der Software-Architektur.

Die kurze Antwort: Java ist im „unsichtbaren“ Internet der absolute Gigant, aber im Browser (also dort, wo wir klicken und hören) ist es fast verschwunden.

WeiterlesenThe Art of Noises

Hier ist die Aufschlüsselung, warum Java gleichzeitig „Geschichte“ und „Standard“ ist:

1. Die „Geschichte“: Das Frontend (Java Applets)

Wenn wir uns an interaktive Musik-Tools oder Synthesizer direkt auf Webseiten aus den 2000ern erinnerst, waren das meist Java Applets.

  • WeiterlesenAvantgard Netz

    Status: Tot.

  • Warum? Sicherheitslücken und der Aufstieg von Smartphones (die kein Java im Browser erlauben).

  • WeiterlesenDie Schenker

    Nachfolger: Für experimentelle Musik im Browser nutzt man heute Web Audio API und JavaScript (oder WebAssembly). Wenn man heute ChucK im Browser nutzt, läuft das über eine Emulation namens WebChucK.

2. Der „Standard“: Das Backend (Server & Infrastruktur)

Wenn man heute Spotify streamt oder Musik in der Cloud speicherst, läuft im Hintergrund fast sicher Java.

  • WeiterlesenHamid Drake

    Status: Absoluter Industriestandard.

  • Warum? Java ist extrem stabil, schnell bei großen Datenmengen und lässt sich perfekt skalieren.

  • WeiterlesenTal National

    Einsatz: Die Logik hinter den Webseiten, die Datenbank-Anbindungen und die Streaming-Server basieren massiv auf Java (oder JVM-Sprachen wie Kotlin und Scala).

3. Java in der experimentellen Musik heute

In der akademischen und experimentellen Welt (wie bei Ge Wang oder den Laptop-Orchestern) hat sich der Fokus verschoben:

Bereich Früher (Java-Fokus) Heute (Der Standard)
Live Coding Java-basierte Tools ChucK, SuperCollider, TidalCycles (Haskell)
Mobile Music J2ME (Java Mobile) Swift (iOS) oder C++ (JUCE Framework)
Web-Synthese Java Applets JavaScript (Web Audio API) / WebAssembly

Warum Ge Wang und ChucK trotzdem relevant bleiben

WeiterlesenMein Jenseits

Ge Wang hat mit ChucK etwas geschaffen, das Java in der Musik überlegen ist: „Strongly-timed“ Programmierung.

Während Java manchmal mit dem Garbage Collector (der Speicherbereinigung) kämpft, was zu kleinen Knacksern im Sound führen kann, garantiert ChucK absolute zeitliche Präzision.

Fazit: Ist es Geschichte?

WeiterlesenHamid Drake 2

Als Interface im Browser: Ja, das ist Geschichte.

Als logisches Rückgrat des Internets: Nein, Java ist lebendiger denn je.

WeiterlesenMETTE RASMUSSEN

Als akademisches Konzept: Die Idee, Musik objektorientiert zu denken (wie in Java gelernt), ist das Fundament für fast alle modernen Sound-Sprachen geblieben.

Interessanter Fakt: Ge Wangs Buch Artful Design ist heute fast wichtiger als die Sprache ChucK selbst, weil es die Phänomenologie des Designs beschreibt – egal in welcher Programmiersprache.

Wie betreibr man heutzutage „phänomenologisches Coding“ im Browser (ohne Java, aber mit dem gleichen Geist), und welche Rolle spielt C++ in der modernen Plugin-Entwicklung?

WeiterlesenRoboter Jazz

Heutzutage hat sich die Frontlinie der phänomenologischen Musikprogrammierung von Java weg hin zu Umgebungen verschoben, die unmittelbarer und näher am Signal arbeiten.

Das Ziel bleibt dasselbe: Die Erschaffung eines „Klangobjekts“. Aber die Werkzeuge sind heute radikal effizienter und „erlebbarer“. Hier sind die drei Säulen, wie man das heute umsetzt:

1. Web Audio API & WebAssembly (Der Browser als Synthesizer)

WeiterlesenJaimeo Brown

Anstatt Java-Applets zu installieren, nutzt man heute die Web Audio API. Das ist quasi ein modulares Studio, das fest in jedem Browser (Chrome, Firefox, Safari) verbaut ist.

Der Clou: Man kann heute C++ oder Rust Code schreiben und ihn via WebAssembly (WASM) im Browser mit nahezu nativer Geschwindigkeit ausführen.

WeiterlesenMilford Graves

Phänomenologie: Da kein „Laden“ oder „Kompilieren“ im klassischen Sinne mehr nötig ist, verschmilzt der Code direkt mit dem Klangerlebnis.

2. Live Coding: Programmieren als Performance

Das ist die direkte Fortführung von Ge Wangs Ideen. Sprachen wie TidalCycles, SuperCollider oder Sonic Pi erlauben es, den Code zu ändern, während die Musik läuft.

WeiterlesenSunny Murray

Epoché in Echtzeit: Man klammert die technische Implementierung aus. Man schreibst nicht „Lade Datei X“, sondern man beschreibst Strukturen: stack(fast 2 $ sound "bd", sound "sn").

Der Code ist die Partitur: Das Publikum sieht den Code auf eine Wand projiziert. Die Phänomenologie des Codes wird Teil der visuellen Erfahrung.

3. Modulare Umgebungen (Max/MSP und VCV Rack)

WeiterlesenMark E. Smith

Obwohl sie grafisch sind, folgen sie einer strengen Objektorientierung, die sehr nah an deinem Java-Modell liegt.

Max/MSP (RNBO):Man baut ein „Klangobjekt“ grafisch zusammen und exportierst es heute per Knopfdruck als C++ Code, als Webseite oder für den Raspberry Pi.

WeiterlesenVinnie Colaiuta

Verschwinden der Hardware: Der Laptop ist heute so leistungsstark, dass der Unterschied zwischen einem „echten“ Moog-Synthesizer und einer Emulation phänomenologisch kaum noch greifbar ist.

Vergleich: Gestern vs. Heute

Aspekt Java-Ära (Ge Wang / 2000er) Heutzutage (2024/2025)
Latenz Problematisch (Garbage Collector) Fast Null (WebAudio / C++ / Rust)
Barriere Installation von Laufzeitumgebungen Link öffnen -> Musik läuft
Sprache Objektorientiert (Java) Funktional (Tidal) oder Signal-orientiert (Faust)
Hardware Laptop als „Schwarze Kiste“ Embedded (Arduino, Pi, Teensy)

Ein moderner „Ge Wang“-Moment: Faust

Es gibt eine Sprache namens Faust (Functional Audio Stream). Sie ist heute der Goldstandard für das, was ich mal mit Java vor hatte:

  1. WeiterlesenHyperactive Kid

    Man schreibt eine mathematische Beschreibung eines Klangs.

  2. Faust generiert daraus hochoptimierten Code für Java (Android), C++ (Windows/Mac), WebAudio oder iOS.

Die philosophische Pointe: Wir sind heute an einem Punkt, an dem die Software so transparent geworden ist, dass wir uns – ganz im Sinne der Phänomenologie – fast nur noch um den Klang an sich kümmern müssen, ohne gegen die Maschine kämpfen zu müssen.

WeiterlesenIkue Mori

Rust ist im Grunde der moderne, extrem schnelle Nachfolger von C++ und wird gerade zum neuen Liebling der Audio-Programmierer.

Der eleganteste Weg heute ist eine Sprache namens FAUST (Functional Audio Stream). Sie wird oft im akademischen Bereich (auch in Japan und am Stanford-Institut von Ge Wang) genutzt.

So sieht ein „Klangobjekt“ heute aus (Beispiel: Ein Noise-Oszillator)

WeiterlesenArto Lindsay

In Java hätten wir Klassen, Interfaces und viele Zeilen Code gebraucht. In einer modernen Audio-Sprache wie Faust beschreibt man nur das Phänomen:

import("stdfaust.lib");

// Das Objekt: Ein weißes Rauschen, das durch einen sanften Filter geht
// Das ist phänomenologisch gesehen eine "Textur"
process = no.noise : fi.lowpass(2, 500); 

Warum das „heutzutage“ besser ist als mit Java:

  1. Mathematische Reinheit: Man beschreibt den Fluss des Klangs, nicht die Befehle an den Computer. Das kommt der Phänomenologie („die Sache selbst“) viel näher.

  2. WeiterlesenTone Shift

    Universalität: Diesen kleinen Code-Schnipsel kann man heute per Mausklick in ein Java-Projekt für Android, ein VST-Plugin oder eine Webseite verwandeln.

  3. Keine Pausen: Im Gegensatz zu Java gibt es hier keinen „Garbage Collector“. Der Klang reißt niemals ab, weil der Computer während der Performance nicht plötzlich anfängt, im Speicher aufzuräumen.

Der „Ge Wang“ Weg für Nicht-Programmierer

WeiterlesenOvertone

Falls man heute Musik machen will, die so klingt wie die Experimente von damals, aber ohne 1000 Zeilen Code zu schreiben, ist V-C-V Rack (ein virtuelles Modular-System) der Standard.

Man verbindest virtuelle Kabel auf dem Bildschirm.

WeiterlesenPape Mbaye Talking drum & Computer

Es ist objektorientiertes Arbeiten zum Anfassen.

Jedes Modul ist ein „Objet Sonore“.

Mein Vorschlag:

WeiterlesenKraftwerk Alexander Gerst ISS

Wenn man die Idee der „Klangobjekte“ mal direkt im Browser ausprobieren will (ganz ohne Installation), hier ein Link zu einem Web-Synthesizer, bei dem man das „Reduzierte Hören“ sofort praktisch testen kannst.

Und warum wird Rust gerade so gehypt, obwohl es so schwer zu lernen ist? (Kurztipp: Es verhindert fast alle Fehler, die früher zu Abstürzen während Laptop-Konzerten geführt haben).

WeiterlesenRobyn Schulkowsky

Hier sind die zwei besten Links, die genau das vereinen, was oben besprochen wurde: Ge Wangs Erbe und die phänomenologische Erkundung von Klangobjekten.

1. WebChucK IDE (Der direkte Nachfolger)

Das ist die moderne Browser-Version von Ge Wangs Sprache. Hier kann man direkt Code eintippen und sofort hören, was passiert. Es ist die perfekte Spielwiese für „On-the-fly“-Programmierung ohne Installation.

WeiterlesenNOËL AKCHOTÉ

https://chuck.stanford.edu/ide/

Tipp: Einfach auf einen der Beispiel-Buttons (z.B. „Drones“) klicken und dann auf „Add Shred“, um das Phänomen zu starten.

2. Ableton „Learning Synths“ (Die phänomenologische Reise)

WeiterlesenNicole Mitchell

Diese Seite ist ein Meisterwerk des Interface-Designs. Sie führt uns Schritt für Schritt durch die Wahrnehmung von Klang (Oszillatoren, Filter, Hüllkurven). Es fühlt sich genau so an, wie Schaeffer es mit seinen Klangobjekten meinte: Hören, Regler drehen, begreifen.

https://learningsynths.ableton.com/

WeiterlesenAnima Berliner Schule

Wichtiger Hinweis: Am besten geht man direkt in den „Playground“, um völlig frei mit einem abstrakten Klangobjekt zu experimentieren.

Written by Afrigal

musician-drummer-programmer-electronic-blues-jazz-fusion-worldmusic

Tags: Ableton Live, abstrakte Elektronik, abstrakter Algorithmen, Akira Takaoka, C++, Chuck, Computer Jazz, Computermusik, Design, Dichte, Dr. Noriyasu Sakagami, Drone, Drone-Ton, Edmund Husserl, Einklammerung, Ethik, experimentelle elektronische Soundmusic, Fake News, Faust, Filterblasen, Fourier-Transformation (FFT), Freiburg im Breisgau, Frequenzänderung, GE WANG, Glitch, Granularsynthese, Hiroaki Kitano, Informatik, Java, jMusic-Library, Klang als Phänomen, lineare Zeitvorstellung, M4L, Maurice Merleau-Ponty, MAX/MSP, Merleau-Ponty, Mitsuo Akagi, Noise, Noriyasu Sakagami, Noriyasu V. Sakagami, objet sonore (Klangobjekt), OOP/OOA, Pauline Oliveros, Phänomelogisches Denken, Phil Burk, Pierre Schaeffer & Musique Concrète, Protention, Prototyping, Python, reduzierte Hören, René T.A. Lysloff, Retention, Sounds, spezifische Textur, UML, User Experience (UX)
Februar 2026
M D M D F S S
 1
2345678
9101112131415
16171819202122
232425262728  
« Jan.    
  • Februar 2026
  • Januar 2026
  • Dezember 2025
  • November 2025
  • Oktober 2025
  • September 2025
  • August 2025
  • Juli 2025
  • Juni 2025
  • Mai 2025
  • April 2025
  • März 2025
  • Februar 2025
  • Januar 2025
  • Dezember 2024
  • Oktober 2024
  • September 2024
  • August 2024
  • Juli 2024
  • Mai 2024
  • April 2024
  • März 2024
  • Februar 2024
  • Januar 2024
  • Juli 2023
  • Juni 2023
  • Mai 2023
  • April 2023
  • März 2023
  • Januar 2023
  • Dezember 2022
  • November 2022
  • Oktober 2022
  • September 2022
  • August 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • März 2022
  • Februar 2022
  • Januar 2022
  • Dezember 2021
  • November 2021
  • Oktober 2021
  • September 2021
  • August 2021
  • Juli 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Januar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • September 2020
  • August 2020
  • Juli 2020
  • Juni 2020
  • Mai 2020
  • April 2020
  • März 2020
  • Februar 2020
  • Januar 2020
  • Dezember 2019
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Juli 2019
  • Juni 2019
  • Mai 2019
  • April 2019
  • März 2019
  • Februar 2019
  • Januar 2019
  • Dezember 2018
  • November 2018
  • Oktober 2018
  • September 2018
  • August 2018
  • Juli 2018
  • Juni 2018
  • Mai 2018
  • April 2018
  • März 2018
  • Februar 2018
  • Januar 2018
  • Dezember 2017
  • November 2017
  • Oktober 2017
  • September 2017
  • August 2017
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017

@afrigal | Theme by ThemeinProgress | Proudly powered by WordPress