Oktober 26th, 2021 by Afrigal

udo matthias drums electronic software

 

 

 

Matthew Herbert

Matthew Herbert auf der Bühne (imago images / Horst Rudel)

Matthew Herbert veröffentlichte 1996 sein erstes Album, 100 Lbs, das „frühe 12“ aus einer Zeit sammelt, als Herbert sehr viel ein „Tanzmusik“-Produzent war“. , das Tanzbeats, Klänge von alltäglichen Küchengegenständen und Gesang mischte. In den späten Neunzigern remixte Herbert Tracks für Tanzkünstler wie Moloko, Motorbass, Alter Ego und andere (Viele davon wurden später auf Secondhand Sounds gesammelt: Herbert Remixes.) Er nahm auch Singles, EPs und Alben unter verschiedenen Decknamen (Doctor Rockit, Radio Boy, Mr. Vertigo und Transformer) sowie unter seinem eigenen Namen auf.

 

 

Im Jahr 2000 schrieb Herbert ein Manifest mit dem Titel Personal Contract for the Composition of Music (Incorporating the Manifest of Mistakes), das als theoretischer Leitfaden für viele seiner späteren Arbeiten diente. Zu seinen Zielen gehört ein persönliches Verbot der Verwendung von Drum-Machines und bereits vorhandenen Samples und die Gewährleistung, dass alles, was im Studio erstellt wurde, in Live-Performances repliziert werden kann.

Viele seiner weniger tanzorientierten Projekte (vor allem diejenigen, die nicht unter dem Namen Herbert aufgenommen wurden) greifen politische Anliegen auf und verwenden spezifische Objekte, um ein konzeptuelles Stück zu schaffen. Sein 2001-Projekt als Radio Boy, The Mechanics of Destruction, sampelte Waren von McDonald’s und The Gap als Protest gegen den Globalismus der Konzerne. Es wurde als kostenloser MP3-Download, über Konzerte und per Post von Accidental Records zur Verfügung gestellt.

 

2005 veröffentlichte Herbert das Album Plat du Jour unter seinem richtigen Namen Matthew Herbert. Die Disc befasst sich mit der kommerziellen Lebensmittelproduktion und -vermarktung.

Im Februar 2006 half Herbert beim Aufbau der virtuellen Community Country X. In einer Einführung auf der Website schreibt er: „Warum nicht ein Land gründen? Nur diesmal ein virtuelles. Frei von der Notwendigkeit, seine Grenzen physisch zu verteidigen, können wir die Gewalt der Ausgrenzung reduzieren. Eine neue Beschreibung des Widerstands. “

Herbert teilte in einem Artikel für das britische Musikmagazin Clash einige seiner Gedanken über die Zukunft mit und schrieb: „Wir stehen vor einem perfekten Sturm der Scheiße: globaler Finanzkrise, massive Klimaveränderungen und das Ende des Öls.“

 

 

 

 

 

Posted in Experimentelle Musik, Improvisierte Musik, Sound Art Tagged with: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

März 15th, 2021 by Afrigal

udo matthias drums electronic software

 

Composing Noise

Lärm Komponieren
Jae Ho Chang

Übersetzung Udo Matthias

 

Im Allgemeinen wird Rauschen häufig als unerwünschtes Geräusch definiert. Typischerweise kann dies verschiedenes sein.
Maschinengeräusche aus einem Baugebiet, das Geräusch eines Zuges, der in der Nähe Ihres Hauses vorbeifährt, laute Rock’n’Roll-Musik aus der Nachbarschaft, das plötzliche Klingeln eines Telefons in der Nacht. Alle diese Geräusche können als ‚Rauschen‘ bezeichnet werden, dies ist jedoch für unseren Zweck unbefriedigend.

Die Definition von Lärm in Bezug auf die Akustik unterscheidet sich von dieser allgemeinen. Während die allgemeine Definition subjektiv und umständlich ist, ist die akustische objektiv und bedingungslos.
In diesem Kapitel werden die Definitionen in drei Bereichen beschrieben. Der erste und der zweite sind die Zeitbereich bzw. Frequenzbereich, welche die zwei der wichtigsten im
Bereiche der Akustik sind. Die dritte, die musikalische Domänendefinition, beschreibt, wie das Rauschen als akustische Definition als musikalisches Material verwendet wird und wie es sich zu anderen Klänge eines Komponisten unterscheidet. Da die Rolle des Rauschens in einer Musik vom Komponisten abhängt , z.B. als subjektives oder ästhetisches Konzept, sollte man nach der eigenen Definition des Komponisten in seiner oder ihren Arbeiten jenseits der akustischen Definitionen suchen.

Zeitbereichsdefinition

Im Zeitbereich kann Rauschen als Schall definiert werden, bei dem sich die Amplitude über der Zeit ändert und zwar einem gewissen Grad an Zufälligkeit. Wenn der Grad maximal ist, ist das Rauschen vollständig aperiodisch und wird zu einem „perfekten“ Rauschen (sogenanntes weißes Rauschen), bei dem die Amplitude eines beliebigen Momentes in keiner sinnvollen Weise mit einem anderen verbunden ist. Vielleicht existiert dieses „perfekte“ Geräusch gar nicht, weil die meisten Klänge mehr oder weniger Korrelationen in sich haben. Weil der Grad dieser Korrelation oder der Zufälligkeit, das Timbre oder die Farbe des Rauschens variieren lässt.
Der Zeitbereich ist sehr interessant für die Rauschsynthese, insbesondere für die Herstellung eines abstrakten Modells der Rauschsynthese. Die in diesem Artikel beschriebenen Techniken haben ihre eigenen Methoden zur Erzeugung von Rauschen im Zeitbereich.
Diese Domäne ist jedoch bei der Analyse von Schall nachteilig; das heißt, es ist sehr schwierig die Unterscheidung zwischen Rauschen und Nicht-Rauschen durch Betrachten der Zeitbereichs Darstellung zu geben. Es gibt eine Möglichkeit, den Klang im Zeitbereich durch Zeichnen der zu analysieren Amplitudendichteverteilung zu beschreiben. Wir können sagen, dass ein Ton weißes Rauschen ist, wenn die Amplitude der Wahrscheinlichkeitsverteilung des Klangs eine Gaußsche Form hat. Aber das reicht nicht aus etwas über die Eigenschaft des Rauschens auszusagen, weil einige Arten von Rauschen wie ‚binäres Rauschen‘ sehr
unterschiedliche Formen der Amplitudenwahrscheinlichkeitsverteilung haben (Tempelaars 1996).

Frequenzbereichsdefinition

Im Frequenzbereich kann Rauschen als Schall mit kontinuierlicher Leistungsdichte über einen bestimmten Frequenzbereich definiert werden. Wenn die Leistungsdichte aller Frequenzen gleich ist, nennen wir es weißes Rauschen. Die Leistungsdichte von rosa Rauschen aber nimmt mit um 3 dB pro Oktave ab.
Die Frequenz steigt und die des braunen Rauschens nimmt um 6 dB pro Oktave ab

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bild oben: Rauschen im Zeitbereich (links) und deren Dichte im Frequenzbereich
(richtig). (a) Weißes Rauschen, (b) Rosa Rauschen, (c) Braunes Rauschen.

Der Frequenzbereich hat den Vorteil, dass er die Eigenschaften eines Rauschens
ziemlich klar zeigt. Wenn wir sehen, dass die Leistungsdichte über einen bestimmten Frequenzbereich kontinuierlich ist, können wir erkennen, dass der Ton ein Rauschelement hat.

Noise wurde von Komponisten gemäß ihrer Philosophie häufig gemeinsam mit den oben beschriebenen grundlegenden akustischen Definitionen neu definiert.
Für Stockhausen ist Lärm jede Art von Klang. Ein perfekt periodischer Sound, wie z.B.
eine Sinuswelle ist somit der Extremfall von Rauschen.

Dies könnte die vernünftigste (und allgemeinste) Definition im musikalischen Bereich, da die meisten Klänge einen Aspekt des Geräusches im Sinne der Akustik beinhalten.

Auch für Xenakis ist Lärm eines der wichtigsten Elemente der Musik. Er überlegte, dass „reine“ elektronische Klänge von Frequenzgeneratoren erzeugt, unnatürlich sind. Er sagte, dass nur wenn sie von anderen „konkreten“ Geräuschen umrahmt werden, die aus der realen Welt aufgenommen wurden,  die elektronische Geräusche mächtig werden können.
In Koenigs SSP (Sound Synthesis Program) gibt es gar keine Definition von Rauschen, weil der Komponist der sie entwirft nicht die spektralen Komponenten des Klangs, sondern wählt die Regeln für direktes Erzeugen von Klangbeispielwerten im digitalen Zeitbereich verwendet. Der Komponist kann aber natürlich den Grad des Rauschens steuern, indem er verschiedene Funktionen auswählt, welche verschiedene Grade der Zufälligkeit oder Wiederholung besitzen. Die Definition von Rauschen in SSP hängt daher von der Wahrnehmung des Komponisten ab.

 

Fazit

Rauschkomponenten in einem Sound werden oft von periodischen unterschieden und werden manchmal als nichtmusikalische Elemente betrachtet. Es wurde viel Forschung zur Geräuschreduzierung betrieben (Harris 1957).

Periodische Komponenten eines Klangs stehen typischerweise im Mittelpunkt von Schallanalysetechniken wie z.B. als Fourier-Transformation und McAulay-Quatieri (MQ) -Analyse (McAulay und Quateri 1985).
Klangsynthesetechniken wie die additive Synthese und die Frequenzmodulation
konzentriert sich auch auf periodische Komponenten.
Ein interessanter Klang enthält jedoch normalerweise sowohl periodische Komponenten als auch Rauschkomponenten, deren Grad sich im Laufe der Zeit mehr oder weniger ändern. Es hat wenig Sinn, zu behaupten,
ein Ton ist Lärm und der andere nicht. Genauer ist, dass ein Ton einen
größerern Grad an Lärm hat als ein anderer.

Daher können Klänge alle möglichen Grade an Zufälligkeit oder Korrelation (oder einfach gesagt, Periodizität) haben, einschließlich Sinuswellen und weißem Rauschen, die man als Musikmaterial verwenden kann.

Eine kurze Geschichte des Rauschens

Wo immer wir sind, hören wir meistens Lärm. Wenn wir es ignorieren, stört es uns. Wenn wir es hören, finden wir es faszinierend. Das Geräusch eines Lastwagens mit 50 km/h. Regen. Statisch zwischen den Stationen. Wir wollen  diese Sounds erfassen und steuern, um sie nicht als Soundeffekte, sondern als zu verwenden Musikinstrumente.

John Cage (1967)

Vielleicht ist es schon sehr lange her, dass Menschen die potenzielle Kraft und Schönheit des Lärms fanden.
Bis zum 20. Jahrhundert wurde Lärm jedoch als musikalisches Element abgelehnt oder gelegentlich nur als Soundeffekt verwendet. Anfang des 20. Jahrhunderts, fingen Komponisten an,  dem Krach Aufmerksamkeit zu schenken.
Einige Komponisten betonten Rauschelemente in herkömmlichen Instrumenten oder verwendeten sie als extrem dissonante Akkorde in ihrer Arbeit. Es gab auch Komponisten wie Luigi Russolo, die speziell für innovative Geräuschinstrumente komponierten, die er selbst hergestellt hat.

Heute kann jeder mit MAXMSP eigene Instrumente ganz nach Belieben bauen. (Anm. d. Übersetzers)
Die Verfügbarkeit elektronischer Geräte ab etwa 1950 gab den Komponisten mehr
Möglichkeiten, mit Lärm zu arbeiten. Sie konnten ihre eigenen Geräusche komponieren und sie hatten es bessere musikalische Kontrolle über das synthetisierte oder aufgenommene Rauschen. Komponisten wie Pierre Schaeffer haben aufgenommenen Geräuschen aus der realen Welt verwendet. Andere Komponisten wie Stockhausen, synthetisierte verschiedene Geräusche unter Verwendung elektronischer Geräte wie Sinusgeneratoren, Rausch Generatoren, Impulsgeneratoren und Filter.
Zunächst wird jedoch die Definition von Rauschen erörtert. Da die Arten von Geräuschen nahezu unbegrenzt und die ästhetischen Ansätze sehr vielfältig sind, gibt es leider auch zu viele Definitionen derer. Daher werde ich mich auf die Definition und Aspekte von Lärm in akustischer Hinsicht konzentrieren.

 

Nicht elektronische Geräusche

Nach der Entwicklung der elektronischen Musik um 1950 begann Lärm
eine wichtige Rolle als musikalisches Element in einem musikalischen Werk zu spielen.

Es gab jedoch viele Versuche, neue Klangfarben zu suchen, unter anderem auch musikalische Geräusche, und schon zu Anfang des 20. Jahrhunderts. Erstellen von Geräuschinstrumenten, Hervorheben der Geräuschelemente bei konventionellen Instrumenten, die die Rolle von Schlaginstrumenten erhöhten und auch die Verwendung von extrem dissonanten Akkorden, sind einige Beispiele dieser Zeit.

 

Die Kunst der Geräusche

Zu Beginn des 20. Jahrhunderts nahm eine Gruppe italienischer Komponisten, Futuristen genannt, verschiedene Geräusche als musikalische Ressource auf. Diese Geräusche waren für Menschen keine neuen Geräusche, sondern Geräusche, die sie aus ihrem täglichen Leben zu hören gewohnt waren. Es war jedoch innovativ, diese Geräusche als musikalische Klänge zu verwenden.
Luigi Russolo, einer der futuristischen Gruppen, machte ein Geräuschorchester mit verschiedenen Geräuschen, Instrumente und komponierte einige Stücke mit diesem Orchester. (Die futuristische Bewegung war vor allem literarisch und visuell. Russolo hatte sich dieser Bewegung als Maler und später als malender Musiker angeschlossen.) Die Instrumente heißen Howler, Roarer, Cracker, Gummi, Hummer, Gurgler,
Zischer, Pfeifer, Burster, Croaker und Rustler. Er schrieb in seinem Buch „The Art of Noises“ Erstveröffentlichung 1916; Russolo 1986), dass sein Geräuschorchester die Folge eines Musicals sei, das mit Aktivitäten aus dieser Zeit arbeite: „Um unsere Sensibilität zu erregen und zu wecken, Musik entwickelte sich in Richtung der kompliziertesten Polyphonie und in Richtung der größten Vielfalt von Instrumenten Klangfarben und Farben.

Er hat die komplexesten Folgen dissonanter Akkorde gesucht,
die sich vage auf die Entstehung von Musikgeräuschen vorbereitet haben.
Leider hat er nicht beschrieben, wie die Instrumente gebaut wurden, aber er hat das jeweilige Instrument beschrieben,welches z.B. einen bestimmten Bereich spielbarer Tonhöhen (normalerweise 2 Oktaven) hatte. Diese Instrumente also waren nicht nur Geräuschgeneratoren, sondern echte Instrumente.
Seine Kompositionen waren zu innovativ, um von einem Publikum gefeiert zu werden.

Aber dieses Paradigma, die Verschiebung von ihm, hatte wahrscheinlich einen gewissen Einfluss auf zeitgenössische Komponisten.

 

Perkussions/Schlagzeugmusik

Während Russolo neue Instrumente für Musikgeräusche herstellte, haben viele Komponisten nachgeforscht welche neuen Möglichkeiten es mit konventionellen Instrumenten gibt.
Wir können sagen, dass Percussion die Instrumentengruppe war, in der der maximale Grad von Entwicklung und Experiment hat stattgefunden.

Schlaginstrumente, die man in einem Orchester meistens für Effekte verwendete, wurden, wenn auch als nicht intonierend bezeichnet, als musikalische bewertet.

Als die Rolle des Schlagzeugs sich zu erweitern schien, haben Komponisten verschiedene Größen und Typen (Metall, Holz, Stoff, Glas) von Schlägeln für die herkömmlichen Schlaginstrumente verwendet, um damit mit neuen Klangfarben zu experimentieren. Es wurden auch exotische oder ausländische Instrumente eingesetzt. Auch verschiedene Spiel-
techniken und neue Bewertungen wurden entwickelt.
Die Zunahme des musikalischen Einsatzes von Percussion führte schließlich zu Kompositionen für Schlagzeugensemble wie Edgard Varèses Ionisation (1931).

In diesen Arbeiten, verwendet er als wichtigste strukturelle Rolle (im großen oder kleinen Maßstab) nicht die Melodie oder die Änderung der Tonhöhe, wie dies konventionell der Fall war, sondern die Änderungen der Klangfarbe.

Dies könnte als Beginn derTechniken zum „Komponieren von Lärm“ bezeichnet werden.
Eine besonders auffällige Ergänzung ist die Verwendung der Bremstrommel.

Die Tatsache, dass ein Teil von einem Auto Mitglied der Percussion-Familie (Klasse) wird, zeigt die Möglichkeit, dass jedes Objekt musikalisch verwendet werden kann.

Heute kann man diese Sounds und auch alles andere per Software verwenden. Die hat weniger Gewicht, aber auch andere Nachteile.

Schallmasse

Es gab Komponisten, die Geräusche nur mit den herkömmlichen Techniken der Instrumente erzeugen wollten. Sie haben versucht, mit starken dissonanten Akkorden musikalische Geräusche zu machen.
Henry Cowell schlug in den 1920er Jahren vor, Akkorde mit Dur- oder Moll-Sekunden zu bauen.

Er hat sogar vorgeschlagen Akkorde mit engeren Intervallen, die aus dem 16. Teilton abgeleitet werden können als natürlich vorkommendes Fundament zu verwenden. Er benutzte Dur- und Moll-Sekunden, um Akkorde zu bauen und entwickelte Spieltechniken wie das Drücken aller weißen oder schwarzen Tasten oder beider in bestimmte Reichweite auf dem Klavier mit der Handfläche oder dem Unterarm des Interpreten.

Ein solcher Akkord wird von benanntCowell selbst als ‚Ton-Cluster‘ (Cowell 1930).

Einige Komponisten haben mithilfe von Polytonalität oder Akkorden Effekte erzeugt, die Tonclustern ähneln die die Eigenschaften der Polytonalität haben.

Strawinsky zum Beispiel in seiner Arbeit Le Sacre du Printemps (1913) machte ein faszinierendes Geräusch für den harten Rhythmus, indem er zwei Akkorde Eb7 und Fb addierte.

Diese Techniken haben es größtenteils geschafft, musikalische Geräusche zu erzeugen, indem sie Tonhöhe und Harmonie minimierten mit gleichzeitiger Maximierung der Textur, durch Veränderung der Klangfarbe und des Rhythmus ganz bestimmter Passagen.

Diese Techniken wurden kontinuierlich von vielen Komponisten verwendet.

Wir können Beispiele hören in

Luigi  Nonos Chorstücke wie Il canto sospeso (1956),

Pendereckis Threnodie für die Opfer von Hiroshima (1960),

Góreckis Sconti (1960),

 

György Ligetis Atmosphéres (1961) und so weiter.

 

Neue Instrumentaltechniken

Wir haben bereits neue Techniken für Schlaginstrumente gesehen. Viele Techniken für andere Instrumente wurden aber ebenfalls entwickelt.
Für Streichinstrumente sind möglicherweise herkömmliche Techniken wie Zupfen (Pizzicato) impliziert für neue Möglichkeiten. Neue Techniken wie das Klopfen der Saiten oder des Körpers für einen perkussiven Effekt, Streichen auf der Brücke oder zwischen Brücke und Saitenhalter, Streichen mit sehr starkem Druck um ein Geräusch zu machen, die höchste Note spielen oder zupfen, mit unregelmäßigem Tremolo spielen, wurden erstellt.

Pendereckis Threnodie für die Opfer von Hiroshima (1960) ist ein gutes Beispiel.

Bei Holzblasinstrumenten kann man beispielsweise auf die Tasten tippen, ohne zu blasen
für einen Perkussiven-Effekt, Multiphonics für neues Timbre usw. wurden entwickelt.
Die Multiphon-Technik dient zum gleichzeitigen Erzeugen von zwei oder mehr Tönen, wo man durch eine starke Kraft Obertöne erzeugt auch durch Veränderung der Fingersätze, des Lippendrucks und der Position sowie des Luftdrucks (Bartolozzi 1971).

gebrauchtes Buch – Bruno Bartolozzi (Reginald Smith Brindle, Anm.) – Neue Klänge für Holzblasinstrumente
Der Klang, den wir mit dieser Technik erhalten, ist keine klare Harmonie, sondern eine ziemlich laute Klangfarbe.

Bild oben: Eine der Multiphonics, die die Flöte produzieren kann. Der obere Teil
stellt den Fingersatz dar und die Noten sind das, was tatsächlich klingt. Dies
Akkord, der Mikrotöne enthält, ist nicht klar, erzeugt aber ein dissonantes Timbre.

Neue Techniken für Blechbläser, Schlagzeug, Tasteninstrumente und Gesang wurden ebenfalls eingeführt entwickelt (David Cope 1993).

David Cope, der 2021 seinen 80. Geburtstag begeht, ist Komponist und ein Pionier im Experimentieren mit Künstlicher musikalischer Intelligenz und Kreativität. Bereits in den 1980er-Jahren entwickelte er Programme zum Komponieren von Musik.

Für Keyboards finden wir die präparierte Klaviertechnik, für das Ändern des Piano-Timbres (Klangfarbe) durch Platzieren von Objekten wie Clips, Gummi, Muttern und Steinen ​​auf und zwischen den Saiten, in Kompositionen wie John Cages Sonaten und Zwischenspielen
(1946-48).

Für die Stimme wurden Geräusche wie Lachen, Sprechen und Zischen als Musik hinzugefügt
Ausdrücke (zum Beispiel in Ligetis Aventures (1962)).

Fazit
Die oben beschriebenen Versuche hatten nichts mit den Techniken der Elektronischen Musik zu tun. Es ist jedoch immer noch interessant, neuere Instrumentale-Timbres (Kangfarben) zu erforschen und mit ihnen zu komponieren, wenn es uns die Möglichkeit gibt, neue und interessante musikalische Formen zu schaffen.

 

Musique Concrète
Kurz vor 1950 begannen die französischen Komponisten Pierre Schaeffer und Pierre Henry elektronische Medien zum Komponieren von Musik zu verwenden. Dies mit verschiedensten Geräuschen. Während Russolo die Instrumente baute, simulierten Schaeffer und Henry, die Geräusche aus der realen Welt und verwendeten diese Geräusche für elektronische Aufzeichnungen und Bearbeitungen.

Frühe Aufnahmetechnologie
Erst seit den 1920er Jahren setzen Musiker elektronische Aufnahmetechnologie ein. Komponisten wie Darius Milhaud, Paul Hindemith und Ernst Toch experimentierten mit variabler Geschwindigkeit Phonographen im Konzert (Ernst 1977). In John Cages Imaginary Landscape No.1 (1939) hat der Komponist zwei Phonographen mit unterschiedlicher Geschwindigkeit verwendete für Aufzeichnungen, die Töne enthielten. Solche Aufzeichnungs- und Wiedergabesysteme waren jedoch zu teuer, zu schwer zu transportieren und wurden deshalb bis zum Ende des Zweiten Weltkriegs nicht verwendet.

 

Erst ab etwa 1950 begann das Tonbandgerät allgemein verfügbar zu werden. Es war einfach zu bedienen und billiger. Das Tonbandgerät machte es schließlich Schaeffer und Henry möglich Russolos Nutzungskonzept anzugehen und mithilfe elektronischer Medien
Alltagsgeräusche als musikalische Elemente zu simulieren, obwohl nicht klar ist, ob und wie sie von beeinflusst wurden von Russolo.

 

 

 

 

 

Posted in Noise Music Tagged with: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

November 25th, 2020 by Afrigal

udo matthias drums electronic software

Konzepte der Elektroakustischen Musik

Trivia

3 Konzepte:

  • Konkrete Musik
  • Studio Köln
  • akusmatische Musik

A) akusmatisch ==> reines Hören – Klang ohne Ursachenbild – Schaeffer 1966 reduziertes Hören – Tonbandgeräte als pythagoräischer Vorhang – F. Bayle schlug vor Akusmatik = spez. Hörbedingungen

P.Schaeffer: Es geht nicht mehr darum, wie ein subjektives Hören die Realität interpretiert.

F. Bayle: ..wollte eine Komposition mit Klangbildern erstellen, die die fehlenden visuellen Infos einer Lautsprecheraufführung kompensiert.

 

Akusmonium: Komponist sitzt am Mischpult und gestaltet sein Werk (Interpretation)

Viele Lautsprecher – Komponist verteilt Musik im Raum.

 

 

Wellenfeldsynthese an der TU Berlin

TU Berlin:

Der Hör- und Veranstaltungssaal WellenFeld H 104 der TU Berlin verfügt über das weltweit größte System zur Wellenfeldsynthese (WFS). Um den gesamten Saal mit einem Fassungsvermögen von rund 640 Plätzen zieht sich auf Kopfhöhe ein Band von über 2700 Lautsprechern im Abstand von 10cm. Diese werden von einem Computer-Cluster mit 832 Audio-Kanälen angesteuert.

IRCAM:

B) Musique concrète

Pierre Schaeffer Ing. RDF Paris – Club d’essai.

Kompositionstechnik mit gespeicherten Kängen (Instrumente & Alltagsgeräusche) auch Futurismus – Abgrenzung zur Klassik (12ton & seriell)

Klassik: vom Abstrakten ins Konkrete (Komposition)

Cconcrète: Vom Konkreten (Alltagsgeräusch) wird das Abstrakte durch Klangverfremdung

Und es gab Stress, damals wie heute: Boulez warf Schaeffer vor, dass er kein Musiker sondern ein Bastler sei. Schaeffer war klug und wies dies nicht zurück, er war der Meinung, dass die Geschichte der Musik an sich ein Bastelarbeit war.

Pierre Schaeffer hatte auch eine Liebe zur afrikanischen Musik.

vom Einzelklang zum Musikstück als Ganzes.

Tod Dockstader

Tod Dockstader (* 20. März 1932 in Saint Paul, Minnesota; † 27. Februar 2015[1]) war ein US-amerikanischer Komponist elektronischer Musik, insbesondere der Musique concrète.

Arbeiter mit Rhythmen, Frequenzen und Intensitäten.

 

diese Musik brauchte keine Noten, sie brauchte etwas besseres, anderes als…….

Stockhausen: 1955-56 im Gesang der Jünglinge warewn Sprache – Gesang – &elektronische Klänge gleichberechtigt.

langsam entwickelte sich ein Oberbegriff: – ELEKTRONISCHE MUSIK – daher entsatnd der abgrenzende Begriff „elektroakustische Musik“

1951 übernahm Pierre Henry den Club d’Essai.

Später arbeitete er an der Inovierung der Rockmusik mit elektronischen Einflüßen. Er gilt

als Vater des Techno.

seit 1997: Pierre Henry Messe pour le temps presente

er arbeitete auch mit Spooky Tooth

nebenbei: das war mein erster Song an den drums.

und mit Pierre Henry

dann mit

Musique concrète

beeinflusste auch die Noisemusik – Luc Ferraris

C) Studio für elektronische Musik in Köln WDR

Seine Geschichte spiegelt die Entwicklung der elektronischen Musik in der 2. Hälfte des 20ten Jahrhunderts wider.

1951 – Hans Hartmann, Werner Meyer Eppler – Robert Beyer-Fritz Enkel und Herbert Eimert.

Robert Beyer sprach schon 1920 von einer Klangfarbenmusik.

Das Trautorium gilt als Vorgänger des Synthesizers

Olivier Messian hatte zwei Studenten: -Pierre Boulez und Karlheiz Stockhausen

Boulez gründete das IRCAM

Seriell oder Sinuston

Stockhausen wußte dass die Klangfarbe sich der seriellen Organisation entzog.

Fritz Enkel gab ihm Sinusgeneratoren.

Monochord und Melochord waren ab da bei ihm verboten.

Andere Komponisten im Studio:

* Karel Goeyvaerts ,Paul Gredinger, Gottfried Michael Koenig, Henri Pousseur, Bengt Hambraeus und Franco Evangelisti

Jeder Klang wurde aus einzelnen Teiltönen komponiert.

 

Adorno: elektronische Musik hört sich a, als würde Anton Webern auf einer Wurlitzer Orgel vorgetragen.

Die elektronische Musik aus Köln näherte sich der Musique Concrète aus Paris.

Notation blieb ein Problem!!!

Gottfried Michael Koenig fing bei Null an. Der Sinuston galt als nicht weiter zerlegbares Element der Musik.

????Welle oder Teilchen?? s.apäter Gabor & Roads.

Er sprach von einzelnen Amplitudenwerten die einander folgen – Heute nennt man das Samples.

Rotation der Klänge:

Tempophone: das M in Matthias kann man auf beliebige Dauer verlängert werden.

Tempophon

 

Mauricio Kagel legte besonderen Wert auf komplexe Schaltungen der Geräte – Rückkopplungen!!

Johannes Fritsch: ließ u.a. einen Verstärker sein eigenes Rauschen verstärken.

Mesias Maiguashca

Meine Art arbeitslos zu sein: – freischaffender Künstler.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted in Computer Music Tagged with: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,