Juli 30th, 2021 by Afrigal

udo matthias drums electronic software

 

 

 

 

 

 

 

Dr.Richard Boulanger

(* 10. November 1956) ist ein Komponist, Autor und elektronischer Musiker. Er ist eine Schlüsselfigur bei der Entwicklung der Audio-Programmiersprache Csound und wird mit den Computermusik-Gurus Max Mathews und Barry Vercoe in Verbindung gebracht.

Nach seinem Abschluss an der Somerset High School im Jahr 1974 besuchte Boulanger das New England Conservatory of Music als Undergraduate, wo seine Dissertation von Alan R. Pearlman für die Newton Symphony mit dem Titel „Three Soundscapes for Two Arp 2600 Synthesizers“ in Auftrag gegeben wurde und Orchester“. Nach einem Master in Komposition an der Virginia Commonwealth University, wo Allan Blank zu seinen Professoren gehörte, promovierte er in Computermusik an der University of California, San Diego, wo er am Center for Music Experiment and Related Research arbeitete. Boulanger setzte seine Computermusikforschung bei Bell Labs, dem Center for Computer Research in Music and Acoustics an der Stanford University, dem Massachusetts Institute of Technology Media Lab, Interval Research, IBM und One Laptop per Child fort. 1989 wurde Boulanger Fulbright-Professor an der Musikakademie in Krakau, Polen.

Boulangers Lehrer sind Andrée Desautels, Nadia Boulanger, Pauline Oliveros, Aaron Copland und Hugo Norden.

Für mich ist Musik ein Medium, durch das die innere spirituelle Essenz aller Dinge offenbart und geteilt wird. Kompositorisch bin ich daran interessiert, die Stimme des traditionellen Interpreten durch technologische Mittel zu erweitern, um eine Musik zu produzieren, die sich mit der Vergangenheit verbindet, in der Gegenwart lebt und in die Zukunft spricht. Aus pädagogischer Sicht bin ich daran interessiert, Schülern zu helfen, Technologie als das mächtigste Instrument zur Erforschung, Entdeckung und Verwirklichung ihrer wesentlichen musikalischen Natur – ihrer inneren Stimme – zu sehen.

Posted in Afrigal, Computer Music, Experimentelle Musik, Noise Music, Sound Art Tagged with: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

April 10th, 2021 by Afrigal

udo matthias drums electronic software

 

 

 

Music 4BF und 360

Musik Informatik

MUSIC-N bezieht sich auf eine Familie von Computermusikprogrammen und Programmiersprachen, die von MUSIC abstammen oder von MUSIC beeinflusst wurden, einem Programm, das Max Mathews 1957 in den Bell Labs geschrieben hat.

MUSIC war das erste Computerprogramm zur Erzeugung digitaler Audio-Wellenformen durch direkte Synthese. Es war eines der ersten Programme zum Musizieren (in Wirklichkeit, Ton) auf einem digitalen Computer, und es war sicherlich das erste Programm, das in der Musikforschungsgemeinschaft breite Akzeptanz für diese Aufgabe fand. Die weltweit erste computergesteuerte Musik wurde in Australien vom Programmierer Geoff Hill auf dem CSIRAC-Computer erzeugt, der von Trevor Pearcey und Maston Beard entworfen und gebaut wurde. CSIRAC erzeugte jedoch Ton, indem es rohe Impulse an den Lautsprecher sendete. Es erzeugte kein digitales Standard-Audio mit PCM-Samples wie die MUSIC-Programmreihe.

CSIRAC-Pano,-Melb.-Museum,-12.8.2008.jpg

Alle abgeleiteten MUSIC-N-Programme haben ein (mehr oder weniger) gemeinsames Design, das aus einer Bibliothek von Funktionen besteht, die auf einfachen Signalverarbeitungs- und Syntheseroutinen basieren (geschrieben als ‚Opcodes‘ oder Einheitengeneratoren). Diese einfachen Opcodes werden dann vom Benutzer zu einem Instrument (normalerweise über eine textbasierte Anweisungsdatei, aber zunehmend über eine grafische Oberfläche) zusammengesetzt, das einen Sound definiert, der dann von einer zweiten Datei (Partitur genannt) ‚abgespielt‘ wird, die dies spezifiziert Noten, Dauern, Tonhöhen, Amplituden und andere Parameter, die für die musikalische Informatik des Stücks relevant sind. Einige Varianten der Sprache führen das Instrument und die Partitur zusammen, die meisten unterscheiden jedoch immer noch zwischen Funktionen auf Steuerebene (die mit der Musik arbeiten) und Funktionen, die mit der Abtastrate des erzeugten Audios ausgeführt werden (die mit dem Ton arbeiten). Eine bemerkenswerte Ausnahme ist ChucK, das das Timing von Audiorate und Kontrollrate in einem einzigen Framework vereint und eine beliebig feine Zeitgranularität sowie einen Mechanismus zur Verwaltung beider ermöglicht. Dies hat den Vorteil eines flexibleren und lesbareren Codes sowie die Nachteile einer verringerten Systemleistung.

MUSIC-N und abgeleitete Software sind meist als eigenständige Programme verfügbar, die verschiedene Arten von Benutzeroberflächen haben können, von textbasierten bis zu GUI-basierten. In dieser Hinsicht haben sich Csound und RTcmix inzwischen zu effektiven Softwarebibliotheken entwickelt, auf die über eine Vielzahl von Frontends und Programmiersprachen wie C, C ++, Java, Python, Tcl, Lua, Lisp, Schema usw. zugegriffen werden kann. sowie andere Musiksysteme wie Pure Data, Max/MSP und Plugin-Frameworks LADSPA und VST.

In MUSIC und seinen Nachkommen werden eine Reihe sehr origineller (und bis heute weitgehend unangefochtener) Annahmen implementiert, wie man am besten Sound auf einem Computer erzeugen kann. Viele der Implementierungen von Mathew (z. B. die Verwendung vorberechneter Arrays für die Wellenform- und Hüllkurvenspeicherung, die Verwendung eines Schedulers, der in Musikzeit und nicht mit Audiorate ausgeführt wird) sind heutzutage die Norm für die meisten Hardware- und Softwaresynthese- und Audio-DSP-Systeme.

Tim Thompson

Music 4C

 

Posted in Computer Music Tagged with: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,