Digitale Prä-Renaissance

Ich habe Michael Harenberg in einer Email gefragt, was er mit der digitalen “Prä-Renaissance” meint, von der er in seiner (noch unveröffentlichten) Dissertation “Virtuelle Instrumente im akustischen Cyberspace” schreibt. Hier die Antwort dieses “Mini-Interviews”:

(…) mein Gedanke ist der, dass wir sowas wie eine adäquate digitale Ästhetik noch garnicht haben und daher eigentlich noch in der Vor-Digitalen Phase sind, in der wir das Digitale durch eine Simulationsästhetik begonnen haben zu erforschen. Die These wäre also, dass die Simulationen im Digitalen ja erst die eine Seite der Turingmaschine bedienen – die der Simulation (hier: des Analogen). Aber das was es an originärer algorithmischer etc. Ästhetik “im ganz anderen” des Digitalen zu entdecken gibt, beginnen wir erst langsam zu verstehen.

Wenn ich sehe wie die Tools vor 5 Jahren ausgesehen haben und wie sich das entwickelt, halte ich das nach wie vor für eine adäquate Erklärung …

Symposium “Die Metapher als ´Medium´ des Musikverstehens

Am kommenden Wochenende (17.-19.6.2011) findet hier an der Uni Osnabrück ein Symposium zur Systematischen Musikwissenschaft statt, Thema: “Die Metapher als ´Medium´ des Musikverstehens”, mit Vorträgen (allein am Samstag) von Großmann, Harenberg, Jauk, Schläbitz. Ich halte am Freitag Abend, ca. 18:20, auch einen kleinen Vortrag über Musik und Virtualität.

Programm:

http://www.musik.uni-osnabrueck.de/index.php?n=Veranstaltungen.SymposiumMetapher

Das Musikinterface als Gadget

Im Versuch einer “Verortung” des Instruments im Computerzeitalter lassen sich, jedenfalls bei den Autoren, die ich hauptsächlich gelesen habe, zwei Hauptstrategien ausmachen. Während sowohl Bernd Enders, als auch Michael Harenberg die Entwicklung der Kirchenorgel als Zeitpunkt der endgültigen Trennung von Klangerzeugung und Klangsteuerung (Interface) ausmachen, wird diese Trennung von ihnen in Folge unterschiedlich interpretiert. Für Enders liegt ein Instrument fortan als modularisiertes Funktionsgefüge aus Generator und Interface vor, während Harenberg eher den Klangerzeuger mit dem Instrument assoziiert und das Interface sogar vom Instrument trennt (ganz wörtlich hier: http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S. 15, Zugriff: 26.11.2010).

Diese Identifizierung der Klangerzeugung mit dem Instrument scheint sich allein im Begriff der “virtuellen Instrumente” widerzuspiegeln. Er verspricht ja gerade ein (ganzes) virtuelles Instrument – und nicht ein halb-virtuelles + passendem Interface – die Kategorie “halbe Instrumente” macht sich auch schlecht in jedem Instrumenten-Katalog. In historischer Perspektive gibt es Hinweise darauf, dass es durchaus eine gewisse Tradition der Identifikation des Instruments mit dem Klangerzeuger gibt, z.B. wird dies bei Kai Köpp angedeutet, der im Rahmen des Berner Forschungsprojektes Klang (ohne) Körper “Historische Streichbögen als Interfaces” untersucht hat (Köpp, Kai (2010): “Historische Streichbögen als Interfaces” In: Michael Harenberg,  Daniel Weissberg: Klang (ohne) Körper. Spuren und Potenziale des Körpers in der elektronischen Musik,. Bielefeld: Transcript). Köpp stellt fest, dass die Veränderungen im Bau des Resonanz- und Klangkörpers bei der Violine gut dokumentiert sind, nicht jedoch jene der Saiten und Bögen (die Entwicklung des Geigenbaus ist ja nicht schlicht ein “immer besser werden”, sondern war zu allen Zeiten von jeweiligen, epochalen Klangidealen bestimmt, der Streichbogen hat maßgeblichen Einfluss auf die Klanggestaltung). Original erhaltene Bögen sind heutzutage sehr rar – sie konnten konstruktionsbedingt nicht erneuert werden und wurden nicht aufbewahrt, also weggeworfen. Sie waren die letztlich modischen, austauschbaren und tendenziell schon wieder uninteressanten Interfaces (Gadgets?) der klassischen Instrumentenkunde.

Es schließen natürlich viele Fragen an, die Identifikation von Programm und Instrument ist für mich dabei vorrangig und kann durchaus vor dem Hintergrund der Streichbögen-Gadgets diskutiert werden. Ob nicht auch das Interface bisweilen als Instrument inszeniert wird, ist eine weitere Frage. Ohnehin ist ein systematisch ding-orientierter Ansatz allein nicht ausreichend bei einer Verortung rezenter Instrumente und muss um sozio-kulturelle Aspekte erweitert werden (etwa mit Rolf Großmann).

Elena Ungeheuer: Musik als intermediale Kunst

Ich bin vor ein paar Tagen auf einen Podcast mit einem Vortag von Prof. Elena Ungeheuer gestoßen. Wie sich zeigt, ist der systemtheoretische Medienbegriff in der systematischen Musikwissenschaft verbreiteter, als ich vielleicht gedacht habe. Anmoderiert wird das ganze übrigens von Michael Harenberg, der in diesem Blog schon das ein oder andere Mal aufgetaucht ist.

Es ist schön, in den Weiten des Netzes immer mal wieder auf Personen zu stoßen, die man kennt und schätzt. Elena Ungeheuer und Michael Harenberg gehören außerdem zu den Leuten, die man im Auge behalten sollte…

Hier der Link zum Artikel:

http://www.podcast.de/episode/798797/Elena_Ungeheuer:_Musik_als_intermediale_Kunst

Status: quo vadis? Zwischenstand

Dieser Beirag soll andeuten, warum es mir wichtig erscheint, Überlegungen zu virtuellen Instrumenten auf dem Fundament einer anschlussfähigen und differenzierten Epistemologie aufzubauen. Dass eine Simulation wie die virtuelle Realität in unserem Alltag und Leben eine große Rolle einnimmt, brauchen wir, denke ich, nicht groß zu diskutieren. Der Cyberspace ist mittlerweile sogar dort angekommen, wo wir ihn zunächst nicht vermuten würden. Wenn wir diese Simulationen ernst nehmen wollen, brauchen wir eine Epistemologie, die auch zu dieser Art des In-der-Welt-seins passt, das heißt: sie erklären kann. Eine realistische, ontologische Erkenntnistheorie führt meiner Meinung nach dazu, diese Wirklichkeiten zu diskreditieren. Unsere alltägliche Lebenswirklichkeit, etwa im Umgang mit Software-Seqenzern, virtuellen Instrumenten, Textverarbeitungssoftware, ganz zu schweigen von sozialen Phänomenen des Web2.0, wird derealisiert.

Wenn wir der Meinung sind, Erkenntnis bedeutet, dass wir die Dinge der Außenwelt bloß über Sinneskanäle/Inputs in unseren Kopf hineinzutun brauchen und unser Gehirn wie eine Art Leinwand funktioniert, ist die Virtualität eine Art Derivat, eine Ableitung, ein Downgrade der (Ursprungs-)Realität. Ohne, wie hier wiederum festzustellen ist, Virtualität und reale Realität ununterscheidbar machen zu wollen, kann ich diese Ansicht nicht teilen. Wenn wir auf einer phänomenalen Ebene beobachten, dass Menschen durchaus reale Erfahrungen im Umgang mit virtueller Realität machen, brauchen wir Theorien, die andere Konzeptionen unserer Erkenntnis aufweisen. Dies leistet meines Erachtens die Systemtheorie in ihrer Ausprägung nach Maturana/Luhmann. Das Wissenschaftsverständnis Maturanas ist das eines Naturwissenschaftlers. Er will (siehe die drei letzten Einträge) fundamentale Erklärungsansätzte wie den vorherrschenden Repräsentationalismus durch Erklärungsprinzipien ersetzen, die seiner Meinung nach besser in der Lage sind, Phänomene des Lebens, also aller Organismen, besser zu erklären.

Bezogen auf die oben beschriebene Derealisierungsangst bedeutet dies: Wenn wir simulierte Phänomene ernst nehmen, müssen wir fundamentale Erklärungsansätze ablehnen, die im Sinne eines erkenntnistheoretischen Realismus virtuelle Realitäten als weniger wirklich abwerten. Im Gegenzug müssen Epistemologien eingesetzt werden, die Wirklichkeit anders entstehen lassen als durch bloße Abbildung. Ein nicht wissenschaftlicher Umgang mit dem Thema würde nach Maturna bedeuten, dass Phänomene negiert, oder, in meiner Interpretation, derealisiert werden, um fundamentale Erklärungsprinzipien zu erhalten.

Kirchenorgel und Cyber-Instrumente

Die Unterscheidung von natürlichen und technischen Instrumenten ist, wie hier mittlerweile dargestellt wurde, eine künstliche, eine normative Unterscheidung. Instrumente sind Musikmaschinen auf dem Stand der jeweiligen technischen Möglichkeiten der Gesellschaft. Die Zusammenhänge zwischen modernen Cyber-Klangerzeugern und traditionellen Instrumenten sind dabei aber noch weitaus verwobener, was hier am Beispiel der Modularisierung gezeigt werden soll.

Modularisierung

Ein charakteristisches Merkmal der Instrumentenentwicklung ist die Modularisierung. Der sprichwörtliche Modulsynthesizer etwa ist und war immer ein Baukasten, der beispielsweise aus Oszillator, Modulator, Verstärker und Filter (als nur eine mögliche Ausprägung) besteht und seine Klaviatur wohl hauptsächlich aus ökonomischen Gesichtspunkten verpasst bekam, sie kann ja prinzipiell auch ausgelassen werden, wie hier mittlerweile beschrieben wurde. Bernd Enders charakterisiert die Modularisierung, die Klangerzeugung und Klangsteuerung voneinander löst, folgendermaßen:

Durch die Elektrifizierung und Elektronifizierung der Instrumente entfällt endgültig der technische Zusammenhang zwischen Klangerzeugung und Klangsteuerung, zwischen Generator und Controller. Das Interface, das den musizierenden, also den klangsteuernden Menschen mit den klangerzeugenden (oder klangverändernden) Modulen eines Instruments, also zum Beispiel den Oszillatoren (oder Filtern) eines Synthesizers verbindet, kann völlig beliebig gestaltet werden. (Enders, Bernd: Mathematische Musik – musikalische Mathematik. S.27)

Klang und Haptik eines Instruments müssen demnach getrennt voneinander gedacht werden, in Folge wird eine Taxonomie dieser neuen, modularen Instrumente sehr schwierig. Die Instrumentenkunde steht vor großen Herausforderungen.

Virtuelle Instrumente in geistlicher Tradition

Virtuelle Instrumente stehen im Grunde in der Tradition konventioneller, modular aufgebauter Synthesizer. Vielfach sind sie rein klanglich eng an große, analoge Vorbilder des RL (real life) angelehnt und weisen eine detailgetreue optische Nachbildung der Originale auf. Zudem sind sie offen für verschiedenste Interfaces wie Computertastatur und Maus, MIDI-Keyboard, Bandmanual und ähnliches. Michael Harenberg zeigt in seinem Essay “Von der Orgel zum Cyber-Instrument” auf, dass wiederum die Kirchenorgel als Vorläufer dieser frühen, analogen Modulsynthesizer gesehen werden kann, denn bereits sie ist ein fortgeschritten modulares Instrument. Er kennzeichnet damit virtuelle Synthesizer als rezente Ausprägungen modularer Instrumente, deren Entwicklung bis zur Kirchenorgel zurückreicht. Wieder mal aus dem Archiv des Lüneburger Audio-Servers.

Entscheidend ist die Trennung von Spieltisch als „Interface“ und dem „Instrument“. Die Bedienungseinheit wird historisch erstmalig unabhängig vom Klangkörper inszeniert, ein Denken in der Trennung von „Komposition“ „Klang“ und seiner Erzeugung, welches nach 1945 in der Elektronischen- und Computermusik sowie im Parameterdenken der seriellen Ästhetik höchste Aktualität erlangen sollte. Gleiches gilt ähnlich für automatische Musikinstrumente in der Trennung von „Antrieb“, „Informationsspeicher“ und klingendem Instrumentarium bis zu den computerisierten Instrumenten unserer Zeit. (http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S.4)

Weiterlesen:

Es sei hier auf ein 1930 erschienenes Werk von Leo Kestenberg hingewiesen, ein Pionierwerk der Auseinandersetzung mit dem Thema “Kunst und Technik”. Es ist – neben vielen anderen interessanten Werken –  zu bestellen oder gratis online einsehbar bei unserem Universitätsverlag epOs.

Hier ein Link zu einem Essay über Instrumenten-Design von Johannes Kreidler, Hinweis kam per Mail, danke dafür.

Technik und Musikinstrumente

Der letzte Beitrag gab den Standpunkt vor, dass Musik heutzutage nicht mehr als nicht technisch gedacht werden kann. Als kleines Beispiel dafür habe ich die Anekdote der Berliner Oper Unter den Linden angeführt, in der sich der Cyberspace seinen Platz als akustischer Raumvergrößerer erkämpft hat.

Diesmal soll ein engerer Rahmen gezogen werden: Wie ist eigentlich das Verhältnis von Technik und Musikinstrument? Gibt es einen Punkt, an dem Instrumente technisch wurden, und ist dieser Zeitpunkt mit der Elektrifizierung von Musikinstrumenten, also beispielsweise der Verbreitung der Synthesizer Mitte des letzten Jahrhunderts, gleichzusetzen? Ich denke, traditionelle Instrumentenkunde impliziert bisweilen mit ihrer Einteilung der Instrumente etwa in Chordophone, Aerophone, Idiophone, Membranophone und schließlich Elektrophone (siehe Ziegenrücker, Wieland (1998): ABC Musik – Allgemeine Musiklehre, S.208 f.) genau dies, oder ebnet Missverständissen den Weg. Denn die elektronische Art der Klangerzeugung der letztgenannten Kategorie rechtfertigt meiner Meinung nach nicht die Öffnung der Kluft zwischen natürlichen und technischen Instrumenten.

Die Vermutung ist: Wenn Musik zumindest heutzutage nicht mehr als nicht-technisch gedacht werden kann, so konnten Musikinstrumente noch nie als nicht-technisch gedacht werden, zumindest nicht seit Beginn der Instrumentalisierung, der Befreiung des Musikinstruments aus dem Rahmen des Körpers des Musizierenden selbst. Doch auch die Stimme selbst ist ein Instrument, dass mit (Atem-)Technik gespielt wird. Und bei einem Trommelworkshop vor einigen Jahren zeigte man mir eine besondere “Klatsch-Technik”, bei der nur die Handflächen, nicht die Finger, zusammengeführt werden, doch das führt zu weit.

Betrachten wir den Beginn der Instrumentalisierung als Moment der Loslösung der Musizierpraxis vom menschlichen Körper, also mit Aufkommen simpler Trommeln oder Knochen- und Elfenbeinflöten. Die ältesten Musikinstrumentenfunde stammen aus der Geißenklösterle-Höhle am Südrand der Schwäbischen Alb und sind laut SZ-Wissen, Ausgabe Januar 2006, rund 35000 Jahre alt. Der Stand der handwerklichen Fertigkeiten, der Stand der Technik, erlaubte Musikinstrumente mit stark begrenztem Tonumfang, die aus heutiger Perspektive primitiv anmuten.

Ein großer zeitlicher Sprung: Die mittleren und späten Werke Joseph Haydns sind mitunter stark beeinflusst durch die klanglichen Möglichkeiten, die das gerade aufkommende Hammerklavier bot. Es sind Werke, denen man die Begeisterung für diese neue Technik, die Hammermechanik, anmerkt.

Die Simulationsfähigkeit der Allzweckmaschine Computer bietet, um den nächsten großen Sprung zu vollziehen, den derzeitigen Stand der Technik: Simulationen von Musikinstrumenten, oder besser gesagt: Klangkörpern, sind die logische Folge.

Technik und Instrumentenbau haben sich, als Zusammenfassung dieses sehr kurzen Abrisses des Instrumentenbaus, immer schon gegenseitig bedingt. Ich denke, dass es eine gewisse romantische Kodierung der Gesellschaft gibt, auf die auch Michael Harenberg hinweist. Diese Kodierung zieht die Grenze zwischen natürlichen und technischen Instrumenten, neuerdings vielleicht zwischen natürlichen und virtuellen Instrumenten. Für Michael Harenberg muss gelten,

daß die Unterscheidung zwischen „natürlichen“ und technischen Instrumenten eine weitgehend künstliche ist. „Natürlichkeit“ als ideologischer Ausdruck bürgerlicher Sehnsuchtsphantasien des 19. Jahrhunderts muß als Entscheidungskriterium obsolet bleiben. Gegenstand der Instrumentenbauer aller Epochen sind technische (Musik)Maschinen, auf der Höhe der jeweiligen Produktivkraftentwicklung. (http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S.9)

Continue reading “Technik und Musikinstrumente”

Computer und Musikkunst

Nachdem im letzten (und ersten) Beitrag die beiden Hauptthemen des Blogs genannt wurden (Virtualisierung/ Musikalische Interfaces) soll es diesmal um das Verhältnis von Instrument und Technik, vielleicht noch weiter ausholend, um Musik und Technik gehen. Die Standpunkte, von denen ich hier ausgehe, finden sich in Texten von Michael Harenberg, sie sind zum Download verfügbar auf dem exzellenten Audioserver der Universität Lüneburg.

Der Computer, als von Turing entworfene Universalmaschine, ersetzt und/ oder simuliert zunehmend Verfahren, technische Prozesse und Apparate von der Komposition, der Klangerzeugung, der Klangbe- und -verarbeitung bis zur Klangspeicherung und ihrer digitalen Distribution. (http://audio.uni-lueneburg.de/texte/harenberg_rationalisierung.pdf; S.1)

Virtuelle Umgebungen haben in einer Zeit, in der große analoge Mischpulte in den Tonstudios oftmals nur noch zu Repräsentationszwecken stehen, einen immer größeren Anteil an der Produktion von Musik(erlebnissen). Wir benutzen sie in Form von virtuellen Instrumenten, Aufnahme-Software, sie sind Speicher und Abspielgeräte für unsere digitale Musiksammlung.

Im Unterschied zu technischen Verfahren und Ideologien früherer Entwicklungen fällt auf, daß sowohl Einsatz als auch Gebrauch von Computern (hier im weitesten Sinn, also auch digitale Studioperipherie etc.) zwar quantitativ dominierend geworden, qualitativ aber unspezifischer handhabbar sind. (http://audio.uni-lueneburg.de/texte/harenberg_rationalisierung.pdf; S.1)

Ob man ein virtuelles Instrument mit Hilfe eines Midi-Keyboards spielt, oder es mit einem Sequenzer, also einer virtuellen Vielkanal-Bandmaschine aufnimmt, ist in der Praxis je nur ein paar Mausklicks entfernt, der Computer ist dabei aber in einer gänzlich anderen Rolle. Im einen Fall ist er lediglich ein Klangerzeuger, im zweiten ein Midi- oder Audiorecorder (auch jeweils wieder zwei sehr verschiedene Dinge). Michael Harenberg schreibt dazu, dass

Musik letztlich nicht mehr als „nicht-technisch“ gedacht werden kann, bzw. ihre Produktion und Reproduktion immer schon „Technik“ – in welcher Form auch immer – impliziert. (http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S.1)

Dazu ein Beispiel. Im letzen Jahr war ich auf der “Nacht der offenen Tür” der Staatsoper Unter den Linden in Berlin und habe eine Führung des tontechnischen Leiters besucht (dessen Namen ich leider vergessen habe), der uns Folgendes erzählte: Die Staatsoper verfügt über eine technische Einrichtung zu Klangverbesserung. Der Saal hat aufgrund seiner eher unvorteilhaften Bauweise, vor allem der – natürlich unter Denkmalschutz stehenden – Wandverkleidung, einen sehr geringen Nachhall, der Klang kippt zu schnell weg. Um dies auszugleichen, hat man ein System zur Verlängerung der Nachhallzeit installiert. Zwei Mikrofone hoch über dem Orchester fangen den Raumklang auf. Die zwei Kanäle durchlaufen dann Halleffekte (von Lexicon natürlich) und werden auf mehrere Spuren mit jeweils unterschiedlicher Nachhallzeit verteilt. Diese Kanäle werden nachfolgend über dutzende Boxen, die sich sichtbar und unsichtbar überall im Saal befinden, abgespielt, wobei die Kanäle mit den leicht unterschiedlichen Hallzeiten ständig die Boxen wechseln, damit dieser Fremdklang möglichst diffus bleibt. Dies ist eine der technischen Installationen, gegen die der im Bezug auf seine Arbeit eher technikfeindliche Generalmusikdirektor Daniel Barenboim keine Einwände hatte. Die akustische Illusion ist perfekt, man sieht auch kaum etwas davon, keine Kabel, keine Technik, keine blinkenden Lämpchen. Das Opernerlebnis in der Berliner Staatsoper ist also ein technisch geschöntes, durch den synthetischen Hall im Grunde auch ein digitales Klangereignis. Wer also meint, ein Besuch in der Staatsoper sei ein Abend vollkommen im real life, der irrt.