Neue Medien und der Rückspiegel

Dies ist der vorerst letzte Eintrag, der sich ausschließlich mit Begriffen McLuhans befasst, diesen einen Eintrag des Glossars von Christopher Horrocks möchte ich hier aber noch zitieren (dann habe ich ohnehin 3 von 5 Begriffen insgesamt gepostet).

The rear view mirror

When society and the individual are confronted with a new situation, they will attach themselves to objects of the recent past. We therefore perceive the present through a rear-view mirror. New media, including the car and the computer, are initially looked at in terms of previous technologies, such as the horse-drawn carriage and the typewriter. (Horrocks, Christopher: Marshall McLuhan and Virtuality. Cambridge: Icon/Totem Books; S.77)

Eine neue Entwicklung, ein neues Medium, wird zunächst immer vor dem Hintergrund der vorherrschenden Technologie betrachtet. Bevor ein solches neues Medium also auch tatsächlich auf eine neue Weise benutzt wird, ist seine Praxis zunächst einmal bestimmt durch seine Vorgänger. Wenn ich dieses Wissen auf meine tägliche Praxis im Umgang mit Musiksoftware beziehe, drängt sich die Betrachtung der großen Sequenzer, Logic, Cubase, ProTools, etc. auf. Sie haben alle eine lineare Zeitachse, einen Anfang und ein Ende. Als diese Sequenzer lernten, in einem größeren Umfang mit Audio-Material, nicht nur mit MIDI-Daten umzugehen, sah man die sich bietenden Möglichkeiten in McLuhans Rückspiegel. Und baute virtuelle Tonbandgeräte. Die Software, die sich in den letzten Jahren dadurch ausgezeichnet hat, dass diese streng lineare Struktur aufgebrochen wurde, ist Abletons Live mit seiner “Session”-Ansicht. Ein paar [Selbst]Beobachtungen zum Umgang mit dieser Software werden auf dieser Seite sicherlich noch folgen.

Hier gibt es ein Interview mit Gerhard Behles (Ableton) und Mate Galic (Native Instruments) aus De:Bug 9/2007.

Bereits in einem der ersten Einträge habe ich mit Michael Harenbergs Worten deutlich gemacht, dass der Computer in unserem Alltag zwar quantitativ dominierend geworden ist, qualitativ aber immer weniger durchdrungen wird, in welcher Rolle er sich gerade befindet. Der Computer arbeitet mit einem Zeichensystem, dass in der Lage ist, alle anderen Zeichensysteme zu integrieren. Nichts anderes bedeutet der Begriff Multimedia. McLuhan ist für die Durchdringung der Quantität der Anwendungen, die der Computer momentan bietet, von großem Wert.

 

Hot and cool media

Da im Moment die Produktion unserer Neotango-Cd in die entscheidende Phase gegangen ist, sind die Einträge ein wenig rarer, als sie sein sollten. Wie auch immer, ich wollte noch ein wenig aus Horrocks Glossar mit McLuhan-Begriffen zitieren, die alle mehr oder weniger mit meinem Lieblingsthema, der virtuellen Realität (VR, Cyberspace) in Verbindung gebracht werden können. Diesmal geht es um „hot and cool media“.

The basic principle that decides whether a medium is hot or cool ist the degree to which that medium extends one sense in ‚high definition’. In other words, it is the extent to which one of our senses is supplied with a lot of data. A photograph has more information than a cartoon, and is therefore a hotter medium. The telephone is a cool medium because the ear receives little information. The user therefore has more participation in a cool medium than a hot one.
The issue becomes more complicated with a ‚metamedium’ such as the computer, in which a variety of hot and cool media (RealVideo and e-mail, for example) are superimposed and juxtaposed. In this context, virtual reality is arguably a very cool medium indeed. (Horrocks, Christopher: Marshall McLuhan and Virtuality. Cambridge: Icon/Totem Books; S.78)

Wie bereits mehrfach angeklungen ist, interessiert mich die Frage, in wie weit VR – oder Immersion, also das mehr oder weniger vollständige Eintauchen in ein Medium – eine Rolle im Kontext der virtuellen Instrumente spielt. Der Computer als Allzweckmaschine ist differenziert zu betrachten und sollte nicht pauschal als Medium des einen oder anderen Typs generalisiert werden. Vor allem als elektronischer/elektroakustischer Musiker bewegt man sich beim Musizieren ja nicht in virtuellen Welten, man taucht nicht in den Cyberspace ein. Immersion findet hier hauptsächlich auf der akustischen Ebene statt. Demnach wäre der Computer als Klangkörpersimulator ein eher „kaltes“ Medium. Die im letzten Beitrag angesprochenen Derealisierungsängste beziehen sich auf McLuhans „heiße“ Medien, bei denen Partizipation, also eigene, kreative Weltgestaltung oder Weltkonstruktion, nur zu einem Mindestmaß statt findet. Bevor man jedoch virtuelle Instrumente mit virtuellen Umgebungen wie Second Life, WoW oder anderen simulierten Welten in Verbindung bringt, wäre es interessant festzustellen, wie „hot“ oder „cool“ der Umgang mit virtuellen Produktionsumgebungen tatsächlich ist.

McLuhan and Virtuality

Ich habe gerade begonnen, ein kleines Bändchen über Marshall McLuhan zu lesen (das man im Netz gebraucht ab 2,50 Euro bekommt!): Horrocks, Christopher: Marshall McLuhan and Virtuality. Cambridge: Icon/Totem Books. Es gibt dort ein kleines, aber feines Glossar mit Begriffen rund um McLuhans Denken. Weil McLuhan noch recht neu für mich ist, poste ich hier einfach mal etwas daraus. Fangen wir vielleicht mit der bekanntesten Phrase an:

The medium is the message

The human’s use of any communications medium has an impact that is of more relevance than the content of any medium, or what that medium may convey. The process of being in a virtual environment, for example, has a greater effect on our existence than the program in which we are immersed. The act of watching television has had a greater impact than what is shown on the television. (Horrocks, Christopher: Marshall McLuhan and Virtuality. Cambridge: Icon/Totem Books; S.77)

Wenn wir uns in künstlichen (virtuellen) Realitäten bewegen, hat dies also einen Einfluss auf unsere Art des In-der-Welt-Seins, unsere Existenz, wie es im Zitat steht. Dass virtuelle Welten etwas mit uns machen, ist sicherlich klar, sicherlich ist auch das Medium selbst eine, vielleicht sogar die Botschaft. Weiterführende Interpretationen sind jedoch gefährlich. Eine Auslegung dieser These wäre nämlich, dass Ausflüge in die Virtualität mit einem Realitätsverlust einher gingen. Solche Derealisierungsängste angesichts der Neuen Medien werden von Benjamin Jörissen vor allem für die 90er Jahre des letzten Jahrhunderts, insbesondere auch in der medienwissenschaftlichen Literatur, tatsächlich konstatiert (Jörissen, Benjamin: Beobachtungen der Realität. Die Frage nach der Wirklichkeit im Zeitalter der Neuen Medien. Bielefeld: Transcript, S.10). Sehr empfehlenswertes Buch!

Ich weiß selbst noch nicht, was McLuhan dazu sagen würde, hoffe aber, es herauszufinden. Vielleicht mit Hilfe des nächsten Zitats, im nächsten Blog-Eintrag?

Anmerkung:

Eine genauere Definition der Rolle des Cyberspace im Kontext von virtuellen Instrumenten steht noch aus! Insbesondere glaube ich nicht an Derealisierung oder ein Verschwinden irgendeiner Wirklichkeit. Jedenfalls ist der Begriff Realität so unscharf, dass sich kaum damit arbeiten lässt: denn dem Diskurs um Virtuelle Realität ist eine bestimmte Form der Erkenntnistheorie immer schon inhärent.

Kirchenorgel und Cyber-Instrumente

Die Unterscheidung von natürlichen und technischen Instrumenten ist, wie hier mittlerweile dargestellt wurde, eine künstliche, eine normative Unterscheidung. Instrumente sind Musikmaschinen auf dem Stand der jeweiligen technischen Möglichkeiten der Gesellschaft. Die Zusammenhänge zwischen modernen Cyber-Klangerzeugern und traditionellen Instrumenten sind dabei aber noch weitaus verwobener, was hier am Beispiel der Modularisierung gezeigt werden soll.

Modularisierung

Ein charakteristisches Merkmal der Instrumentenentwicklung ist die Modularisierung. Der sprichwörtliche Modulsynthesizer etwa ist und war immer ein Baukasten, der beispielsweise aus Oszillator, Modulator, Verstärker und Filter (als nur eine mögliche Ausprägung) besteht und seine Klaviatur wohl hauptsächlich aus ökonomischen Gesichtspunkten verpasst bekam, sie kann ja prinzipiell auch ausgelassen werden, wie hier mittlerweile beschrieben wurde. Bernd Enders charakterisiert die Modularisierung, die Klangerzeugung und Klangsteuerung voneinander löst, folgendermaßen:

Durch die Elektrifizierung und Elektronifizierung der Instrumente entfällt endgültig der technische Zusammenhang zwischen Klangerzeugung und Klangsteuerung, zwischen Generator und Controller. Das Interface, das den musizierenden, also den klangsteuernden Menschen mit den klangerzeugenden (oder klangverändernden) Modulen eines Instruments, also zum Beispiel den Oszillatoren (oder Filtern) eines Synthesizers verbindet, kann völlig beliebig gestaltet werden. (Enders, Bernd: Mathematische Musik – musikalische Mathematik. S.27)

Klang und Haptik eines Instruments müssen demnach getrennt voneinander gedacht werden, in Folge wird eine Taxonomie dieser neuen, modularen Instrumente sehr schwierig. Die Instrumentenkunde steht vor großen Herausforderungen.

Virtuelle Instrumente in geistlicher Tradition

Virtuelle Instrumente stehen im Grunde in der Tradition konventioneller, modular aufgebauter Synthesizer. Vielfach sind sie rein klanglich eng an große, analoge Vorbilder des RL (real life) angelehnt und weisen eine detailgetreue optische Nachbildung der Originale auf. Zudem sind sie offen für verschiedenste Interfaces wie Computertastatur und Maus, MIDI-Keyboard, Bandmanual und ähnliches. Michael Harenberg zeigt in seinem Essay “Von der Orgel zum Cyber-Instrument” auf, dass wiederum die Kirchenorgel als Vorläufer dieser frühen, analogen Modulsynthesizer gesehen werden kann, denn bereits sie ist ein fortgeschritten modulares Instrument. Er kennzeichnet damit virtuelle Synthesizer als rezente Ausprägungen modularer Instrumente, deren Entwicklung bis zur Kirchenorgel zurückreicht. Wieder mal aus dem Archiv des Lüneburger Audio-Servers.

Entscheidend ist die Trennung von Spieltisch als „Interface“ und dem „Instrument“. Die Bedienungseinheit wird historisch erstmalig unabhängig vom Klangkörper inszeniert, ein Denken in der Trennung von „Komposition“ „Klang“ und seiner Erzeugung, welches nach 1945 in der Elektronischen- und Computermusik sowie im Parameterdenken der seriellen Ästhetik höchste Aktualität erlangen sollte. Gleiches gilt ähnlich für automatische Musikinstrumente in der Trennung von „Antrieb“, „Informationsspeicher“ und klingendem Instrumentarium bis zu den computerisierten Instrumenten unserer Zeit. (http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S.4)

Weiterlesen:

Es sei hier auf ein 1930 erschienenes Werk von Leo Kestenberg hingewiesen, ein Pionierwerk der Auseinandersetzung mit dem Thema “Kunst und Technik”. Es ist – neben vielen anderen interessanten Werken –  zu bestellen oder gratis online einsehbar bei unserem Universitätsverlag epOs.

Hier ein Link zu einem Essay über Instrumenten-Design von Johannes Kreidler, Hinweis kam per Mail, danke dafür.

Technik und Musikinstrumente

Der letzte Beitrag gab den Standpunkt vor, dass Musik heutzutage nicht mehr als nicht technisch gedacht werden kann. Als kleines Beispiel dafür habe ich die Anekdote der Berliner Oper Unter den Linden angeführt, in der sich der Cyberspace seinen Platz als akustischer Raumvergrößerer erkämpft hat.

Diesmal soll ein engerer Rahmen gezogen werden: Wie ist eigentlich das Verhältnis von Technik und Musikinstrument? Gibt es einen Punkt, an dem Instrumente technisch wurden, und ist dieser Zeitpunkt mit der Elektrifizierung von Musikinstrumenten, also beispielsweise der Verbreitung der Synthesizer Mitte des letzten Jahrhunderts, gleichzusetzen? Ich denke, traditionelle Instrumentenkunde impliziert bisweilen mit ihrer Einteilung der Instrumente etwa in Chordophone, Aerophone, Idiophone, Membranophone und schließlich Elektrophone (siehe Ziegenrücker, Wieland (1998): ABC Musik – Allgemeine Musiklehre, S.208 f.) genau dies, oder ebnet Missverständissen den Weg. Denn die elektronische Art der Klangerzeugung der letztgenannten Kategorie rechtfertigt meiner Meinung nach nicht die Öffnung der Kluft zwischen natürlichen und technischen Instrumenten.

Die Vermutung ist: Wenn Musik zumindest heutzutage nicht mehr als nicht-technisch gedacht werden kann, so konnten Musikinstrumente noch nie als nicht-technisch gedacht werden, zumindest nicht seit Beginn der Instrumentalisierung, der Befreiung des Musikinstruments aus dem Rahmen des Körpers des Musizierenden selbst. Doch auch die Stimme selbst ist ein Instrument, dass mit (Atem-)Technik gespielt wird. Und bei einem Trommelworkshop vor einigen Jahren zeigte man mir eine besondere “Klatsch-Technik”, bei der nur die Handflächen, nicht die Finger, zusammengeführt werden, doch das führt zu weit.

Betrachten wir den Beginn der Instrumentalisierung als Moment der Loslösung der Musizierpraxis vom menschlichen Körper, also mit Aufkommen simpler Trommeln oder Knochen- und Elfenbeinflöten. Die ältesten Musikinstrumentenfunde stammen aus der Geißenklösterle-Höhle am Südrand der Schwäbischen Alb und sind laut SZ-Wissen, Ausgabe Januar 2006, rund 35000 Jahre alt. Der Stand der handwerklichen Fertigkeiten, der Stand der Technik, erlaubte Musikinstrumente mit stark begrenztem Tonumfang, die aus heutiger Perspektive primitiv anmuten.

Ein großer zeitlicher Sprung: Die mittleren und späten Werke Joseph Haydns sind mitunter stark beeinflusst durch die klanglichen Möglichkeiten, die das gerade aufkommende Hammerklavier bot. Es sind Werke, denen man die Begeisterung für diese neue Technik, die Hammermechanik, anmerkt.

Die Simulationsfähigkeit der Allzweckmaschine Computer bietet, um den nächsten großen Sprung zu vollziehen, den derzeitigen Stand der Technik: Simulationen von Musikinstrumenten, oder besser gesagt: Klangkörpern, sind die logische Folge.

Technik und Instrumentenbau haben sich, als Zusammenfassung dieses sehr kurzen Abrisses des Instrumentenbaus, immer schon gegenseitig bedingt. Ich denke, dass es eine gewisse romantische Kodierung der Gesellschaft gibt, auf die auch Michael Harenberg hinweist. Diese Kodierung zieht die Grenze zwischen natürlichen und technischen Instrumenten, neuerdings vielleicht zwischen natürlichen und virtuellen Instrumenten. Für Michael Harenberg muss gelten,

daß die Unterscheidung zwischen „natürlichen“ und technischen Instrumenten eine weitgehend künstliche ist. „Natürlichkeit“ als ideologischer Ausdruck bürgerlicher Sehnsuchtsphantasien des 19. Jahrhunderts muß als Entscheidungskriterium obsolet bleiben. Gegenstand der Instrumentenbauer aller Epochen sind technische (Musik)Maschinen, auf der Höhe der jeweiligen Produktivkraftentwicklung. (http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S.9)

Continue reading “Technik und Musikinstrumente”

Impressum

Geboren 1981 in Berlin/Spandau, aufgewachsen bei Minden/Westf., Abitur im Jahr 2000 am Städtischen Gymnasium Petershagen. Nach dem Zivildienst Studium für das Lehramt an Gymnasien mit den Fächern Musik/Biologie an der Universität Osnabrück, Abschluss mit Auszeichnung im Sommersemester 2007. Derzeit Promotion bei Prof. Dr. Bernd Enders (systematische Musikwissenschaft), Mitglied der Forschungsstelle Musik- und Medientechnologie (FMT) der Universität Osnabrück. Seit Anfang 2012 wissenschaftlicher Mitarbeiter am Institut für Musikwissenschaft und Musikpädagogik der Universität Osnabrück

Der Name des Blogs ist einer Feststellung eines Textes von Allucquere Rosanne Stone entlehnt:

(…) I find it hard to think of any artifact as being devoid of agency. Accordingly, when the dryer begins to beep complainingly from the laundry room while I am at dinner with friends, we raise eyebrows at each other an say simultaneously, “The machines are restless tonight…”

(Allucquere Rosanne Stone: Will the Real Body Please Stand Up?: Boundary Stories about Virtual Cultures; in: Bendedikt, Michael: Cyberspace – First Steps; S.81-118)

Hinweis:

The restless machine hat keinen Einfluss auf Gestaltung und Inhalt sämtlicher verlinkter Internetseiten,  Arne Bense distanziert sich hiermit von allen fremden Inhalten und Links, auf die über therestlessmachine.de verwiesen wird.

Kontakt:

arne (at) sampleparkrecords.de

Computer und Musikkunst

Nachdem im letzten (und ersten) Beitrag die beiden Hauptthemen des Blogs genannt wurden (Virtualisierung/ Musikalische Interfaces) soll es diesmal um das Verhältnis von Instrument und Technik, vielleicht noch weiter ausholend, um Musik und Technik gehen. Die Standpunkte, von denen ich hier ausgehe, finden sich in Texten von Michael Harenberg, sie sind zum Download verfügbar auf dem exzellenten Audioserver der Universität Lüneburg.

Der Computer, als von Turing entworfene Universalmaschine, ersetzt und/ oder simuliert zunehmend Verfahren, technische Prozesse und Apparate von der Komposition, der Klangerzeugung, der Klangbe- und -verarbeitung bis zur Klangspeicherung und ihrer digitalen Distribution. (http://audio.uni-lueneburg.de/texte/harenberg_rationalisierung.pdf; S.1)

Virtuelle Umgebungen haben in einer Zeit, in der große analoge Mischpulte in den Tonstudios oftmals nur noch zu Repräsentationszwecken stehen, einen immer größeren Anteil an der Produktion von Musik(erlebnissen). Wir benutzen sie in Form von virtuellen Instrumenten, Aufnahme-Software, sie sind Speicher und Abspielgeräte für unsere digitale Musiksammlung.

Im Unterschied zu technischen Verfahren und Ideologien früherer Entwicklungen fällt auf, daß sowohl Einsatz als auch Gebrauch von Computern (hier im weitesten Sinn, also auch digitale Studioperipherie etc.) zwar quantitativ dominierend geworden, qualitativ aber unspezifischer handhabbar sind. (http://audio.uni-lueneburg.de/texte/harenberg_rationalisierung.pdf; S.1)

Ob man ein virtuelles Instrument mit Hilfe eines Midi-Keyboards spielt, oder es mit einem Sequenzer, also einer virtuellen Vielkanal-Bandmaschine aufnimmt, ist in der Praxis je nur ein paar Mausklicks entfernt, der Computer ist dabei aber in einer gänzlich anderen Rolle. Im einen Fall ist er lediglich ein Klangerzeuger, im zweiten ein Midi- oder Audiorecorder (auch jeweils wieder zwei sehr verschiedene Dinge). Michael Harenberg schreibt dazu, dass

Musik letztlich nicht mehr als „nicht-technisch“ gedacht werden kann, bzw. ihre Produktion und Reproduktion immer schon „Technik“ – in welcher Form auch immer – impliziert. (http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S.1)

Dazu ein Beispiel. Im letzen Jahr war ich auf der “Nacht der offenen Tür” der Staatsoper Unter den Linden in Berlin und habe eine Führung des tontechnischen Leiters besucht (dessen Namen ich leider vergessen habe), der uns Folgendes erzählte: Die Staatsoper verfügt über eine technische Einrichtung zu Klangverbesserung. Der Saal hat aufgrund seiner eher unvorteilhaften Bauweise, vor allem der – natürlich unter Denkmalschutz stehenden – Wandverkleidung, einen sehr geringen Nachhall, der Klang kippt zu schnell weg. Um dies auszugleichen, hat man ein System zur Verlängerung der Nachhallzeit installiert. Zwei Mikrofone hoch über dem Orchester fangen den Raumklang auf. Die zwei Kanäle durchlaufen dann Halleffekte (von Lexicon natürlich) und werden auf mehrere Spuren mit jeweils unterschiedlicher Nachhallzeit verteilt. Diese Kanäle werden nachfolgend über dutzende Boxen, die sich sichtbar und unsichtbar überall im Saal befinden, abgespielt, wobei die Kanäle mit den leicht unterschiedlichen Hallzeiten ständig die Boxen wechseln, damit dieser Fremdklang möglichst diffus bleibt. Dies ist eine der technischen Installationen, gegen die der im Bezug auf seine Arbeit eher technikfeindliche Generalmusikdirektor Daniel Barenboim keine Einwände hatte. Die akustische Illusion ist perfekt, man sieht auch kaum etwas davon, keine Kabel, keine Technik, keine blinkenden Lämpchen. Das Opernerlebnis in der Berliner Staatsoper ist also ein technisch geschöntes, durch den synthetischen Hall im Grunde auch ein digitales Klangereignis. Wer also meint, ein Besuch in der Staatsoper sei ein Abend vollkommen im real life, der irrt.

Es geht los.

The Restless Machine wird sich vor allem zwei Themen widmen, die beide im Zentrum von Diskussionen der neueren Instrumentenkunde stehen.

1. Das Interface.

Die fortschreitende Modularisierung von Musikinstrumenten. Modularisierung ist eine der wichtigen Phasen in der Entwicklung elektronischer Instrumente und hat ihren Anfang nicht erst mit den sprichwörtlichen modularen Synthesizern der 60er Jahre.

Was bedeutet Modularisierung?

Die Modularisierung brachte letztlich die vollständige Trennung von klangerzeugenden Elementen des Instruments (dem Generator) und dem klangsteuernden Element (dem Interface). Beide Teile lassen sich unabhängig voneinander gestalten. Der klassische, analoge Synthesizer hat zwar als Interface meist eine Klaviatur, diese ist aber nur eine – wenn auch populäre – Methode zur Klangsteuerung. Schon früh in der Entwicklungsgeschichte elektronischer Musikinstrumente sind andere Interfaces zum Einsatz gekommen, zum Beispiel beim in den 30er Jahren des letzten Jahrhunderts entwickelten Trautonium, dessen Klang durch die Verwendung im Soundtrack von Hitchcocks Die Vögel weltberühmt wurde. Das Trautonium verfügt über zwei über eine Metallschine gespannte Drähte, so geannte Bandmanuale, die mit dem Finger berührt und auf die Metallschine heruntergedrückt wurden. Auch Bob Moog entwickelte für seine Synthesizer Bandmanuale, die Klaviatur setzte sich als Eingabegerät allerdings durch und ist heute so weit verbreitet, dass in Vergessenheit zu geraten scheint, dass Klang auch ganz anders gesteuert werden kann. Das Bandmanual ist als solches eher eine Art Kuriosum geworden und nur noch wenig zu sehen, im verlinkten Video wird es von Radiohead eingesetzt: Cymbal Rush (das Stück ist im Original auf Thom Yorkes Soloalbum “The Eraser” zu finden). Die modernen Controller “Kaoss Pad” oder “Kaossilator” von Korg stehen mit ihrem berührungssensitiven XY Pad in der Tradition des Bandmanuals, das im Prinzip als eindimensionaler Touchscreen gedacht werden kann.

Die Fixierung auf die Klaviatur als Interface für elektronische Instrumente (auch für den Computer als Multiinstrument) ist eine Hürde für den Einstieg von Nicht-Pianisten in die elektronische und elektroakustische Musik. Neue Interfaces sind gefordert.

2.Virtualität

Die Virtualisierung von Musikinstrumenten, oder präziser gesagt, ihre teilweise Verlagerung in den Cyberspace, ist das zweite große Thema des Weblogs. Der Umgang mit vollständig modularen, neuerdings größtenteils virtuellen Klangerzeugern führt uns vor Augen, wie dringend Instrumentenkunde neu gedacht werden muss. Doch dazu später mehr.