Gedanken zur Laptopmusikkultur 2 – über das Musikinstrument “an sich”

Der letzte Eintrag ist schon eine Weile her. Nicht, dass es nicht genug Themen gegeben hätte, aber ich musste meine Dissertation etwas voranbringen und hatte meist einfach nicht die Energie und Zeit, dann noch etwas zum Blog hinzuzufügen.

In einem Eintrag, den ich vor ziemlich genau einem Jahr gepostet habe, ging es um die Frage, ob man überhaupt (noch) sinnvoll zwischen DJs und “Laptopisten” (im Sinne von “Musikern”) unterscheiden kann. Ich habe mich nie als DJ gesehen, werde aber im Rahmen von Auftritten immer mal wieder gefragt, “wann ich denn auflege”. Die Tatsache, dass beide Gruppen die gleichen Werkzeuge (Instrumente) benutzen, ist ja relativ schnell eingestanden. Seinerzeit hatte ich versucht, das Thema musikimmanent anzugehen und war letztlich zu keinem wirklich befriedigenden Ergebnis gekommen. Mit der Idee der “Medienmusik” von Rolf Großmann zeichnete sich aber schon ab, dass die diskutierten Unterscheidungen schwer zu halten sein würden (der Artikel von Großmann (1997) ist hier online verfügbar). In einem kürzlich erschienen Artikel im großartigen Sammelband “Klang (ohne) Körper” geht Großmann noch einmal auf das gleiche Thema ein (Großmann, R. 2010: “Distanzierte Verhältnisse? Zur Musikinstrumentalisierung der Reproduktionsmedien”. In: Harenberg, M. & Weissberg, D. (Hg.), Klang (ohne) Körper. Spuren und Potenziale des Körpers in der elektronischen Musik. Bielefeld: Transcript). Dass der Platz hinter den Turntables mit einer Aufführungssituation verbunden ist und ein DJ keine lebende Jukebox ist, sind nur die ersten Feststellungen in einem Erkenntnissprozess, der am Ende eine weitgehende Nivellierung offenbar nachträglich eingeführter und künstlich aufrecht erhaltener Unterscheidungen bedeutet.

Auf einer Party ›die Musik zu machen‹, meinte schon in den 1980ern keineswegs den Griff zum Instrument oder die Mitwirkung in einer Band, man war stattdessen mit ›Auflegen‹ an der Reihe. Ein deutlicher Hinweis darauf, dass auch die Reproduktionsmedien eine Aufführungspraxis begründen, also etwas, das dem instrumentalen Spiel vorbehalten schien. (Großmann 2010: 183)

Weil sich in der Vergangenheit die Interfaces deutlich unterschieden, gab es keine große Notwendigkeit, Entscheidungen auf anderen, z.B. musikalischen Ebenen suchen zu müssen. Spätestens mit der Einführung des Computers in die Musikkultur war diese Methode der Unterscheidung allerdings obsolet. Die Geräte, die fortan auf den Bühnen standen, glichen sich – leuchtende Apfellogos hüben wie drüben, etwa. Musikbezogene Unterscheidungen zwischen dem “Abspielen” und “Spielen” von Tönen mussten für eine weitgehend künstliche Aufrechterhaltung herangezogen werden. Allerdings trifft die Idee, dass der Interpret im Medienkonzert immer eine gewissermaßen schon “halbfertige” Musik formt, sowohl den DJ, als auch den “Laptopisten”, der mit seinen Sequenzer-Programmen ja meist auch mit musikalischen Makros (Audio-, MIDILoops, Samples, Arpeggiatoren) spielt. Ist der Laptop am Ende also überhaupt kein Instrument, beziehungsweise, ist der Laptopist am Ende bloß ein DJ?

Großmann geht, wie im Zitat erkennbar, davon aus, dass der Umgang mit Repoduktionsmedien in großen Teilen von Anfang an (er zitiert auch ältere Texte, die elektrische Medien als eine Art Universalinstrument ansehen) mit Aufführungssituationen und insofern auch mit instrumentalem Spiel verbunden war. Er fordert in diesem Zusammenhang, die ontologische Perspektive, etwas sei per se (k)ein Musikinstrument, aufzugeben. Die oben diskutierten Unterscheidungen werden damit entschärft bis hinfällig:

Musikinstrumente im kulturellen Sinne sind allerdings mehr als nur Musikerzeuger. Entscheidend für ihre Entwicklung ist die Einbindung in die kulturelle Praxis des instrumentalen Spiels von Musik. eine solche kulturelle Verankerung ist an einer konventionalisierten kommunikativen Rahmung des Spiels eines Instruments zu erkennen, die gleichzeitig die Voraussetzung für eine kollektive Entwicklung von Spieltechniken und musikalischen Gestaltungsoptionen bildet. (Großmann 2010: 194)

Diese kulturwissenschaftliche Herangehensweise ist natürlich nicht beliebig, nicht frei von Bedingungen. Sie könnte allerdings tatsächlich dazu beitragen, überkommene und letztlich haltlose Unterscheidungen abzulösen. Großmann nennt eine Reihe von Kriterien, die zu einer Strategie gehören, die von den Lüneburger Musikwissenschaftlern hoffentlich noch ausgebaut wird.

Verbreitete Praxis, instrumentenspezifische Schulenbildung, Notation und Virtuosität sind Merkmale des kulturellen Settings eines Musikinstruments. (Gr0ßmann 2010: 194)

Add-on:

Wer die Benjamin’sche Aura eines Konzerts durch die Integration der Medieninstrumente in die Aufführungskultur gefährdet sieht, für den habe ich folgendes Zitat als Abschluss herausgesucht:

Zu den auratischen Gegenständen dieser neuen Aufführungskultur gehören – wie in der traditionellen Praxis auch – entsprechend die neuen Instrumente der Performance: statt Violine, Klarinette oder E-Gitarre erscheinen Plattenspieler, Synthesizer und Sampler als Medieninstrumente. (Großmann 2010: 192)

Auf der Suche nach der musikalischen Handlung im Laptop-Konzert

Am 7.3 ist das nächste Konzert (CD-Release) unserer Neotango Formation Etango (Besetzung: Akkordeon, Geige, Gitarre, Laptop) Ich bin als Laptopist der Band live für Beat, Bass und Synths zuständig und überlege mir gerade, wie ich die neuen Stücke live umsetze. Es gibt mehrere Möglichkeiten:

Da ich vollen Zugriff auf die Studio-Aufnahmen habe, könnte ich einfach einen Mixdown der Tracks ohne Geige etc. machen und diesen dann auf dem Konzert abspielen. Dafür bräuchte ich keinen Rechner, das ginge auch mit einem CD-Player. Meine Handlung als Musiker auf der Bühne würde sich dann auf das Starten und Stoppen der einzelnen Tracks beschränken, die Stücke, Soli etc. wären in der Länge festgelegt. Hört sich langweilig an und kommt in dieser Form auch nicht in Frage, kann hier aber zunächst als ein mögliches, wenngleich extremes Beispiel für live-elektronischen Umgang mit Musik gelten. Musiksoftware, insbesondere DAWs werden, das habe ich in einem früheren Eintrag geschrieben, immer noch eher als virtuelle Tonbandgeräte mit linearer Zeitstruktur benutzt, obwohl sie sich eigentlich von dieser Linearität lösen könnten.

Mein Vorgehen war daher bislang eher das genaue Gegenteil. Ich habe alle Spuren der Arrangements getrennt in einer “Ableton Live” Session neu arrangiert, also BD, Snare, HH, Perc, Bass, Synth1, Synth2…. jeweils in einer (vertikalen) Spur, um Lautstärke und Effektparameter der einzelnen Spuren noch in der Hand zu haben. In der Session-Ansicht läuft eine “Szene”, eine horizontale, zeilenhafte Sammlung von Samples und Loops, so lange in einer Schleife, bis ich eine andere Szene anwähle, also prinzipiell endlos. Das erlaubt dem Musiker eine sehr flexible Handhabung von einzelnen Songteilen. Er entscheidet von Takt zu Takt, welches musikalische Ereignis anschließt. Dies kommt, so sollte man vermuten, musikalischem Umgang mit dem Rechner schon nahe, jedenfalls was die konkrete und spontane Gestaltung des musikalischen Materials von Moment zu Moment angeht. Auch Solos der anderen Musiker können so beliebig lang gestaltet werden.

Ableton Live "Session View": Beim Anwählen einer Szene erklingt die gesamte Zeile der Session

In der Praxis meiner Aufführungen fand ich diesen Weg zunehmend uninteressant. Das rechtzeitige Drücken von bestimmten Tasten für bestimmte Szenen, also “Intro” “Intro mit mehr Drums”, “A-Teil”, “B-Teil”, “Thema” etc. erschien mir zunehmend gerade nicht als musikalische Geste, sondern als ein bloßes “Next” musikalischen Materials. Also doch bloß wieder der erweiterte CD-Player? Anstoß dieser Überlegungen war, dass mir durch das ständige Umschalten der Szenen nicht genug Freiraum für die Modulation der klanglichen Parameter blieb, also Filterverläufe, Delays, Schredder und so weiter. Die Steuerung dieser Klangparameter über meine USB-Interfaces (Behringer BCF 2000, Novation Nocturn, siehe Email-Paradigma) erscheint mir als musikalisch wichtigere Geste als der tatsächlich voll flexible Umgang mit dem Arrangement durch Anwählen der einzelnen Songteile.

Ich bin dann auf eine Art “erweitertes Arrangement” umgestiegen. Diejenigen Teile, die ohnehin einen festen Ablauf haben, folgen entsprechend auch fest aufeinander. Ich habe in diesem Fall mehr Kapazität für Effekte, für die direkte Modulation des klanglichen Materials. Über das Setzen von Markern habe ich mir allerdings die Möglichkeit offen gelassen, in Fällen eines Solos oder ähnlichem einen Songteil gezielt anwählen zu können. Der Marker im Arrangement hat dann die gleiche Funktion wie die Szenen in der Session-Ansicht. Ich kann zum Anfang des nächsten Taktes (oder der nächsten Zählzeit) zu einem anderen Abschnitt springen, wichtig etwa bei einer Tonart-Modulation “on cue” in einem Solo, und habe ansonsten die Hände frei für den Eingriff in die Klangstruktur der Synthies, der Snare etc.

Arrangement Ansicht mit Markern, die sich anwählen lassen

Fazit:

[Dies sind Beobachtungen zweiter Ordnung des Beobachters Arne Bense. Blinde Flecken sind nicht nur nicht ausgeschlossen, sondern bereits in der Beobachtung inbegriffen]

Die Ableton-Live Praxis hat also bei der Frage, wie genau der Computer als Instrument benutzt werden kann und was überhaupt eine musikalische Handlung sein könnte, für mich wichtige Impulse geliefert. So steht die Beeinflussung klanglicher Parameter einzelner Spuren oder des Gesamtklangs für mich über der Möglichkeit der jederzeitigen Kontrolle der Abfolge der Songelemente.

Für Ableton-Insider:

Die Ableton Live “Session-Ansicht” ist tatsächlich hauptsächlich für spontanes Arbeiten mit musikalischen Einfällen, eine Session mit mehreren Laptops oder anderen Instrumenten etwa, geeignet. Eine Aufführung eines “fertigen” Werks ist aus oben genannten Gründen jedoch eher über ein Arrangement zu realisieren. Schon allein von der Bezeichnung her ist die Session-Ansicht ja nicht die Live-Ansicht, sondern eben die Session-Ansicht. Der Oberbegriff Ableton “Live” beinhaltet ja beides, Session- und Arrangement-Ansicht.

Es gibt weitere Möglichkeiten der Verschmelzung beider Ansicht-Typen, zum Beispiel die Follow-Actions der Session-Ansicht. Damit habe ich bisher noch nicht experimentiert. Es wäre so aber beispielsweise ebenfalls möglich, den Ablauf des Stückes weitgehend zu automatisieren, bis zu einem Punkt (ein Solo etwa), an dem man dann über den weiteren Verlauf zu entscheiden hat.

Laptopisten, Notebookisten und das “Email-Paradigma”

Laptopkonzerte stoßen in der Musik- und Medienszene auf ein sehr geteiltes Echo. Vor allem der mangelnde performative Aspekt wird teils zurecht bemängelt. Auf medienwissenschaftlichen Tagungen und in einschlägigen Artikeln in Blogs, Magazinen und Büchern hört und liest man immer wieder, ein Laptopist sähe beim Musizieren aus wie jemand, der gerade seine Emails abruft. Dieses “Email-Paradigma” weist auf die Problematik der musikalischen Interfaces hin. Maus und Tastatur, die man in erster Linie mit Textverarbeitung und Dinge-in-den-Papierkorb-verschieben in Verbindung bringt, sind in der Live-Musik tatsächlich eher ungeeignete Werkzeuge (Instrumente), will man dem Publikum sein Spiel auch körperlich nachvollziehbar machen (Stichwort: Spiegelneuronen, aber dazu nichts an dieser Stelle). Zurück zum Kern des “Email-Paradigmas”:

But looking like I’m checking e-mail, I’m not getting any female.

Plantinga, Pascal: A Hammer A Day Keeps The Headache Away, Audio-CD. Zitiert nach: Dahlke, Kurt: Die Rehabilitierung des Körpers in der elektronischen Musik. In: club transmediale/ Jansen, Meike: Gendertronics.Der Körper in der elektronischen Musik. Frankfurt/Main: Suhrkamp. S.45.

Im (musik-)wissenschaftlichen Kreis wird der zweite Teil des Satzes meist unterschlagen (ist er doch allenfalls in evolutionsbiologischer Perspektive interessant). Kurt Dahlkes Artikel im Suhrkamp-Bändchen “Gendertronics” bezieht sich, nachdem er Plantinga zitiert hat, dann auch eher auf neue musikalische Interfaces:

Es ist in meinen Augen zuallererst die Unfähigkeit, die Möglichkeiten des neuen Mediums Computer in der Welt der Musik adäquat umzusetzen und zu einer Ausdrucksform zu finden, die menschliche Gefühle so zu artikulieren vermag wie jemand, der auf einer Violine spielt.

Dahlke, Kurt: Die Rehabilitierung des Körpers in der elektronischen Musik. In: club transmediale/ Jansen, Meike: Gendertronics.Der Körper in der elektronischen Musik. Frankfurt/Main: Suhrkamp. S.45.

Die von Kurt Dahlke angesprochene Unfähigkeit, kreative, musikalische Umgangsformen mit der Allzweckmaschine Computer zu entwickeln, hat wohl mit McLuhans Rückspiegel-Perspektive auf neue Medien, auf neue technologische Entwicklungen insgesamt, zu tun.

Um diesem Manko zu entkommen, bedarf es einer »neuen Brücke« zwischen Körper und Technologie, neuer technischer Möglichkeiten – und zwar nicht nur in kreativer Hinsicht, sondern als performance-orientierte Werkzeuge einer neuen Aufführungspraxis, der die Handhabung klassischer Musikinstrumente zugrunde liegt, ohne die technologischen Fortschritte der elektronischen Musik zu verleugnen.

ebd.

Hinter diesem Zitat steht die auch in diesem Weblog bereits beschriebene prinzipielle Unabhängigkeit von Interface/Klangsteuerung und Generator/Klangausgabe. Ein virtueller Klangerzeuger kann heutzutage nahezu klingen, wie er will. Es ist kein Real Life Klangkörper mehr vonnöten. Für den Ton ist insbesondere auch kein spezifisches oder gar musikalisches Interface nötig. Der Klang löst sich vom Körper. Neben dem ausgezeichneten Berner Forschungsprojekt Klang (ohne) Körper (HdK Bern) sind zur Zeit das Musikwissenschaftliche Institut der Universität Köln, der Schwerpunktbereich ((audio)) der Lüneburger Leuphana Universität und die Forschungsstelle Musik- und Medientechnogie (FMT) an der Universität Osnabrück Orte, die sich intensiv mit neuen Instrumentenrealitäten befassen.

Computer bieten mittlerweile vielfältige Möglichkeiten, Interfaces zwischen Mensch, Maschine und Musik zu stellen, die in der Lage sind, immer komplexere Signale auch tatsächlich umzusetzen. Sie kommen der Erforschung und dem Spieltrieb ebenso zugute wie der Aufführung – warum sie also nicht nutzen?

ebd.

Es sei noch kurz auf Kurt Dahlkes/ Pyrolators Weblog hingewiesen.