Fade Out Lines – Maximum Warp

Derzeit relativ hoch in den iTunes Single Charts (#3) findet sich ein Track namens “Fade Out Lines” von “The Avener”. Der ist in mehrerer Hinsicht spannend und war Anlass für Spekulation (ich meine die folgenden Absätze nicht abwertend, ich bin nur den aktuellen Produktionswegen und ästhetischen Strategien auf der Spur).

Man hat gleich den Eindruck, dass hier ein bestehendes Stück gesampelt, bzw. im Tempo verändert und mit zusätzlichen Sounds (Kick, Claps/Snare, Synthbass) unterlegt wurde. Die übermächtige Kick passt irgendwie nicht so ganz zur ansonsten nach akustischem Retrofilter klingenden Produktion. Es ist also vermutlich ein Remix, bei dem man die Attribution “vergessen” hat – denn das “Original” verrät der Titel ja nicht. Spannend, denn meist schreibt der Remixer, offiziell oder inoffiziell, den Namen des ursprünglichen Interpreten ja mit in den Titel oder setzt voraus, dass man den Künstler des als Original gesetzten Stückes kennt.

Die Soundqualität ist dabei insgesamt ziemlich miserabel (damit meine ich nicht das unüberhörbare Grundrauschen oder den generellen Retro-Ansatz, das ist alles schon ganz gut getroffen und passt weitgehend zusammen). Es klingt einfach, als sei das Material kaputt, zu drastisch verformt, es wabert und schwabbelt im Basston, die Hihiats sind ziemlich im Eimer und klingen nicht mehr tight (das liegt nicht am Youtube-Clip). Hier hat also jemand – vermutlich mit Ableton Live – den Originalsong tonhöhenunabhängig im Tempo verändert (leider wohl, ohne den Pro-Algorithmus zu verwenden, aber auch das ist Spekulation), mit Clubkick und -sounds versehen, dann bei Soundcloud o.ä. hochgeladen und nach einer gewissen Zahl an Clicks & Likes ist dann das Label aktiv geworden und hat hier das clearing übernommen, damit es auch ein offizielles Release für iTunes etc. werden konnte – mit großem Erfolg offenbar. Anders ist es ja bekanntermaßen bei Robin Schulz auch nicht gelaufen. Shameless self-plug: wir sind übrigens derzeit mit Robins Album “Prayer” auf Platz 7 der deutschen Album-Charts 🙂

Man stößt bei einer kurzen Netzrecherche natürlich sofort auf den ursprünglichen Song, viele Berichte über The Avener weisen auch explizit darauf hin: er ist von Phoebe Killdeer & The Short Straws: The Fade Out Line, 2012. Ob es eine noch ältere Version des Tracks gibt weiß ich nicht, diese hier hat The Avener jedenfalls für seinen Remix benutzt und die knapp 100bpm auf ca. 119bpm hochgeschraubt. Fade out Lines von The Avener ist also ein Track, der ein älteres Stück sampelt, dass selbst retro klingen möchte und noch gar nicht so alt ist, wie es zunächst wirkt.

Das mag man mit kleinen Ohrstöpseln nicht so mitbekommen, auf Studiomonitoren kann man sich das allerdings kaum anhören, vor allem mit dem Original im Vergleich. Auch im Club klingt der Track nicht so richtig, was unter anderem am wabbeligen Basston liegen könnte. Die überlaute Kick sollte wahrscheinlich versuchen, dies zu kaschieren.

Wann legt ihr denn auf? Gedanken zur Laptopmusikkultur

Der Auftritt meines Laptop Duos Jitter am vorletzten Wochenende in Hannover lieferte wieder mal einiges an Diskussionsstoff zum Thema Email-Paradigma, DJ-Kultur und musikalische Interfaces. Ich habe den Eindruck, dass hier grundlegende und tatsächlich neue musik- und medienwissenschaftliche Fragen nicht ausreichend beantwortet sind. Es ist zwar toll, in diversen Blogs auf faszinierende neue Interfaces zu stoßen, da passiert ja nach einer Zeit expansiven Wachstums des akustischen Cyberspace eine ganze Menge. So lange mir aber zum Beispiel nicht ganz klar ist, wo es und ob es überhaupt einen charakteristischen Unterschied zwischen Laptop-Livemusik und DJ-Kultur gibt, habe ich das Gefühl, dem ganzen fehlt ein theoretischer Unterbau. Es fehlt ein Werk wie “Versuch über die wahre Art das Clavier zu spielen” von C.P.E. Bach für die heutige Zeit, ein “Versuch über die wahre Art den Computer zu spielen”. Dieser Artikel ist bestimmt gerade dies nicht, aber er ist im besten Fall eine Art reflektierter Standpunkt. Ein hoffentlich unvoreingenommener Blick eines Musikers auf die DJ-Culture und wieder zurück auf den Laptop als Multi-Instrument.

Stein des Anstoßes für diesen Eintrag war eine Frage, die ich vor unseren Auftritten schon des öfteren gehört hatte: „Wann legt ihr denn auf?“ Den Reflex, darauf mit „wir spielen dann und dann…” zu antworten, habe ich schon vor längerer Zeit zu unterdrücken gelernt, vielleicht zunächst einfach aus Nachsicht. Es ist offensichtlich, dass es für das Publikum (haben DJs ein Publikum? Bestimmt, nur die beiden Begriffe passen für mich nicht so richtig zusammen. Tänzer sind das Publikum der DJs?!) nicht mehr wirklich transparent ist, was genau da mit den unsichtbaren Maschinen in den Laptops angestellt wird. Ich denke auch, dass diese Frage unabhängig von den benutzen Interfaces beantwortet werden kann und muss, schließlich hatte mein Kollege Björn ein Keyboard dabei, mit dem er Basslinien etc. live eingespielt hat. Neulich auf dem Open Source Festival in Düsseldorf war es sogar für mich schwierig zu beurteilen, was die Duos und Trios auf der Elektrobühne da machten (letztlich sind ja die Geräte von schräg unten immer schwer einzusehen, gerade wenn es keine Laptops sind, sondern Grooveboxen, Sequenzer oder auch digitale Turntables). Kurz: auch ich selbst musste mich fragen, was mich als Laptopist von einem DJ unterscheidet, und ob diese Unterscheidung überhaupt Sinn macht.

Der etwas brüskierte Reflex des traditionell-konservativ ausgebildeten Musikers, der ganz sicher nicht mit der sprichwörtlichen “Rollenden Mobildisco” in Verbindung gebracht werden möchte, die Hit um Hit tatsächlich nur nacheinander auflegt, ist zwar verständlich, aber ein wenig zu beengt gedacht (Achtung: dies sind Beobachtungen 2. Ordnung, die vorgeben oder zumindest versuchen, die eigene Standortgebundenheit zu reflektieren). Auch in der DJ-Culture gibt es ja Klangparameter, die live modelliert werden, von den Effekten wie Low-/Highpass Filtern oder Phasern, bis zur Ineinandermischung verschiedener – allerdings vorher meist gekaufter – Tracks, um den Fluss der Beats nicht zu unterbrechen. Drei Aspekte fallen mir dazu mehr oder weniger spontan ein:

Ich denke erstens nicht, dass man ernsthaft bestreiten kann, dass ein DJ zunächst prinzipiell musikalische Fähigkeiten haben muss, es sei denn, er legt bei Omas Kaffeekränzchen einen Sampler mit Liedern von Roy Black auf und seine Handlungen beschränken sich auf das Drücken der Play-Taste und der Einstellung einer dezenten Lautstärke. In einem Artikel über meine Leib- und Magensoftware Ableton Live hatte ich ja schon geschildert, dass die Echtzeit-Beeinflussung von Klangparametern für mich im Liveeinsatz die spannendere und durchaus musikalischere Alternative zur bloßen flexiblen Festlegung von Abläufen eines Stückes ist.

Zweitens ist Computermusizieren heute in gewisser Hinsicht immer schon eine Art Mikro-Auflegen, zumindest, wenn man dabei auf Sampler oder Sequenzer zurückgreift: Rhythmische Elemente (beim Sequenzer) oder klanglich aufgenommene, gespeicherte und später wiedergegebene Klänge (beim Sampling) sind im Spiel. Jeder gängige Sequenzer (Cubase, Logic, Live, etc.) erlaubt das Abspielen von Loops neben der Einbindung virtueller Instrumente, die dann über ein Keyboard oder ähnliches (oder ganz und gar unähnliches) gespielt werden können. In der Software ist also Wiedergabe und Echtzeit-Klanggestaltung bereits – untrennbar – miteinander vermischt. Der Laptopist ist auf die ein oder andere Weise meist ein Micro-DJ.

Das musikalische Live-Spiel im Sinne von “jetzt diesen Ton, dann jenen Ton, dann eine Pause, dann diesen Ton” ist drittens eine spezifische musikalische Fähigkeit, das möchte ich als konventionell ausgebildeter Musiker zumindest feststellen. Die Möglichkeit, durch Improvisation live und direkt intendierte, im Kopf vor-empfundene Tonfolgen zu gestalten, ist eine wichtige Komponente musikalischen Handelns und erlaubt eine immense Vielfalt der erzeugten Klänge. Ich glaube allerdings nicht, dass dies der Unterschied ist, der einen Unterschied ausmacht. Improvisation hat heute nicht mehr den Stellenwert, den sie in vorausgegangenen musikalischen Epochen hatte, und es ist außerdem ja nicht einmal so, dass DJs in ihrem Set nicht auch in die Tonhöhe der Musik eingreifen könnten.

Feststellungen:
a) Eine zunächst denkbare Unterscheidung wie: „Hier wird die Musik live gespielt und dort wird sie bloß wiedergegeben“ muss als verkürzt, bestenfalls als überholt gelten. Es kann auf der anderen Seite allerdings auch kaum um die bloße Einebnung der Begriffe “Musizieren” und “Auflegen” gehen. Beide sind womöglich weit besser als Extrempunkte zu begreifen, die in einer Art Diskurs das Spannungsfeld eröffnen, in denen Laptopmusik heute statt findet. Der Unterschied zwischen Livemusik und DJing kann allenfalls als gradueller Unterschied gedacht werden.

b) Eine Unterscheidung, so sie denn eingeführt werden kann, kann sich nicht auf die erzeugte Klang- oder Frequenzstruktur oder die Manipulation dieser beziehen.

c) Musizieren ist musikalisches Handeln, und dies ist als komplexe Kulturtechnik zusammengesetzt aus einer Reihe von Parametern, die nicht ontologisiert werden dürfen und gesellschaftlich bedingt neu und mit neuer Technik in anderer Gewichtung zusammengesetzt werden können.

Diese Feststellungen führen unter anderem zum Passus der Medienmusik, wie Rolf Großmann ihn bereits 1997 in diesem auch online verfügbaren Text beschreibt. Großmann hinterfragt die Kontinuität musikalischer Handlungszusammenhänge und betont den Umbruch der musikalischen Praxis, der mit der Tonaufzeichnung der elektronischen Medien begonnen hat. Medienmusik trifft ziemlich genau in die Mitte der hier ausgeführten Diskussion um Differenzierungen der Laptopkultur.

Das Kriterium für Medienmusik ist also nicht (…) eine synthetisch erzeugte Klang- oder Kompositionsstruktur, sondern die Zugehörigkeit zu einem durch spezifische technische Voraussetzungen geprägten Bereich musikalischen Handelns. (Großmann, Rolf: Abbild, Simulation, Aktion – Paradigmen der Medienmusik. In: Flessner, Bernd: Die Welt im Bild. Wirklichkeit im Zeitalter der Virtualität. Freiburg: Rombach. S.239.)

Was auf Events wie dem neulich in Hannover produziert wird, ist durchweg Medienmusik, egal, ob ein DJ oder ein Laptopduo den Raum beschallt. Forderungen nach qualitativen Unterschieden erscheinen obsolet. Das beantwortet allerdings nicht die Frage nach den graduellen Unterschieden zwischen Musik-Laptopismus und DJ-Culture, die vielleicht als unterschiedliche Mediennutzungsstile interpretiert werden können. Dies soll mit McLuhan und Sandbothe im nächsten Beitrag versucht werden.

Multimedia und die nächste Gesellschaft

Bei der Beschäftigung mit dem entgrenzten Medienbegriff ist das Schlagwort “Multimedia” nicht weit. Was bedeutet eigentlich Multimedia? Mitte der neunziger Jahre war man sich da noch etwas unsicher, wenngleich die Phänomene eigentlich schon richtig erkannt waren:

Der Leitbegriff “Multimedia” ist unscharf. Das liegt erstens an der Neuheit des Gegenstandsbereichs, der sich zudem noch rasant ausweitet. Das liegt aber zweitens vor allem in der Charakteristik dieser neuen Kommunikationstechnologien, die offenbar alle bisherigen Medien- und Kommunikationsformen, die sich irgendwie einbauen lassen, integrieren und multiplizieren, dadurch “grenzen”-lose Potenzen entfalten und auch Definitionsgrenzen sprengen. (Margot Berghaus, “Was macht Multimedia mit Menschen, machen Menschen mit Multimedia? Sieben Thesen und ein Fazit”, in Multimedia-Kommunikation, hrsg. Peter Ludes und Andreas Werner, S. 73)

Später (das Zitat von Sybille Krämer stammt von 1998), machte man genau diese Integration der bisherigen Medien- und Kommunikationsformen zur Kernbeschreibung von Multimedia:

(…) mit dem Binäralphabet ist ein Typus von Schrift entstanden, welcher sich – in der Tradition mathematischer und logischer Schriften – der Vorstellung einer Schrift, die ein bloßes Derivat der mündlichen Sprache ist, nicht mehr umstandslos fügt. Mehr noch: Vergleichbar dem Geld als allgemeinem ökonomischem Medium, ist der Binärcode zur semiotischen »Universalmünze« geworden, in deren »Werte« beliebige andere Zeichensysteme übertragen werden können. (Sybille Krämer, “Medien, Computer, Realität”, Frankfurt/Main: Suhrkamp, S.12)

Soviel zur Definition. Die interessante Frage ist jedoch, ob das technische Verbreitungsmedium Computer letztlich an dem Punkt stehen bleibt, an dem alle herkömmlichen Umgangsformen von Medien wie Schrift, Sprache, Bild, Bewegtbild oder Ton integriert sind, oder ob nach dieser Integration noch Platz für neue Umgänge mit diesen Medien ist. Vertreter der Systemtheorie gehen davon aus, dass neue Verbreitungsmedien einen Sinnüberschuss produzieren, den eine Kultur selektiv handhaben muss. Diese neuen Möglichkeiten der Kommunikation überfordern sozusagen das bisherige System. Dabei scheint das neue Verbreitungsmedium zunächst mit altem Sinn aufgefüllt zu werden, bis dann festgestellt wird, dass im neuen Medienbehälter noch Platz ist für neuen Sinn, sprich: Handhabe des alten Inhalts ?!

Es scheint mir dabei wichtig zu sein, die verschiednen Ebenen von Medien voneinander zu trennen, möglicherweise so, wie es Mike Sandbothe getan hat. Ein neues Verbreitungsmedium wie der Computer, ein Medium im engsten Sinn, ist kaum in der Lage, die Sprache, ein Medium im engen Sinn zu verdrängen. Er macht offensichtlich anderen Verbreitungsmedien – etwa den Printmedien – große Konkurrenz (wenngleich er auch diese wohl nicht ganz verdrängen kann, aber ich möchte nicht prophetisch werden), ist aber auf die anderen Ebenen angewiesen. Dirk Baecker hält dabei die Einführung des Computers für so wichtig, dass er im Anschluss an Peter F. Drucker von der nächsten Gesellschaft schreibt.

Hinter der Rede von der nächsten Gesellschaft steckt mehr als ein Verlegenheitstitel. Wir haben es mit nichts Geringerem zu tun als mit der Vermutung, dass die Einführung des Computers für die Gesellschaft ebenso dramatische Folgen hat wie zuvor nur die Einführung der Sprache, der Schrift und des Buchdrucks. Die Einführung der Sprache konstituierte die Stammesgesellschaft, die Einführung der Schrift die antike Hochkultur, die Einführung des Buchdrucks die moderne Gesellschaft und die Einführung des Computers die nächste Gesellschaft. (Dirk Baecker, “Studien zur nächsten Gesellschaft”, Frankfurt/Main: Suhrkamp, S. 7)

Natürlich denkt man bei der systemischen Vorstellung von Überschusssinn auch an Vertreter anderer Medientheorien (die Systemtheorie hat mit ihrer Medium/Form Unterscheidung ja eine eigene Medientheorie implementiert), namentlich Marshall McLuhan, der auch in diesem Weblog schon zum Thema angeführt wurde. Neue Technologien, so ist seine These, werden zunächst durch einen rear view mirror, einen Rückspiegel betrachtet, also das Auto im Sinne einer neuen Form der Pferdekutsche. Ich habe dann am Beispiel der Sequenzersoftware “Ableton Live” gezeigt, wie sehr auch Audioanwendungen zunächst geprägt waren von Rückspiegelperspektiven. Produktionssoftware stand und steht heute noch hauptsächlich in der Tradition von Tonbandgeräten oder Hardware-Sequenzern. Limitierungen, die im akustischen Cyberspace langsam, und vor allem auch dank innovativer Software (wie Ableton Live), aufgebrochen werden.

Lives zirkuläre Arbeisweise in der “Session-Ansicht” ist vermutlich genau diesem Überschusssinn des neuen Verbreitungsmediums Computer geschuldet.

Auf der Suche nach der musikalischen Handlung im Laptop-Konzert

Am 7.3 ist das nächste Konzert (CD-Release) unserer Neotango Formation Etango (Besetzung: Akkordeon, Geige, Gitarre, Laptop) Ich bin als Laptopist der Band live für Beat, Bass und Synths zuständig und überlege mir gerade, wie ich die neuen Stücke live umsetze. Es gibt mehrere Möglichkeiten:

Da ich vollen Zugriff auf die Studio-Aufnahmen habe, könnte ich einfach einen Mixdown der Tracks ohne Geige etc. machen und diesen dann auf dem Konzert abspielen. Dafür bräuchte ich keinen Rechner, das ginge auch mit einem CD-Player. Meine Handlung als Musiker auf der Bühne würde sich dann auf das Starten und Stoppen der einzelnen Tracks beschränken, die Stücke, Soli etc. wären in der Länge festgelegt. Hört sich langweilig an und kommt in dieser Form auch nicht in Frage, kann hier aber zunächst als ein mögliches, wenngleich extremes Beispiel für live-elektronischen Umgang mit Musik gelten. Musiksoftware, insbesondere DAWs werden, das habe ich in einem früheren Eintrag geschrieben, immer noch eher als virtuelle Tonbandgeräte mit linearer Zeitstruktur benutzt, obwohl sie sich eigentlich von dieser Linearität lösen könnten.

Mein Vorgehen war daher bislang eher das genaue Gegenteil. Ich habe alle Spuren der Arrangements getrennt in einer “Ableton Live” Session neu arrangiert, also BD, Snare, HH, Perc, Bass, Synth1, Synth2…. jeweils in einer (vertikalen) Spur, um Lautstärke und Effektparameter der einzelnen Spuren noch in der Hand zu haben. In der Session-Ansicht läuft eine “Szene”, eine horizontale, zeilenhafte Sammlung von Samples und Loops, so lange in einer Schleife, bis ich eine andere Szene anwähle, also prinzipiell endlos. Das erlaubt dem Musiker eine sehr flexible Handhabung von einzelnen Songteilen. Er entscheidet von Takt zu Takt, welches musikalische Ereignis anschließt. Dies kommt, so sollte man vermuten, musikalischem Umgang mit dem Rechner schon nahe, jedenfalls was die konkrete und spontane Gestaltung des musikalischen Materials von Moment zu Moment angeht. Auch Solos der anderen Musiker können so beliebig lang gestaltet werden.

Ableton Live "Session View": Beim Anwählen einer Szene erklingt die gesamte Zeile der Session

In der Praxis meiner Aufführungen fand ich diesen Weg zunehmend uninteressant. Das rechtzeitige Drücken von bestimmten Tasten für bestimmte Szenen, also “Intro” “Intro mit mehr Drums”, “A-Teil”, “B-Teil”, “Thema” etc. erschien mir zunehmend gerade nicht als musikalische Geste, sondern als ein bloßes “Next” musikalischen Materials. Also doch bloß wieder der erweiterte CD-Player? Anstoß dieser Überlegungen war, dass mir durch das ständige Umschalten der Szenen nicht genug Freiraum für die Modulation der klanglichen Parameter blieb, also Filterverläufe, Delays, Schredder und so weiter. Die Steuerung dieser Klangparameter über meine USB-Interfaces (Behringer BCF 2000, Novation Nocturn, siehe Email-Paradigma) erscheint mir als musikalisch wichtigere Geste als der tatsächlich voll flexible Umgang mit dem Arrangement durch Anwählen der einzelnen Songteile.

Ich bin dann auf eine Art “erweitertes Arrangement” umgestiegen. Diejenigen Teile, die ohnehin einen festen Ablauf haben, folgen entsprechend auch fest aufeinander. Ich habe in diesem Fall mehr Kapazität für Effekte, für die direkte Modulation des klanglichen Materials. Über das Setzen von Markern habe ich mir allerdings die Möglichkeit offen gelassen, in Fällen eines Solos oder ähnlichem einen Songteil gezielt anwählen zu können. Der Marker im Arrangement hat dann die gleiche Funktion wie die Szenen in der Session-Ansicht. Ich kann zum Anfang des nächsten Taktes (oder der nächsten Zählzeit) zu einem anderen Abschnitt springen, wichtig etwa bei einer Tonart-Modulation “on cue” in einem Solo, und habe ansonsten die Hände frei für den Eingriff in die Klangstruktur der Synthies, der Snare etc.

Arrangement Ansicht mit Markern, die sich anwählen lassen

Fazit:

[Dies sind Beobachtungen zweiter Ordnung des Beobachters Arne Bense. Blinde Flecken sind nicht nur nicht ausgeschlossen, sondern bereits in der Beobachtung inbegriffen]

Die Ableton-Live Praxis hat also bei der Frage, wie genau der Computer als Instrument benutzt werden kann und was überhaupt eine musikalische Handlung sein könnte, für mich wichtige Impulse geliefert. So steht die Beeinflussung klanglicher Parameter einzelner Spuren oder des Gesamtklangs für mich über der Möglichkeit der jederzeitigen Kontrolle der Abfolge der Songelemente.

Für Ableton-Insider:

Die Ableton Live “Session-Ansicht” ist tatsächlich hauptsächlich für spontanes Arbeiten mit musikalischen Einfällen, eine Session mit mehreren Laptops oder anderen Instrumenten etwa, geeignet. Eine Aufführung eines “fertigen” Werks ist aus oben genannten Gründen jedoch eher über ein Arrangement zu realisieren. Schon allein von der Bezeichnung her ist die Session-Ansicht ja nicht die Live-Ansicht, sondern eben die Session-Ansicht. Der Oberbegriff Ableton “Live” beinhaltet ja beides, Session- und Arrangement-Ansicht.

Es gibt weitere Möglichkeiten der Verschmelzung beider Ansicht-Typen, zum Beispiel die Follow-Actions der Session-Ansicht. Damit habe ich bisher noch nicht experimentiert. Es wäre so aber beispielsweise ebenfalls möglich, den Ablauf des Stückes weitgehend zu automatisieren, bis zu einem Punkt (ein Solo etwa), an dem man dann über den weiteren Verlauf zu entscheiden hat.

Neue Medien und der Rückspiegel

Dies ist der vorerst letzte Eintrag, der sich ausschließlich mit Begriffen McLuhans befasst, diesen einen Eintrag des Glossars von Christopher Horrocks möchte ich hier aber noch zitieren (dann habe ich ohnehin 3 von 5 Begriffen insgesamt gepostet).

The rear view mirror

When society and the individual are confronted with a new situation, they will attach themselves to objects of the recent past. We therefore perceive the present through a rear-view mirror. New media, including the car and the computer, are initially looked at in terms of previous technologies, such as the horse-drawn carriage and the typewriter. (Horrocks, Christopher: Marshall McLuhan and Virtuality. Cambridge: Icon/Totem Books; S.77)

Eine neue Entwicklung, ein neues Medium, wird zunächst immer vor dem Hintergrund der vorherrschenden Technologie betrachtet. Bevor ein solches neues Medium also auch tatsächlich auf eine neue Weise benutzt wird, ist seine Praxis zunächst einmal bestimmt durch seine Vorgänger. Wenn ich dieses Wissen auf meine tägliche Praxis im Umgang mit Musiksoftware beziehe, drängt sich die Betrachtung der großen Sequenzer, Logic, Cubase, ProTools, etc. auf. Sie haben alle eine lineare Zeitachse, einen Anfang und ein Ende. Als diese Sequenzer lernten, in einem größeren Umfang mit Audio-Material, nicht nur mit MIDI-Daten umzugehen, sah man die sich bietenden Möglichkeiten in McLuhans Rückspiegel. Und baute virtuelle Tonbandgeräte. Die Software, die sich in den letzten Jahren dadurch ausgezeichnet hat, dass diese streng lineare Struktur aufgebrochen wurde, ist Abletons Live mit seiner “Session”-Ansicht. Ein paar [Selbst]Beobachtungen zum Umgang mit dieser Software werden auf dieser Seite sicherlich noch folgen.

Hier gibt es ein Interview mit Gerhard Behles (Ableton) und Mate Galic (Native Instruments) aus De:Bug 9/2007.

Bereits in einem der ersten Einträge habe ich mit Michael Harenbergs Worten deutlich gemacht, dass der Computer in unserem Alltag zwar quantitativ dominierend geworden ist, qualitativ aber immer weniger durchdrungen wird, in welcher Rolle er sich gerade befindet. Der Computer arbeitet mit einem Zeichensystem, dass in der Lage ist, alle anderen Zeichensysteme zu integrieren. Nichts anderes bedeutet der Begriff Multimedia. McLuhan ist für die Durchdringung der Quantität der Anwendungen, die der Computer momentan bietet, von großem Wert.