Performativität und Medialität Populärer Kulturen

Endlich draußen: Marcus S. Kleiner, Thomas Wilke (Hrsg.): Performativität und Medialität Populärer Kulturen – Theorien, Ästhetiken, Praktiken. Mit Artikeln von Malte Pelleter (»Chop that record up!« Zum Sampling als performative Medienpraxis) und Rolf Großmann (303, MPC, A/D. Popmusik und die Ästhetik digitaler Gestaltung).

2013-01-10 11.58.33_Snapseed

Die zwei Wurzeln des Remix

In seinem Beitrag zum 2008er Sammelband “PopMusicology” (Transcript, Bielefeld) schreibt Rolf Großmann über die Rolle medientechnischer Verfahren und technikkulturelle Transformationen im Kontext des Aufkommens von Popmusik und geht dabei auch auf die Technik des Remixing ein. Vor allem der Hype um die “Mashups” hat meiner Meinung dazu beigetragen, dass der Begriff zunehmend indifferent verwendet wird (im lässig postmodernen Gestus “Everything is a remix”, der dann auch das “Sampling” einschließt). Wie Großmann schreibt, entwickelte sich der Remix

 (…) parallel in zwei musikalischen Kulturen, im jamaikanischen Dub und im im Disco der 1970er Jahre. Im Kreis der New Yorker Discoszene arbeitete ein Klangbastler namens Tom Moulton 1972 mit einem Verfahren, das er “Remix” nannte und das sich bald als gängige Praxis der Verlängerung von Discostücken (u.a. auf der dafür geschaffenen Maxi-Single) durchsetzte. Während im Disco der Remix unter Zuhilfenahme der Masterbänder eine Produktion durch Umstellung, Wiederholung von Parts und durch Hinzufügung von percussiven Teilen im Sinne des Nonstop-Dancing optimierte, ging das gestalterische Konzept des Dub tiefer. (S. 128)

Die heutige etwas schwammige Verwendung ist demnach also gewissermaßen vorprogrammiert und auf diesen – kulturell und medientechnisch gesehen – dualen Ursprung zurückzuführen. Über den Dub-Remix schreibt Großmann:

Hintergrund des Dub-Remix ist die Verselbständigung der Background-spur eines Songs ohne Vocals auf der B-Seite einer Platte. Diese “Version” genannte Praxis erlaubte es den DJs der Soundsystems, besser mit dem Publikum zu kommunizieren, es selbst singen zu lassen oder zu “toasten”, wie die jamaikanische Vorform des Rap genannt wird. Gleichzeitig werden mit ein und demselben Background mehrfache Produktionen möglich und üblich. Die Identität eines Songs wechselte auf diese Weise von Melodie und Text über zur rhythmischen Grundstruktur, die als “riddim” zum Volksgut wurde. (S. 128)

Eine rein medienförmige Definition des Remix dürfte demnach kam zu realisieren sein. Was jenseits solcher Tool-Ontologie als Definition eines Remix herhalten könnte, hat den Blick auf Remixing als Kommunikationsform gerichtet. Vorschlag: Ein Remix als Form einer (musikalischen) Kommunikation verweist immer offen auf bereits Bestehendes und gilt als Version/Variation von etwas, das als Original gesetzt wird. Der Remix zeigt die Verlinkung mit diesem Original.

Hier liegt ein entscheidender Unterschied zum Sampling, bei dem ein vorgefertigter Sound, z.B. das berühmte Amen-Break, eine neue musikalische Rolle bekommt und mit neuem musikalischen Sinn überschrieben wird. Die Herkunft bleibt “Eingeweihten” vorbehalten. Als Kommunikation steht das Sample für nichts anderes als sich selbst.

 

Literatur:

Großmann, R. (2008). Die Geburt des Pop aus dem Geist der phonographischen Reproduktion. In C. Bielefeldt, U. Dahmen, & R. Großmann (Eds.), PopMusicology. Bielefeld: Transcript.

Symposium “Die Metapher als ´Medium´ des Musikverstehens

Am kommenden Wochenende (17.-19.6.2011) findet hier an der Uni Osnabrück ein Symposium zur Systematischen Musikwissenschaft statt, Thema: “Die Metapher als ´Medium´ des Musikverstehens”, mit Vorträgen (allein am Samstag) von Großmann, Harenberg, Jauk, Schläbitz. Ich halte am Freitag Abend, ca. 18:20, auch einen kleinen Vortrag über Musik und Virtualität.

Programm:

http://www.musik.uni-osnabrueck.de/index.php?n=Veranstaltungen.SymposiumMetapher

Das Musikinterface als Gadget

Im Versuch einer “Verortung” des Instruments im Computerzeitalter lassen sich, jedenfalls bei den Autoren, die ich hauptsächlich gelesen habe, zwei Hauptstrategien ausmachen. Während sowohl Bernd Enders, als auch Michael Harenberg die Entwicklung der Kirchenorgel als Zeitpunkt der endgültigen Trennung von Klangerzeugung und Klangsteuerung (Interface) ausmachen, wird diese Trennung von ihnen in Folge unterschiedlich interpretiert. Für Enders liegt ein Instrument fortan als modularisiertes Funktionsgefüge aus Generator und Interface vor, während Harenberg eher den Klangerzeuger mit dem Instrument assoziiert und das Interface sogar vom Instrument trennt (ganz wörtlich hier: http://audio.uni-lueneburg.de/texte/harenberg_virtuell.pdf, S. 15, Zugriff: 26.11.2010).

Diese Identifizierung der Klangerzeugung mit dem Instrument scheint sich allein im Begriff der “virtuellen Instrumente” widerzuspiegeln. Er verspricht ja gerade ein (ganzes) virtuelles Instrument – und nicht ein halb-virtuelles + passendem Interface – die Kategorie “halbe Instrumente” macht sich auch schlecht in jedem Instrumenten-Katalog. In historischer Perspektive gibt es Hinweise darauf, dass es durchaus eine gewisse Tradition der Identifikation des Instruments mit dem Klangerzeuger gibt, z.B. wird dies bei Kai Köpp angedeutet, der im Rahmen des Berner Forschungsprojektes Klang (ohne) Körper “Historische Streichbögen als Interfaces” untersucht hat (Köpp, Kai (2010): “Historische Streichbögen als Interfaces” In: Michael Harenberg,  Daniel Weissberg: Klang (ohne) Körper. Spuren und Potenziale des Körpers in der elektronischen Musik,. Bielefeld: Transcript). Köpp stellt fest, dass die Veränderungen im Bau des Resonanz- und Klangkörpers bei der Violine gut dokumentiert sind, nicht jedoch jene der Saiten und Bögen (die Entwicklung des Geigenbaus ist ja nicht schlicht ein “immer besser werden”, sondern war zu allen Zeiten von jeweiligen, epochalen Klangidealen bestimmt, der Streichbogen hat maßgeblichen Einfluss auf die Klanggestaltung). Original erhaltene Bögen sind heutzutage sehr rar – sie konnten konstruktionsbedingt nicht erneuert werden und wurden nicht aufbewahrt, also weggeworfen. Sie waren die letztlich modischen, austauschbaren und tendenziell schon wieder uninteressanten Interfaces (Gadgets?) der klassischen Instrumentenkunde.

Es schließen natürlich viele Fragen an, die Identifikation von Programm und Instrument ist für mich dabei vorrangig und kann durchaus vor dem Hintergrund der Streichbögen-Gadgets diskutiert werden. Ob nicht auch das Interface bisweilen als Instrument inszeniert wird, ist eine weitere Frage. Ohnehin ist ein systematisch ding-orientierter Ansatz allein nicht ausreichend bei einer Verortung rezenter Instrumente und muss um sozio-kulturelle Aspekte erweitert werden (etwa mit Rolf Großmann).

Gedanken zur Laptopmusikkultur 2 – über das Musikinstrument “an sich”

Der letzte Eintrag ist schon eine Weile her. Nicht, dass es nicht genug Themen gegeben hätte, aber ich musste meine Dissertation etwas voranbringen und hatte meist einfach nicht die Energie und Zeit, dann noch etwas zum Blog hinzuzufügen.

In einem Eintrag, den ich vor ziemlich genau einem Jahr gepostet habe, ging es um die Frage, ob man überhaupt (noch) sinnvoll zwischen DJs und “Laptopisten” (im Sinne von “Musikern”) unterscheiden kann. Ich habe mich nie als DJ gesehen, werde aber im Rahmen von Auftritten immer mal wieder gefragt, “wann ich denn auflege”. Die Tatsache, dass beide Gruppen die gleichen Werkzeuge (Instrumente) benutzen, ist ja relativ schnell eingestanden. Seinerzeit hatte ich versucht, das Thema musikimmanent anzugehen und war letztlich zu keinem wirklich befriedigenden Ergebnis gekommen. Mit der Idee der “Medienmusik” von Rolf Großmann zeichnete sich aber schon ab, dass die diskutierten Unterscheidungen schwer zu halten sein würden (der Artikel von Großmann (1997) ist hier online verfügbar). In einem kürzlich erschienen Artikel im großartigen Sammelband “Klang (ohne) Körper” geht Großmann noch einmal auf das gleiche Thema ein (Großmann, R. 2010: “Distanzierte Verhältnisse? Zur Musikinstrumentalisierung der Reproduktionsmedien”. In: Harenberg, M. & Weissberg, D. (Hg.), Klang (ohne) Körper. Spuren und Potenziale des Körpers in der elektronischen Musik. Bielefeld: Transcript). Dass der Platz hinter den Turntables mit einer Aufführungssituation verbunden ist und ein DJ keine lebende Jukebox ist, sind nur die ersten Feststellungen in einem Erkenntnissprozess, der am Ende eine weitgehende Nivellierung offenbar nachträglich eingeführter und künstlich aufrecht erhaltener Unterscheidungen bedeutet.

Auf einer Party ›die Musik zu machen‹, meinte schon in den 1980ern keineswegs den Griff zum Instrument oder die Mitwirkung in einer Band, man war stattdessen mit ›Auflegen‹ an der Reihe. Ein deutlicher Hinweis darauf, dass auch die Reproduktionsmedien eine Aufführungspraxis begründen, also etwas, das dem instrumentalen Spiel vorbehalten schien. (Großmann 2010: 183)

Weil sich in der Vergangenheit die Interfaces deutlich unterschieden, gab es keine große Notwendigkeit, Entscheidungen auf anderen, z.B. musikalischen Ebenen suchen zu müssen. Spätestens mit der Einführung des Computers in die Musikkultur war diese Methode der Unterscheidung allerdings obsolet. Die Geräte, die fortan auf den Bühnen standen, glichen sich – leuchtende Apfellogos hüben wie drüben, etwa. Musikbezogene Unterscheidungen zwischen dem “Abspielen” und “Spielen” von Tönen mussten für eine weitgehend künstliche Aufrechterhaltung herangezogen werden. Allerdings trifft die Idee, dass der Interpret im Medienkonzert immer eine gewissermaßen schon “halbfertige” Musik formt, sowohl den DJ, als auch den “Laptopisten”, der mit seinen Sequenzer-Programmen ja meist auch mit musikalischen Makros (Audio-, MIDILoops, Samples, Arpeggiatoren) spielt. Ist der Laptop am Ende also überhaupt kein Instrument, beziehungsweise, ist der Laptopist am Ende bloß ein DJ?

Großmann geht, wie im Zitat erkennbar, davon aus, dass der Umgang mit Repoduktionsmedien in großen Teilen von Anfang an (er zitiert auch ältere Texte, die elektrische Medien als eine Art Universalinstrument ansehen) mit Aufführungssituationen und insofern auch mit instrumentalem Spiel verbunden war. Er fordert in diesem Zusammenhang, die ontologische Perspektive, etwas sei per se (k)ein Musikinstrument, aufzugeben. Die oben diskutierten Unterscheidungen werden damit entschärft bis hinfällig:

Musikinstrumente im kulturellen Sinne sind allerdings mehr als nur Musikerzeuger. Entscheidend für ihre Entwicklung ist die Einbindung in die kulturelle Praxis des instrumentalen Spiels von Musik. eine solche kulturelle Verankerung ist an einer konventionalisierten kommunikativen Rahmung des Spiels eines Instruments zu erkennen, die gleichzeitig die Voraussetzung für eine kollektive Entwicklung von Spieltechniken und musikalischen Gestaltungsoptionen bildet. (Großmann 2010: 194)

Diese kulturwissenschaftliche Herangehensweise ist natürlich nicht beliebig, nicht frei von Bedingungen. Sie könnte allerdings tatsächlich dazu beitragen, überkommene und letztlich haltlose Unterscheidungen abzulösen. Großmann nennt eine Reihe von Kriterien, die zu einer Strategie gehören, die von den Lüneburger Musikwissenschaftlern hoffentlich noch ausgebaut wird.

Verbreitete Praxis, instrumentenspezifische Schulenbildung, Notation und Virtuosität sind Merkmale des kulturellen Settings eines Musikinstruments. (Gr0ßmann 2010: 194)

Add-on:

Wer die Benjamin’sche Aura eines Konzerts durch die Integration der Medieninstrumente in die Aufführungskultur gefährdet sieht, für den habe ich folgendes Zitat als Abschluss herausgesucht:

Zu den auratischen Gegenständen dieser neuen Aufführungskultur gehören – wie in der traditionellen Praxis auch – entsprechend die neuen Instrumente der Performance: statt Violine, Klarinette oder E-Gitarre erscheinen Plattenspieler, Synthesizer und Sampler als Medieninstrumente. (Großmann 2010: 192)

Wann legt ihr denn auf? Gedanken zur Laptopmusikkultur

Der Auftritt meines Laptop Duos Jitter am vorletzten Wochenende in Hannover lieferte wieder mal einiges an Diskussionsstoff zum Thema Email-Paradigma, DJ-Kultur und musikalische Interfaces. Ich habe den Eindruck, dass hier grundlegende und tatsächlich neue musik- und medienwissenschaftliche Fragen nicht ausreichend beantwortet sind. Es ist zwar toll, in diversen Blogs auf faszinierende neue Interfaces zu stoßen, da passiert ja nach einer Zeit expansiven Wachstums des akustischen Cyberspace eine ganze Menge. So lange mir aber zum Beispiel nicht ganz klar ist, wo es und ob es überhaupt einen charakteristischen Unterschied zwischen Laptop-Livemusik und DJ-Kultur gibt, habe ich das Gefühl, dem ganzen fehlt ein theoretischer Unterbau. Es fehlt ein Werk wie “Versuch über die wahre Art das Clavier zu spielen” von C.P.E. Bach für die heutige Zeit, ein “Versuch über die wahre Art den Computer zu spielen”. Dieser Artikel ist bestimmt gerade dies nicht, aber er ist im besten Fall eine Art reflektierter Standpunkt. Ein hoffentlich unvoreingenommener Blick eines Musikers auf die DJ-Culture und wieder zurück auf den Laptop als Multi-Instrument.

Stein des Anstoßes für diesen Eintrag war eine Frage, die ich vor unseren Auftritten schon des öfteren gehört hatte: „Wann legt ihr denn auf?“ Den Reflex, darauf mit „wir spielen dann und dann…” zu antworten, habe ich schon vor längerer Zeit zu unterdrücken gelernt, vielleicht zunächst einfach aus Nachsicht. Es ist offensichtlich, dass es für das Publikum (haben DJs ein Publikum? Bestimmt, nur die beiden Begriffe passen für mich nicht so richtig zusammen. Tänzer sind das Publikum der DJs?!) nicht mehr wirklich transparent ist, was genau da mit den unsichtbaren Maschinen in den Laptops angestellt wird. Ich denke auch, dass diese Frage unabhängig von den benutzen Interfaces beantwortet werden kann und muss, schließlich hatte mein Kollege Björn ein Keyboard dabei, mit dem er Basslinien etc. live eingespielt hat. Neulich auf dem Open Source Festival in Düsseldorf war es sogar für mich schwierig zu beurteilen, was die Duos und Trios auf der Elektrobühne da machten (letztlich sind ja die Geräte von schräg unten immer schwer einzusehen, gerade wenn es keine Laptops sind, sondern Grooveboxen, Sequenzer oder auch digitale Turntables). Kurz: auch ich selbst musste mich fragen, was mich als Laptopist von einem DJ unterscheidet, und ob diese Unterscheidung überhaupt Sinn macht.

Der etwas brüskierte Reflex des traditionell-konservativ ausgebildeten Musikers, der ganz sicher nicht mit der sprichwörtlichen “Rollenden Mobildisco” in Verbindung gebracht werden möchte, die Hit um Hit tatsächlich nur nacheinander auflegt, ist zwar verständlich, aber ein wenig zu beengt gedacht (Achtung: dies sind Beobachtungen 2. Ordnung, die vorgeben oder zumindest versuchen, die eigene Standortgebundenheit zu reflektieren). Auch in der DJ-Culture gibt es ja Klangparameter, die live modelliert werden, von den Effekten wie Low-/Highpass Filtern oder Phasern, bis zur Ineinandermischung verschiedener – allerdings vorher meist gekaufter – Tracks, um den Fluss der Beats nicht zu unterbrechen. Drei Aspekte fallen mir dazu mehr oder weniger spontan ein:

Ich denke erstens nicht, dass man ernsthaft bestreiten kann, dass ein DJ zunächst prinzipiell musikalische Fähigkeiten haben muss, es sei denn, er legt bei Omas Kaffeekränzchen einen Sampler mit Liedern von Roy Black auf und seine Handlungen beschränken sich auf das Drücken der Play-Taste und der Einstellung einer dezenten Lautstärke. In einem Artikel über meine Leib- und Magensoftware Ableton Live hatte ich ja schon geschildert, dass die Echtzeit-Beeinflussung von Klangparametern für mich im Liveeinsatz die spannendere und durchaus musikalischere Alternative zur bloßen flexiblen Festlegung von Abläufen eines Stückes ist.

Zweitens ist Computermusizieren heute in gewisser Hinsicht immer schon eine Art Mikro-Auflegen, zumindest, wenn man dabei auf Sampler oder Sequenzer zurückgreift: Rhythmische Elemente (beim Sequenzer) oder klanglich aufgenommene, gespeicherte und später wiedergegebene Klänge (beim Sampling) sind im Spiel. Jeder gängige Sequenzer (Cubase, Logic, Live, etc.) erlaubt das Abspielen von Loops neben der Einbindung virtueller Instrumente, die dann über ein Keyboard oder ähnliches (oder ganz und gar unähnliches) gespielt werden können. In der Software ist also Wiedergabe und Echtzeit-Klanggestaltung bereits – untrennbar – miteinander vermischt. Der Laptopist ist auf die ein oder andere Weise meist ein Micro-DJ.

Das musikalische Live-Spiel im Sinne von “jetzt diesen Ton, dann jenen Ton, dann eine Pause, dann diesen Ton” ist drittens eine spezifische musikalische Fähigkeit, das möchte ich als konventionell ausgebildeter Musiker zumindest feststellen. Die Möglichkeit, durch Improvisation live und direkt intendierte, im Kopf vor-empfundene Tonfolgen zu gestalten, ist eine wichtige Komponente musikalischen Handelns und erlaubt eine immense Vielfalt der erzeugten Klänge. Ich glaube allerdings nicht, dass dies der Unterschied ist, der einen Unterschied ausmacht. Improvisation hat heute nicht mehr den Stellenwert, den sie in vorausgegangenen musikalischen Epochen hatte, und es ist außerdem ja nicht einmal so, dass DJs in ihrem Set nicht auch in die Tonhöhe der Musik eingreifen könnten.

Feststellungen:
a) Eine zunächst denkbare Unterscheidung wie: „Hier wird die Musik live gespielt und dort wird sie bloß wiedergegeben“ muss als verkürzt, bestenfalls als überholt gelten. Es kann auf der anderen Seite allerdings auch kaum um die bloße Einebnung der Begriffe “Musizieren” und “Auflegen” gehen. Beide sind womöglich weit besser als Extrempunkte zu begreifen, die in einer Art Diskurs das Spannungsfeld eröffnen, in denen Laptopmusik heute statt findet. Der Unterschied zwischen Livemusik und DJing kann allenfalls als gradueller Unterschied gedacht werden.

b) Eine Unterscheidung, so sie denn eingeführt werden kann, kann sich nicht auf die erzeugte Klang- oder Frequenzstruktur oder die Manipulation dieser beziehen.

c) Musizieren ist musikalisches Handeln, und dies ist als komplexe Kulturtechnik zusammengesetzt aus einer Reihe von Parametern, die nicht ontologisiert werden dürfen und gesellschaftlich bedingt neu und mit neuer Technik in anderer Gewichtung zusammengesetzt werden können.

Diese Feststellungen führen unter anderem zum Passus der Medienmusik, wie Rolf Großmann ihn bereits 1997 in diesem auch online verfügbaren Text beschreibt. Großmann hinterfragt die Kontinuität musikalischer Handlungszusammenhänge und betont den Umbruch der musikalischen Praxis, der mit der Tonaufzeichnung der elektronischen Medien begonnen hat. Medienmusik trifft ziemlich genau in die Mitte der hier ausgeführten Diskussion um Differenzierungen der Laptopkultur.

Das Kriterium für Medienmusik ist also nicht (…) eine synthetisch erzeugte Klang- oder Kompositionsstruktur, sondern die Zugehörigkeit zu einem durch spezifische technische Voraussetzungen geprägten Bereich musikalischen Handelns. (Großmann, Rolf: Abbild, Simulation, Aktion – Paradigmen der Medienmusik. In: Flessner, Bernd: Die Welt im Bild. Wirklichkeit im Zeitalter der Virtualität. Freiburg: Rombach. S.239.)

Was auf Events wie dem neulich in Hannover produziert wird, ist durchweg Medienmusik, egal, ob ein DJ oder ein Laptopduo den Raum beschallt. Forderungen nach qualitativen Unterschieden erscheinen obsolet. Das beantwortet allerdings nicht die Frage nach den graduellen Unterschieden zwischen Musik-Laptopismus und DJ-Culture, die vielleicht als unterschiedliche Mediennutzungsstile interpretiert werden können. Dies soll mit McLuhan und Sandbothe im nächsten Beitrag versucht werden.

Was ist ein Medium?

Ich bin mit dem systemtheoretisch-neurophilosophisch-konstruktivistischen Teil meiner Arbeit vom Grundgerüst her fertig und wende mich gerade anderen Fragestellungen zu (die aber hoffentlich anschlussfähig an vorige Beiträge bleiben). Zunächst ist da die Frage der Medien, bzw. was ein Medium genau sein könnte. Dann stellt sich die Frage, was etwa “Neue Medien” sind. Wie Elena Esposito im hier verlinkten Video treffend anmerkt, zeigt alleine die Bezeichnung, dass es offenbar noch nicht viel mehr über sie zu sagen gibt als eben dies: dass sie neu sind. Was also ist ein Medium? Die Medienwissenschaft spricht hier, das ist zunächst wissenschafts-typisch und grundsätzlich positiv, nicht mit einer Stimme. Bei der Anwendung in einer wissenschaftlichen Arbeit ist dies in gewisser Weise etwas ärgerlich, denn eigentlich möchte man ja einen zirkelfreien, klar umrissenen – also einen definierten – Begriff von etwas zur Anwendung bringen, und sich nicht – wie in meinem Fall – innerhalb der systematischen Musikwissenschaft erst mit Angelegenheiten der Medienwissenschaft intensiv beschäftigen zu müssen. Wobei Rolf Großmann zurecht auf folgendes hinweist:

Daß ‘Musik verstehen’ immer mehr auch “Understanding Media” bedeutet, ist angesichts der Omnipräsenz des medialen Musikangebots und seiner Nutzung leicht nachvollziehbar. (Großmann, Rolf: Konstruktiv(istisch)e Gedanken zur ‘Medienmusik’, online im Internet, Zugriff am 26.6.2009)

Weder Sind Musik- und Medienwissenschaften klar voneinander zu trennen, noch täte dem wissenschaftlichen Geschehen eine einzige Definition eines Mediums gut: Wir kämen sicherlich in die Versuchung, diese eine Leitdefinition dann für wirklich und wahrhaftig war zu halten…

Grundsätzlich gibt es drei oder vier für mich interessante Perspektiven auf “die” Medien, etwa Luhmanns Medienbegriff mit der Unterscheidung Medium und Form, oder McLuhans (und auch Flussers) technische Konzeptionen, die Medien als Erweiterungen der menschlichen Sinnesorgane sehen. Zuerst habe ich mich mit der Taxonomie von Mike Sandbothe beschäftigt, auf den ich bei Benjamin Jörissen gestoßen bin. Wie es sich für einen Medienphilosophen mit Schwerpunkt Internet gehört, hat er eine ausgezeichnete Webpräsenz mit einer großen Anzahl an einsehbaren Texten. Obwohl es für mich ja um den Computer und seine unsichtbaren Maschinen geht, die auch ohne das Internet auskommen, und damit eine Reihen von Texten von Sandbothe für mich unanwendbar wird, sind das spannende Texte. Die nächsten Zitate stammen aus dem ebenfalls online verfügbaren Text “Interaktivität – Hypertextualität – Transversalität” http://www.sandbothe.net/36.html. Zunächst gibt es für Sandbothe sinnliche Wahrnehmungsmedien, Medien im weiten Sinn:

Unter Medien im weiten Sinn verstehe ich die Anschauungsformen von Raum und Zeit. Sie fungieren als grundlegende Medien unseres Wahrnehmens und Erkennens, indem sie Gegenstände als identische Entitäten synthetisierbar machen. Diese Einsicht liegt der “kopernikanischen Wende” zugrunde, mit der Kant der modernen Philosophie das Fundament bereitet hat. Die nachkantische Philosophie hat von Nietzsche und Hegel über Heidegger, Dewey und den späten Wittgenstein bis Derrida, Goodman und Rorty vor Augen geführt, daß die Stärke dieses Fundaments in seiner Beweglichkeit, Offenheit und Veränderlichkeit liegt. Bei unseren raum-zeitlichen “Weisen der Welterzeugung” handelt es sich nicht um starre, uniforme und ahistorische Apparaturen. Die Medien menschlicher Wirklichkeitskonstruktion sind vielmehr geprägt durch bildliche, sprachliche und schriftliche Zeichensysteme, die historisch kontingent sind und kulturell divergieren.

Dann kommen die semiotischen Kommunikationsmedien, Medien im engen Sinn.

Bild, Sprache und Schrift sind gemeint, wenn ich von Medien im engen Sinn rede. Sie haben im zwanzigsten Jahrhundert im Zentrum vieler philosophischer Diskussionen gestanden. Immer ging es dabei darum, eines oder mehrere dieser Medien als verbindliche Grundstruktur menschlichen Wirklichkeitsverständnisses überhaupt oder zumindest als Fundament des für die westliche Kultur charakteristischen Weltbildes auszuweisen. Das Spektrum reicht vom “linguistic turn” der analytischen Philosophie über diverse Mißverständnisse, die Derridas frühes Konzept einer philosophischen “Grammatologie” im Umfeld postmodernen Denkens ausgelöst hat, bis zu zeitgenössischen Verkündigungen eines “pictorial turn”.

Erst dann kommen die technischen Verbreitungsmedien, die Medien im engsten Sinn

Gegenwärtig wird unübersehbar, daß weder die Medien im weiten noch die Medien im engen Sinn fixe, unveränderliche Strukturen darstellen, die einen festen Halt für die philosophische Theorie bieten. Unser Umgang mit ihnen hängt vielmehr auch von institutionellen und technologischen Entwicklungen ab, die sich im Bereich der Medien im engsten Sinn vollziehen. Das gilt bereits für den Einfluß, den die Printmedien, das Radio und vor allem das Fernsehen auf unser Verständnis von Raum und Zeit sowie auf unseren Gebrauch von Bildern, Lauten und Buchstaben erlangt haben. Unübersehbar werden die Verflechtungsverhältnisse, die zwischen den Medien im weiten, im engen und im engsten Sinn bestehen, durch die neue Bedeutung, die interaktiven Datennetzwerken wie dem Internet für unsere Wahrnehmung und unsere semiotische Praxis zukommt.

Die Gefahr, die in einem derart umfassenden Begriff eines Mediums liegt, sind klar. Jörissen schreibt dazu (wobei er hier nicht, wie es den Eindruck macht, Sandbothe meint!):

Raum, Zeit, Körper, Mimik, Gestik, Stimme, Sprache, Schrift, Literatur, Buch, Buchdruck, Ton, Musik, der Plattenspieler, Radio »das« Internet, Plakate, Flaggensignale, Geld, Liebe, Macht, Wahrheit, das Wetter – um nur einige Beispiele zu nennen. Als ein solches Feld ausufernder Familienähnlichkeiten ist der Terminus »Medium« praktisch unbrauchbar. (Jörissen, Benjamin (2007): Beobachtungen der Realität. Bielefeld: Transcript. S.197)

Wie Lambert Wiesing im Suhrkamp-Sammelband Was ist ein Medium treffend herausstellt, findet sich die Gefahr des “entgrenzten” Medienbegriffs jedoch in allen Medientheorien, so auch bei Luhmann oder McLuhan. Im gleichen Sammelband stellt S. J. Schmidt einen “Medienkompaktbegriff” auf, der sich offenbar schon durch seine Bezeichnung dem Entgrenzungsvorwurf entgegen stellt. Vielleicht ja mehr dazu im nächsten Eintrag.