5/01/2016

Unsere privaten Öffentlichkeiten

"Sharing is Caring" - so lautet ein Gemeinplatz unserer Zeit. In diesem kommt die Utopie einer vernetzten Welt der neuen Gemeinschaftlichkeit zum Ausdruck. Es ist der Traum einer Welt, in der die Grenze zwischen privaten Interessen und öffentlichem Miteinander überwunden wird. 

"Sharing is Caring" - so lautet auch eines der Grundprinzipien des totalitären Konzerns in Dave Eggers Dystopie „The Circle“. Dessen Mitarbeiter gelten bereits als selbstsüchtig, wenn sie nicht kontinuierlich ihre persönlichen Erfahrungen sozial-medial teilen, sondern schlicht für sich behalten. Im Roman verdichtet sich die Idee des entgrenzten Teilens zum Alptraum einer vernichten Privatsphäre, in der das ganze Leben zur öffentlichen Inszenierung verkommt.

Der Traum des kollektiven Teilens, er scheint zumindest ambivalent.

Doch was tun wir eigentlich, wenn wir in sozialen Netzwerken teilen? Diese Frage lässt sich am besten mit dem Blick auf eine Plattform beantworten, die in prototypischer Weise für soziale Medien schlechthin steht: die Plattform Facebook. Mit seinen mehr als 1,6 Milliarden Nutzern ist Facebook zur sozialen Basisinfrastruktur des Netzes geworden. Wäre das Netzwerk ein Staat – es hätte mittlerweile sogar China überflügelt. Das Netzwerk lebt nicht von privaten Mitteilungen (die mittlerweile auf den Messenger-Dienst ausgelagert wurden), sondern davon, dass man teilt. Sharing is Caring.

Dass „Teilen“ ein sozialer Vorgang ist, wird bereits auf der semantischen Ebene markiert. Wer teilt, etabliert eine Beziehung zwischen sich und anderen. Teilt man Ressourcen, werden diese (zwischen zwei oder mehr Personen) aufgeteilt. Anders bei Informationen. Diese reduzieren sich nicht durch Weitergabe. Teilen bedeutet hier vielmehr vermehren. Wer andere an Informationen teilhaben lässt, unterstellt Nichtwissen; er gibt etwas weiter, worüber andere nicht informiert sind – und durch die Art und Weise der Mitteilung (die immer mehr ist als die bloße Weitergabe einer Information) spannt er zugleich eine soziale Beziehung zwischen sich und den anderen auf.

Diese Beziehung wird immer durch das Medium strukturiert, in dem sie sich kommunikativ realisiert. Bereits im Medium der Schrift geht man das Risiko ein, dass Mitteilungen an Empfänger gelangen, für die sie nicht bestimmt waren. Die privateste Form der schriftlichen Mitteilung ist der Brief. Er ist typischerweise nur für eine Person bestimmt. Wird er von fremden Augen gelesen, verletzt dies bereits die normativen Regeln des Briefverkehrs. Ebenso ermöglicht das Schriftmedium aber das Verfassen von Mitteilungen, deren Adressatenkreis nicht vorab spezifiziert wird. An Stelle des spezifischen Adressaten, rückt dann das unspezifische und unsichtbare Publikum, das beim Verfassen der Mitteilung abstrakt imaginiert werden muss. Je unspezifischer das Publikum, desto mehr gewinnen Mitteilungen an Allgemeinheit, um für heterogene Kontexte Anschlussfähigkeit zu generieren. Der nüchtern-sachliche Ton der Zeitungsmeldung, hinter deren Informationen Sender wie Empfänger invisibilisiert werden, treibt diese Logik auf die Spitze.

Prinzipiell reproduzieren viele Formen elektronischer Kommunikation die Logiken von Privatheit und Öffentlichkeit, die bereits im Schriftmedium angelegt sind. Diese Logiken zeigen sich bereits in der Namensgebung neuer Medien: Der Begriff der E-Mail – des elektronischen Briefs – macht klar, dass wir uns weiterhin im Bereich vertrauter Kommunikationsordnungen bewegen. Ebenso stellen sich die Homepages von Online-Nachrichtenseiten als Zeitungen im neuen Gewand dar. Diese Formen des Mitteilens orientieren sich noch an der alten Medienwelt. Sie realisieren mit neuen technischen Mitteln die vertraute Unterscheidung von privat und öffentlich. Die E-Mail ist privat. Die Nachrichtenseite ist öffentlich.

Unsere Kommunikation in sozialen Medien verlässt hingegen den Raum des Vertrauten. Dort „geteilte“ Mitteilungen sind nämlich weder grundsätzlich weder private Nachrichten, noch handelt es sich einfach um öffentliche Verlautbarungen. Wenn man vertraute Vergleichs- und Ankerpunkte suchen will, könnte man ehesten an den Marktplatz eines Dorfes denken, auf dem man Bekannte und Freunde treffen kann (aber ebenso mit Buden und Ständen rechnen muss, die einem Waren verkaufen wollen), aber eben auch mit Fremden rechnen muss. Allen Konversationen, die dort ablaufen kann ich zuhören, wenn mich meine Schritte zufällig oder intendiert in die entsprechende Richtung lenken. So man ein laufendes Gespräch mitbekommt, ist es legitim, sich zu beteiligen, wenn man zumindest einen der Beteiligten kennt; und es ist keine grobe Unhöflichkeit, das Gespräch kommentarlos zu verlassen und sich anderen Dingen zuzuwenden. Die Verbindlichkeit des Miteinanders ist gering.

Doch enden die Vergleiche mit vertrauten Formen des sozialen Austausches rasch, sobald man bemerkt, auf was für einem seltsamen Dorfplatz man sich im Kontext sozialer Medien bewegt. Die Netzwerke verschiedener User mögen sich in Form von gemeinsamen „Freunden“ und Seiten, die anderen Kontakten von mir ebenfalls in ihr Netzwerk integriert haben, überlappen, doch ist jedes Kontaktnetzwerk letztlich einzigartig. Damit ist der sozial-mediale Dorfplatz keine kollektiv geteilte Realität, sondern präsentiert sich für jeden Nutzer anders.

Durch die Auswahl von Kontakten konstruiere ich mir eine Welt, die sich vor allem um mich selbst dreht. Jede Mitteilung, die ich tätige, referiert eindeutig auf mich als Mitteilenden. Es geht um Dinge, die ich als relevant erachte, um meine Handlungen, Erlebnisse, Erfahrungen und um Dinge, die mir gefallen. Im Gegensatz zur Nachrichtenmeldung verschwinde ich nicht hinter der Meldung und kann mich auch nicht – wie ein Journalist – auf einen Auftraggeber oder ein allgemeines Interesse berufen. Meine Autorschaft, markiert durch meinen Namen und mein Profilbild, begleitet jede meiner Mitteilungen.

Durch das sozial-mediale Teilen von etwas, teile ich in erster Linie mich mit. Analog zum ursprünglichen Gebrauch von Blogs im Sinne von öffentlichen Tagebüchern, führe ich ein öffentliches Selbstgespräch, von dem ich nicht erwarten kann, dass es jemand zur Kenntnis nimmt. Dennoch mache ich mich eben für ein Publikum sichtbar. Ich kann zwar manuell eingrenzen, ob jeder Internetnutzer, nur meine Kontakte oder sogar nur bestimmte Kontakte meine Mitteilung lesen können, aber im Gegensatz zu einer klassischen privaten Mitteilung muss ich mit unsichtbaren Beobachtern rechnen, mit einem Publikum. Doch im Unterschied zur klassischen öffentlichen Kommunikation, habe ich eine stärkere Kontrolle über das Publikum, denn ich kann es nach Bedarf eingrenzen. Privatheit und Öffentlichkeit werden so von einem binären Schema (das natürlich immer schon eine kommunikative Selbstsimplifikation war) zu einem Regler mit entgegengesetzten Polen. Je feiner ich den Regler einstellen will, desto mehr Aufwand muss ich betreiben – und immer reguliert die Software der Plattform mit, welche Empfänger meine Mitteilung mit welcher Wahrscheinlichkeit letztlich erreicht.

Zugleich wird die Autorschaft durch die technische Funktionsweise des sozialen Netzwerks konfirmiert. Derjenige, der „geteilt“ hat und damit erst die Möglichkeit zur Kommentierung eröffnete, hat stets die Kontrolle über den Thread. Er kann jeden einzelnen Kommentar und auch die Mittelung als Ganzes jederzeit löschen. Jeder Kommentierende räumt so implizit dem ursprünglichen Autor das Recht der Zensur ein, so er sich am kommunikativen Spiel des Netzwerks beteiligt. Zugleich hat der Kommentierende die Möglichkeit, zumindest seinen konkreten Kommentar zu entfernen; auch die Autorenrechte und die Autorenidentität des Kommentators werden so zur Geltung gebracht.

Facebook lässt sich als soziales Realexperiment lesen, das mit dem binären Schema von Privatheit und Öffentlichkeit nicht mehr erfasst werden kann. In der althergebrachten kommunikativen Ordnung des Sozialen galt das Private als Raum der Gemeinschaft, in dem man als „ganze Person“ mit allen Eigenheiten und Eigentümlichkeiten auftreten konnte, und anderen Gemeinschaftsmitgliedern zugleich die implizite Lizenz aussprach, alles zu thematisieren (bis zum heraushängenden Nasenhaar).

Die Öffentlichkeit galt hingegen als Raum der Gesellschaft, in der man eine spezifische Rolle einnahm und andere in rollenförmige Beziehungen trat. Dieses öffentliche Rollenspiel vereinfacht das soziale Leben, stellt jedoch auch inszenatorische Anforderungen an die Person, die der jeweiligen Rolle gerecht werden muss. In der Facebook-Kommunikation ist diese Differenz von Privatem und Öffentlichen gewiss nicht völlig aufgebrochen, sie kommt nur nicht als binäres Schema zur Geltung, sondern wird im oben skizzierten Sinne zu einem „Schieberegler“, der Privatheit und Öffentlichkeit als Pole einer Skala behandelt.

In der Mitte des Reglers hat sich ein Kommunikationsstil einpendeln, in dem das Private inszeniert und zur quasi-öffentlichen (und damit zugleich allgemein verhandelbaren) Sache erklärt wird, und ein (vorab selegiertes) öffentliches Publikum als quasi-private Gemeinschaft behandelt wird, vor dem mehr offenbart werden kann, als man dies in völlig unkontrollierten Öffentlichkeiten typischerweise tun würde. Im dieser Zwischenwelt ist das Öffentliche privat und das Private Öffentlich.

Die Kontrolle, die ich über den Schieberegeler habe – sie ist bedingt. Denn die Plattform gehört nicht mir, sondern dem Konzern Facebook. Die technische Kontrolle, sie entzieht sich mir als Nutzer. Ich muss der Plattform vertrauen – oder aussteigen. Die Nutzerzahlen von Facebook sprechen gegenwärtig eine recht eindeutige Sprache: Wir machen mit.

Wir machen mit, obwohl in den etablierten Massenmedien als auch im privaten Miteinander die Plattform Facebook immer wieder der Kritik steht und ihre Nutzung geradezu als unanständig gilt.

Es scheint so: Während wir öffentlich wie privat dazu neigen, der kulturpessimistischen Dystopie von "The Circle" das Wort zu reden, hat sich unsere öffentlich-private Praxis auf sozialen Medien hinterrücks längst an einer Utopie entgrenzter Kommunikation orientiert - einer Utopie, die wir im öffentlichen Raum der Gesellschaft und privaten (face-to-face) Gemeinschaften gleichwohl aufgeklärt von uns weisen. Seltsam eige
ntlich.

8/23/2015

Wir Cyborgs

Mit wel­chen Bil­dern und Meta­phern beschrei­ben wir die Gesell­schaft von mor­gen? Der Trans­hu­ma­nis­mus bie­tet uns der­zeit ein­präg­same Meta­phern, in denen Gesell­schaft und Tech­nik ‘ver­schmel­zen’, Men­schen und Maschi­nen in eine gemein­same ‘Super­in­tel­li­genz’ über­ge­hen oder in denen wir auf eine ‘Sin­gu­la­ri­tät’ zura­sen. Dank zahl­rei­cher Filme sind das nicht nur sprach­li­che, son­dern wahr­lich bewe­gende Bilder.
Allen Vari­an­ten des Trans­hu­ma­nis­mus gemein­sam ist ein Freiheits-, wenn nicht Erlö­sungs­ver­spre­chen. Dank der ‘Fusion’ von Mensch und Maschine kön­nen wir unsere Sterb­lich­keit über­win­den, unsere fünf Sinne erwei­tern und uns uns mit unaus­ge­spro­che­nen Gedan­ken ver­stän­di­gen. Ich hege durch­aus Sym­pa­thien für den muti­gen Ent­wurf einer Zukunft, in der wir uns nicht mehr nur als Men­schen, son­dern als Cyborgs begeg­nen. Den­noch setze ich die­ser Zukunft einen Ver­gleich ent­ge­gen, der mir als Sozio­loge plau­si­bler erscheint: Anstatt von der roman­ti­schen Ver­schmel­zung rede ich von der Ehe zwi­schen Mensch und Tech­nik:

Die Part­ner wol­len nur das Beste für­ein­an­der, sie träu­men von einer gemein­sa­men Zukunft im smart home, freuen sich über die ehe­li­chen oder unehe­li­chen Kin­der, den Gar­ten und das gemein­same Auto.


Doch der Teu­fel bzw. die Kom­ple­xi­tät steckt im Detail: Die Schwie­ger­mut­ter, die ver­gan­ge­nen Gelieb­ten der Part­ne­rin, der rich­tige Zeit­punkt für Sex oder Migräne. Doch diese Kom­ple­xi­tät und Ambi­va­lenz einer Hei­rat zwi­schen Mensch und Tech­nik wischt der Trans­hu­ma­nis­mus bei­seite. Schlim­mer noch: Er ver­kennt, dass wir seit unvor­denk­li­chen Zei­ten bereits in einer Ehe mit der Tech­nik leben — einer Ehe, die es uns hin und wie­der ver­un­mög­licht, uns in die Tech­nik neu zu ver­lie­ben.

[ ...]
Mit tech­ni­schen Uto­pien wird Kom­ple­xi­tät bei­seite gefegt. In den Ent­gren­zungs­vi­sio­nen des Trans­hu­ma­nis­mus wird der Cyborg viel­mehr zur Chif­fre unbän­di­ger Frei­heit. Tech­no­lo­gi­sche Ent­gren­zung wird in den ent­spre­chen­den Dis­kur­sen vor­ran­gig als Instru­ment zur Ver­wirk­li­chung einer Stei­ge­rung von Mög­lich­kei­ten inter­pre­tiert. Damit knüp­fen trans­hu­ma­nis­ti­sche Fan­ta­sien an den moder­nen Mythos einer tech­no­lo­gi­schen Eman­zi­pa­tion von den Zwän­gen der Natur an. Doch die­ser Mythos ist blind für die tief­grei­fen­den Ambi­va­len­zen jed­we­der Tech­ni­sie­rung.

Um was für Ambivalenzen es dabei geht - das steht in der ersten Ausgabe der Avenue. Dort findet sich der vollständige Text. Ich habe das Glück, zu den Autoren jener wunderbaren Zeitschrift zu gehören, welche die Geis­tes– und Sozi­al­wis­sen­schaf­ten für ein breites Publikum öffnen will. 

11/30/2014

Propaganda, Propaganda

Ob man in der aktuellen Tendenz der Aufspaltung von Blockbustern zur Steigerung des Profits nun ein Symptom kapitalistischer Dreistigkeit, eine Möglichkeit zum verdoppelten Filmgenuss oder beides zugleich sehen mag, soll im Folgenden nicht weiter vertieft werden. Sicher ist, dass die Teilung des letzten Teils der "Hunger Games"-Reihe in "Mockingjay Part I" und "Mockingjay Part II" etwas riskanter war, als dies sonst bei Blockbustern der Fall ist. Denn schon als Buch war "Mockingjay" der wohl kontroverseste Titel der Reihe, der viele Irritationen und sogar eine offensive Ablehnung breiter Teile der Fanbase hervorrief. 

Als vergleichsweise handlungsarm gilt dieser seltsame dritte Band und als radikaler Bruch mit den Prämissen der vorherigen Bände (keine Hunger Games mehr, eine Heldin, die nicht mehr im Mittelpunkt des Geschehens steht und unter PTSD leidet, eine Genre-Wechsel hin zur Kriegsgeschichte, eine Gräueltat, die das bislang Geschehene in den Schatten stellt).

Die Entscheidung, nun ausgerechnet dieses Buch aufzuteilen, konnte als ignorantes Abspulen eines Schemas interpretiert werden, dass vorgibt, dass man stets den letzten Band einer Reihe in zwei Hälften teilen muss. Gerade im Fall von Mockingjay wurden jedoch schon früh Zweifel an dieser Entscheidung artikuliert: Warum man nun ausgerechnet den schwächsten Band der Trilogie auf zwei Filme ausdehnen wollte, erschien wenig plausibel. Die Kritiken zu "Mockingjay Part I" fielen denn auch tatsächlich vergleichsweise durchwachsen aus und reproduzierten in weiten Teilen die Kritik an der Buchvorlage. 

Ich teile die Kritik am dritten Buch der "Hunger Games" nicht. Im Gegenteil. Meine positive Rezension der Reihe basierte vor allem auf der Art und Weise, wie Collins die Trilogie zum Abschluss bringt. Meine Befürchtung bezüglich "Mockingjay Part I" war nun, dass die Filmemacher sich die Kritik der Leser und Kritiker zu Herz nehmen würden und das zutiefst ambivalente Buch in eine glattere, konsumierbarere Geschichte verwandeln würden, die insbesondere das anvisierte jugendliche Publikum nicht abschrecken sollte. Diese Befürchtungen erfüllten sich nicht. "Mockingjay Part I" ist ein außergewöhnlicher Film geworden. Der beste Blockbuster dieses Jahres. Warum? Weil der Film die Ambivalenzen des Buches filmisch gekonnt übersetzt, und damit - ebenso wie das Buch - die bisherige Geschichte der "Hunger Games" im neuen Licht erscheinen lässt und die Dystopie um neue Dimensionen erweitert.

Der Film beleuchtet zum ersten Mal die Rebellen, die gegen das Regime des "Capital" kämpfen und erweitert damit das Universum der "Hunger Games", indem es die Arena-Perspektive vollständig hinter sich lässt. Es zeigt sich: Die Spiele enden nicht in der Arena, sie gehen weiter. Die ganze Welt ist Teil der brutalen Inszenierung. 

Während Katniss in der Arena trotz der Auswegslosigkeit der Situation noch Handlungsmacht besaß, so besteht ihre neue Freiheit nun scheinbar nur noch darin, sich freiwillig instrumentalisieren zu lassen. Denn die Rebellen, auf denen die Hoffnungen der Bevölkerung ruhen, sind eine straff organisierte Armee. Diese will der Propaganda des Regimes eine kalkulierte Gegenpropaganda entgegensetzen. Ein Verdacht drängt sich auf: Die Rebellion gegen ein autoritäres, zynisches Regime ist vielleicht ebenso autoritär und zynisch wie der Staat, den sie bekämpft. 

Die Heldin Katniss ist keine Heldin mehr, oder besser gesagt: Sie ist im noch stärkerem Maße eine inszenierte Heldin, eine Heldin, die nur dann mit der Realität konfrontiert wird, wenn es der Inszenierung dient. Der Film dekonstruiert das Idol der jugendlichen Heldin, das in den vergangenen Teilen aufgebaut wurde, indem er seine Konstruktionsprizipien offenlegt und in ein absurdes Extrem treibt. Und dieses Extrem funktioniert. Der Film zeigt: Ohne Propaganda ist kein Krieg zu gewinnen. Propaganda wird von beiden Seiten eingesetzt - und sie erscheint noch zynischer, wenn sie auf der Seite des "Guten" zum Einsatz kommt. Es stört insofern überhaupt nicht, dass der Film sich auf die mediale Inszenierung des Krieges konzentriert und die eigentliche Tragödie des Krieges - und damit einen Großteil der "Action" in den zweiten Teil von Mockingjay verlagert. Dadurch bleibt die Geschichte, die dieser "Part I" erzählt umso prägnanter im Gedächtnis - trotz oder gerade wegen ihrer Unvollständigkeit.

Luke Skywalker musste einfach nur ein Held sein und den Todestern zerstören. Kantniss Everdeen hingegen muss für die Kamera als eine solche Heldenfigur posieren, damit andere kämpfen können. 

P.S. Und ja, Jennifer Lawrence liefert wieder eine großartige Leistung ab, die weit über das Genreübliche hinausgeht. 

7/29/2014

Über Kommentarspalten. Eigentlich auch über digitale Öffentlichkeiten insgesamt

Die Frankfurter Rundschau hat uns gerade einen wunderbaren, mit einer großen Portion Galgenhumor gewürzten, Artikel zur "Zensur" unsäglicher Leser-Kommentare serviert. Dieser Text liest sich wie ein Verkehrsunfall. Man muss immer weiter zusehen, auch wenn das Entsetzen ins Unendliche steigt. Man kann das Leid der FR-Redaktion beinahe körperlich spüren, das sie beim Durchgang der Leser-Kommentare Tag für Tag plagen muss. Zugleich ist man amüsiert - amüsiert über all den Stumpfsinn aus den Untiefen der Kommentarspalten, der sich in kondensierter Form in dem Beitrag wiederfindet. Die "linksversifften Wixer von der Rundsau" werden da beschimpft, die "links-grünen Homo-Faschisten" sollen sich in den... nun ja, genau so eben.

Der Unterhaltungswert solcher Kommentare ist freilich ambivalent. Sie verunsichern unsere normativen Ideale einer aufgeklärten Gesellschaft der Bürger, die durch "das Internet" nun in einen öffentlichen Diskurs treten können. Sie versichern uns aber auch in unserer Position als intellektuelle Beobachter, die wohlfeil auf die ungebildeten, undisziplinierten Massen herabschauen können. Wir können uns so wunderbar abgrenzen von der Masse des Pöbels, der sich als individiduelle Empörung maskiert, ohne zu verstehen, dass er nur Gebrüll abliefert, das zu einem schwerverdaulichen Soundbrei seinen austauschbaren Beitrag abliefert. Wir können uns prächtig über diese Kommunikation erheben, die eigentlich nur sich selbst adressiert.

"Wir" - dass ist natürlich die virtuelle Gemeinschaft, in der man sich weiß, wenn man doch mal wieder eine Kommentarspalte liest um sich seine Tagesration Internet-Drama zu injizieren. "Wir" - dass ist die Gemeinschaft der Intellektuellen, der reflektierten Beobachter, der gebildeten Durchblicker. Vielleicht ist es die latente Funktion solcher Kommentarspalten, "uns" mit Distinktionsbewusstsein zu versoren. "Wir" wissen, dass man in der Welt der Kommentarspalte nur verlieren kann, da jeder Beitrag doch nur Futter für die Trolle ist, jeder Kommentar eines Kommentars den Diskurs reproduziert, gegen den er argumentiert. Wer in den Sumpf der Kommentarspalten hinabsteigt, kann nicht erwarten, sauber herauszukriechen, er macht sich schmutzig.

Als augeklärter Bürger erweist man sich offenbar vielmehr durch Nicht-Kommunikation, durch reine Beobachtung oder allenfalls noch durch das Reden über den Sumpf der Kommentarspalten (wie etwa in diesem Blog-Post), gepaart mit der Verweigerung mit ihm zu sprechen. Man gehört zum "Wir", wenn man sich nicht so schmutzig macht wie "die", die sich bestenfalls mit einseitiger Polemik, schlimmstenfalls mit verbalen Fäkalien bekämpfen. Durch ihre Nicht-Partizipation am Diskurs unterscheiden sich so Bürger von geschwätzigen, partizipierenden Massen.

Wenn wir einmal - nur so als Gedankenexperiment - annehmen würden, dass die Funktion der Kommentarspalte nicht in der Konstruktion eines Raums für den öffentlichen Diskurs besteht, sondern vielmehr in der Konstruktion eines Sozialzoos, den "wir" von außen angewiedert bestaunen können, hätte man zumindest eine These zu Hand, die das Unverständliche verständlich macht. Das Unverständliche - das ist die Frage, warum die Kommentarspalte aus der Medienwelt kaum mehr wegzudenken ist, warum etwa jede Zeitung meint, dass jeder Artikel heutzutage Anschlüsse in Form von Leser-Kommentaren bedürfte.

Die These ist irgendwie nett, vielleicht sogar halbrichtig, aber wohl zu sehr soziologisch ums Eck gedacht. Sie ist das Produkt einer Soziologie, die Kommunikation etwas zu stark in textförmigen Diskursen denkt, und nicht als Form, die sich in Medien realisiert. Eine Soziologie mit einem Augenmerk für das Technisch-Mediale würde zunächst mal ganz anspruchslos davon ausgehen, dass die Kommentarspalte ein großes Mißverständnis ist, ein typischer Fall eines neuen Mediums, das mit dem (alteuropäischen?) Ballast des Vergangenen gefüllt wird, eine anachronistische Nutzungspraxis, die davon ausgeht, in einer Gesellschaft zu leben, die als Arena öffentlicher Diskurse funktioniert, obwohl sie längst etwas ganz anderes geworden ist - auch und gerade im Zuge des digitalen Wandels. Die Kommentarspalte führt uns vor, dass "das Internet" nicht eine Befreiung des öffentlichen Diskurses aus den Fesseln der Massenmedien bewirkt. Sie führt nicht (nur) die Masse, den Sumpf, den Pöbel vor, sondern tatsächlich (auch) eine bestimmte Vorstellung antiquierter öffentlicher Bürgerlichkeit, die so nicht funktioniert.

Die Kommentarspalte ist nicht "das Internet". Das Internet ist ein Meta-Medium, das viele mediale Formen zulässt. Die Gestaltung dieser medialen Formen prägt den Diskurs, der in ihnen stattfindet. Diskurse "im Internet" sind techno-soziale Diskurse, in der technisch-mediale Arrangements mitproduzieren, was gesagt wird, wie es gesagt ist und was das für einen Unterschied macht (und: für wen).

Nach einem jahrzehntelangem Realexperiment mit Online-Leser-Kommentaren könnte sich langsam die Einsicht durchsetzen, das zumindest dieses technisch-mediale Arrangement, das Arrangement der Kommentarspalte, nicht gerade "das Beste im Menschen" hervorbringt. Die Kommentarspalte vertreibt nicht das Gespenst der Post-Demokratie, sie führt uns nicht in eine Welt des digitalen Kaffeehauses, schraubt nicht den Strukturwandel massenmedialer Öffentlichkeit zurück. Daraus wären drei Konsequenzen für die Zukunft abzuleiten (als persönliches und institutionelles Handlungsprogramm umsetzbar):

1) Man lässt alles so wie es ist und erfreut sich (ab und an) an der Kommentarspalte als textförmiger Netz-Variante des Trash-TVs (und vielleicht sind Kommentarspalten ja auch gar nicht so schlimm...).

2) Man macht (als Medienanbieter) die Kommentarspalten dicht oder ignoriert sie (als Leser), weil das alles nicht mehr zu ertragen ist.

3) Man experimentiert mit neuen Formen, wagt neue Experimente. Da gibt es ja so einiges, hört man zumindest. Reddit soll ja toll sein, und Facebook viel besser als sein Ruf. Sagt man. Wie auch immer, einen Versuch könnte es wert sein. Macht mal.            

7/20/2014

Die Realität der Flatrate-Kultur

Alles, was wir über die Welt wissen, das wissen wir durch die Medien. Mit dieser Diagnose eröffnete Niklas Luhmann sein Buch zur "Realität der Massenmedien". Diese Diagnose war freilich als pointierte Übertreibung gemeint, als Spitze gegenüber jenen Kulturkritikern, die im Wesen der Massenmedien lediglich das Monstrum einer verzerrten Darstellung der wahren, schönen und guten Wirklichkeit erblickten. Ihnen hielt Luhmann entgegen, dass nur ein verschwindend geringer Teil unseres Wissens nicht durch Medien vermittelt wird und selbst die Kritiker der Massenmedien sich massenmedialer Mittel bedienen müssen um Gehör zu finden.

Luhmanns Beobachtungen liegen nun mehr als zwei Jahrzehnte zurück. Die klassischen Massenmedien sind längst durch das Internet relativiert worden. Luhmanns Diagnose einer zunehmend medienvermittelten Wirklichkeit ist hingegen aktueller denn je. Es gibt Trends, die mehr sind als vorübergehende Flüchtigkeiten. Die Digitalisierung ist so ein Trend, der keine Mode ist, kein vorbeiziehendes Gespenst, das heute noch von der Aufmerksamkeitsökonomie beschwören wird um Morgen wieder vergessen zu sein.

Digitalisierung ist ein abstraktes und diffuses Konzept. Es handelt sich zudem um einen tendenziell sedativ wirkenden Begriff. Er beruhigt, weil er nichts Konkretes bezeichnen muss. Wenn es konkreter wird, könnte es weh tun. Kaum einer würde dem Gemeinplatz widersprechen, dass heute alles irgendwie digitaler wird. Die tatsächliche Tragweite der Digitalisierung auf unsere Kultur wird aber selten in all ihrer Konsequenz anerkannt. 

Die These dieses Artikels ist, dass ein Effekt der Digitalisierung darin besteht, dass der Verkauf einzelner Kulturgüter zu einem Anachronismus wird - einem gepflegten Anachronismus womöglich, der sich in Liebhaberkreisen verfestigen wird und seinen eigenen Retrochick als Aura mitschleift, aber eben dennoch ein Anachronismus.

Die Zukunft der Musik und des Films, des Radios und des Fernsehens liegt hingegen in Streaming-Diensten, die ihre Leistungen nach einem Flatrate-Modell anbieten. Soeben hat Amazon seine Buchflatrate vorgestellt, so dass man getrost davon ausgehen kann, das auch das geschriebe Wort vom Sog der Flatrate erfasst wird. Eine staatlich forcierte Kultur-Flatrate bleibt vorerst wohl ein Phantasma. Stattdessen leben aber wir zunehmend in einer Flatrate-Kultur, in der einzelne Sektoren der Kulturindustrie zum Flat-Tarif angeboten werden. Je nachdem, wie breit gestreut der eigene Kulturkonsum ist, kann sich so jeder seine eigene Kulturflatrate zusammenbauen. Dabei kann man am Ende eine ganze Menge Geld loswerden: 10 Euro für Serien und Filme, 10 Euro für Musik, 10 für E-Books, macht 30 Euro im Monat, 360 im Jahr. 

Digitalisierung bedeutet, dass alles was digitalisiert werden kann, über kurz oder lang digitalisiert wird (zumindest dann, wenn es genug Aufmerksamkeit bindet und/oder Profit verspricht). Und alles, was digitalisiert ist, kann zum Nulltarif vervielfältigt und rund um den Globus geschickt werden. Autoren und andere Schöpfer verlieren damit die Kontrolle über ihr Werk. Das gilt auch für alle anderen Akteure, die aus Kultur Kapital schlagen wollen. Die viel geschmähte Kostenloskultur ist daher kein Bug des digitalen Raums, auch nicht bloß ein Feature, sondern vielmehr ein Grundmuster digitaler Produktions- und Konsumverhältnisse. 

Walter Benjamin diagnostizierte zu Beginn des letzten Jahrhunderts einen Verlust der Aura von Kunstwerken im Zeitalter ihrer technischen Reproduzierbarkeit. Kunstwerke wurden im 20. Jahrhundert  im großem Maßstab zu Waren. Diese Warenförmigkeit verschiebt sich gerade. Im 21. Jahrhundert, dem Zeitalter der digitalen Reproduzierbarkeit, verliert das Kunstwerk (als einzelnes, abgrenzbares Ding) seinen Warencharakter und wird zum Element eines endlos reproduzierbaren Informationsstroms.

Insofern ist die Flatrate eine Kompromisslösung, ein Waffenstillstand zwischen kapitalistischen Imperativen und Digitalisierungslogiken, ein techno-sozialer Hybrid, der uns mitteilt: Ich biete euch die anarchische Freiheit des Digitalen in einer Zone der Bequemlichkeit. Sorgt euch nicht länger. Seid entlastet von der Entscheidung dieses oder jenes zu kaufen. Seid entlastet von der Angst vor Kriminalisierung. Ich führe euch in eine Welt, in der sich der Widerspruch von Kostenloskultur und Kapitalismus auflöst. Nicht mehr das reproduzierbare einzelne Gut ist dann Ware, sondern allein der Zugang zu einem Raum der Kulturprodukte, der idealerweise der Unendlichkeit entgegenstrebt - sonst funktioniert die Ware Flatrate nicht sonderlich gut.

Dass diese Entwicklung für die Kulturproduktion einschneidende Folgen hat, liegt auf der Hand. Eine ihrer Folgen könnte die Deprofessionalisierung weiter Teile der Kulturindustrie sein. Das bedeutet, dass die Grenze zwischen Profis (die mit ihrer Arbeit Geld verdienen wollen und können) und Amateuren (die das alles nur als Hobby betreiben) sich zu verflüssigen droht. Viele könnten in der neuen digitalen Wirklichkeit dann zwar zu Kulturproduzenten werden, doch wie hoch der Anteil derer sein wird, die davon eine berufsförmige Existenz bestreiten können, ist zumindest fraglich. Das mag man beklagen oder feiern, doch ein Zurück in das analoge Reich des als Ware handelbaren Kulturartefakts ist wohl trotzdem versperrt. Ein Markt dafür mag fortexistieren, aber es wird nicht der Massenmarkt des späten 20. Jahrhunderts sein. Was bleibt, sind emphatische Rückzugsgefechte, die mit Trotz und Melancholie geführt werden, die aber bereits den Glanz des Nostalgischen schmerzhaft mit sich tragen. 

Singulär kommerzialisiert werden in Zukunft wohl eher Ereignisse als Artefakte sein, Konzerte, Lesungen, das große Theater des Authentischen. 

Für die digitalisierbaren Gütern könnte schon dagegen schon bald gelten: Alles, was wir an Kultur konsumieren, konsumieren wir durch die Flatrates. 

2/23/2014

Jede Gesellschaftstheorie der Zukunft wird (auch) eine Wissenschafts- und Techniktheorie sein müssen. Ein kleines Plädoyer.

Wissenschaft und Technologie prägen im wachsendem Maße unsere Existenz. Diese Beobachtung ist nicht neu. Die Ambivalenzen dieser Entwicklung sind vielmehr seit Jahrzehnten ein fester Bestandteil akademischer Diskurse. Technisierung und Verwissenschaftlichung gehören mittlerweile zu den Gemeinplätzen soziologischer Zeitdiagnostik. Sie wurden an immer neuen Fällen belegt und mit jeder neuen Theoriewelle wieder ins Zentrum der Debatte gespült. So warnte in den 1960er Jahren bereits der Soziologe Helmut Schelsky vor einer Technokratie, in der wissenschaftliche Logik und technische Funktionalität alle sozialen Bereiche überformen und Entscheidungen zunehmend in Sachzwänge verwandeln würden. Im Anschluss an Foucault sahen spätere Autoren die Entstehung eines Komplexes aus Wissen(schaft) und Macht, der selbst in die privateste Lebensführung hineinreicht und das Denken und Handeln der Subjekte formt und bestimmt.

In den bisherigen Diagnosen wurden Technik und Wissenschaft typischerweise als machtvolle Kolonisierer betrachtet, als Erober, die bestehende Institutionen und Traditionen infrage stellen und deren Rationalitäten durch ihre eigenen ersetzen. Zugleich lässt sich aber auch etwas anderes, womöglich komplementäres beobachten: Technikentwicklung und wissenschaftliche Praxis wandern zunehmend selbst in den Alltag. Die Wissenschaft hat nicht nur den Elfenbeinturm (der Universität) verlassen, sondern auch die ihn umgebenden Gärten (etwa in Form der Forschungs- und Entwicklungsabteilungen großer Firmen). Individuen, die außerhalb etablierter wissenschaftlicher Institutionen stehen, verlassen ihre Rolle als passiv-adaptives Publikum, das den Worten der Experten lauscht und ihre Handlungen an ihren Erzeugnissen orientiert. Die institutionell Exkludierten werden selbst zu Akteuren technischer Entwicklung und wissenschaftlicher Diskurse. Sie werden zu App-Entwicklern, basteln in Hacker- und Makerspaces an und mit 3D-Druckern, treten auf Wikipedia in wahrheitscodierte Diskurse ein, rezensieren wissenschaftliche Bücher oder stellen als „informierte Patienten“ das medizinische Deutungsmonopol der Ärzte infrage. Ausgerüstet mit Smartphones beteiligen sie sich als Datensammler für Forschungsprojekte. Sie vermessen als Teil der „QuantifiedSelf“-Bewegung ihre Körper und ihren Alltag und werden so zu Experimentatoren ihrer Selbst.  

Wenn diese Entwicklungen in ihrer Gesamtschau eine Tendenz der Gegenwartsgesellschaft – zumindest prototypisch – abbilden, vollzieht sich gerade eine (Neu-)Verdrahtung von Wissenschaft, Technik und gesellschaftlichem Alltag, die wohl selbst Schelsky und Focault überrascht hätte: Wissenschaft und Technik werden zu „ganz normalen Praktiken“ von „ganz normalen Leute“. Wenn die Gegenwartsgesellschaft also tatsächlich zur Technokratie – besser: zur Expertokratie – geworden ist, dann aber zu einer flüssigen, vernetzten, alltäglichen Expertokratie, die durch starke Dezentralisierungstendenzen geprägt ist. Diese Diagnose mag übertrieben sein, das haben Zeitdiagnosen so an sich,  aber sie weist doch zumindest auf eines hin: Verwissenschaftlichung und Technisierung schreiten weiter voran – aber nicht immer so, wie sich das die raunenden Mahner der Vergangenheit vorgestellt haben. Das muss nicht verwundern. Immerhin gehört es nun einmal zum Wesen von Wissenschaft und Technik, dass sie Innovationen und Überraschungen produzieren. 

Sicher, die heutige Gesellschaft ist keine reine Wissenschaftsgesellschaft und wohl auch keine Gesellschaft, in der ausnahmslos jeder zum Erfinder, Entwickler und Experten wird. Sie ist aber dennoch, und bis in die Alltagspraxis hinein, eine durch und durch verwissenschaftliche und technisierte Gesellschaft. Jede Gesellschaftstheorie der Zukunft wird daher auch und gerade eine Wissenschafts- und Techniktheorie sein müssen.


9/22/2013

Panem et circenses

Als ich vor ein paar Wochen begann, die Buchtrilogie "The Hunger Games" von Suzanne Collins zu lesen, waren meine Erwartungen eher gering, fürchtete ich doch, dass das Buch sich letztlich als eine Art Twilight-Klon entpuppen könnte - als pubertäre Teenager-Love-Story in einen Pseudo-Sci-Fi-Gewand und schwarz-weiß-malerischen Moralisierungen mit dem Holzhammer.

Das Gegenteil ist der Fall. Ich habe gerade den letzten Teil der Trilogie gelesen und bin von dem Gelesenen immer noch tief beeindruckt, da ich in letzter Zeit kaum einem Buch begegnet bin, dass so ein Gefühl dramatischer Unmittelbarkeit vermitteln konnte. Ich möchte gar nicht viel zu den literarischen Qualitäten der "Hunger Games" sagen, da darüber bereits genug gesagt worden ist. Die Erste-Person-Perspektive. Das Präsens. Die einfache, klare Sprache. Die ständigen Cliffhanger. All das trägt zu einem Leseerlebnis bei, dass man cineastisch nennen könnte. Die "Hunger Games" laufen daher auch nie in Gefahr, sich für den Literaturnobelpreis zu empfehlen. Sie sind meilenweit entfernt von den Sprachspielen einer Herta Müller oder den philosophischen Ausschweifungen eines Javier Marias. Das macht aber gar nichts. Die Form der Romane schmiegt sich vielmehr vollständig an den erzählten Inhalt an. Die emotionale Wirkung, die sie Autorin damit erreicht, ist beachtlich.

Die "Hunger Games" erzählen von einer post-apokalyptischen Gesellschaft, in der die USA vernichtet und durch ein diktatorisches Regime ersetzt worden sind. Dieses Regime herrscht aus einer in Dekadenz versunkenen Hauptstadt über 12 Distrikte, in der eine in künstlicher Armut gehaltene Bevölkerung für den Luxus der herrschenden Klasse Knochenarbeit verrichten muss. Vor vielen Jahrzehnten wurde eine Rebellion brutal niedergeschlagen. Die Erinnerung an die nachfolgende "Befriedung" der Gesellschaft wird durch jährlich stattfindende Spiele wachgehalten, in denen je zwei Kinder pro Distrikt (als „Tribute“) in einer Arena solange gegeneinander kämpfen müssen, bis nur noch ein Kind übrig ist und alle anderen tot sind.

Das Arrangement der Spiele ist an Perfidie kaum zu überbieten. Die Auswahl der Tribute findet per Los statt – doch können die Kinder ihren Namen mehrmals in die Lostrommel werfen um die Lebensmittelration ihrer Familie zu erhöhen. Im Vorfeld der Spiele und während der Live-Übertragung müssen die Tribute um die Gunst des Publikums buhlen, um in der Arena an wichtige Hilfsmittel zu erlangen, die auf den Spenden der Zuschauer basieren. Die Arena selbst ist der tödlichste Gegner der Kinder, da sie von den Spielleitern jedes Jahr mit neuen Widrigkeiten und Fallen bestückt wird.

In der Trilogie begleiten wir ein junges Mädchen auf ihrem Weg als Tribut in die Spiele und werden Zeuge, wie die Ereignisse in der Arena den Anstoß zu einer Rebellion geben, die die bestehenden Machtverhältnisse zu erschüttern droht.

Das jugendliche Alter der Protagonisten ist der eine Grund, warum die Trilogie dem Genre der Young-adult fiction (YA) zugerechnet wird. Der andere Grund ist eine sich abzeichnende Liebesgeschichte zwischen ihr und einem anderen Tribut. Doch in beiden Aspekten bricht der Roman mit den Erwartungen, die so eine Konstellation typischerweise weckt. Die junge Heldin ist keine vor sich hin schmachtende Schönheit auf der Suche nach ihrem Traumprinzen, sondern eine wortkarge Wilderin, die sich nicht für Männer interessiert, sondern nur für das Überleben ihrer Familie. Die Romanze ist somit – zumindest von ihrer Seite aus – eine Inszenierung für die Kamera, die ihre Überlebenschancen in der Arena erhöhen soll.

Die Handlung von „The Hunger Games“ ist an Brutalität kaum zu überbieten und geht an die Grenzen dessen, was im YA-Bereich möglich ist (und geht im letzten Teil der Trilogie eigentlich sogar darüber hinaus). Die Grausamkeiten, die sich die Tribute in der Arena antun, sind schlimm genug. Sie werden jedoch von den Grausamkeiten des Regimes gegen die eigene Bevölkerung noch bei weitem übertroffen. Im Gegensatz zu vielen anderen YA-Romanen gibt es keinerlei heiteren Zwischentöne, die das Geschehen auflockern würden. Die Welt der „Hunger Games“ ist von der Welt von Harry Potter, in der Düsternis stets mit Humor und Leichtigkeit kontrastiert wurde, weit entfernt. Jeder Erfolg der Protagonistin ist trügerisch und schiebt sie zielsicher weiter in einem Weg, der nur eine Richtung zu kennen scheint: weiter in die Katastrophe. Doch „The Hunger Games“ ist keine zynische Erzählung. Die Geschichte entfaltet ihre tragische Kraft gerade dadurch, dass Collins Hoffnung, Freundschaft und Liebe in ihrer Welt durchaus zulässt – nur konfrontiert sie diese Werte unerbittlich mit einem politisch-medialen Komplex, der all das trefflich für sich auszubeuten weiß.

In der Darstellung der post-apokalyptischen Welt insgesamt überzeugt die Trilogie nicht. Der Stand von Wissenschaft und Technik ist unklar und oft inkonsistent. Die technischen Mittel, die den Charakteren zur Verfügung stehen, richten sich vielmehr ganz nach den Erfordernissen der Handlung. Zugleich sorgt die Ich-Perspektive dafür, dass dem Leser ein Großteil der Welt verschlossen bleibt und damit letztlich im Ungefähren verbleibt. Aber darauf kommt es nicht an. Die „Hunger Games“ wollen keine „harte“ Science Fiction sein. Stattdessen geht es Collins eher um eine „Social Fiction“ in der Tradition der großen Dystopien der 20. Jahrhunderts. Die Trilogie leistet keine spekulative Technikfolgenabschätzung sondern eine Reflexion sozio-politischer Tendenzen und Mechanismen: Welche Rolle spielen mediale Strategien im Spiel von Macht und Gegenmacht? Inwiefern ist Heldentum ein Produkt öffentlicher Inszenierung? Es ist ungemein spannend und überraschend zu beobachten, wie Collins das klassische Motiv des Helden, der angesichts eines epischen Konflikts letztlich „das Ruder herumreist“, im Verlauf der Geschichte variiert und dekonstruiert.

Auf einer anderen Eben des Romans geht es um das, was man die Paradoxien der menschlichen Natur nennen könnte: Wahrheit und Lüge, Authentizität und Darstellung, Macht und Ohnmacht, seelisches und leibliches Überleben, Opferbereitschaft und Hingabe. Und, ja, es geht auch um Liebe – sogar um ein ausgewachsenes Liebesdreieck. Die Behandlung dieser allzu menschlichen Themen erfolgt so unpathetisch wie das Rahmen einer solchen Erzählung möglich ist. Dass das private Glück (oder Unglück) der Charaktere in „The Hunger Games“ eine zentrale Rolle einnimmt, wirkt nie aufgesetzt. Vielmehr ist es für die Bedeutung des Romans als dystopischer Erzählung von hoher Relevanz.

Mit einer (natürlich viel zu groben) Einteilung lassen sich zwei Formen der Dystopie unterscheiden: Es gibt einerseits Dystopien, die dem skizzierten Furchtbild einer möglichen Gesellschaftsordnungen eine klare utopische Alternative in Form einer (politisch) besseren Welt entgegenhalten. bzw. eine solche Alternative zumindest implizieren. Es gibt eine bessere Welt – entweder im Raum (etwas jenseits des Ozeans oder auf anderen Sternen) oder in der Zeit (als von den Protagonisten erst zu verwirklichende alternative Ordnung). Anderseits gibt es Dystopien (wie 1984), die ihre literarische Sprengkraft gerade aus der Abwesenheit eines solchen utopischen Gegenbildes beziehen. Es gibt in ihnen kein „Außerhalb“ der totalitären Maschinerie, weder in der Gegenwart noch und der Zukunft. Die Welt außerhalb des Regimes existiert nicht oder ist ebenso totalitär wie dieses selbst. Ebenso ausweglos erscheinen Bestrebungen, solche Alternativen zukünftig zu verwirklichen. Die herrschenden Mechanismen sorgen dafür, dass Alternativen nur Scheinalternativen sind. In dieser Variante dystopischer Erzählungen tritt das private Glück als utopischer Ausweg (zumindest als Möglichkeit!) hervor – und nur wenige Romane gehen soweit, auch diese Hoffnung zu zerstören.

Erst in den letzten Kapiteln des letzten Bandes der Trilogie („Mockingjay“) wird die genaue Gestalt des dystopischen Bildes deutlich, dass Collins mit „The Hunger Games“ zeichnet, es wird klar, welche Möglichkeiten zur Verwirklichung von Glück die Erzählung anbietet und wie mit der Entscheidung der Protagonistin in Liebesdingen zugleich die Positionierung des Romans im dystopisch-utopischen Diskurs der Gegenwart zum Ausdruck kommt. Das ist mehr als YA-Romanzen typischerweise anzubieten haben.

P.S. Ja, die Verfilmung des ersten Bandes ist gut gemacht und die Hauptdarstellerin großartig. Die Subtilitäten und Ambivalenzen des Romans gehen auf der Leinwand jedoch verloren.