Das Regime der demokratischen Wahrheit (Teil II) – Die Deregulierung des Wahrheitsmarktes

Im ersten Teil dieser Reihe haben wir uns mit den spezifischen Lügen der Trump-Regierung beschäftigt und sie gegen die herkömmliche politische Lüge einerseits und die machtvolle, diktierte Wahrheit in autokratischen Systemen andererseits abgegrenzt. Und wir haben uns entschlossen, die spezifische Weise des Lügens der Trump-Regierung “demokratische Wahrheit” zu nennen.

Es wird Zeit, diesen Begriff etwas genauer zu fassen. “Demokratie” war schon immer ein umstrittener Begriff – ein politischer Kampfbegriff – aber dabei immer positiv konnotiert. Jeder will Demokrat sein. Selbst die autoritärsten Systeme nannten sich mit Freude Demokratie. In seiner banalsten Deutung übersetzt man Demokratie schlicht mit Volksherrschaft und insofern man als Herrscher plausibel machen kann, dass das Volk schon auf der eigenen Seite ist, fällt es nicht schwer die Grenze zwischen Autokratie und Demokratie zu verwischen. Wir verwenden also den Begriff in „demokratische Wahrheit“ nicht ohne einen augenzwinkernden Verweis auf diese Begriffsgeschichte. Aber wesentlicher noch ist, dass Trumps Wahrheitsverständnis tatsächlich die Funktionsweise von Demokratie zugrunde zu liegen scheint.

Als Donald Trump von Bill O’Reilly auf Fox News gefragt wurde, warum er – ohne irgendwelche Hinweise darauf zu haben – an der These festhalte, dass es zu Wahlbetrug zugunsten Hillary Clintons gekommen sei, weist er darauf hin, dass es doch eine Menge Leute gibt, die so denken. Eine Menge Leute denken das, also ist es wahr. Die Menge an Leuten, nicht die Evidenz von Beweisen, bestimmen die Wahrheit. Deswegen ist die Veröffentlichung seiner Steuererklärung ebenfalls nicht notwendig. Wenn die Leute ihn auch ohne Veröffentlichung ins Weiße Haus gewählt haben, sei die Wahrheit doch bereits entschieden. Für Beweise interessieren sich nur Journalisten.

Trumps Auffassung nach wurde nicht nur eine Person und eine Policy ins Weiße Haus gewählt, sondern eine Wahrheit. Die bislang gültige Wahrheit der Fakten, Experten, Beweise, Wissenschaft und Journalismus wurde abgewählt und eine andere Wahrheit, die demokratische Wahrheit, die Wahrheit des Volkes – hat Einzug gehalten.

Es ist nicht ganz leicht, dieser Argumentation zu widersprechen. Seine offensichtlichen Lügen und seine tiefsitzende Unehrlichkeit waren ja tatsächlich keine Hindernisse, ihn zu wählen und man könnte argumentieren, dass sie dadurch demokratisch legitimiert sind. Und auch nach der Wahl zeigen die Umfragen, dass 49 % der registrierten Wähler die Trump-Regierung vertrauenswürdig finden und nur 48% für nicht Vertrauenswürdig. In derselben Umfrage wurden die Massenmedien dagegen nur zu 39% als vertrauenswürdig eingestuft, während 53 % der Meinung waren, dass sie unglaubwürdig seien.

Wenn man dazu bedenkt, dass Steve Bannon die Presse als „opposition Party“ bezeichnet, die die Wahl nun mal verloren habe und deswegen jetzt mal den Mund zu halten habe, wird diese Weltsicht noch klarer. Die demokratische Wahrheit des Volkes hat die Oligarchie (bestenfalls Meritokratie) des liberalen Medienmainstreams besiegt. Daraus folgt für Trump, dass er Wissenschaftler/innen und Journalist/innen den Mund verbieten kann, bzw. dass diese einen illegitimen Machtanspruch formulieren, wenn sie ihm widersprechen. Er ist gewählt und nicht sie. Und wenn er die Wahrheit des Volkes repräsentiert, dann sind die, die diese trotz Wahl nicht anerkennen, folglich “Feinde des Volks”, “enemy of the people”.

Man kann diese Weltanschauung als rein strategisches Ablenkungsmanöver abtun oder sie als schlichten Größenwahn verbuchen. Dann fällt es leicht, entsprechende Parallelen in der Geschichte zu finden und man kann argumentieren, dass das alles einem Standardmuster innerhalb autoritärer Herrschaft folgt. Man kann aber auch einen anderen Weg gehen, die Idee der demokratischen Wahrheit als Ideologie ernst nehmen und fragen, woher sie kommt, wie sie entstehen hat können. Dies ist der Weg, den dieser Text gegen will.

Die Entfesselung der Öffentlichkeit

Meine These ist, dass die demokratische Wahrheit ihre Wurzeln in der Demokratisierung der Öffentlichkeit hat. So haben wir damals die Auswirkungen des Internets tatsächlich genannt: Demokratisierung. Das Internet habe die Öffentlichkeit demokratisiert, pflegte ich zum Beispiel zu sagen und ich meinte damit, dass auf einmal jeder und jede eine Stimme hat in dieser Welt. Dass es auf einmal niemanden mehr gab, der einen effektiv davon abhalten konnte, Öffentlichkeit zu generieren. Sprechen, ohne gefragt werden zu müssen.

Das war das, was mich am Internet faszinierte, weswegen ich 2005 Blogger wurde und warum mich die Fragen von Öffentlichkeit und Technologie nie losgelassen haben. Ganz offensichtlich war Brechts Radiotheorie wahr geworden. Bertolt Brecht hatte am Beispiel des Rundfunks davon geträumt, dass ein wahrhaftiges Volksmedium auch einen Rückkanal bräuchte. Darauf aufbauend entwickelte Hans Magnus Enzensberger eine marxistsische Medientheorie, in der er zwischen repressivem und emanzipativen Mediengebrauch unterschied. Die Massenmedien, weil in den Händen weniger, waren demnach repressive Medien, während solche, deren Produktionsmittel gesellschaftlich erschlossen waren, als emanzipativ gelten könnten. In etwa das meinten wir, als wir von der Demokratisierung der Öffentlichkeit träumten.

Demokratisierung bedeutet also in diesem Zusammengang eine Art Umverteilung. Hatten zunächst nur wenige Zugang zur Öffentlichkeit – die Presse, die Sender, die Redakteure, die Politiker, die Intellektuellen – so veränderte das Internet die Startvoraussetzungen. Jeder mit Internetanschluss konnte teilnehmen in dieser neuen Öffentlichkeit. Das waren immer noch nicht alle, aber wahnwitzig viel mehr und potentiell alle.

Zum anderen bedeutet diese Umverteilung auch eine Krise des Journalismus als Institution. Wir feierten damals den Tod des Gatekeepers. Niemand kann mehr bestimmen, was öffentlich ist und was nicht. Das Tor ist nun offen, der Mittelsmann herausgeschnitten. Das – vor allem das – versuchte ich mit dem Begriff „Kontrollverlust“ zu fassen – als positive Vision. Durch das Internet brauchen wir keine Vermittler mehr, wir können nun alle direkt miteinander sprechen. Und wir können gemeinsam – kollaborativ – an der Wahrheit arbeiten, so wie an einer gigantischen Version der Wikipedia.

Die Demokratisierung ging einher mit einer Deinstitutonalisierung, was letztlich eine Dezentralisierung und Enthierarchisierung bedeutete und somit eine breitere Verteilung von Macht. Oder mit Enzensberger gesprochen: der emanzipative Mediengebrauch siegte über den repressiven Mediengebrauch.

Es war eine aufklärerische Vision. Über jedes Massenmedium kann nun ein Watchblog wachen und Einschätzungen darüber geben, wie wahr oder unwahr die Bild, die Süddeutsche, oder die Tagesschau berichten. Open Source Wahrheit: Jede/r konnte alles überprüfen, jede/r konnte mitarbeiten an der Wahrheit, tausend Augen konnten nicht irren. Wie sollte diese Entwicklung denn bitte nicht in die totale Aufklärung führen, in die aufgeklärte Aufklärung und gar die noch aufgeklärtere Aufklärung, die sich noch in ihrer dritten Instanz über sich aufgeklärt. Die Wahrheit wird jetzt noch wahrer, noch überprüfter und gegengecheckter. Eine fünfte Gewalt, die die vierte Gewalt im Auge behält, während sie von einer sechsten Gewalt überwacht wird. Wenn überhaupt irgendwas unwahr ist, dann aus einem Mangel an Demokratie. Wahrheit und Demokratie waren eins; je Demokratie, desto Wahrheit.

Die Realexistierende demokratisierte Öffentlichkeit

Ich bleibe dabei: Die Demokratisierung der Öffentlichkeit durch das Internet ist und bleibt die radikalste Revolution unserer Zeit. Doch wie bei jeder Revolution ist es naiv zu glauben, dass sie nur positive Effekte kennt. Meinungsfreiheit von einem abstrakten Recht zu einer tatsächlichen Praxis zu machen, war ein enormes Sozialexperiment mit unvorhersehbaren Folgen. Und wir schwenken gerade erst in die Periode ein, in der uns die ersten Untersuchungsgergebnisse vor den Latz geknallt werden.

Beim Auswerten der Daten dann der Schock: Enzensbergers Medientheorie entpuppte sich mehr als Milton Friedmann, denn Marx. Jedenfalls gleicht die Demokratisierung der Medienöffentlichkeit in ihrer Praxis mehr einer Deregulierung des Wahrheitsmarktes. Die Ergebnisse zeigen im Einzelnen genau die selben Auswirkungen, die wir von jeder Marktderegulierung kennen: Kostendruck bei den Marktführern, das Auftauchen von neuen Wettbewerbern und schließlich die Ausnutzung von Lücken im Systems durch “bad Actors”. Aber der Reihe nach:

1. Die traditionellen Massenmedien haben überlebt. Das ist nicht selbstverständlich. Ich selbst habe große Zweifel gehabt, ob die institutionellen Medien mit ihrem organisatorischen Wasserkopf und ihrer Unflexibilität in dieser neuen Umwelt überhaupt überlebensfähig sein werden. Sie waren es offensichtlich. Es war schmerzhaft. Es gab enorme Kosteneinsparungen und heftige Marktbereinigungen und immernoch stehen die Redaktionen unter hohem Kostendruck. Gleichzeitig mussten die Redaktionen sich teils radikal umstrukturieren und umgewöhnen, neue Methoden, Geschäftsmodelle und Techniken adaptieren. Aber im Großen und Ganzen scheint sich das System auf einem niedrigeren Niveau zu stabilisieren.

2. Der Aufstieg der Nische. Der damalige Chefredakteur der Wired, Chris Anderson, sprach Anfang der 2000er vom sogenannten Longtail. Während sich aufs Massenpublikum gerichtete Anbieter auf die Bestseller konzentrieren, können im Zeitalter der digitalisierten Märkte vor allem auch Nischenanbieter profitieren. Wenn Lagerung und Distribution geringe oder keine Kosten verursachen, ist auch das Bedienen jeder noch so kleinen Nische profitabel.

Das ist genau so eingetreten und hat zu der enormen Medienvielfalt geführt, in der wir heute leben und aus der auch dieses Blog seine Existenzberechtigung zieht. Es hat aber auch dazu geführt, dass egal wie absurd ein Weltbild oder eine Verschwörungstheorie ist, sie ihre eigene Medienöffentlichkeit erzeugen kann und es deswegen unweigerlich auch tut. Und das verändert die gesamte Mechanik der Informationssysteme.

Früher hatten wir ein Mediensystem in dem wenige Akteure darum konkurrierten, den besten und schnellsten Zugang zu einer von ihnen unabhängigen, gemeinsamen Realität herzustellen. Bestenfalls die Perspektive auf diese Realität eignete sich als Differentiator. Heute haben wir ein System, das mit tausenden alternativen Wahrheiten aufwartet und das dazu passende Publikum sucht – und erzeugt.

Und es gibt kaum eine alternative Wahrheit, die im Internet nicht sein Publikum gefunden hat. Von den Flat-Earthern, den Chemtrailphobikern, allen Arten von Verschwörunsgtheoretikern, den Reichsbürgern bishin zu den radikalisierten Anhängern von Pegida oder den Subkulturen wie der Alt-Right in den USA. In dieser zerklüfteten und deregulierten Medienumwelt generiert jede Wahrheit ihren Echoraum, um ihre Narrative zu züchten.

3. Auch Fake-News sind Ergebnis des Experiments. Doch zuvor wird es Zeit, den Begriff etwas genauer zu fassen.

Es wurde viel über den Begriff “Fake-News” geschimpft und viele meinen, spätestens seit Trump ihn beständig nutzt, um unliebsame Berichterstattung zu diskreditieren, sei er verbrannt. Claire Wardle weist in ihrer Analyse hingegegen darauf hin, dass wir so nur in die Verlegenheit kommen, „Fake-News“ in Air-Quotes zu nutzen, weil wir ja doch einen Begriff für dieses Medienphänomen brauchen.

Wardle hat zur versachlichung der Diskussion eine hilfreiche Taxonomie erstellt, die die verschiedenen Arten der unwahren Nachrichten aufdröselt. Entscheidende Kriterien seien die Arten des Inhalts, die Motivation der Hersteller der Informationen und die Wege, wie diese verbreitet wird.
Original Claire Wardle

Ich schlage deswegen eine enge Definition von “Fake-News” vor. Erstens will ich den Begriff nur auf das beziehen, was bei Wardle „Fabricated Content“ heißt, also Inhalt, der komplett ausgedacht ist. Nicht mal Verschwörungstheorien würde ich dazu zählen, da diese sich fast immer auf reale Ereignisse beziehen. Zweitens werden Fake-News explizit zur Zirkulation auf Social Media hergestellt, indem es deren spezifische psychologische Mechanismen ausnutzt. Das schließt alle arten von klassischen Medieninhalte aus, egal, wie ausgedacht sie sind. Drittens ist die Intention immer eine manipulative, keine provokative oder satirische. Der Postillion ist somit draußen, genauso wie der klassische Internet Hoax, der aber als ihr experimenteller Vorfahre gelten kann.

Fake News sind deswegen aber auch nicht einfach Propaganda. Es ist sicher richtig, dass ein teil der Fake-News zu propagandazwecken in Umlauf gebracht wird. Es ist aber auch bezeichnend, dass die meisten Verbreiter von Fake-News eher ein kommerzielles Interesse verfolgen. Der Traffic lässt sich schließlich prima monetarisieren.

Die Fake-News hat weniger was mit Journalismus zu tun, als mit Internetkultur. Ihr Ursprung ist nicht die Ente, sondern der Hoax. Schon seit 20 Jahren, werden extra zu diesem Zweck hergestellte Geschichten erfunden. Einer der bekanntesten war die Meldung der Bonsai-Kittens – eine erfundene Story, dass Japaner Katzenbabies in Einmachgläsern aufziehen, um quadratisch praktische Kittens zum Ins-Regal-Stellen zu haben. Der Aufschrei im Netz war riesig. Im Grunde sind Fake-News nichts anderes, als monetarisierte und/oder politisch instrumentalisierte Hoaxes. Die Mechanik wurde genommen und ein Geschäftsmodell dafür gefunden.

Fake-News haben sich ihre Verbreitungsmechanismen beim Hoax abgeschaut. Sie triggern den Confirmation Bias indem sie an bestehende kulturelle Narrative und gängigen Vorurteilen anknüpfen, am effektivsten bei genau getargeteten Meinungsträgern. Sie bringen ihren Blutdruck zum kochen und verleiten dazu, die Nachricht sofort weiterverbreiten zu wollen. „Jetzt kommt alles Raus! Clinton hat schon damals Uran an die Russen verkauft, während sie Leute umbrachte! Kein Wunder, dass der Papst Trump unterstützt! Die spinnen doch, die Japaner!“

Mark Zuckerberg hat erst kürzlich in seinem offenen Brief darauf hingewiesen (oder sagen wir zugegeben?), dass die Mechanismen in sozialen Netzen dazu führen, dass besonders aufmerksamkeitsheischende Überschriften eine übergroße Verbreitung fänden. Genauere Analysen weisen darauf hin, dass oft der Inhalt des Artikels gar nicht gelesen wird.

Fake-News-Produzenten haben die Lücke im System entdeckt und nutzen sie aus. Wenige initiale Kosten pro kreiertem Beitrag und durch einfache und kostenfreie psychologische Tricks virale Verbreitung führen zu maximalem Impact und Profit. Fake-News sind im großen und ganzen auf Menschliche Biases optimierter Spam, jedoch haben sie verheerende gesellschaftliche Folgen. Fake News sind im Mediensystem wie die Credit Default Swaps im Finanzsystem. Auf eine Weise verpackter Bullshit, der das System zur Transaktion verleitet, ohne preis zu geben, mit was man es eigentlich zu tun hat.

Fazit

Fake-News ist nicht der Begriff dafür, dass jetzt die Lüge oder die Falschnachricht in unser Mediensystem Einzug gehalten hat, sondern ist ein Symptom der Deregulierung des Wahrheitsmarktes und der Krise des institutionellen Journalismus.

Die Demokratisierung der Öffentlichkeit hat ein Umfeld geschaffen, in dem sich die Wahrheitsproduktion in einer ungekannten Freiheit entfalten konnte. Eine Umwelt, in der an jeder Redaktion und allen Safe-Guards vorbei Wirklichkeiten erschaffen und verbreitet werden konnten, die auf das Verbreitungssystem, statt auf den Wahrheitsgehalt optimiert sind. Das macht sie erfolgreicher, als traditionelle journalistische Produkte.

Das Regime der demokratischen Wahrheit ist durch die Deregulierung des Wahrheitsmarktes möglich – vielleicht sogar wahrscheinlich geworden. Es folgt aber noch lange nicht zwingend daraus. Um den Zusammenhang zwischen liberalisierter Wahrheitsproduktion und seiner effektiven Instrumentalisierung zu verstehen, müssen wir zurückkehren zu Trump und seine Strategien unter die Lupe nehmen. Das werden wir im nächsten Teil machen.


Veröffentlicht unter Das Neue Spiel Demokratische Wahrheit Kontrollverlust Queryology Weltkontrollverlust
1 Kommentar

Das Regime der demokratischen Wahrheit (Teil I) – Comical Spicer

Als 2003 die amerikanischen Panzer bereits in Bagdad einrollten, hielt der irakische Informationsminister Muhammad Saeed al-Sahhaf nur wenige hundert Meter davon entfernt eine Pressekonferenz, in der er genau diese Tatsache bestritt. Die Amerikaner, davon zeigte er sich überzeugt, seien kurz vor der Kapitulation. Ein paar Tage zuvor erzählte er, dass die amerikanischen Soldaten zu hunderten Selbstmord begingen, sich also vor allem selbst abschlachteten – kein Grund zur Sorge für die irakische Regierung also. Diese und andere aggressive Leugnungen der offensichtlichen Realität brachte ihm schließlich den Spitznamen „Comical Ali“ ein. So absurde Propaganda konnte im Westen nur noch als Entertainment verstanden werden, nicht mehr als ernstzunehmender Versuch der Lüge.

Comical Ali hat seitdem seinen Job bei Saddam Hussein aufgegeben, sich einen amerikanischen Haarschnitt wachsen lassen und seinen Namen in Sean Spicer geändert. Das jedenfalls könnte man glauben, wenn man derzeit die Nachrichten aus den USA verfolgt.

Doch halt. Da war ja noch was? War nicht der ganze Irakkrieg selbst aufgrund dreister Lügen zustande gekommen? War die Bush-Regierung auch nur im Ansatz aufrichtiger? Was ist so komisch and Comical Ali, was soll schon anders sein an Sean Spicer als an Ari Fleischer, dem damaligen Pressesprecher von George W. Bush? Was soll das Gerede von Post-Truth und Fake-News? Das Wasser ist nass, der Himmel ist blau und Politiker lügen.

Nein. Es gibt einen Unterschied. Ich persönlich habe den angeblichen „Beweisen“ zu den Massenvernichtungswaffen im Irak nie geglaubt und den meisten, die ich kenne, geht es genauso. Es lag aber an der Struktur der Situation, dass ich – und alle anderen – keine Möglichkeit hatten, der Bush-Regierung ihre Lügen nachzuweisen. Versuchen Sie mal zu beweisen, dass es keine rosa Elefanten gibt.

Es gibt unterschiedliche Arten des Lügens. Die Bush-Regierung log so, dass es in der Situation unmöglich war, sie zu widerlegen. Hätte es einen echten harten Beweis gegeben, dass Hussein KEINE Massenvernichtungswaffen hatte, wäre die Argumentation von Colin Powell vor der UN zusammengebrochen und alle Beteiligten hätten sich blamiert. So haben sie sich erst blamiert, als der Krieg bereits gelaufen war. Der Rest ist Geschichte.

Die Lüge unter Bush hatte nur deswegen eine Chance und wurde nur dort eingesetzt, wo die Wahrheit unklar war. Somit hat diese Art zu Lügen einen positiven Bezug zur Wahrheit. Sie erkennt die Vorherrschaft der Wahrheit an, indem sie die Lüge nur dort einsetzt, wo die Wahrheit nicht sein kann. Kommt die Wahrheit raus, muss die Lüge ihr den Platz einräumen. Sie ist der Doppelgänger der Wahrheit, der Hochstapler, der bei der Rückkehr des Originals das Feld räumen muss.

Was die Lügen von Comical Ali, Sean Spicer und Donald Trump besonders macht, ist, dass es sie auch dort lügen, wo jeder Mensch die Lüge als solche leicht erkennen und enttarnen kann. Und dass auch dann die Lüge nicht einräumt wird, wenn auf diesen Umstand hingewiesen wird. Trump kann sagen, dass es aufhörte zu regnen, als er seine Inaugurationsrede hielt, obwohl jede/r im Fernsehen das Gegenteil gesehen hat. Spicer kann mit einem „Period“ die Evidenz von Fotobeweisen leugnen, die alle bereits gesehen haben. Die Trump-Regierung produziert am laufenden Band Lügen, die so dreist sind, dass man sich schon doof dabei vorkommt, sie zu widerlegen.

Dieses besondere Verhältnis (oder Nicht-Verhältnis) zur Wahrheit ist das Neue, das es meines Erachtens berechtigt nach neuen Begriffen zu suchen. Man kann sicher darüber streiten, wie gut es die Begriffe „Fake-News“, „Post-Truth“ oder „Post-Faktisches Zeitalter“ treffen und wie sinnvoll ihre Anwendung ist. Aber diesen Umgang mit der Wahrheit einfach nur „Lüge“ zu nennen und weiter zu gehen, wird der Sache nicht gerecht.

„Fake-News“ ist nicht einfach nur ein neuer Name für „Propaganda“, „Alt-Right“ sind nicht einfach nur „Neonazis“ und der Hinweis, dass in der Politik schon immer gelogen wird, reicht eben nicht aus, unsere Situation zu erklären. Wir dürfen es uns an dieser Stelle nicht zu einfach machen, denn die Tatsache, dass wir es mit etwas Neuem zu tun haben, ist auch der Grund, warum die bisherigen Strategien dagegen nicht geholfen haben. Wir brauchen neue Strategien und dafür müssen wir zuerst die Mechanismen verstehen lernen, mit denen wir es zu tun haben. Wir brauchen neue Begriffe, mit denen wir diese Unterscheidungen klar machen können und wir müssen genau sein und darauf achten, dass die Begriffe nicht wieder verwischt werden, denn das Verwischen aller Kategorien und Begriffe ist genau die Strategie der neuen Rechten, mit der wir es zu tun haben. 1

Ich schlage vor, die Lügen der Bush-Regierung (oder auch die von Merkel im NSA-Untersuchungsausschuß) „politische Lüge“ zu nennen. Diese Lüge erkennt die Existenz einer von ihr unabhängigen Wahrheit implizit an, indem sie sich nur dann traut, ausgesprochen zu werden, wo die Wahrheit nicht – oder nur sehr schwer zu ermitteln ist. Die politische Lüge tarnt sich als Wahrheit, sie stellt sich vor die Wahrheit. In ihrer Praxis erkennt sie deswegen die Norm an, dass man immer die Wahrheit sagen sollte. Wenn die politische Lüge sich erwischen lässt, hat sie Konsequenzen für die Lügner/innen.

Die Lüge der Trump-Regierung könnte man mit Kellyanne Conway „Alternative Wahrheit“ nennen. Das klingt erstmal verharmlosend, sie ist aber ungleich schlimmer als die normale politische Lüge. Diese Form der Lüge will sich nicht anstelle der Wahrheit setzen, sondern setzt sich einfach daneben, selbst wenn diese im Raum ist. Auch sie beansprucht die wirkliche Wahrheit zu sein, indem sie die belegbare Wahrheit einfach als „Fake News“ bezeichnet. Es ist wie in den Komödien, wenn der schlecht verkleidete Doppelgänger auf sein Original trifft und behauptet, das Original habe sich als er verkleidet. Es könnte lustig sein, wenn es nicht so gefährlich wäre.

Denn die alternative Wahrheit tut etwas viel schlimmeres als lügen. Sie entwertet die Norm, dass Lügen Lügen sind und Wahrheit Wahrheit. Und das hat eine enorm erodierende Wirkung auf das kulturelle Fundament unserer Gesellschaft. Wenn wir diesen Unterschied als beliebig preisgeben, verlieren wir die Möglichkeit über alles mögliche zu reden und zu streiten. Wenn Worte nichts mehr bedeuten, ist der letzte Schritt Gewalt.

Adam Curtis hat in seinem viel diskutierten neuen Film “Hypernormalisation” versucht die Ursprünge dieser Situation des Abhandenkommens der Wahrheit herzuleiten. Einer der Argumentationsstränge arbeitet sich an der unehrlichen Außenpolitik des Westens bezüglich des mittleren Ostens ab. Ich halte diese Herleitung für falsch. Die dort dargestellten Lügen sind ohne Frage schlimm und haben viel Leid angerichtet, aber es sind einfache „politische Lügen“, wie es sie in der Politik seit Anbeginn gibt.

Einen anderen Strang, den er – leider nur sehr peripher – verfolgt, sieht die Usprünge der Post-Truth-Ära in der Propaganda der späten Sowjetunion. Schon dort wurden für alle offensichtliche Wahrheiten geleugnet, bis niemand mehr irgendwas glaubte. Ich habe das Gefühl, dass er hier viel eher auf der richtigen Fährte ist. Alleine schon, weil er damit nicht alleine ist. Seit Trump unser Leben trollt bekam ich häufig zu hören, dass seine Art zu lügen an die Sowjetunion und an Putin erinnere.

Marina Weisband weist in diesem Zusammenhang darauf hin, dass der Zweck der alternativen Wahrheit eben nicht sei, die Menschen von den eigenen Lügen zu überzeugen (was hieße, die Wahrheit zu ersetzen), sondern sie mürbe zu machen, Zweifel und Unsicherheit zu sähen und sie dazu zu bringen sich vom politischen Geschehen abzuwenden. Man könnte es ökonomisch ausdrücken: Es geht darum, die Kosten für den Glauben an die Wahrheit soweit zu erhöhen, dass entweder die Lüge akzeptiert wird, oder die Leute der Wahrheit gegenüber indifferent werden. “Wer weiß schon, was wahr ist. Lügen doch eh alle!”

Und nun haben wir ein Problem. Bei totalitären oder zumindest autokratischen Diktaturen scheint diese Vorgehensweise nur logisch: Wenn du als Herrscher deine Medien und Kommunikationskanäle unter Kontrolle hast, dann kannst du dir erlauben, deine Wahrheit neben die echte Wahrheit zu stellen – dann ist die Ergänzung der Wahrheit sogar eine wirkungsvolle Machtdemonstration. Es gibt keine unterwürfigere Loyalitätsgeste, als für jemanden zu lügen. Und selbst das Auf-die-Zunge-beißen aus Angst vor Repression aller anderen ist ein Akt der Unterwerfung, der die Macht des Regimes sicherstellt. Und insofern wäre auch die “alternative Wahrheit” nichts wirklich Neues.

Aber bis vor kurzem waren die USA keine Diktatur. Trump ist eben gerade erst an die Macht gekommen, die Medien sind nicht mal im Ansatz gleichgeschaltet, sie kritisieren und factchecken alles, was er sagt und tut. Sie sprechen „Truth to Power“ wie man im englischen sagt und bis auf die vorgetragenen Feindseligkeiten aus dem weißen Haus, gibt es bisher keine Maßnahmen, die Journalisten effektiv an ihrer Arbeit zu hindern.

Ich denke, der Begriff der „alternativen Wahrheit“ muss an dieser Stelle noch mal aufgebrochen werden. Die diktatorische alternative Wahrheit beansprucht ihre Wahrhaftigkeit durch die Macht des Herrschenden. Man könnte sie deswegen die „diktierte Wahrheit“ nennen.

Doch wie beansprucht Trump die Wahrhaftigkeit seiner alternativen Wahrheit, wo ihm keine diktatorischen Mittel zur Verfügung stehen? Wie kann es eine “demokratische alternative Wahrheit” geben? Eine Wahrheit, die von der offen vorliegenden, faktenbasierten Wahrheit klar abweicht und dennoch von einer hinreichend großen Menge geglaubt wird, ohne, dass irgendjemand dazu gezwungen wird.

Die „Demokratische Wahrheit“ ist das eigentliche Rätsel der Trump-Präsidentschaft.2 Als Anhänger der Aufklärung fällt es mir schwer zu begreifen, dass so etwas überhaupt existieren kann. Ich gebe zu: es macht mir Angst.

Hier stellen sich viele Fragen: Warum kann eine aufgeklärte, plurale Medienöffentlichkeit selbst den dümmsten Lügen nichts Wirkungsvolles entgegensetzen? Warum muss Trump keine Angst haben, seine Anhänger/innen zu enttäuschen? Welche Kombination aus technisch-medialen und kulturell-sozialen Umstände mussten aufeinandertreffen, diese neue Situation herbeizuführen? Was ist Trumps Strategie, was ist sein Endgame (falls es das gibt)? Und was hat das alles mit dem Internet, dem Kontrollverlust, der Alt-Right-Bewegung und dem so genannten Dark Enlightenment zu tun?

In diesem mehrteiligen Essay versuche ich die Frage beantworten, wie es dazu hat kommen können. Im nächsten Teil, will ich mich mit dem Strukturwandel der Öffentlichkeit in der westlichen Hemisphäre durch das Internet beschäftigen.

Hier geht es zu Teil II >>>

  1. An dieser Stelle muss zunächst einmal eine Definition – oder sagen wir – ein Bekenntnis – zur Wahrheit stehen, gerade, weil das heute nicht selbstverständlich ist. Ja, ich glaube an die Existenz von einer unserer Wahrnehmung und Interpretation unabhängigen Wahrheit. Diese Wahrheit ist mal mehr mal weniger gut durch wissenschaftliche und andere intersubjektive Methodik belegbar. Ihre Wahrhaftigkeit stützt sich einzig auf ihre Belegbarkeit und die dafür eingesetzte Methodik. Wenn eine Wahrheit belegbar ist, gilt sie so lange, bis sie widerlegt wird.

    Ich will an dieser Stelle nicht in die Tiefen der Epistemologie abtauchen, denn das soll hier nicht das Thema sein. Wer sich für diese Fragen interessiert, wird hier nicht fündig. Wer eine andere Auffassung von Wahrheit hat, der möge bitte hier aufhören zu lesen und weiter klicken, ich bin an diesen Diskussionen nicht interessiert.

  2. Die „Demokratische Wahrheit“ ist eine Wahrheit,

    1. die neben einer abweichenden, gut durch Fakten belegten, Wahrheit koexistiert und
    2. die trotzdem von einer hinreichend großen Menge an Leuten geglaubt wird, die
    3. dazu nicht mit externen Anreizen (Zwang, Bestechung) dazu gebracht wurden.


Veröffentlicht unter Das Neue Spiel Demokratische Wahrheit Kontrollverlust
4 Kommentare

Drei Missverständnisse bei der Debatte um Big Data im Wahlkampf

Vor allem nach der Trumpwahl wurde wieder viel über Big Data gesprochen und was die Auswirkungen auf den politischen Prozess sein kann. Und ich muss sagen, dass mich der Diskurs darum wahnsinnig nervt – nicht weil ich ihn für unwichtig halte – sondern weil er so falsch geführt wird. Das betrifft sogar Formate und Personen, die ich eigentlich sehr schätze. Der Anlass dieses Artikels ist deswegen die aktuelle Folge der „Lage der Nation„. Ulf und Philip sind aber nicht die einzigen, die die Denkfehler bezüglich Big Data machen, es ist aber so, dass ich mich immer dann besonders ärgere, wenn intelligente Menschen falsche Dinge sagen.

Deswegen hier drei Denkfehler (sicher nicht die einzigen), die regelmäßig auftauchen, wenn es um Fragen von Big Data geht.

1) Es geht nicht um Vorhersage individueller Handlungen oder Eigenschaften

Was man immer wieder hört, ist ein Satz wie: „… und anhand dieser Daten können die dann bestimmen, dass du Eigenschaft X hast, oder dich so und so verhalten wirst.“ Das ist schlicht falsch. Big Data und andere statistische Verfahren können nicht anhand von sachfremden Daten dein tatsächliches Verhalten oder irgendwelche Eigenschaften herauslesen. Was sie tun können ist, Wahrscheinlichkeiten zu bestimmen.

Am konkreten Beispiel: Big Data kann zwar nicht aus deinem Facebook-Verhalten schließen, dass du homosexuell bist und morgen Margarine kaufst, sie können aber sagen, dass du zu 86% Wahrscheinlichkeit homosexuell bist, und zu 65% an Margarine interessiert bist. Das mag jetzt pingelig klingen aber diesen Unterschied zu als einen wesentlichen zu verstehen ist wahnsinnig wichtig. Dieser Unterschied definiert sehr genau, was mit Big Data möglich ist und was nicht und führt zu den meisten falschen Vorstellungen, die in der Öffentlichkeit zu Big Data rumschwirren.

Leute, die diesen Unterschied nicht verstanden haben, machen sich darüber lustig, dass der Amazon- oder Facebook-Algorithmus ihnen schon wieder etwas vorgeschlagen hat, das sie gar nicht interessiert. Was diese Leute nicht verstehen, ist, dass es getargetete Werbung nicht auf sie als Individuum abgesehen hat. Dass die Algorithmen sie falsch eingeschätzt haben, ist den Betreibern nämlich völlig egal bzw. die Fehlerquote ist längst mit reingerechnet.

Um Big Data zu verstehen, muss man sich zunächst mal davon verabschieden, vom Individuum her zu denken. Du als Individuum – Du als Max Mustermann – spielst hier überhaupt keine Rolle. Der Erfolg eines Algorithmus wird nicht daran bemessen, ob du tatsächlich Himbeermarmelade magst oder nicht, sondern ob auf die Anzeige 2,0468 % mehr Leute regiert haben, als bei dem andern Algorithmus. Dass also eine Clicktroughrate von 14,5682 auf 16,615 erhöht wurde. Das klingt jetzt total langweilig und banal und gar nicht mehr so sexy. Das ändert sich aber etwas, wenn man weiß, dass das einen Umsatzplus von mehreren Millionen Euro bedeuten kann. Und während sich das Individuum kaputtlacht, weil es ja gar keine Himbeermarmelade mag, stört es den BigData-Analysten keineswegs, dass dieses Individuum zu den 83,385% gehört, die falsch getargetet wurden.

Diese Zusammenhänge lassen sich nicht auf individuelles Erleben mappen, was uns vor ein riesiges Verständnisproblem führt, denn wir sind es gewohnt, nur so zu denken. Überschriften wie „SIE KÖNNEN DEIN VERHALTEN VORHERSAGEN UND WISSEN ALLES ÜBER DICH!!“ sind zwar prima zu klicken, aber falsch und lenken von den echten Problemen bei Big Data ab.

Ebenfalls wenig hilfreich ist, dass der Diskurs in Deutschland vor allem von Datenschützern geführt wird. Das Individuum und seine informationellen Freiheitsrechte sind nämlich der Nagel den diese überall sehen, weil sie ja der Hammer dafür sind. Es ist zwar so, dass beim Sammeln der Daten für Big Data oft die informationelle Selbstbestimmung berührt wird, aber das ist höchstens ein Nebenproblem von Big Data. Den Big Data-Verwendern ist die Identität der Individuuen für fast alle Verwendungszwecke nämlich herzlich egal. Sie anonymisieren die Daten gerne und freiwillig (auch wenn das oft nicht so einfach ist, aber das ist ein anderes Thema), denn die Anonymisierung hat keinerlei Auswirkungen auf die Effektivität der Anwendung. (Zwar muss man für die meisten Anwendungen wieder die Augenpaare adressieren können, die Reidentifizierbarkeit ist also in gewissem Sinne wichtig, aber das muss nicht an die bürgerliche Identität geknüpft sein.)

Zwar kann man mit rigidem Datenschutz den legalen Einsatz von Big Data eindämmen. Aber ich glaube nicht, dass das wünschenswert ist, da Big Data erstens auch viele sehr nützliche und wichtige Anwendungsfelder hat und zweitens weil ich nicht glaube, dass es irgendein Problem löst, das wir mit Big Data haben. Das Gegenteil ist der Fall, wie ich hier ausführen will.

2) Das Problem ist nicht das Verwenden von Big Data, sondern der ungleiche Zugang zu Daten

„Wissen ist Macht“ wird gerne gesagt, aber leider ist auch das wieder irreführend. Um Wissen wirklich in Handlungsmacht zu übersetzen, muss man nicht nur über Wissen, sondern vor allem über einen Wissensvorsprung verfügen. Diese einfache Erkenntnis scheint in der Debatte um Big Data nicht wirklich angekommen zu sein. Immer wird völlig kontextfrei darüber sinniert, ob Big Data jetzt allgemein gut oder böse oder neutral ist. Dabei ist Big Data als erstes einmal eins: ein neues Werkzeug, im schlimmsten Fall eine Waffe und somit ist als erstes mal zu analysieren, wie es mit der Waffengleichheit aussieht.

Auf der Ebene der Algorithmen ist eine Waffengleichheit nicht ganz, aber doch ziemlich weitgehend gegeben, da viele und sogar die neusten und relevantesten Algorithmen für Big Data bis Machine Learning open source verfügbar sind. Die Algorithmen sind nicht der kritische Punkt.

Der Flaschenhals sind die Daten selbst. Der Zugang zu Daten – zu guten Daten, zu vielen Daten – ist sehr ungleich verteilt und folgt dabei einer ganz spezifischen Topografie. Es sind vor allem die großen Plattformbetreiber, die über die mit Abstand größten Datenschätze verfügen. Das wird ihnen in der Zukunft einen entscheidenden strategischen Vorteil verschaffen. Und darin besteht auch die Gefahr. Facebook zum Beispiel hätte mit Leichtigkeit den Ausgang der US-Wahl sehr gezielt beeinflussen können und zwar ohne, dass es aufgefallen, noch dass es nachweisbar gewesen wäre. Eine solche Macht in den Händen privater Unternehmen hat es seit Western Union und Rockefeller nicht mehr gegeben.

Ich halte die Gefahren von Big Data also für insofern eingrenzbar, wenn es ein gewisses demokratisches Gleichgewicht zwischen den Big Data einsetzenden Kontrahenten gibt, als auch wenn die Menschen ein hinreichendes Verständnis der Vorgänge haben und im besten Fall ebenfalls Tools an die Hand bekommen, um Manipulationsversuche aufzudecken, etc. (Einen Vorschlag habe ich hier gemacht).

Gerade wenn wir uns den US-Wahlkampf angucken, kann ich (obwohl ich sehr unzufrieden mit dem Ausgang bin) wenig problematisches am Einsatz von Big Data erkennen. Beide Kampagnen haben sehr gezielt hochaktuelle Verfahren eingesetzt. Die Bevölkerung kennt den Einsatz seit mindestens zwei Präsidentschaftswahlen. Mit Sicherheit wird es zwar Effizienzunterschiede zwischen den eingesetzten Modellen gegeben haben, aber das halte ich für im Rahmen des Vertretbaren. Am Ende war es – solange es keine Anzeichen für das Gegenteil gibt – ein Arms-Race auf Augenhöhe.

Wenn wir also über Big Data im Wahlkampf reden, sollten wir vor allem über Ungleichverteilung beim Zugang von Daten reden. Die Macht von Big Data kann immer nur so groß sein, wie der Wissensvorsprung, der sich daraus generiert. Der Rest sind Effzienzgewinne.

(Eine andere Frage ist der Umgang mit dem generierten Wissen und in wieweit es dazu genutzt werden kann, um böses zu tun. Menschen zu diskriminieren zum Beispiel. Das ist auch eine wichtige Debatte, aber hat mit dem Wahlkampfthema wenig zu tun.)

3) Bekämpfung durch Datenschutz ist eine gefährlich kurzsichtige Idee

Und hier sind wir wieder bei der deutschen Debatte (und hier ist die Debatte sehr deutsch), dass Big Data Problem mittels Datenschutzgesetzen in den Griff zu bekommen.

Es wird gerade so getan, als ob Big Data-Erkenntnisse über Deutsche nur in Deutschland erhoben werden können. Wir (jeder von uns) sind doch längst Teil von hunderten von Big Data-Verarbeitungen, die in Deutschland rechtlich zumindest schwierig wären. In hunderten von Rechenzentren werden unsere Daten gecruncht und wir werden jetzt schon ständig mit den Ergebnissen konfrontiert, vor allem anhand von Werbung. Das Einzige, was die Gesetzeslage bewirkt, ist, dass deutsche Unternehmen da nicht mitmachen dürfen.

Ähnliches gilt für den Wahlkampf. Es mag sein, dass die Gesetzeslage den Parteien es äußert schwer macht, überhaupt mit Big Data zu operieren. Aber das heißt ja nicht, dass es nicht zum Einsatz kommt.

In Zeiten, wo die AfD bei diversen Wahlkämpfen anonyme Schützenhilfe bekommt, indem sie Flyer, Anzeigen und Plakate aus dunklen Kanälen gesponsort bekommt und in Zeiten, in denen Russland mutmaßlich mittels gezielter Hackingangriffe und Veröffentlichungsaktionen in den amerikanischen Wahlkampf eingegriffen hat – in diesen Zeiten sollen wir uns darauf verlassen, dass unsere Gesetzeslage Big Data aus dem Wahlkampf raushalten wird?

Sagen wir so: Wäre ich Putin, wäre das genau mein Angriffwinkel auf die Bundestagswahl. Über dubiose Kanäle würde ich die AfD im Wahlkampf mit einer ausgefeilten Big Data-Kampagne flankieren.

Das ist vor allem deswegen erfolgversprechend, weil die Wahlkampflandschaft hierzulande im Gegensatz zur USA nicht auf Big Data eingestellt ist. Es wäre wie mit der Neutronenbombe zum Messerkampf zu kommen. Die anderen Parteien wären der zusätzlichen Effizienz hilflos ausgeliefert, denn sie dürfen ja nicht.

Der Datenschutz wäre am Ende eine wunderbare Waffe. Für Putin.


Veröffentlicht unter Algorithmenkritik Das Neue Spiel Kontrollverlust Queryology
7 Kommentare

Netzwerkmacht: Macht in Zeiten der Globalisierung

In meinem recht populären Artikel „Die Globale Klasse“ attestiere ich ebendieser eine bestimmte Form von Macht. Es ist die Macht, Standards zu setzen und die Macht, die Moral zu definieren. An dieser Analyse haben sich einige gestoßen. Gerade, weil ich die globale Klasse so breit definiere – eben nicht einfach als „die Eliten“ – scheint die Macht, die sie haben, doch recht beschränkt. Mittellose Berlinhipster wie ich – so der Vorwurf – würden sich in dieser Analyse nur selbst überhöhen. Was für eine Macht soll das überhaupt sein? Und warum sind andere davon ausgeschlossen?

Das sind alles berechtigte Fragen, denen ich mich in diesem Text stellen will. Macht ist ein komplexes Thema zu dem sehr viel kluge Dinge gesagt wurden, die ich hier nicht wiederholen will. Aber zur Sicherheit sei erwähnt, dass ich durchaus mit Max Weber, Foucault und Gramsci vertraut bin, behaupte aber, dass all diese Stimmen der Form der Macht der globalen Klasse nicht gerecht werden.

Aber David Singh Grewal wird es.1 Er hat meines Erachtens die theoretische Grundlage zur Erklärung von Macht in Zeiten der Globalisierung und des Internets geliefert und es ist ein Unding, dass er noch nicht in allen Seminaren auf dem Lehrplan steht.

Network Power

Grewal führt eine Form der Macht ein, die er Network Power nennt. Diese Netzwerkmacht ist im Grunde das, was in den Wirtschaftswissenschaften schon seit längerem als Netzwerkeffekte diskutiert wird, aber dort als externer Effekt der Märkte nie wirklich tiefgehend analysiert wurde. Vor allem nicht als eine Form von Macht.

Dabei kennen und spüren wir diese Macht alle in unserem Alltag. Wir entscheiden uns immer wieder für Netzwerk B, wenn es populärer ist, als Netzwerk A. Wir sind auf Facebook und WhatsApp, statt auf Threema und Diaspora. 2

Warum diese Macht nie als solche verstanden wurde, liegt daran, dass jeder Einzelne von uns erstmal eine (vermeintlich) freie Entscheidung trifft, wenn er oder sie einem Netzwerk beitritt, oder einen Standard adaptiert (was strukturell dasselbe ist). Da wir ja doch auch auf unseren Vorteil bedacht sind, entscheiden wir uns für das Netzwerk, das uns am nützlichsten ist. Und das ist im Zweifel immer das Netzwerk, in dem unsere Freunde und Bekannte sind.

Ich habe die Netzwerkeffekte(oder -macht) in meinen Buch mit der Gravitation verglichen. Netzwerke haben durch die Summe ihrer Teilnehmer/innen einen ähnlichen Effekt auf Außenstehende, wie eine große Masse auf andere Massen hat. Je größer die Masse, desto größer die Anziehungskraft für alle anderen.

Und deswegen ist unsere Entscheidung einen Standard zu adaptieren in etwa so frei, wie die Freiheitsgrade uns im Raum zu bewegen. Niemand zwingt uns, unser Leben am Boden zu verbringen, aber die Schwerkraft zu überwinden ist halt sau teuer. Die soziale Gravitation informiert unsere Entscheidung, sie baut ihr einen klaren Bias ein, dem wir (meistens) folgen. Das Verblüffende: Wir entscheiden nicht mehr frei im engeren Sinne und das obwohl niemand einen Zwang ausübt. Grewal insistiert darauf, dass die Netzwerkmacht im Gegensatz zu den Machtentwürfen aller anderer Denker komplett ohne Zwang auskommt. Unfreiheit ohne Zwang – das gibt es.

Bei genauerem Hinsehen, wer diese Macht über mich ausübt, stelle ich aber fest, dass es wiederum die Menschen sind, die vor mir dem populären Netzwerk beigetreten sind. Sie waren selbst in meiner Situation bevor sie es taten aber jetzt sind es ihre vergangenen Entscheidungen, die in der Summe Macht auf meine Entscheidung ausüben. Und indem ich mich jetzt entscheide, beizutreten, informiere ich wiederum die Entscheidungen anderer, Nachfolgender – übe also auch ich Macht aus.

Aggregierte vs. souveräne kollektive Entscheidungen

Wir haben es also bei der Adaption von Standards mit einem in sich verflochtenen, kollektiven Entscheidungsprozess zu tun, bei dem alle Entscheidungen miteinander auf eigentümliche Weise in Beziehung stehen. Grewal spricht deswegen auch von einer „aggregierten kollektiven Entscheidung“ und stellt sie der „souveränen kollektiven Entscheidung“ gegenüber. Letztere ist die Entscheidung, für die wir uns Verfahren erdacht und implementiert haben. Dazu gehören Wahlen und andere politische Strukturen, die Legitimation herstellen.

An dieser Stelle wurde mir so einiges klar: die kulturellen und politischen Kämpfe um die Globalisierung zum Beispiel: Wenn die Menschen das (durchaus berechtigte) Gefühl haben, von der Globalisierung entmündigt zu werden, dann hat das damit zu tun, dass aggregierte kollektive Entscheidungen globaler Standards souveräne Verfahren aushebeln. Vieles des Ungemachs über die Globalisierung ist eben nicht wirtschaftlich und umverteilungsbedingter Groll, sondern der Konflikt zwischen diesen beiden konkurrierenden Systemen.

Und das ist natürlich auch die Stelle, die diese Theorie sehr wertvoll macht für meine Arbeit an dem Plattformthema. Der sich immer deutlicher abzeichnende Konflikt von Plattformen und Staaten entspricht den Kämpfen dieser zunehmend in Konkurrenz tretenden Entscheidungs- und Legitimationsstrukturen.

Und der Knackpunkt dabei ist tatsächlich die Legitimation. Während souveräne Entscheidungsverfahren sich rekursiv legitimieren (das Entscheidungsverfahren wurde meist über eine souveräne Entscheidung legitimiert, dessen Verfahren, wiederum über eine Entscheidung legitimiert wurde … usw.) fehlt es den aggregierten Verfahren an einer – zumindest formalen – Legitimation. Dass es aber eine faktische Legitimation gibt, sieht man allein an der Tatsache, dass die Bundesregierung, selbst wenn sie wollte, die Facebooknutzung nicht pauschal verbieten könnte. Die Legitimation der aggregierten Entscheidung basiert auf der Fiktion des freien Willens des Einzelnen, der sich nun mal entschieden hat, einen Standard zu adaptieren. Würde eine souveräne Instanz die Freiheit dieser Entscheidungen in Frage stellen, müsste sie gute Gründe haben. (Die Legitimation aggregierter Entscheidungen bildet sich sozusagen in der Vetragsfreiheit ab.)

So oder so: diese beiden Modi kollektiver Entscheidung stehen sich immer häufiger Gegenüber und kommen sich in die Quere. Und das ist der unausgeprochene Kern genauso der Globalisierungs- wie auch der Internetdebatte.

Performativität und Grenzwerte

Nun ist es nicht so, dass Standards etwas neues sind. Im Gegenteil, sie sind alltäglich. Man nutzt und setzt jeden Tag Standards, bei fast allem, was man tut und zwar lange vor dem Internet oder der Globalisierung. Man darf nicht vergessen, dass auch Sprache, genau so wie alle Aspekte der Kultur nichts anderes als Sets von Standards sind. All das sind Plattformen, die Konnektivität herstellen – sie sind die Bedingungen der Möglichkeit von Interaktion. Und als solche sind sie bei jeder Benutzung von neuem in der Verhandlung.

In der philosophischen Debatte wurde diese Erkenntnis vor allem auf die Sprache bezogen als „Linguistic Turn“ diskutiert. Eine wesentliche Erkenntnis dabei ist die „Performativität“ von Sprache. Indem ich etwas sage, kommuniziere ich nicht nur das Gesagte, sondern auch einen Appell, das Gesagte als Sagbares zu adaptieren. Mit anderen Worten: ich setze Standards, indem ich spreche. Das gesprochene Wort wird zum Akt – zum Sprechakt. Diese performativen Sprechakte durchsetzen und strukturieren unsere Diskurse und sie verschieben diese ständig. Das in letzter Zeit häufig zitierte Overton-Window – also das Fenster dessen, was sanktionsfrei gesagt werden kann und das sich innerhalb des Trumpwahlkampfes weit nach rechts verschoben hat – ist ein Effekt der Sprechakte Trumps. Indem er rassistisches und sexistisches sagt und damit durchkommt, verschiebt sich das gesellschaftlich Sagbare. Und das ist bereits die erste Katastrophe der noch nicht begonnenen Trumppräsidentschaft. Auf der anderen Seite waren jahrelang Aktivist/innen für Minderheitenrechte vor allem in Social Media immer wieder bemüht, das Overtonwindow zu verkleinern – die Sprachakte dazu nennt man „Call Out Culture“.

So oder so: All diese Sprachakte sind gesetzte Standards und auch sie unterliegen Netzwerkeffekten – also der Netzwerkmacht. Sich zunehmend durchsetzende Standards erhöhen den Druck zur Anpassung auf alle anderen, sich zu ihnen zu verhalten: Sie entweder anzunehmen, oder sie umso rigoroser zu bekämpfen.

Grewal definiert drei unterschiedliche Grenzwerte von Netzwerkmacht: Der erste Damm ist gebrochen, wenn „Sichtbarkeit“ erreicht wird. Ab diesem Grenzwert wird die Existenz eines Standards allgemein wahrgenommen. Die zweite Stufe ist bereits die der „Unumgänglichkeit„. Man kann sich dem Standard noch verweigern, aber das wird zunehmend kostspielig. Kurz: man kommt an dem Standard nicht mehr vorbei, auch wenn man ihn ablehnt, man muss sich auf jeden Fall zu ihm verhalten. Die letzte Stufe ist erreicht, wenn ein Standard „universell“ wird. Der universelle Standard wird überhaupt gar nicht mehr als solcher wahrgenommen, weil er so selbstverständlich ist. Haben Sie schon mal darüber nachgedacht, warum Sie ihre Muttersprache lernen mussten? Oder warum wir alle Kleidung tragen, wenn wir aus dem Haus gehen? Eben.

Jedenfalls befinden sich die Standards, um die die Kulturkämpfe kreisen, meist irgendwo zwischen sichtbar und unumgänglich und deswegen erzeugen sie Sorgen bei Leuten, die diese Standards ablehnen, oder zumindest keinen Anlass sehen, sie zu adaptieren.

Die Ungleichheit der Wechselkosten

Ich habe den Eindruck, dass man hier vorsichtig sein muss. Auch wenn ich glaube, dass eine große Gruppe von Trump- und AfD-Wählern direkt rassistische Ansichten vertritt, glaube ich, dass die Mehrheit es nicht tut. Jedenfalls nicht direkt. Die Ablehnung politisch korrekter Standards erwächst nicht immer aus der Überzeugung heraus, dass diese Werte falsch seien. Vielmehr sehe ich oft auch eine Trotzreaktion, die sich auf die gefühlte Aufoktroyierung bildet. Der Sog der Netzwerkmacht eines aufkommenden Standards kann Ohnmachtsgefühle auslösen und dann Ablehnung hervorrufen, auch wenn der Einzelne dem Standards gegenüber eher indifferent ist. Und das hat nicht nur irrationale Ursachen.

Grewal untersucht auch den Gerechtigkeitsaspekt von Netzwerkmacht. Wenn sich ein Standard durchsetzt, den andere noch nicht adaptiert haben, liegen die Wechselkosten ausschließlich Letzteren. Die Adaption ist eine Bringschuld der Außenstehenden, während auf der anderen Seite keine Gegenleistung gegenübersteht. Zurecht wird von den Verfechtern der Political Correctness angeführt, dass es doch nicht zu viel verlangt ist, bestimmte Wörter einfach nicht zu benutzen und hier und da Minderheiten in seine Überlegungen einzubeziehen. Das stimmt, sobald man sich das angewöhnt hat, sind die Kosten überschaubar. Die Umstellung ist das eigentlich teure. Und wenn man diese Kosten nicht bereit ist zu erbringen, dann – so die Angst auf besorgter Bürgerseite – wird man gleich als Sexist und Rassist beschimpft oder mindestens als Hinterwäldlerisch. Kurz: man wird abgehängt von den gesellschaftlich dominant erscheinenden Vorstellungen des Guten und Richtigen.

Hier ist es wichtig, die Mechanismen nicht mißzuverstehen, denn wir neigen nur allzuschnell dazu, die Wirkung der Netzwerkmacht als Strafe zu deuten. Doch die Netzwerkmacht straft nicht. Im Gegensatz zur Disziplinarmacht, die noch Foucault beschrieben hat, ist ihr das Individuum egal. Wer die Standards nicht adaptiert, wird in Ruhe gelassen, darf aber nicht mitmachen. Es geht dabei ausschließlich um die Organisation von Zugang – Zugang zu Menschen, und damit zu Möglichkeiten für Karrieren, Mitsprache und Anerkennung. Die Zugangsorganisation ist im Zweifel nicht weniger mächtig als Bestrafung und Subjektivierung, funktioniert aber ganz anders. Die Disziplinarmacht will dich erziehen und wieder Eingliedern, der Netzwerkmacht bist du als Individuum egal. Du kannst nach Spanien ziehen, ohne ein Wort spanisch zu können und niemand wird dich zwingen, es zu lernen. Es wird sich dann aber eben auch niemand mit dir unterhalten. Das ist nicht bös gemeint und nicht erzieherisch. Wenn du kein spanisch kannst, bist du den meisten Spaniern halt einfach nur egal.

Anerkennung und Deutungsmonopol

Der Zugang zu sozialer Anerkennung ist bei Grewal das entscheidende Kriterium, das den Widerstand gegen die Netzwerkmacht legitimiert. Wobei es wichtig ist daran zu erinnern, dass der Kulturkampf gegen die globale Klasse ein Kulturkampf um eine verloren gegangene Hegemonie über die Anerkennungskriterien ist. Das Bürgertum war es, dass die Standards für das gute Leben definiert hatte und allen anderen, die nicht zu ihr gehörten, aufoktroyierten. Wenn das Bürgertum (weiß, heterosexuell, materialistisch, partriarchal) sich heute als unterdrückt inszeniert, darf man zurecht skeptisch sein. Wenn man das Deutungsmonopol gewöhnt ist, fühlt sich der Verlust desgleichen wie Unterdrückung an.

Doch wie kam es zu dem Verlust des Monopols? Als die Gesellschaft sich immer mehr von einer Ansammlung von lokalen Gruppencontainern zu verschalteten Netzwerken (Stichwort: Netzwerkgesellschaft3) verwandelte, konnten immer mehr Sprechakte ortsunabhängig Standards etablieren. Standards – vor allem auch kulturelle Standards – begannen sich somit zunehmend global durchzusetzen – allerdings nur bei denen, die sich bereits global orientierten. Das sind die, die 1. die neuen Technologien als erstes beherrschten, 2. die das kulturelle Kapital besaßen, um für globale Standards überhaupt anschlussfähig zu sein und die 3. genau aus den ersten beiden Gründen auch diejenigen waren, die als erste wiederum die Schalthebel der neuen Medientechnologien bedienten, also vom Empfänger zum Sender wurden.4

Diese Standards konnten – befreit von den engen Grenzen der vordigitalen Kommunikation – eine ungeahnte Traktion und ein Momentum akkumulieren, dass ihnen auch in den nationalen Diskursen eine enorme Netzwerkmacht verlieh. (In meinem Buch spreche ich von einer Entfesselung der Netzwerkeffekte durch die sinkenden Kommunikationskosten.) Dieser Netzwerkmacht kann man sich auch auf nationaler Ebene nur schwer entziehen, sie droht den Grenzwert der Unumgänglichkeit zu erreichen. Für die aus dem globalen Diskurs Ausgeschlossenen wirkt es wie eine plötzliche „Umwertung aller Werte“. Eine Trumpwählerin erklärte im Interview: „Alles, was zu meiner Jungend falsch war, ist heute richtig.“

Diese Umwertung kann man gut finden, wenn man die Standards gut findet, wenn man sie als gesellschaftlichen Fortschritt versteht (und das tue ich). Das kann man auch schrecklich finden, wenn man die Standards ablehnt (Wie es Rassisten und Sexisten zum Beispiel tun). Und das kann man zumindest als eine Kolonialisierung der eigenen Lebenswelt empfinden, wenn man den Standards indifferent gegenübersteht und keinen Anlass sieht, sie zu adaptieren, außer den, dass einem sonst die soziale Anerkennung versagt wird. Aus den letzten beiden Gruppen rekrutiert sich der Widerstand, den wir heute überall sehen.

Soweit zur Analyse. Doch was tun?

Ganz ehrlich: ich weiß es auch nicht. Mir scheint, die Lösung mehr miteinander zu reden und aufeinander zuzugehen, wenig zielführend. Natürlich kann man die Standards aufweichen, Kompromisse suchen, aber das ginge nur auf Kosten der betroffenen Minderheiten und würde den Grundkonflikt ja doch nicht kitten. Zudem ist hier noch anzufügen, dass die Beschreibung nicht der Lage letzter Stand ist.

Denn jetzt kommt der ironische Plottwist: Der internationale Abwehrkampf gegen die globalen Standards der globalen Klasse globalisiert sich seinerseits. Im Grunde ist es bezeichnend, dass diese Bewegungen genau ab ab dem Zeitpunkt an Fahrt gewannen, als die weniger fortschrittsaffinen Milieus das Internet für sich entdeckten (so ab 2011/12). Und nun beeinflussen sich die Bewegungen von Le Pen, AfD bis Trump gegenseitig, das heißt, sie adaptieren gegenseitig ihre Standards auf globalem Level. Das wird auf der einen Seite zu einer Homogenisierung dieser Bewegungen führen, also ironischer Weise zum Aufkeimen einer zweiten globalen Klasse. Die globale antiglobale Klasse, sozusagen. Das wird andererseits aber auch die Gräben weiter auseinandertreiben und die Fronten verhärten. Statt nur die Standards der globalen Klasse abzulehnen etablieren sie Gegenstandards, die meist gezielt rassistisch und sexistisch oder gleich faschistisch sind. Das Alt-Right-Movement begnügt sich schon lange nicht mehr mit Protest, sondern hat längst auf Angriff umgeschaltet.

Was uns zu einen zweiten ironischen Plottwist führt: Ausgerechnet diejenigen, die zurück zum Nationalen wollen, werden durch ihre Totalverweigerung das Nationale Projekt beerdigen. Nicht nur delegitimieren sie in ihren Diskursen alle Institutionen dieser Nationalstaatlichkeit (zum Beispiel Demokratie, freie Presse und Parteien), sondern sie verunmöglichen mit ihrer Verweigerungshaltung jegliche Form nationaler Einigung. Sie institutionalisieren die Spaltung und sie vertiefen die Gräben.

Das ist auch eine gute Nachricht, denn es bedeutet, dass sie nicht gewinnen können. Das ist auch eine schlechte Nachricht, denn es bedeutet, dass ein kein Zurück geben wird. Es wird klar, dass wir den Riss nicht mehr heilen werden und dass wir niemals zu dem früheren Konzept von Gesellschaft – als eine durch Geographie eingehegte und kulturell weitgehend homogene Gemeinschaft – zurückkehren werden. Die nächsten Gesellschaften werden sich entlang der Risse, statt entlang von Staatsgrenzen formieren müssen.

  1. Grewal, David Singh: Networkpower – The Social Dynamics of Globalization
  2. Jaja, ist gut, ich weiß, dass einige meiner Leser hier empört aufschreien, aber versetzt euch bitte für diesen Text kurz mal in normale Leute hinein.
  3. Manuel Castells, The Information Age: Economy, Society, and Culture
  4. Felix Stalder zeichnet in „Kultur der Digitalität“ die Verbreitung drei dieser globalen Standards nach: die Entstehung der Wissensökonomie, das Aufbrechen der Heteronormativität und die Diskurse zum Postkolonialismus. Stalder, Felix: Kultur der Digitalität


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Weltkontrollverlust
Verschlagwortet mit
7 Kommentare

Das Ende der Konsumentenrente oder Wert und Preis Teil III

Big Data verändert den Kapitalismus gerade grundlegend und zwar auf eine Weise, von der noch viel zu wenig gesprochen wird. Big Data macht sich auf, die Konsumentenrente zu bedrohen und das wird die gesamte Ökonomie völlig umkrempeln und zwar zu unser aller Nachteil, wenn wir nicht aufpassen. Aber bevor wir dazu kommen, erstmal eine kleine Rückblende.

Was bisher geschah

Dies ist gewissermaßen ein weiterer, ungeplanter Anschlusspost an meine Marxkritik1. Deswegen sei die noch mal zusammengefasst: Ich kritisiere die Arbeitswerttheorie von Marx, die besagt, dass der Wert einer Ware 1. sich aus der abstrakt geleisteten Arbeit, die zu ihrer Herstellung notwendig ist, herleitet und dass sich 2. dieser Wert in dem Preis der Ware ausdrückt. Wir haben hier also beides: eine Werttheorie und eine Preistheorie. Beide finde ich nicht überzeugend und ich habe dargelegt, warum.

Ich diskutiere in dem Zusammenhang auch die konkurrierende, „bürgerliche“ Preis/Wert-Theorie namens Grenznutzentheorie, die besagt, dass der Wert nicht von der Anbieterseite, sondern von der Nachfrageseite bestimmt wird. Zumindest als Preistheorie finde ich sie ebenfalls nicht überzeugend.

Mein Fazit: Was den Wert anbelangt, lehne ich das Konzept generell ab, da es keinerlei Entsprechung in der realen Welt und keine Aussagekraft über irgendwas hat. Was den Preis angeht, habe ich im Zuge eines Gedankens über den Plattformkapitalismus eine eigene Preistheorie aufgeschrieben2, bei der ich allerdings etwas geschummelt habe, denn sie ist gar keine ökonomische, sondern eine Machttheorie und somit kaum geeignet, ökonomische Aussagen zu treffen. Eine funktionierende ökonomische Preistheorie – so führe ich in einer Fußnote aus – hielt ich damals für nicht leistbar.

Aber vielleicht gibt es ja einen Wert und vielleicht bestimmt er ja, was wir bereit sind, für eine Ware zu bezahlen, aber so lange das nur ein individuelles Konstrukt hinter den Schädeldecken der Menschen ist, bleibt das Hantieren damit ein ans metaphysische grenzender Hokuspokus.

Der Blick in die Köpfe per Big Data

Und hier wäre der Blogpost am Ende, wäre nicht die Entwicklung virulent, dass man heute ja doch in die Köpfe der Leute gucken kann. Genau das haben Forscher nun getan, anhand der vielen Daten, die Uber gesammelt hat. Uber nämlich berechnet seine Preise anhand eines internen, algorithmischen Marktmechanismus von Angebot und Nachfrage. Ruft man ein Uber zu einer Zeit, in der viele Leute ein Uber bestellen, aber nur wenige unterwegs sind, ist der Preis höher, als wenn man ein Uber bestellt, wenn wenig Nachfrage und ein hohes Angebot herrscht. Dieses so genannte „Surge Pricing“ dient Uber zur Auslastungsoptimierung. Zumindest als zentralisierter Algorithmus scheint der Markt also ganz prima zu funktionieren.

Dieser Algorithmus hat nun aber zur Folge, dass es keine Fixpreise für die Ware „Von Ort X zu Ort Y befördert werden“ gibt. Und das macht die Daten wahnsinnig interessant für Ökonomen. Steven Levitt hat sich zusammen mit einem Team von anderen Ökonomen an die Uberdaten gemacht und darin Vergleichsgruppen ermittelt, also Leute, die gewisse homogene Eigenschaften aufweisen, und geschaut, wie sie auf die unterschiedlichen angezeigten Preise für vergleichbare Strecken reagieren und welche Kriterien dabei eine Rolle spielen. Kaufen sie, oder kaufen sie nicht? Ab welchem Preis sind unterschiedliche Menschen in unterschiedlichen Situationen nicht mehr bereit zu zahlen? Wann überschreitet der Preis den Grenznutzen? In den Daten von Uber wurde der Wert in den Köpfen transparent.3

Levitt sagt, es sei das erste Mal, dass Ökonomen die so genannte Konsumentenrente nicht nur nachgewiesen, sondern genau beziffert hätten. Aber zunächst: Was ist die Konsumentenrente? Es ist genau die Differenz zwischen dem, was ich als Konsument bereit bin für ein Produkt zu bezahlen (Reservationspreis – also das, was die Grenznutzentheorie versucht zum Teil zu erklären) und dem, was ich tatsächlich bezahle. Unter anderem darauf bezieht sich die Konsumerwohlfahrt, also im Grunde der ganze Nutzen, den wir Kosmumentendackel dem Kapitalismus entlocken. Und selbst wenn wir immer denken, wir hätten ja nichts davon, haben die Ökonomen ausgerechnet, dass wir doch was davon haben: Allein beim Benutzen von Uber haben die amerikanischen Konsumenten im Jahr 2015 2,9 Milliarden Dollar eingestrichen. Also implizit, indem sie das Geld nicht gezahlt haben, obwohl sie würden.4

Ja, das ist wahnsinnig spannend und vielleicht bekommen die ja auch mal irgendwann den Nobelpreis (also das Pseudodings für Wirtschaft) dafür, aber mich interessiert etwas ganz anderes:

Denn mit der Konsumentenrente ist es ein bisschen so wie mit Captchas. Wenn sie berechenbar ist, dann ist sie bedroht. Anders: Wenn die Ökonomen berechnen können, wie viel jemand bereit ist, für eine Uberfahrt auszugeben, dann kann Uber es auch. Was hindert Uber also daran, einfach genau diesen Betrag als Preis darzureichen und die Konsumentenrente ganz für sich selbst einzustreichen? Was Levitt und seine Kollegen Uber gezeigt haben, ist, dass sie sich 2015 2,9 Milliarden Dollar durch die Lappen haben gehen lassen.

Wenn man das zu ende denkt, wäre der Schritt, mithilfe von Big Data der Konsumentenrente hinterherzusteigen ein wahnsinniger Paradigmenwechsel im Kapitalismus. In Zeiten von Big Data und Profilbildung von alles und jedem ist es ein realistisches Szenario, dass jeder immer genau den Betrag abgerechnet bekommt, den er oder sie bereit ist zu zahlen. Es gibt bereits viele Studien, die zeigen, dass Onlineshops mit Preisdiskriminierung arbeiten.5 Diese Algorithmen sind allerdings noch recht trivial. Da geht es darum, Leuten, die zum ersten Mal die Seite besuchen, Lockangebote zu machen, oder etwas mehr aufzuschlagen, wenn die Menschen mit Applehardware unterwegs sind. Aber wenn der Reservationspreis eines Jeden für jedes Produkt in jeder Situation berechenbar wird, dann sind ganz andere Preisspannen möglich.

Und diese Daten werden gesammelt. Eine Freundin buchte letztens einen Airberlinflug. Die Website machte sie darauf aufmerksam, dass der Platz neben ihr noch frei ist und fragte, ob sie ihn nicht aus Bequemlichkeitsgründen dazubuchen möchte. Dass der Kapitalismus es versteht, aus allem eine Ware zu machen – sogar aus leerbleibenden Sitzplätzen – ist ansich nichts Neues. Das wirklich Spannende ist, dass sie aufgefordert wurde, selbst eine Preisrange anzugeben, die sie dafür zu bezahlen bereit wäre. Mit Hilfe dieser Angabe kann die Preiselastizität der einzelnen Kund/innen ausgemessen werden, um dann speziell zugeschneiderte Preise anzeigt werden.
Meeraltfrau_2016-Okt.-09

Ich denke, wir werden solche Dinge viel öfter sehen. Preisvariationen werden in der ersten Phase wahrscheinlich gar keine echten Diskriminierungen sein, sondern randomisierte Tests. Wenn man vielleicht irgendwann den Schlüssel findet, über den man verschiedene Produktgruppen querreferenzieren kann, geht alles ganz schnell. Und nein, das muss nicht zu 100% funktionieren. Es ist absolut denkbar, dass ein Algorithmus, der 50% der Leute einen Preis vorschlägt, bei dem sie sich entrüstet abwenden, aber bei den anderen 50% die Konsumentenrente fast vollständig einstreicht, weitaus mehr Gewinn generiert als ein normaler Festpreis.

Was hilft dagegen?

Die üblichen Verdächtigen werden wieder ankommen und das Problem mit Datenschutz erschlagen wollen. Profilbildung verbieten! Gespeicherte Daten löschen! Dass das nicht hilft, habe ich an so vielen Stellen bereits ausgeführt, deswegen nur kurz: Was viele nicht verstehen, ist, dass es bei diesen Dingen nie um sie selber geht. Das Individuum und dessen Daten sind den Anbietern egal. Und selbst, wenn sie kaum Daten über dich haben, werden sie dich über das Wenige, was sie haben über Leute, die dir in gewissen Eigenschaften ähneln, querreferenzieren. Und das Schlimmste, was ihnen dabei passieren kann ist, dass sie deinen Reservationspreis falsch berechnen und dir einen Preis anzeigen, den du nicht bezahlen wirst. Und das ist im Zweifelsfall doofer für dich als für sie. Mit anderen Worten: Dass sie weniger Daten über Dich haben, wird nicht dazu führen, dass du fairer behandelt wirst – eher im Gegenteil.

Gut. Was dann?

Mehr Daten, mehr Algorithmen. Ja, so absurd es klingt. Um gegen die Preisdiskriminierung angehen zu können, muss man erstmal wissen, dass es sie überhaupt gibt und dass man davon gerade betroffen ist. Als Einzelner vor dem eigenen Bildschirm ist das eben nicht ersichtlich. Die unterschiedlichen Preise müssen also gesammelt und zentral verglichen werden. Denkbar ist ein Browserplugin, das die abgerufenen Preise automatisch an eine Datenbank sendet und mit den Einsendungen anderer Pluginnutzer/innen vergleicht. Das Plugin schlägt dann Alarm und warnt, wenn man im Begriff ist eine Transaktion zu vollziehen, die einem einen Gutteil der Konsumentenrente entzieht. Wie ich bereits anderswo formulierte: Es braucht mehr Algorithmen, die auf Seiten der Konsumenten agieren.6

Das ist aber natürlich erst der Anfang. Denn anschließend muss und wird es eine Debatte darüber geben, was überhaupt ein fairer Preis ist. Denn wie gesagt: Es ist nicht so, dass es vor Big Data nur faire Preise gab. Oder dass es überhaupt nur die Definition eines fairen Preises gab. Preise sind – innerhalb bestimmter Grenzen – arbiträr. In ganz bestimmten Idealbedingungen orientieren sich Preise zum Beispiel an Angebot und Nachfrage oder an den Grenzkosten oder, oder. Aber sollten sie das? Die Frage des Preises wird eine politische werden.

Vielleicht wäre das die Chance mal einen gesellschaftlichen Konsens darüber zu erreichen, wie sich ein fairer Preis errechnet. Davon kann immer noch abgewichen werden, aus welchen Gründen auch immer. Aber ich glaube, Konsument/innen brauchen einen Referenzpunkt, an dem sie sich orientieren können. Und der wird im Mittelpunkt einer politischen Auseinandersetzung stehen müssen.

  1. Ich lehne Marx‘ Arbeitswerttheorie ab und hier ist warum. http://mspr0.de/?p=4605
  2. Die Gewalt der Plattform und der Preis des Postkapitalismus http://www.ctrl-verlust.net/die-gewalt-der-plattform-und-der-preis-des-postkapitalismus/
  3. Using Big Data Estimating Consumer Surplus: The Case of Uber https://drive.google.com/file/d/0B3y6Efb4V73TdG9pV1F0VGpsM1E/view
  4. Hier die sehr hörenswerte Freakonomicsfolge zu dem Projekt. http://freakonomics.com/podcast/uber-economists-dream/
  5. Schnelle Preisanpassung im Onlinehandel https://www.heise.de/newsticker/meldung/Studie-Schnelle-Preisanpassungen-im-Online-Handel-immer-wichtiger-3230054.html
  6. Wovon wir dringen mehr brauchen: alorithmisierter Verbraucherschutz: https://www.piqd.de/politik-und-netz/wovon-wir-dringend-mehr-brauchen-algorithmisierter-verbraucherschutz?r=channel


Veröffentlicht unter Algorithmenkritik Das Neue Spiel Kontrollverlust Plattformpolitik
1 Kommentar

Die Gewalt der Plattform und der Preis des Postkapitalismus

Sascha Lobo hat vor einiger Zeit das Wort des Plattformkapitalismus geprägt. 1 Ich war damals sehr dankbar dafür, weil ich der Meinung war, dass es die Diskussion um die sogenannte „Sharing Economy“ wieder auf den Boden der Tatsachen zurückholt. Plattformen sind kapitalistische, wenn nicht sogar hyperkapitalistische Firmen, so war ich damals der Meinung, die auch in meinem Buch Ausdruck findet.2

Seit ich Paul Masons Buch Postkapitalismus gelesen habe 3, bin ich mir da aber nicht mehr so sicher. Nicht, dass ich Mason in allem zustimmen möchte, aber ich glaube, er hat einen Punkt, der nicht ganz wegzudiskutieren ist. Ich will mich hier vom Reflex befreien „Da fließt Geld, also ist das Kapitalistisch“ zu rufen und mich stattdessen in eine tiefere Analyse der Ökonomie der Plattform begeben, um noch mal grundsätzlicher nach dem postkapitalistischen Moment in der Plattformökonomie zu suchen. Vorsichtshalber sage ich es vorweg: das Aufspüren eines postkapitalistischen Moments ist nicht die Behauptung, dass heutige Plattformanbieter bereits jenseits des Kapitalismus operieren oder keine kapitalistischen Unternehmen seien. Es bedeute vielmehr, dass sie grundlegende Mechaniken ins Werk setzen, die nicht mehr kapitalistisch sind, die vielleicht sogar dem Kapitalismus als System und Funktionsweise gegenüberstehen. Und im weitestest aus dem Fenster gelehnten Fall: dass sie ein eigenes System etablieren, das im Stande wäre, den Kapitalismus großflächig zu ersetzen.

Masons Postkapitalismus in a Nutshell

Masons These geht ungefähr wie folgt: Die digitalen Technologien seien nicht mehr wertschöpfend im klassisch ökonomischen Sinn. Zumindest haben wir keine sinnvollen Metriken, um den Wert digitaler Wertschöpfung zu messen. Die Wikipedia und Linux fügen dem Bruttoinlandsprodukt jedenfalls weniger hinzu, als sie ihm abknapsen, indem sie zum Beispiel Unternehmen pleite gehen lassen, die die selben Produkte (Betriebsysteme, Enzyklopädien) für Geld angeboten haben. Überhaupt entwickele sich mittlerweile ja alles in Richtung Informationstechnologie – auch Flugzeuge seien heute zum Großen teil Informationsprodukte – und damit unterwirft sich nach und nach alles dem Gesetz des Informationsgütermarktes. Und dieses Gesetz lautet: alles ist grenzkostenfrei kopier- und distribuierbar. Und damit – so Mason – sei dieses Gesetz selbst schon kein kapitalistisches mehr, denn einen Kapitalismus ohne Knappheit könne es nicht geben. Beobachten lässt sich diese Inkompatibilität an der wesentlichsten Mechanik des Kapitalismus: die Preismechanik von Angebot und Nachfrage.

Mason macht ein Beispiel: iTunes offeriert Preise, diese seien aber schon nicht mehr von dem Preismechanismus bestimmt, sondern rein willkürlich. In einer Welt, in der Songs ohne Kosten reproduzierbar sind, kollabiere der natürliche Preis des Gutes auf 0 Euro.4

Aber: an dieser Stelle Frage ich mich: warum dann also nimmt iTunes 99 Cent pro Song und nicht vielmehr nichts? Mason macht es sich hier leicht. Seiner Meinung nach sind Plattformen wie iTunes temporäre Übergangsformen, quasi das letzte Aufbäumen des Kapitalismus gegen sein bevorstehendes Ende. Der Trick ist folgender: iTunes, indem es sich einen Monopolmarkt aufgebaut habe, könne dadurch den Preis frei bestimmen. iTunes – so könnte man sagen – agiert am System vorbei, es trickst es aus. Es findet einen Preis am Kapitalismus vorbei, einen Preis, der völlig beliebig sei.

Ich finde hingegen, es lohnt sich da etwas genauer hinzuschauen.

Filesharing als Staatskrise

Ich habe in meinem Buch und einigen Texten ebenfalls iTunes gerne als Beispiel genommen.5 iTunes, so könnte man sagen, ist einer der ersten Überlebenden des Kontrollverlusts, weswegen es spannend ist, zu schauen, welche Strategien dort entwickelt wurden. iTunes – indem es den Musikmarkt aus seinen alt hergebrachten Strukturen in sein Plattformmodell überführte – hat die Musikindustrie gewisser maßen gerettet. Und kolonialisiert.

Geschehen konnte das nur, weil die bestehenden Strukturen unter den digitalen Bedingungen versagten. Vertriebstrukturen – vom Presswerk bis zum Plattenladem – wurden durch aufkommende Dienste wie Napster und später Bittorrent gebypasst, so könnte man sagen. Aber waren es wirklich nur die privatwirtschaftlichen Institutionen und Unternehmen, die hier versagten? Ist es nicht etwas grundsätzlicheres, was hier versagte?

Natürlich konnte und wollte die Musikindustrie diese Bedrohung nicht auf sich sitzen lassen und fand einen alten Verbündeten: den Staat. Mithilfe von rechtlichen Schritten schaffte es die Industrie Napster den Gar auszumachen. Sie schaffte es aber nicht, das Filesharing ansich aus dem Verkehr zu ziehen. Die staatliche Gewalt ermöglichte ebenfalls institutionell organisierte Firmen wie Napster auszuschalten, nicht aber so dezentrale Protokolle wie Bittorrent. Filesharing blieb ein Problem, dem man – obwohl es klar illegal war – mit rechtlichen Mitteln nicht herr wurde.

Was hier also versagte, waren weniger die klassischen Vertriebsstrukturen der Musikbranche. Was eigentlich versagte, war der Staat. Obwohl der Staat der Musikindustrie ihr (geistiges) Eigentum garantierte, konnte er diesem Anspruch mit all seiner Gewalt nicht gerecht werden. Und hier wird es erst wirklich interessant. Denn was immer wieder und wieder übersehen wird, ist die Tatsache, wie sehr doch all die Kapitalistische Ordnung vom Staat und dessen Durchsetzungsgewalt abhängig ist. Hier, in diesem Versagen nun, wird es deutlich.

Kapitalismus als staatliche Eigentumsordnung

Was ist der Kapitalismus? Die bisher überzeugendste Antwort, die ich auf diese Frage gefunden habe, ist die von Otto Steiger und Gunnar Heinsohn in „Eigentum, Zins, Geld“. 6

Die klassische und neoklassische und die Keynesianische Ökonomie definieren den Kapitalismus vom Markt (oder ursprünglicher: vom Tausch) her. Sogar der Marxismus, der ihn von den Produktionsverhältnissen und der Lohnarbeit her definiert, setzt den Tausch als Kategorie einfach voraus. 7

Steiger und Heinsohn widersprechen den gängigen Theorien. Der Kapitalismus, sagen sie, definiert sich über die Differenz von Eigentum und Besitz. Der Eigentumsbegriff wurde von der Ökonomie bislang nicht genügend problematisiert und verstanden. Das liegt daran, dass Eigentum – wenn man ihn in Differenz zum Besitz betrachtet – gar kein ökonomischer Begriff ist, sondern ein rechtlicher. Eigentum wird in der Ökonomie immer schon quasinatürlich vorausgesetzt, dabei ist es eine durch und durch menschengemachte Konstruktion.

Diese Konstruktion wird ersichtlich, wenn man die Differenz von Eigentum und Besitz genauer besieht. Während Besitz die aktuelle Herrschaft über eine Sache anzeigt, ist Eigentum ein reiner Rechtstitel. Als Eigentümer brauche ich die Herrschaft über die Sache nicht ständig ausüben. Ich kann mein Eigentum anderen zugänglich machen, ich kann es in den Besitz von anderer geben, ohne, dass ich mein Eigentum daran verliere. Der Grund, warum ich den Besitz an meinem Eigentum nicht ständig ausüben muss, ist der Staat.

Eigentum kann es nur dort geben, wo es ein ausgeprägtes Staatswesen gibt, das mit entsprechenden Eigntumsgesetzen ausgestattet ist und über die Gewalt verfügt, Eigentumsrechte durchzusetzen.8

Der Kapitalismus ist ein System, dass über die zentralistische Gewalt des Staates überhaupt ermöglicht wird. Er steht und fällt mit der Fähigkeit des Staates Eigentumsrechte durchzusetzen, das heißt dem/der Eigentümer/in die Möglichkeit zu geben qua Staatsgewalt die Verfügungsgewalt über eine Sache auszuüben.

Das strukturelle Versagen des Staates im Falle der Durchsetzung der Eigentumssrechte der Musikindustrie ist also mehr als nur die Disruption einer Branche. Im Kern ist es bereits eine sich ankündigende Staatskrise – und somit – da hat Paul Mason recht – eine Krise des Kapitalismus.

Und mitten in dieser Krise des Kapitalismus platzt iTunes herein und setzte den Preis für einen Song auf 99 Cent. Wie kann das sein?

Um diese Frage zu beantworten müssen wir uns mit dem entstehen von Preisen beschäftigen.

Die Gewalttheorie des Preises

Quasi als Vorarbeit zu diesem Text beschäftigte ich mich mit der Marx’schen Arbeitswerttheorie, sowie am Rande mit der Grenznutzentheorie der klassischen Schule.9 Beide gelten als rivalisierende Theorien des Preises. Da ich beide Theorien schlecht finde und zudem Mason meiner Meinung richtig gezeigt hat, dass die Informationswirtschaft dem kapitalistischen Preismechanismus einen Strich durch die Rechnung macht, kündigte ich am Ende des Textes großmäulig an, eine Theorie des Preises zu entwerfen, die besser und universeller ist, als beide vorliegenden Theorien. Eine Theorie die nicht nur für den Kapitalismus gilt, sondern auch vorher und nachher Gültigkeit beansprucht.

Die Zeit ist gekommen. Hier ist sie. Meine universelle Theorie des Preises:

Der Preis einer Sache wird von demjenigen festgelegt der Verfügungsgewalt über die Sache hat. 10

Zugegeben, die Theorie ist recht … übersichtlich. Auf den ersten Blick mag man sie banal nennen. Aber im folgenden will ich zeigen, dass sie durchaus in der Lage ist, einige Sachverhalte, die vorher im Nebel verblieben, aufzuklären. 11

Die Theorie ist eine direkte Ableitung aus dem Paradigma, das von Heinsohn und Steiger vorgegeben wurde. Sie fragt nicht nach Nutzen oder Wert. Ihr Ausgangspunkt ist die Gewalt. Wenn im Kapitalismus, derjenige den Preis definiert, der Eigentümer eine Sache ist, liegt es Nahe im Umkehrschluss zu fragen, ob nicht immer derjenige den Preis einer Sache festlegt, der die Verfügungsgewalt darüber hat. Denn wer einen Preis festsetzen will muss die Gewalt zur Verfügung haben, die Bezahlung auch durchzusetzen, bzw. um den anderen daran hindern, sich die Sache mit Gewalt anzueignen.

Im Feudalismus war es die Gewalt des Besitzers selbst. Die Gewalt konnte unterschiedliche Formen haben. Sei es die rohe Gewalt von Armeen und Waffen, ein Bündnis mit anderen Herrschern oder die Etablierung von Status und Respekt, oder gar Legitimationsstrukturen durch Erzählung/Ideologie. Wenn jemand allerdings die Sache streitig machte, gab es keine externe Instanz, auf die sich der Besitzer berufen konnte.

Im Kapitalismus wird die Verfügungsgewalt im Rechtstitel des Eigentums abstrahiert und an den Staat geoutsourced. Heinsohn und Steiger insistieren zum Beispiel darauf, dass Eigentum bedeutet, dass es beliehen und verpfändet werden kann. Es bedeutet eben auch, dass man als Eigentümer in der Position ist, den Preis dafür festzusetzen. Damit wird ein Mechanismus in Gang gesetzt, der sich über die Jahrhunderte zu allem Formen, Farben und Undurchsichtigkeiten des heutigen Kapitalismus mit seinen verwobenen Finanzstrukturen geführt hat. Grundlage all dessen bleibt der Staat und seine Gewalt.

Und schließlich erklärt die Theorie auch iTunes. Aber dafür müssen wir etwas ausholen.

Der iTunespakt

Als Steve Jobs 2002 auf die Musiklabels zukam, standen sie mit dem Rücken zur Wand. Er zeigte ihnen den iTunes Music Store und verhandelte ein Label nach dem anderen in die Kooperation.

Die Musikindustrie hat mitgemacht. Mehr oder weniger freiwillig, denn die Bedingungen waren ein mittelschwerer Paradigmenwechsel. Jobs wollte die Alben entbundlen, das heißt, die Songs einzeln verkaufbar machen. Außerdem setzte er einen Einheitspreis durch: die 99 Cent. Die Musikmanager verhandelten hart, am Ende aber fügten sie sich dem Applediktat. 12

„Der Preis wird von demjenigen festgelegt, der Verfügungsgewalt über die Sache hat.“ Für die Labels war der Kapitalismus vorbei, seit der Staat unfähig war, ihre Eigentumsrechte durchzusetzen. Jobs bot ihnen eine Infrastruktur an, mit der sie wieder Geld verdienen konnten, diktierte ihnen aber, wie sie Geld verdienen konnten. Steve Jobs war derjenige, der die Verfügungsgewalt über das Eigentum der Musiklabels hatte, weil er die Infrastruktur kontrollierte.

Macht hat, wer die Plattform kontrolliert, lautet die Regel 5 des Neuen Spiels in meinem Buch. Hier sieht man die neue Macht am Werk.

Mason sieht hier noch den Kapitalismus am Werk, sein letztes Aufbäumen. Er sieht nicht, dass sich bereits hier ein System bahn gebrochen hat, dass schon nicht mehr kapitalistisch ist, das man bereits postkapitalistisch nennen kann.

Vielleicht hat er auch recht damit. Dass die Plattformanbietern überhaupt einen Anteil an ihren Einnahmen zugestehen, liegt daran, dass sie das System des Kapitalismus noch anerkennen. Die Plattformanbieter sind selbst noch kapitalistische Institutionen und als solche vom Staat belangbar. Dass sie aber Geld für digitale Güter nehmen können, wird schon nicht mehr vom Staat bewerkstelligt, sondern durch ihre ganz eigene, spezifische Gewalt.13

Es lohnt sich also diese spezifische Gewalt der Plattform in den Blick zu nehmen.

Die Gewalt der Plattform

Die Gewalt der Plattform besteht in ihrem Nutzen und ihrer Fähigkeit, Leute von diesem Nutzen ein- und auszuschließen. Innerhalb ihrer Grenzen macht sie ihre eigenen Regeln, die in Code gegossen sind. Code is Law.14 Diese Regeln können sehr detailliert bestimmte Modi der Nutzung erlauben oder durch schlichtes verweigern des Dienstes untersagen. Die Plattform hat keine Macht über den/die Nutzer/in, die sie ihr/ihm nicht zuvor gegeben hat. Die Plattform gibt, um wieder nehmen zu können. Darin besteht ihre Gewalt, das ist ihre Macht.

Das Monopol, wie Mason es beschwört, trägt zum Gelingen bei, ist aber weder hinreichend noch notwendig für die Gewalt der Plattform. Schon Marktführerschaft setzt durch die überlegenen Netzwerkeffekte die nötige Nutzensschwere frei.15

Die Macht der Netzwerkeffekte ist die entscheidende Zutat. Das wurde so oft wiederholt, aber ich sage es noch mal: Der Nutzen eines Netzwerkes steigt mit jedem/r hinzukommenden Teilnehmer/in. Das gilt aber eben nicht nur für Personen. Jeder Musiktitel auf iTunes (oder Spotify) trägt zum Netzwerkeffekt bei.

Plattformen entstehen immer nach folgendem Muster:

1. Baue interaktive Tools, die ein persönliches und/oder gesellschaftliches Problem lösen und dadurch Nutzen generieren. (Generiere – wenn möglich – viele unterschiedliche Nutzen.)
2. Wachse, bis Du relevante Netzwerkeffekte erzielst, die weiteren Nutzen generieren.
3. Behalte die Kontrolle über en Zugang zum Nutzen, also die Fähigkeit, ihn jederzeit wieder einzuschränken oder ganz zu entziehen.
4. Verknappe den Nutzen und nehme Geld für den Zugang zu ihm.

Dieses Prinzip findet sich in allen Plattformgeschäftsmodellen wieder. Sie unterscheiden sich nur darin, welcher Nutzen für wen verknappt wird. Meistens ist es die Aufmerksamkeit der Nutzer. (Google/Facebook/Twitter). Manchmal ist sind es aber die Informationsgüter selbst (iTunes/Netflix/Apple Appstore). In einigen Fällen ist es auch der Zugang zur Plattform selbst, oder zu gewissen Spezialdiensten oder Dienstleistungen. (Xing, Github, Uber). Besonders umstrittene Beispiele für genau diese Vorgehensweise sind Auflösung der Netzneutralität durch die Internetprovider, wie die Verknappung von Werbeplätzen in Browsern durch AdBlockPlus. Aber auch sie operieren nach derselben Logik.16

Die neue Güterordung

Wir müssen wieder ganz einfache Fragen stellen. Grundlegende Fragen. Was ist ein Gut? Und muss ein Gut jemandem gehören?

Die Gewalt der Plattform ist eine Gewalt, die auch unter den Voraussetzungen des informationellen Kontrollverlusts noch wirkt, weswegen Informationsgüter ihr erster, quasi natürliche Anwendungsfall sind. Informationsgüter sind in der Ordnung des Kapitalismus nichts neues, auch wenn sie sich doch sehr von physischen Unterscheiden, haben sie Eigentümer, können überhaupt Eigentum sein.

Bei Social Media Diensten läuft das schon anders. Sie hantieren mit Daten, Text, Bilder, Videos und natürlich den Verhaltens- und Stammdaten der Nutzer/innen, für die die Eigentumsverhältnisse schwerer zu klären sind. Gehören Facebook die Daten seiner Nutzer/innen, oder gehören sie den Nutzer/innen? Wenige der Postings dürften klassischen Bewertungen nach die Schwelle zum geistigen Eigentum überschreiten. Natürlich sieht das Gesetz gewisse Rechte für persönliche Daten vor, aber einen Eigentumsbegriff gibt es hier nicht. Mit gutem Grund. Wem gehört ein Like? Dem, der liked, demjenigen, der das gelikte Posting verfasst hat, Facebook? Oder was ist mit Aufmerksamkeit, der eigentlichen Geldquelle vieler Plattformen. Wem gehört Aufmerksamkeit? Dem, den man sie „schenkt“? Dem, der sie erzeugt? Oder dem, der sie aufbringt?

Die Antwort ist: es ist egal. Eigentum ist ein Konzept, das innerhalb von Plattformen obsolet ist, denn die Zugangsregulierung wird einfach direkter betrieben. Jurist/innen werden sich wahrscheinlich dennoch weiter darüber streiten, aber Auswirkungen dieser Streits dürften keinen normativen Effekt haben.

In meinem Buch hatte ich die verschiedenen Güterarten hinsichtlich des Plattformmodell bereits durchdekliniert. Plattformen versuchen Öffentliche Güter (nichtrivalisierende, nicht zugangsbeschränkte Güter) in Clubgüter (nichtrivalisierende aber zugangsbeschränkte Güter) zu verwandeln, indem sie Kontrolle über den Zugang erlangen 17. Dass diese nichtrivalisierenden, zugangsbeschränkten Güter wiederum keinen Eigentümer brauchen ist aber das eigentlich Neue und postkapitalistische Moment des Plattformmodells.

An dieser Stelle könnte man auf die Idee kommen, dass das Plattformmodell und damit eine Postkapitalistische Ordnung nur ein Sturm im immateriellen Wasserglas ist. Die klassische Ökonomie der Dinge und Gegenstände sei davon gar nicht betroffen.

Das ist das ist bereits heute leicht von der Hand zu weisen. Vom Carsharing, über die Sharingökonomie zum Internet of Things wird klar, dass das Plattformmodell längst begonnen hat, die physische Ökomomie zu okkupieren. Oder kolonisieren. Das wiederum ist aber wieder eine ganz andere Geschichte, die ein andermal erzählt werden muss.

Plan C

Ich finde es zu weit gegangen, die heute realexistierenden Plattformen postkapitalistisch zu nennen. Sie sind aber eben auch nicht mehr ganz kapitalistisch, bzw. etablieren eine postkapitalistische Mechanik. In ihnen steckt der Kern einer Ordnung, die ohne Eigentum und damit ohne Staat auskommt und diese durch ihre eigenen Ordnungs- und Gewaltprinzipien ersetzen könnte. 18

Betrachtet man den derzeitigen Zustand des Systems des Kapitalismus – beide Seiten: des Nationalstaates, wie auch des Marktsystems – dann kann man unabhängig von unseren Überlegungen hier auf den Gedanken verfallen, dass der Kapitalismus bereits im Sterben liegt. Einen einfachen Übergang vom Kapitalistischen System zum Plattformsystem wird es aber nicht geben. Das alte muss erst zerrüttet sein, bevor das neue sich etablieren kann. Es wird eine Phase der Unruhe und des Chaos geben müssen, an deren Anfang wir vielleicht schon stehen.

Eine Ordnung der Plattformen mag man ablehnen und zwar aus guten Gründen. Zuvorderst ihrer mangelnden demokratischen Legitimation wegen. Das ist aber keine strukturelles Argument. Auch der Staat hat nicht als Demokratie angefangen, sondern hat sich als Ordnungsmacht in der frühen Neuzeit erstmal unter absolutistischen Vorzeichen bahn gebrochen. Rechtsstaatlichkeit, Gewaltenteilung und Demokratie sind hinterher als AddOn in die bereits vorhandene Struktur implementiert worden.

Deswegen wäre ich vorsichtig, das Plattformmodell als postkapitalistische Möglichkeit rundheraus abzulehnen, sondern plädiere vielmehr dafür, das Modell weiter zu studieren und zu verstehen und nach Möglichkeiten zu suchen, wie man auch diese Struktur domestiziert – also demokratisiert bekommt.

Wenn der Nationalstaat und seine Institutionen inklusive Kapitalismus der Plan A war, dem wir Anfang des Jahrtausends den libertären wie naiven Gedanken des heterarchischen Netzwerkes als Plan B entgegenhielten, dann ist es Zeit jetzt an Plan C zu feilen. Denn weder wird sich Plan B bewahrheiten, noch noch gibt es eine mögliche Rückkehr zu Plan A. Das derzeitige System wird vielleicht schon in den nächsten 5 bis 10 Jahren verfallen sein. Und dann ist es gut, Plan C in der Schublade zu haben.

  1. Lobo, Sascha: Die Mensch-Maschine: Auf dem Weg in die Dumpinghölle http://www.spiegel.de/netzwelt/netzpolitik/sascha-lobo-sharing-economy-wie-bei-uber-ist-plattform-kapitalismus-a-989584.html
  2. Seemann, Michael: Das Neue Spiel, S. 118
  3. Mason, Paul: Postcapitalism, A Guide to Our Future
  4. Das ist natürlich ebenfalls die Argumentation bei Jeremy Rifkins Zero Marginal Cost Society. Beide Bücher werden deswegen gerne verglichen. Dennoch, finde ich, geht Mason in seiner Analyse tiefer, weswegen ich ihn weiter als Ausgangspunkt behalte.
  5. vgl. z.B. http://www.ctrl-verlust.net/plattformprivacy
  6. Ich halte es für eines der wichtigsten Bücher über Ökonomie der letzten 20 Jahre, auch wenn ich einige Teile der Analyse nur sehr bedingt teile.
  7. Zum Beispiel im zentralen Begriff des Tauschwertes. David Graeber hatte dagegen sehr schön gezeigt, dass die quasi von allen Ökonomen immer vorausgesetzte Urszene des Kapitalismus: der Markt auf dem Güter gegen Güter getauscht werden, nirgends nachgewiesen werden kann. (Graeber, David: Debt, the first 5000 Years) Diese Gesellschaftsform hat es weder irgendwo gegeben, noch hat sie sich in irgendeinem Volk herausgebildet. Sie ist ein reines Geistesprodukt von bereits kapitalistisch denkenden Ökonomen.
  8. Der Feudalismus kannte nicht nur keinen rechtlichen Begriff von Eigentum, sondern hatte auch gar nicht die Strukturen, es durchzusetzen. Besitzen konnten nur die Stände, weil sie über Strukturen verfügten, den Besitz auch zu verteidigen.
  9. Ich lehne die Marx’sche Arbeitswerttheorie ab und hier ist warum. http://mspr0.de/?p=4605
  10. Als Verfügungsgewalt verstehen wir die Fähigkeit die Sache zu nutzen und gleichzeitig, andere von der Nutzung der Sache auszuschließen.
  11. Wer sich an dieser Stelle eine Preistheorie gewünscht hat, die Aussagen darüber zu treffen im Stande ist, welcher Preis für eine Sache veranschlagt werden wird, wird hier natürlich enttäuscht sein. Aber ganz ehrlich: ich bezweifle, dass es eine solche Theorie je geben kann. Die Behavouristische Forschung hat die Idee des Homo Oeconimicus längst relativiert. Die Grenznutzentheorie hat sicher ihre Anwendungsfälle und spielt in der Preisgeataltung sicherlich mit rein, aber sie trifft oft nicht immer zu. Preisbildung ist ein komplexes Problem, in das sehr viele Variablen einfließen. Schaut man sich bestimmte Märkte an, scheint die Preisbildung beinahe beliebig zu sein. Ein Beispiel sind Matratzen, die mit teils mehreren Hundert Prozent Marge verkauft werden, was einen ganzen Anhang von Gründen hat, wie in dieser Freakonomics-Folge zu erfahren ist: http://freakonomics.com/podcast/mattress-store-bubble/ Ähnlich sieht es bei Hygieneartikeln aus, die sich unter einem gewissen Preis gar nicht verkaufen, weil sonst das Qualitätsempfinden nicht befriedigt wird. Spannend auch, wie ganz situationsabhängige Variablen reinspielen. Hier ein schöner Artikel darüber, warum bestimmte Küchen aus bestimmten Ländern für teurere Preise verkauft werden, als bestimmte andere: http://www.theatlantic.com/business/archive/2016/07/the-future-is-expensive-chinese-food/491015/?single_page=true Uber wiederum hat zum Beispiel herausgefunden, dass Kunden gewillt sind, biszu 9 mal so hohe Preise für eine Fahrt zu zahlen, wenn ihr Handyakku fast alle ist.
    http://thenextweb.com/insider/2016/05/20/uber-riders-will-pay-9-9-times-surge-pricing-phone-battery-low/#gref. Preismechanismen sind in der Realität wahnsinnig komplex und lassen sich nicht auf einen oder einige Gesetze runterbrechen. Das alles beiseite gelassen, ist wenig gesetzmäßiges über den Preis zu sagen. Bis auf: wer ihn festlegt. Welche Überlegungen und Motivationsstrukturen ihn dabei leiten ist dabei erst mal nachrangig. Die Ökonomie geht zum Beispiel immer davon aus, dass jemand, der einen Preis für eine Sache festlegt, diese auch verkaufen will. Das ist nicht immer der Fall. Ich selbst lege für Dinge, auf die ich keine Lust habe, prohibitiv hohe Preise fest, damit sie nicht gekauft werden (Und wenn doch, dass ich eine entsprechende Entschädigung bekomme, was auch schon vorgekommen ist).
  12. Schön dokumentiert in diesem alten Artikel: http://www.rollingstone.com/music/news/steve-jobs-music-vision-20111007
  13. An dieser Stelle müssen ein paar Nachträge gemacht werden. Bei der Unterwerfung der Labels unter das Applediktat ist es bekanntlich nicht geblieben. Heute existiert eine heterogene Plattformstruktur im Musikmarkt. Insbesondere Spotify hat sich als wichtige Plattform etabliert. Sie wird zu einem großen Teil von den Labels selbst getragen, was darauf hindeutet, dass sie sehr wohl gelernt haben. Auch sonst haben sie quasi kartellartige Strukturen gebildet und diktieren auch allen anderen Streaminganbietern, welches Songkontingent sie für welchen Preis anbieten dürfen, was der Grund dafür ist, dass sich sie Angebote so wenig unterscheiden. Auch wenn man sagen kann, dass die Labels ihre Macht zurückgewonnen haben, kann man also nicht von einer Rückkehr in Kapitalistische Strukturen sprechen. Zudem ist spannend, wie lange sich die Staaten und die EU z.B. dieses Schauspiel noch bieten lassen.
  14. Es gibt wenige Punkte, an dem Lawrence Lessig 16 Jahre alte These deutlicher zu sich selbst findet, als bei der Gewalt der Plattform. Allerdings wäre zu ergänzen, dass Code nicht nur Law ist. Es ist Auch Judge und Vollzugsbeamter. Im Grunde lässt sich das noch besser und klarer anhand Deleuzes‘ Konzept der Kontrollgesellschaften beschreiben. Ich habe das bereits in meinem Buch skizziert. Das Neue Spiel, Seite 75f.
  15. Es wird bei Google, Facebook, etc. gerne von Monopolen gesprochen. Das ist genau genommen falsch. Es sind Marktführer, oft mit großem Abstand. Ihre Nichtmonopolstellung aber schränkt sie tatsächlich faktisch ein.
  16. Der einzige Unterschied dürfte sein, dass die von diesen Akteuren verknappten Nutzen vorher öffentliche Güter waren, sie also keinen originären Nutzen erschaffen haben, weswegen das Moralempfinden vieler Leute Sturm läuft. Jedoch kann man argumentieren, dass zum Beispiel AdBlockPlus von einem reinen Blockingdienst zu einem Regulator für Onlinewerbung wurde. Dann müsste man ihn an seiner Funktion messen und also zugestehen, dass es doch originären Nutzen generiert. Auch die Netzprovider versprechen mit gelockerter Netzneutralität neuen Nutzen zu generieren. Man darf da aber skeptisch bleiben.
  17. Seemann, Michael: Das Neue Spiel, Seite 132
  18. An dieser Stelle könnte man fragen, wie sehr Geld und Geldtransaktion strukturell an das System des Kapitalismus gebunden ist. Wird es verschwinden, wenn das kapitalistische Modell rund um die Plattformen zusammenbricht? Wird es ersetzt werden durch andere transaktionsformen? Dazu kann ich nur spekulieren. Seit Maxwells Demon wissen wir, dass Ordnung nie umsonst zu haben ist, weswegen ich davon ausgehe, dass der ordnenden Instanz immer ein Tribut auf die eine andere Weise gezollt werden wird. Vielleicht lässt sich Ordnung auch dezentral organisieren, wie einige Verfechter des Openweb und der distributed Networks behaupten. Aber auch dann wird es irgendeinen Preis geben, der dafür an irgendwen gezahlt werden muss und sei es nur das gegenseitige Betrauen mit Policing-Aufgaben oder freiwillige Selbsteinschränkungen, etc.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Weltkontrollverlust
Verschlagwortet mit
10 Kommentare

Steuerungsverlust

Ich war gerade eine knappe Woche paddeln. Wir fuhren mit einem Kanadier Kanu namens „Kirschkuchen“ auf der mecklenburgischen Seenplatte herum und ich war dabei meist der Steuermann – also derjenige, der hinten paddelt. Es war nicht das erste Mal, dass mir beim Paddeln diese Aufgabe zuteil wurde, aber sie eine so lange Zeit auszuführen, ermöglichte mir, meine Steuerkompetenzen auszubauen und sie gleichzeitig zu reflektieren.
kirschkuchen

Denn natürlich passiert dabei immer mal wieder ein Kontrollverlust, oder sagen wir besser „ein Steuerungsverlust“. Kontrolle und Steuerung sind im englischen ein Wort (control) und tatsächlich spricht wenig dagegen, Kontrolle und Steuerung synonym zu verwenden. Deswegen will meine gewonnenen Erfahrungen nutzen, um ein wenig über den Steuerungsverlust nachzudenken.

Zunächst einmal ist „steuern“ eine Tätigkeit, von der wir eine ziemlich verzerrte Vorstellung haben. Wir sind gewohnt, dass Steuerung direkt passiert, so wir es beim Auto- oder Fahrradfahren gewohnt sind. Man lenkt etwas nach links, das Fahrzeug bewegt sich entsprechend, man lenkt nach rechts, etc. Das ist aber keinesfalls die Standardsituation des Steuerns, vielmehr überlagert die überlegene Steuerbarkeit unserer Alltagsfahrzeuge genau das, worauf es beim Steuern überhaupt ankommt.

Beim Paddeln hat man noch ein sehr elementares Steuererlebnis. Jeder Paddelschlag hat eine steuernde Wirkung. Abhängig davon, ob ich ihn rechts oder links vom Kanu mache, bewegt sich das Kanu in die entsprechende Richtung. Die Steuerwirkung ist allerdings sehr gering und setzt nur verzögert ein. Wenn man hinten paddelt ist die Steuerwirkung deutlich stärker als vorn, weswegen hinten eben die natürliche Steuerposition ist. Jedoch steuert der Paddelschlag vorne auch.

Das hat einige Konsequenzen, bzw. erlaubt Erkenntnisse über das Steuern an sich:

1. Steuern heißt Planen. Die minimale und verzögerte Steuerwirkung hat zunächst einmal die Konsequenz, dass man sehr vorausschauend fahren muss. Scharfe Kurven sind eine ziemliche Herausforderung und schon leichte Anpassungsmanöver müssen mehrere Sekunden im Voraus eingeleitet worden sein.

2. Steuern ist ein bisschen wie Politik. Andere als die eigenen Steuerkräfte kommen deutlicher zum Tragen. Die eigene Trägheit der Massen schiebt einen, auf dem Wasser gibt es Strömungen, der Wind kann einen ganz schön ärgern und natürlich kommt immer die Steuerwirkung des Vordermannes zum Tragen. Auf dem Boot heißt Steuern also mehr das Dirigieren eines vielstimmigen Orchesters, bei dem einige der Musiker aber nicht auf einen hören. Man steuert immer mit und man steuert immer gegen bestimmte Kräfte, die als heterogene Vektoren ein vielstimmiges Mitreden haben. Die Kunst besteht darin, diese Kräfte zu spüren, sie einigermaßen einzuschätzen und die eigene Steuerkraft so einzusetzen, dass die Kräfte, die gegen einen steuern, nicht größer sind als die eigene Steuerkraft. Im Zweifelsfall bedeutet es auch Koalitionen zu bilden mit anderen externen Steuerkräften, die mehr im eigene Sinne steuern.

3. … was dann eben auch den Steuerungsverlust definiert, als den Punkt, wo die externen Steuerkräfte, die gegen einen arbeiten, die eigenen Steuerkräfte übersteigen. Der Steuerungsverlust kann zwei Ursachen haben. Erstens: Man wird von einer neuen, unbekannten Steuerkraft überrumpelt, oder hat sie falsch eingeschätzt oder sie ändert ihre Richtung, etc. Oder zweitens: die eigene Steuerkraft kommt einem Abhanden. Das Paddel bricht oder man verliert es. (Letzteres ist uns zum Glück nicht passiert, ersteres jedoch öfter.)

* * *

Beziehen wir die Erkenntnisse zurück auf den informationellen Kontrollverlust, wird dadurch einiges klarer: Die Digitalisierung hat zweifelsohne die vorhandenen, externen Steuerkräfte durcheinandergewirbelt. Gleichzeitig hat es die zur Verfügung stehenden Steuermechanismen unterminiert.

Die leichte Kopierbarkeit und Distribuierbarkeit hat sich zum Beispiel für die Musikindustrie angefühlt, als würde plötzlich das Wasser jeglichen Widerstand verlieren. Alles kann sich darin auf einmal widerstandslos bewegen, was einerseits toll ist. Gleichzeitig wird aber auch das Paddel nutzlos, weil es jegliche Antriebs- und Steuerkraft verliert. Das Paddel wären hier Vertriebsstrukturen und -Prozesse, die auf einmal im Leeren ruderten.

Die Privatsphäre hingegen sah sich mit völlig neuen Strömungen konfrontiert. Allgegenwärtige Sensoren, Kamerahandys, Locationdienste und dergleichen waren zur Entstehung des Datenschutzes nicht vorgesehen. Gegen diese neue, enorme Steuerkraft konnte der Datenschutz nicht an und so trieb das Boot immer weiter und immer schneller weg vom eigentlichen Ziel der Informationellen Selbstbestimmung. Mit Big Data und Machine Learning pusten weitere starke Steuerkräfte als Böen gegen die Fahrtrichtung. Zwar gibt es mit immer neuen kryptografischen Verfahren durchaus einen Vordermann, der im Zweifel auf der eigenen Seite mitpaddelt, jedoch scheint auch der nicht stark genug zu sein, um den Trend umzukehren. Das Datenschutzpaddel ist ins Wasser gefallen.

* * *

An der Müritz haben wir uns nach den Steuerungsverlusten immer wieder gefangen. Meist habe ich die Situation einfach neu bewertet, die neuen Steuerungskräfte mit in die Rechnung aufgenommen und mein Steuern entsprechend angepasst. Wäre mein Paddel weggewesen, hätte ich mir ein neues besorgt. So hat auch die Welt auch auf den informationellen Kontrollverlust reagiert. Sie hat neue Institutionen geschaffen, die neue Steuerungssituationen etabliert haben: die Plattformen.

Plattformen können als künstlich beruhigte Gewässer innerhalb des stürmischen Ozeans Internet verstanden werden. Es sind sowas wie private Enklaven und so ist man Tributpflichtig, aber man findet dafür einigermaßen handhabbare Steuerungsumgebungen vor. Plattformen sind im Gegensatz zu klassichen Institutionen selbst keine Steuerungseinheiten, sondern durch geschlossenheit beruhigte Zonen, in denen externe Steuerungskräfte nicht sehr dazwischenfunken können. Sie geben meist aber auch eigene, auf ihre Umgebung optimierte Paddel heraus, die nur innerhalb der Enklave funktionieren. Sie steuern nicht (oder nur wenig), sondern bieten vor allem Steuerkraft, so lange man sich in ihren Gebieten bewegt.

Der Sturm da draußen wird indessen immer heftiger, immer mehr Steuer versagen den Dienst. Immer mehr Plattformen gründen sich und die bestehenden Plattformen werden immer größer und mächtiger. Irgendwann wird es keine Boote mehr im offenen Meer geben, weil alle nur noch innerhalb der Plattformen paddeln. Das ist sicher nicht befriedigend, aber es funktioniert.


Veröffentlicht unter Kontrollverlust Plattformpolitik Weltkontrollverlust
1 Kommentar

Vortrag: Netzinnenpolitik – Grundzüge einer Politik der Plattformgesellschaft

Mein re:publica-Vortrag von diesem Jahr spinnt die These der Plattformgesellschaft weiter und definiert die Plattform als leviatnistischen Akteur, dem immer mehr die Aufgabe zuteil wird, den Netzinnenraum zu befrieden.


Veröffentlicht unter Das Neue Spiel Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar

Informationelle Selbstzertrümmerung

/*** Im Februar habe ich einen Vortrag bei der Tagung „Diskurs der Daten“ an der Uni Leipzig gehalten, dessen Verschriftlichung ich hier nun endlich veröffentliche. ***/

Auf der so genannten Computers, Privacy & Data Protection-Konferenz (CPDP2016)1 im Januar 2016 in Brüssel gab Alexander Dix, scheidender Datenschutzbeauftragter des Landes Berlin anscheinend folgendes von sich:
Bildschirmfoto 2016-02-04 um 17.57.16
Das klingt erst mal gut, aufrüttelnd und irgendwie moralisch richtig. Bis man sich mit der Frage befasst, was denn das eigentlich sein soll, ein „Data Object“.

Dazu ein Beispiel: Das Zitat fand seinen Weg zu mir in Form eines Tweets. Nicht aber eines Tweets von Alexander Dix. So weit ich weiß, benutzt er kein Twitter. Er ist in diesem Fall also selbst kein „Data Subject“. Der Tweet stammt viel mehr von Gabriela Zanfir, einer Mitarbeiterin beim EDPS. Sie zitiert Alexander Dix hier namentlich. Die Frage scheint mir also offensichtlich: Ist hier etwa Alexander Dix, ohne überhaupt Data Subject sein zu müssen, zu einem „Data Object“ geworden? Und führe ich diese Dataobjektivizierung durch das digitale Zitieren dieses Tweets nicht noch fort und erweitere die Datenobjektsammlung damit wiederum um Gabriela Zanfir selbst?

Objektifizierung. Überall. Schlimm!

So geht das die ganze Zeit. Die Rhetorik ist alarmistisch, die Geschehnisse banal. Irgendwas stimmt mit diesem ganzen Datenschutz-Diskurs nicht. Wir alle sind in unzähligen Datenbanken verzeichnet und werden dort immer wieder der einen oder andern Datenverarbeitung unterworfen. Niemand kann von sich behaupten _kein_ Datenobjekt zu sein und dennoch malen wir es als Horrorszenario an die Wand. Was genau ist hier also „at stake“?

Ich glaube, es gibt in der westlichen Welt kaum ein Thema, über das unehrlicher gesprochen wird, als über Datenschutz. Und – um an dieser Stelle Alexander Dix auch zu verteidigen (den ich eigentlich sehr schätze) – das liegt nicht einfach an den einzelnen Protagonist/innen dieses Diskurses. Die Lüge besteht aus einem ganzen System unhinterfragter Annahmen und Behauptungen, die sich im Laufe der Zeit zu einer Ideologie sedimentiert und einer kollektiven Illusion tradiert haben. Nur hier und da erkennt man die „Glitches“, also die Stellen, wo die Lüge unmißverständlich aufblitzt und in kurzen Momenten mit einer Klarheit droht, das ganze System zum Einsturz zu bringen könnte. Die Aussage von Dix ist so ein Glitch. Es gibt aber ungleich größere.

Der Fall des Safe-Harbor-Abkommens2 kann gut und gerne als das Ground Zero dieses Systems verstanden werden und in seinen Trümmern lässt es sich gut studieren. Wir erinnern uns: Das Safe-Harbor-Abkommen bestand im Grunde aus der Behauptung, Unternehmen in den USA würden ihr Handeln dem Niveau europäischer Datenschutzbestimmungen unterwerfen. Dafür mussten sich Unternehmen ungeprüft zertifizieren lassen und schon war die Behauptung rechtskräftig. Also wahr. Auf so ne Art.

Die Episode erinnerte sehr an Hans Christian Andersens bekanntes Märchen: Des Kaisers neue Kleider. Dem Kaiser wird von einem Scharlatan ein Gewand aus dünnstem Stoff aufgeschwatzt, dass es in Wirklichkeit gar nicht gibt. Die Leichtigkeit dieses Nichts wurde dem Herrscher alsbald als Tragekomfort angepriesen und die Tatsache, dass er nichts an hatte, schlicht geleugnet. Aufgrund einer sozial induzierten kognitiven Dissonanz traut sich niemand bei Hofe darauf hinzuweisen, dass der Kaiser ja eigentlich nackt ist. Erst als er mit dem nichtvorhandenen Kleid in die Öffentlichkeit tritt, ruft ein Kind die Wahrheit: „Der hat ja gar nichts an!“, woraufhin alle anderen sich ebenfalls trauen das Offensichtliche auszusprechen.

Max Schrems hieß das Kind in unserem Fall. Er hatte es in einem Musterprozess gegen Facebook bis zum EuGH geschafft, welches mit Schrems feststellte, dass das Safe Harbor-Abkommen schon immer nackt war, dass die Behauptung die Unwahrheit war und überhaupt alles eine große Lüge. Pfui! Böse, USA!

Schrems wiederum bezog sich in seiner Argumentation auf ein anderes rufendes Kind: Edward Snowden. Der hatte gezeigt, dass US-Unternehmen nicht ohne Kooperation und/oder heimlicher – sogar illegaler – Bespitzelung von den dortigen Geheimdiensten arbeiten könnten. Damit war die Nacktheit des Kaisers bewiesen und konnte selbst von noch so rhetorisch geschickten Anwälten nicht mehr bestritten werden.

Weil es aber auch für Selbstverständlichkeiten wie der Tatsche, dass das Internet nun mal bis nach Amerika reicht, eine Rechtsgrundlage braucht, machten sich Juristen und Politiker sogleich daran einen Safe Harbor-Nachfolger zu konstruieren. Das neue Kleid heißt nun Privacy Shield, doch jenseits der aufgerüsteten Rhetorik (weg von der weltläufigen Offenheit des Hafens hin zur militaristischen Logik einer Defensivwaffe) hatte sich am Tragekomfort des neuen Kleides verdächtig wenig geändert.

Viele glauben, dass auch das Privacy-Shield einer juristischen Prüfung nicht stand halten werde. Max Schrems selbst hat mehrmals angemerkt, dass ein gültiges Abkommen unter der Prämisse der allgemeinen Geheimdienstüberwachung gar nicht möglich sei.3 Wie solle denn ein Bürger/eine Bürgerin noch eine „informierte Zustimmung“ zur Datenverarbeitung geben, wenn denn prinzipiell unwissbar sei, wer dann auf die Daten Zugriff habe und was dieser jemand dann damit anstelle? So lange eine solche geheimdienstliche Praxis vorherrsche, könne eigentlich eine rechtliche Grundlage für ein solches Abkommen gar nicht im Bereich des Möglichen liegen.

Interessant wird es, wenn man dieses Argument weiterdenkt. Auf die Frage, ob denn dann in Europa die Rechtsgrundlage für Datenverarbeitung in diesem Sinne nicht ebenfalls fraglich ist, da ja auch hier Geheimdienste nachgewiesener Maßen geheime Dinge mit den hier gespeicherten Daten machen, bejaht Max Schrems durchaus. Glücklicher Weise gibt es hier kein Abkommen, dass in Frage stehen würde. In den eigenen vier Wänden darf der Kaiser natürlich nackt rumlaufen.

Man kann das noch weiterspinnen, wie ich es ja bereits seit einigen Jahren tue 4: Wenn wir 1. nicht mehr kontrollieren können, welche Daten über uns an welchen Stellen gesammelt werden, weil wir die ganze Welt mit immer mehr und immer unsichtbareren Sensoren ausstatten;
Wenn wir 2. die Kapazitäten von Leitungen und Datenträgern immer weiter erhöhen, so dass Daten in immer größerem Umfang immer problemloser von A nach B kopiert werden können;
Wenn wir 3. immer bessere Methoden und Software zur Datenauswertung bereitstellen, die noch aus den unschuldigsten Daten komplexe Profilbildungen und unvorhergesehene Erkenntnisse erlauben;
Wenn wir also den informationellen Kontrollverlust auf den Ebenen der Sammlung, Speicherung und Auswertung erleben, wie können wir dann überhaupt noch – egal wo – von einer „informierten Einwilligung“ sprechen, ohne uns in die eigene Tasche zu lügen?

Und hier nähern wir uns endlich dem Kern des Systems aus Lügen: der „Informationellen Selbstbestimmung“5. Die Idee, dass ich das Recht habe zu kontrollieren, wer etwas über mich weiß und was er mit diesem Wissen anstellt, mag in den 80er Jahren eine kühne Utopie gewesen sein, heute ist sie ein gefährliches, niemals einzulösendes Versprechen, das – weil es niemals zugeben darf, eine Lüge zu sein – immer weitere Lügen gebiert.

Seien wir das Kind und sprechen es aus: die Illusion der „Informationellen Selbstbestimmung“ konnte nur deswegen funktionieren, weil wir alle mitgelogen haben und auch heute bereit sind jederzeit zu lügen. Jedesmal, wenn wir „Ok“ oder „Ich habe verstanden“ bei den unzähligen Terms of Service, Allgemeinen Geschäftsbedingungen und Datenschutzbelehrungen geklickt haben, aber in Wirklichkeit nicht das Gefühl hatten, wirklich zu wissen, was da mit unseren Daten geschieht, haben wir mitgeholfen diese kollektive Fiktion am Leben zu erhalten. Unsere Lügen haben sich akkumuliert zu einem System der Unehrlichkeit, in der die eine Lüge die andere Lüge deckte und als Wahrheit verifizierte. Und nun stehen wir auf unserem eigenen Lügenberg und übersehen von dort die Trümmer von Safe Harbor, welches doch auch nur eine weitere Lüge war. Und wir lachen. Worüber lachen wir eigentlich?

Ganz konkret: Wem bringt der Fall von Safe Harbor denn jetzt irgendwas? Also mehr Sicherheit? Mehr Schutz? Irgendwelche sonstigen Vorteile?

Die Antwort ist: Niemandem. Irgendetwas. Also bis auf die Deutsche Telekom, für die die Rechtsunsicherheit amerikanischer Serverbetreiber einen riesigen anstrengungslosen Reibach bedeutet.

In Wirklichkeit ist der Fall von Safe Harbor vergleichbar mit dem Platzen der Kreditblase von 2008. Es wird bis heute fälschlicher Weise behauptet, damals seien Werte vernichtet worden. Das stimmt nicht. Der Wert war nie da, er war immer nur behauptet. Genau so wie der „Schutz“ durch Safe Harbor immer nur behauptet war. Durch den Wegfall von Safe Harbor ist niemand mehr oder weniger geschützt. Und egal wie das neue Abkommen aussehen wird, der Schutz wird sich nicht wesentlich verschlechtern oder verbessern. All das sind nur Schattenboxkämpfe von Politiker/innen und Jurist/innen.

Mein Eindruck ist mittlerweile, dass die verbissene Verteidigung der Informationellen Selbstbestimmung einer Implementierung von tatsächlichem Schutz für Individuen im Weg steht. Wir sollten aufhören, darüber zu streiten, wie wir ein fiktives Recht bewerkstelligen können und anfangen zu fragen, welche Probleme sich denn nun aus Datenhaltung und -Verarbeitung konkret für Menschen ergeben.

Unser Motto sollte sein: Schützt die Menschen, nicht die Daten. Und das geht nur, wenn man sich von dem Konzept der Informationellen Selbstbestimmung endlich verabschiedet.

Es gibt da durchaus Ansätze das zu tun. Hans-Peter Bull, erster Bundesdatenschutzbeauftragter Deutschlands sieht das Konzept der informationellen Selbstbestimmung ebenfalls am Ende6. Niko Härting wirbt mit der Neuausrichtung des Datenschutzes anhand eines risikobasierten Ansatzes.7

Ich denke, diese Ansätze gehen in die richtige Richtung. Es gibt unterschiedliche Gefahren durch unterschiedliche Daten für unterschiedliche Menschen. Was für den einen eine Gefahr ist, ist für den anderen kein Problem. Ich will deswegen auf einer etwas abstrakteren Ebene einiger der Gefahren aufzeigen:

1. Diskriminierung (Institutionelle und auch alltägliche)
2. Manipulation (bishin zu handfester Erpressung)
3. Staatliche Willkür (zb. Cherrypicking von Daten zur Konstruktion von Evidenz)
4. Kriminalität (Identitätsdiebstahl bis Stalking)
5. Entwürdigende Bloßstellung (Public Shaming)

Wenn wir diese Probleme in den Vordergrund stellen wird schnell klar, dass Datenschutz oft nur eine sehr schlechte Antwort auf die Herausforderungen der digitalisierten Welt ist. Es gibt bessere Ansätze: Diskrimierungsverbote, demokratische Kontrollinstanzen, Kompetenzbeschneidung von Behörden, mehr Transparenzanforderungen, auch für Unternehmen, etc. Klar. Das sind alles nur Flicken. Das ist nicht ein schön in einem Stück gefertigtes Kleidchen und der Tragekomfort ist nicht so toll, wie bei der luftig leichten informationellen Selbstbestimmung.

Aber wir könnten alle wieder ein bisschen ehrlicher sein und ich bin fest überzeugt, dass das Schutzniveau unterm Strich steigen würde.

  1. CPDP http://www.cpdpconferences.org
  2. Holland, Martin: Datenschutz bei Facebook & Co.: EuGH erklärt Safe Harbor für ungültig, http://www.heise.de/newsticker/meldung/Datenschutz-bei-Facebook-Co-EuGH-erklaert-Safe-Harbor-fuer-ungueltig-2838025.html (06.10.2015)
  3. Vgl.: Armasu, Lucian: Max Schrems Provides In-depth Analysis Of Safe Harbor Ruling, http://www.tomshardware.com/news/max-schrems-post-safe-harbor,30343.html (16.102015)
  4. In diesem Blog oder Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Berlin: iRights Media 2014, S. 8.
  5. Vgl. Recht auf Informationelle Selbstbestimmung: http://www.grundrechteschutz.de/gg/recht-auf-informationelle-selbstbestimmung-272.
  6. Bull. Hans-Peter: Informationelle Selbstbestimmung – Visionoder Illusion? https://www.mohr.de/buch/informationelle-selbstbestimmung-vision-oder-illusion-9783161509056?createPdf=true.
  7. Härting, Niko: Vom Verbotsprinzip zur Risikoorientierung, http://www.haerting.de/de/neuigkeit/vom-verbotsprinzip-zur-risikoorientierung


Veröffentlicht unter Das Neue Spiel Kontrollverlust Postprivacy
4 Kommentare

Das Internet nach dem Internet – Eine persönliche Anamnese

/** Dieser Text basiert auf einem Vortrag, den ich im Rahmen einer Tagung an der Universität Köln gehalten habe und wird demnächst in einem zugehörigen Reader veröffentlicht. **/

Vor etwa 2,4 Milliarden Jahren brach eine einzigartige Naturkatastrophe über die Welt hinein. Eine neue Spezies, die Cyanobakterien, hatten sich im Kampf der Evolution durchgesetzt und machten sich daran, alle anderen Spezies mittels eines aggressiven Giftes auzulöschen. Ein Großteil der bis dahin lebenden Organismen fielen dem Massaker zum Opfer. Die Nachfahren dieser Massenmörderspezies nennen wir heute „Pflanzen“ und ihr tödliches Gift war der Sauerstoff.

Das neue Gift atmete ich etwa Anfang der 90er. Ein Freund von mir wählte sich oft in das FidoNet ein. Eine Art Proto-Internet, was aber eigentlich nur ein System von Mailboxen beschrieb, bei dem man sich einwählen konnte und das automatisiert Daten austauschte. In diesem Netz konnte man bereits mit Unbekannten kommunizieren. Man lud Texte und Bilder herunter, diskutierte und schloss Freundschaften.

Wenige Jahre später sah ich meine erste Website. Es war Spiegel Online. Ich zuckte mit den Schultern. Es gibt doch schon Zeitungen, dachte ich mir. Doch das Schulterzucken hielt nicht lang. Meine erste eigene Mailadresse holte ich mir im Web. 1997 bei GMX. Ich wollte mit Freunden zu Hause in Kontakt bleiben, denn ich sollte zum Studium nach Lüneburg umziehen.

Erst im Studium habe ich wirklich angefangen, mich für das Netz zu begeistern. Es war mitten in der Dotcom-Bubble und ich wollte alles über das Internet wissen. Ich legte meine Zwischenprüfung über die Geschichte des Internets ab. Ich fing an zu programmieren. Erst nur Webdesign, dann Java, PHP und Datenbanken. Mehrere Jahre lang arbeitete ich als Programmierer in einer kleinen Internetfirma.

Doch egal was ich tat, ich wurde das Gefühl nicht los, der Idee und dem Potential des Internets nicht gerecht zu werden. Schließlich wendete ich mich den Medienwissenschaften zu. Nur leider hatten die zu dem Thema kaum etwas zu sagen, jedenfalls zu jener Zeit. Die deutsche Medientheorie war geprägt von der Kittlerschule und die hatte erst mal nur den Computer in den Blick genommen.

“Close enough”, dachte ich mir und las, was ich kriegen konnte. Doch etwas war mir fremd: Die Erfindung und Entwicklung des Computers wurde mit der Ehrfurcht gefeiert, die an die Landung eines Außerirdischen erinnerte. Die Beschäftigung mit dem Computer wirkte wie die Kommunikationsversuche mit einer fremden Spezies. Ich verstand natürlich, dass der Computer ein besonderes, ein universelles Medium war, aber für mich war er eben doch Teil der Welt. Kittlers Passion für maschinennahen Code etwa und sein Herabblicken auf alles, was nicht in C oder Assembler programmiert ist, empfand ich absurd und weltfremd. Es gibt keine Software? Was für ein absurder Gedanke.

Heute mache ich die unterschiedliche Aneignungsgeschichte für diese Andersartigkeit der Wahrnehmung verantwortlich. Der Computer trat ja tatsächlich in das Leben der Generation Kittler wie ein frisch gelandetes Alien. Der Computer erschien als wissenschaftlich-militärische Großmaschine auf der Bildfläche und hatte damit die Aura von Raketentechnologie. Atombombe, Interkontinentalrakete und Computer bildeten einen gemeinsamen modernistischen Komplex in den Assoziationen der Zeitgenossen.

Ich hingegen hatte den Computer als den netten Spielgefährten auf dem Schreibtisch kennengelernt. Mein erster Computer war ein Commodore 128D, eine etwas weiterentwickelte Variante des berühmten C64. Der Computer war ein Alltagsgegenstand, fast schon ein Kinderspielzeug. (Um ehrlich zu sein, habe ich ihn in erster Linie auch ausschließlich zum Spielen benutzt.)

Noch während ich meine Abschlussarbeit schrieb – etwa 2005 – fing ich an zu bloggen. Zunächst war es reine Prokrastination. Aber es nahm mich sofort gefangen. Mich reizte das „sich ausdrücken können“, bei gleichzeitiger Unmittelbarkeit des Feedbacks. Die Schnelligkeit und die Freiheit alles zu sagen, was ich will, während (theoretisch) Millionen Leute das lesen können. Das ist vielleicht gar nicht mehr so gut nachvollziehbar, aber damals fühlte sich das wirklich revolutionär an. Meinungsfreiheit galt damals nur theoretisch. In Wirklichkeit musste man enorme Ressourcen in Bewegung setzen, um auch nur ein kleinen Teil Öffentlichkeit zu generieren.

So sehr ich mich bemühte, das Netz und sein Veränderungspotential über Bücher und Programmieren zu verstehen; so richtig verstand ich es erst beim Bloggen. Beim freien Benutzen des offenen Webs und seiner Möglichkeiten wurde mir klar, dass dieser persönliche, ja intime Zugang zu Öffentlichkeit es war, der alles verändern würde. In der Blogosphäre streckte nicht eine kalte Technik seine Apparate in die Welt, sondern es etablierte sich eine neue Form von Lebensraum. Ich las Blogs, wie andere durch ihre Straße gehen, und kommentierte Artikel als würde ich mit den Nachbarn quatschen. Ich spürte das Internet förmlich, und zwar als Verbundenheit und Heimat. Ich fühlte mich im Internet zu Hause.

Wir Blogger waren die Avangarde einer global unausweichlichen Utopie totalvernetzter Diskurse. Wir waren uns sicher: bald schon würden alle tun, was wir tun. Bis dahin mussten wir nur zweierlei machen: Weitermachen und das Netz gegen all diejenigen verteidigen, die es eifersüchtig bekämpften. Das waren nicht wenige, denn das Netz begann schon früh die gesellschaftliche Position von vielen zu bedrohen. Journalist/innen, Verleger/innen, Rechteinhaber/innen, Innen- und Justiz-Politiker/innen und die Lobbys von einigen Wirtschaftverbänden. Um das Jahr 2009 herum emergierte das, was man bis heute „Netzpolitik“ nennt und was sicher eine der schlagfertigsten Grassrootslobbys der letzten Jahrzehnte war.

Mitten in dieser Zeit, Anfang 2010, fing ich an für die FAZ zu bloggen. Ich wollte meine ganz eigene Medientheorie des Internets aufschreiben. Alles kulminiert in der These vom Kontrollverlust. Der Kern der Idee: Wir verlieren Kontrolle über Datenströme und alle Folgewirkungen, positive wie negative, und sich die darum scharenden Diskuse können auf dieses Grundphänomen zurückgeführt werden. Unter dem Strich jedoch, da war ich sicher, würde sich dieser Kontrolltverlust lohnen. Im Ganzen werde er positive Auswirkungen auf die Gesellschaft und seine Individuen haben.

Als ich vier Jahre später das Buch 1 dazu schrieb, war die positive Grundstimmung einer desillusionierteren Variante gewichen: “Der Kontrollverlust hat die Welt im Griff. Was heißt schon gut oder schlecht? Jedenfalls sollte man seine Strategien anpassen.” “Machiavelli des 21. Jahunderts” nannte man mich daraufhin.2

Was war in der Zwischenzeit von 2010 bis 2014 passiert? An dieser Stelle werden für Gemeinhin die Snowdenenthüllungen als desillusionierendes Weltereignis angeführt. Es hatte sich gezeigt, dass aussgerechnet die Offenheit der digitalen Technologie von mächtigen Akteuren missbraucht wurde, um Menschen in einem nie dagewesenen Ausmaß auszuspionieren. Diese Möglichkeit jedoch war in der Kontrollverlustthese von vornherein eingepreist. Privatsphäre war etwas, auf das man sich schon länger nicht mehr verlassen konnte.

Jede Dystopie ist in ihrer Realisierung banal. Ja, wir leben heute in der viel beschworenen Überwachungsgesellschaft. Der aktuelle Zustand der Welt übertrifft unsere schlimmsten Erwartungen. Aber hey, sein wir ehrlich. Das ist schon auf ne Art ganz ok. Niemand hat wirklich Angst. Protestieren tun nur ein paar Bürgerrechtler, so aus Prinzip.

Nein, Snowden war nicht der Grund. Es waren drei Entwicklungen, die meine Euphorie gegenüber dem Internet deutlich dämpften.

Erstens: Wir haben gewonnen. Bzw. wir – die Blogger – haben recht behalten. Die grenzenlose Freiheit des Publizierens durch das Internet kam tatsächlich im Mainstream an. Alle haben nun Zugang, jede/r bekommt Öffentlichkeit, wenn er/sie es will. Meinungsfreiheit wurde von einem abstrakten Recht zu einer realen Praxis.

Jede Utopie ist in ihrer Realisierung dystopisch. Ungehinderter Zugang zur Informationsverbreitung und ungehinderter Zugang zu Organisation stellten sich als wirkungsvolle Strukturverstärker nicht nur der Zivilgesellschaft, sondern auch des Hasses heraus. Ein Hass, der bis dahin in den dunklen Gewölben der Eckkneipen eingehegt war und nun mittels gegenseitiger Selbstverstärkung durch die digitalen Ritzen in die Öffentlichkeit quillt. Pegida, das vergessen viele, ist als Facebookgruppe gestartet. Pegida ist unser arabischer Frühling. Hass wird heute online geschürt, Demos und Brandanschläge werden per Messenger koordiniert. Immer mehr Menschen ziehen sich zurück in die Heimeligkeit zwischen Verschwörungsblog und WhatsHass-Gruppe. Auch sie haben ihr Zuhause im Netz gefunden.

Zweitens: Das Netz hat seine Grundstrukturen verändert. 2010 lief ein Großteil des Diskurses – vor allem der um das Netz – auf Blogs und Twitter ab. Es gab eine Vielzahl an Möglichkeiten, sich auszudrücken, obwohl schon damals beobachtbar war, wie sehr geschlossene Plattformen an Relevanz gewannen. Als die Menschenmassen kamen – etwa 2012, gründeten die wenigsten Blogs, sondern strömten zunächst fast ausschließlich auf Facebook. In dieser Zeit verdoppelte Facebook seine Nutzer/innen-Zahlen. Andere geschlossene Plattformen – Instagram, Whatsapp und Snapchat – wiederum profitierten von den Distinktions- und Ausweichbewegungen der jüngeren Generation und wurden ebenfalls in enormen Tempo zu riesigen Playern. All das hat zur Folge, dass das Internet und das open Web als Entität in den Hintergrund getreten ist, es bildet lediglich die Infrastruktur der eigentlichen Interaktionsschnittstellen. Und die werden von den Plattformen bereitgestellt.

Drittens: Das Netz hatte also die Unverschämtheit, sich hinter dem Rücken der ersten Netzcommunity einfach weiterzuentwickeln. Was sich auf Youtube, Instagram, Snapchat und Periscope entwickelte, wurde auf den Blogs der Netzgemeinde kaum reflektiert. Doch auf einmal hatten Einkaufvideos (haul-videos) von 15 jährigen Jugendlichen 100 mal so viele Zugriffe als die wichtigsten netzpolitischen Flagschiffe der Bloggergeneration.

Das mag nach verbitterter Kulturkritik klingen, es ist aber vielmehr das Eingeständnis von vergangenem Größenwahn und aktuellem Nichtverstehen. Es geht mir wie Grandpa Simpson: “I used to be with it, but then they changed what it was. Now what I’m with isn’t it, and what’s it seems weird and scary to me. It’ll happen to you!”3

Dieses “it” war bei uns vor allem die politische und intellektuelle Auslotung des Netzes. Unsere Themen waren immer “special Interest”. Aber wir hatten ja die Gewissheit, dass unsere Anliegen nicht special Interest bleiben würden. Würde das Netz erst Mainstream werden, so dachten wir, würden unsere Debatten und unsere gut informierten Positionen zum Netz ebenfalls im Mainstream einreiten. Kurz: Wir dachten unser “it” würde das “it” sein, wie noch jede Generation vor uns.

Doch die neue Netzgeneration setzt sich nicht mit Netzneutralität auseinander. Sie interessiert sich nicht für Netzsperren oder Datenschutz. Schlimmer noch: für sie ist das Netz kein Begriff mehr, der überhaupt etwas neues verheißt. Sie empfinden keinen Drang alles verstehen zu wollen. Das Netz ist halt da. Es ist ein Alltagsgegenstand, mit dem man Dinge machen kann.

Und hier, am Ende dieser Reise finde ich mich dann doch in wieder. Das Internet ist für diese Generation das, was für mich der Personal Computer war. Und so wenig, wie ich mich in Turing und von Neumann eingearbeitet habe, so wenig mich die Schaltpläne des ENIAC, das Programmieren in Assembler oder Compilerbau interessierten, so wenig spannend finden die Jugendlichen die Geschichte des ARPA-Net, den Kontrollverlust durch TCP/IP oder die Idee des Open Web.

Genauer betrachtet ist das, was sie im Internet machen, viel radikaler. Wir haben unsere Blogs noch in die bestehende Medienordnung einzuordnen versucht. Mit Begriffen wie “Bürgerjournalismus” oder “Gegenöffentlichkeit” suchten wir Anschluss an bestehende Mediendiskurse. Die Kids jedoch interessiert das alles nicht. Sie machen das, was sie machen unter völliger Absehung vorhandener Systeme und Öffentlichkeiten. Sie schaffen neue Medienformate aus sich heraus, aus ihren Interessen und aus ihrem Leben zwischen Playstation, Schulhof und Drogerieeinkauf. Sie kennen den ängstlich rückversichernden Blick auf Relevanz und Anschlussfähigkeit gar nicht, den wir Blogger der alten Schule nie abgelegt haben.

Am Ende, wenn alle Utopien und Dystopien verwirklicht sind, bleibt nur noch die bereits veränderte Welt als neue Normalität. Überwachung und unendliche Möglichkeiten der Öffentlichkeit sind keine Dinge mehr, die man gut oder schlecht finden kann. Das Internet zu beschimpfen oder zu idealisieren macht so viel Sinn, wie über die Vor- und Nachteile von Sauerstoff zu diskutieren. Der Trick heißt Atmen.

  1. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Freiburg 2014.
  2. Business Punk Heft 5/2014: Machiavelli des 21sten Jahrhunderts.
  3. The Simpsons S07E24: Homerpalooza. (Danke an Felix Neumann für die Referenz)


Veröffentlicht unter Das Neue Spiel extern Plattformpolitik reloaded
5 Kommentare