Netzwerkmacht: Macht in Zeiten der Globalisierung

In meinem recht populären Artikel „Die Globale Klasse“ attestiere ich ebendieser eine bestimmte Form von Macht. Es ist die Macht, Standards zu setzen und die Macht, die Moral zu definieren. An dieser Analyse haben sich einige gestoßen. Gerade, weil ich die globale Klasse so breit definiere – eben nicht einfach als „die Eliten“ – scheint die Macht, die sie haben, doch recht beschränkt. Mittellose Berlinhipster wie ich – so der Vorwurf – würden sich in dieser Analyse nur selbst überhöhen. Was für eine Macht soll das überhaupt sein? Und warum sind andere davon ausgeschlossen?

Das sind alles berechtigte Fragen, denen ich mich in diesem Text stellen will. Macht ist ein komplexes Thema zu dem sehr viel kluge Dinge gesagt wurden, die ich hier nicht wiederholen will. Aber zur Sicherheit sei erwähnt, dass ich durchaus mit Max Weber, Foucault und Gramsci vertraut bin, behaupte aber, dass all diese Stimmen der Form der Macht der globalen Klasse nicht gerecht werden.

Aber David Singh Grewal wird es.1 Er hat meines Erachtens die theoretische Grundlage zur Erklärung von Macht in Zeiten der Globalisierung und des Internets geliefert und es ist ein Unding, dass er noch nicht in allen Seminaren auf dem Lehrplan steht.

Network Power

Grewal führt eine Form der Macht ein, die er Network Power nennt. Diese Netzwerkmacht ist im Grunde das, was in den Wirtschaftswissenschaften schon seit längerem als Netzwerkeffekte diskutiert wird, aber dort als externer Effekt der Märkte nie wirklich tiefgehend analysiert wurde. Vor allem nicht als eine Form von Macht.

Dabei kennen und spüren wir diese Macht alle in unserem Alltag. Wir entscheiden uns immer wieder für Netzwerk B, wenn es populärer ist, als Netzwerk A. Wir sind auf Facebook und WhatsApp, statt auf Threema und Diaspora. 2

Warum diese Macht nie als solche verstanden wurde, liegt daran, dass jeder Einzelne von uns erstmal eine (vermeintlich) freie Entscheidung trifft, wenn er oder sie einem Netzwerk beitritt, oder einen Standard adaptiert (was strukturell dasselbe ist). Da wir ja doch auch auf unseren Vorteil bedacht sind, entscheiden wir uns für das Netzwerk, das uns am nützlichsten ist. Und das ist im Zweifel immer das Netzwerk, in dem unsere Freunde und Bekannte sind.

Ich habe die Netzwerkeffekte(oder -macht) in meinen Buch mit der Gravitation verglichen. Netzwerke haben durch die Summe ihrer Teilnehmer/innen einen ähnlichen Effekt auf Außenstehende, wie eine große Masse auf andere Massen hat. Je größer die Masse, desto größer die Anziehungskraft für alle anderen.

Und deswegen ist unsere Entscheidung einen Standard zu adaptieren in etwa so frei, wie die Freiheitsgrade uns im Raum zu bewegen. Niemand zwingt uns, unser Leben am Boden zu verbringen, aber die Schwerkraft zu überwinden ist halt sau teuer. Die soziale Gravitation informiert unsere Entscheidung, sie baut ihr einen klaren Bias ein, dem wir (meistens) folgen. Das Verblüffende: Wir entscheiden nicht mehr frei im engeren Sinne und das obwohl niemand einen Zwang ausübt. Grewal insistiert darauf, dass die Netzwerkmacht im Gegensatz zu den Machtentwürfen aller anderer Denker komplett ohne Zwang auskommt. Unfreiheit ohne Zwang – das gibt es.

Bei genauerem Hinsehen, wer diese Macht über mich ausübt, stelle ich aber fest, dass es wiederum die Menschen sind, die vor mir dem populären Netzwerk beigetreten sind. Sie waren selbst in meiner Situation bevor sie es taten aber jetzt sind es ihre vergangenen Entscheidungen, die in der Summe Macht auf meine Entscheidung ausüben. Und indem ich mich jetzt entscheide, beizutreten, informiere ich wiederum die Entscheidungen anderer, Nachfolgender – übe also auch ich Macht aus.

Aggregierte vs. souveräne kollektive Entscheidungen

Wir haben es also bei der Adaption von Standards mit einem in sich verflochtenen, kollektiven Entscheidungsprozess zu tun, bei dem alle Entscheidungen miteinander auf eigentümliche Weise in Beziehung stehen. Grewal spricht deswegen auch von einer „aggregierten kollektiven Entscheidung“ und stellt sie der „souveränen kollektiven Entscheidung“ gegenüber. Letztere ist die Entscheidung, für die wir uns Verfahren erdacht und implementiert haben. Dazu gehören Wahlen und andere politische Strukturen, die Legitimation herstellen.

An dieser Stelle wurde mir so einiges klar: die kulturellen und politischen Kämpfe um die Globalisierung zum Beispiel: Wenn die Menschen das (durchaus berechtigte) Gefühl haben, von der Globalisierung entmündigt zu werden, dann hat das damit zu tun, dass aggregierte kollektive Entscheidungen globaler Standards souveräne Verfahren aushebeln. Vieles des Ungemachs über die Globalisierung ist eben nicht wirtschaftlich und umverteilungsbedingter Groll, sondern der Konflikt zwischen diesen beiden konkurrierenden Systemen.

Und das ist natürlich auch die Stelle, die diese Theorie sehr wertvoll macht für meine Arbeit an dem Plattformthema. Der sich immer deutlicher abzeichnende Konflikt von Plattformen und Staaten entspricht den Kämpfen dieser zunehmend in Konkurrenz tretenden Entscheidungs- und Legitimationsstrukturen.

Und der Knackpunkt dabei ist tatsächlich die Legitimation. Während souveräne Entscheidungsverfahren sich rekursiv legitimieren (das Entscheidungsverfahren wurde meist über eine souveräne Entscheidung legitimiert, dessen Verfahren, wiederum über eine Entscheidung legitimiert wurde … usw.) fehlt es den aggregierten Verfahren an einer – zumindest formalen – Legitimation. Dass es aber eine faktische Legitimation gibt, sieht man allein an der Tatsache, dass die Bundesregierung, selbst wenn sie wollte, die Facebooknutzung nicht pauschal verbieten könnte. Die Legitimation der aggregierten Entscheidung basiert auf der Fiktion des freien Willens des Einzelnen, der sich nun mal entschieden hat, einen Standard zu adaptieren. Würde eine souveräne Instanz die Freiheit dieser Entscheidungen in Frage stellen, müsste sie gute Gründe haben. (Die Legitimation aggregierter Entscheidungen bildet sich sozusagen in der Vetragsfreiheit ab.)

So oder so: diese beiden Modi kollektiver Entscheidung stehen sich immer häufiger Gegenüber und kommen sich in die Quere. Und das ist der unausgeprochene Kern genauso der Globalisierungs- wie auch der Internetdebatte.

Performativität und Grenzwerte

Nun ist es nicht so, dass Standards etwas neues sind. Im Gegenteil, sie sind alltäglich. Man nutzt und setzt jeden Tag Standards, bei fast allem, was man tut und zwar lange vor dem Internet oder der Globalisierung. Man darf nicht vergessen, dass auch Sprache, genau so wie alle Aspekte der Kultur nichts anderes als Sets von Standards sind. All das sind Plattformen, die Konnektivität herstellen – sie sind die Bedingungen der Möglichkeit von Interaktion. Und als solche sind sie bei jeder Benutzung von neuem in der Verhandlung.

In der philosophischen Debatte wurde diese Erkenntnis vor allem auf die Sprache bezogen als „Linguistic Turn“ diskutiert. Eine wesentliche Erkenntnis dabei ist die „Performativität“ von Sprache. Indem ich etwas sage, kommuniziere ich nicht nur das Gesagte, sondern auch einen Appell, das Gesagte als Sagbares zu adaptieren. Mit anderen Worten: ich setze Standards, indem ich spreche. Das gesprochene Wort wird zum Akt – zum Sprechakt. Diese performativen Sprechakte durchsetzen und strukturieren unsere Diskurse und sie verschieben diese ständig. Das in letzter Zeit häufig zitierte Overton-Window – also das Fenster dessen, was sanktionsfrei gesagt werden kann und das sich innerhalb des Trumpwahlkampfes weit nach rechts verschoben hat – ist ein Effekt der Sprechakte Trumps. Indem er rassistisches und sexistisches sagt und damit durchkommt, verschiebt sich das gesellschaftlich Sagbare. Und das ist bereits die erste Katastrophe der noch nicht begonnenen Trumppräsidentschaft. Auf der anderen Seite waren jahrelang Aktivist/innen für Minderheitenrechte vor allem in Social Media immer wieder bemüht, das Overtonwindow zu verkleinern – die Sprachakte dazu nennt man „Call Out Culture“.

So oder so: All diese Sprachakte sind gesetzte Standards und auch sie unterliegen Netzwerkeffekten – also der Netzwerkmacht. Sich zunehmend durchsetzende Standards erhöhen den Druck zur Anpassung auf alle anderen, sich zu ihnen zu verhalten: Sie entweder anzunehmen, oder sie umso rigoroser zu bekämpfen.

Grewal definiert drei unterschiedliche Grenzwerte von Netzwerkmacht: Der erste Damm ist gebrochen, wenn „Sichtbarkeit“ erreicht wird. Ab diesem Grenzwert wird die Existenz eines Standards allgemein wahrgenommen. Die zweite Stufe ist bereits die der „Unumgänglichkeit„. Man kann sich dem Standard noch verweigern, aber das wird zunehmend kostspielig. Kurz: man kommt an dem Standard nicht mehr vorbei, auch wenn man ihn ablehnt, man muss sich auf jeden Fall zu ihm verhalten. Die letzte Stufe ist erreicht, wenn ein Standard „universell“ wird. Der universelle Standard wird überhaupt gar nicht mehr als solcher wahrgenommen, weil er so selbstverständlich ist. Haben Sie schon mal darüber nachgedacht, warum Sie ihre Muttersprache lernen mussten? Oder warum wir alle Kleidung tragen, wenn wir aus dem Haus gehen? Eben.

Jedenfalls befinden sich die Standards, um die die Kulturkämpfe kreisen, meist irgendwo zwischen sichtbar und unumgänglich und deswegen erzeugen sie Sorgen bei Leuten, die diese Standards ablehnen, oder zumindest keinen Anlass sehen, sie zu adaptieren.

Die Ungleichheit der Wechselkosten

Ich habe den Eindruck, dass man hier vorsichtig sein muss. Auch wenn ich glaube, dass eine große Gruppe von Trump- und AfD-Wählern direkt rassistische Ansichten vertritt, glaube ich, dass die Mehrheit es nicht tut. Jedenfalls nicht direkt. Die Ablehnung politisch korrekter Standards erwächst nicht immer aus der Überzeugung heraus, dass diese Werte falsch seien. Vielmehr sehe ich oft auch eine Trotzreaktion, die sich auf die gefühlte Aufoktroyierung bildet. Der Sog der Netzwerkmacht eines aufkommenden Standards kann Ohnmachtsgefühle auslösen und dann Ablehnung hervorrufen, auch wenn der Einzelne dem Standards gegenüber eher indifferent ist. Und das hat nicht nur irrationale Ursachen.

Grewal untersucht auch den Gerechtigkeitsaspekt von Netzwerkmacht. Wenn sich ein Standard durchsetzt, den andere noch nicht adaptiert haben, liegen die Wechselkosten ausschließlich Letzteren. Die Adaption ist eine Bringschuld der Außenstehenden, während auf der anderen Seite keine Gegenleistung gegenübersteht. Zurecht wird von den Verfechtern der Political Correctness angeführt, dass es doch nicht zu viel verlangt ist, bestimmte Wörter einfach nicht zu benutzen und hier und da Minderheiten in seine Überlegungen einzubeziehen. Das stimmt, sobald man sich das angewöhnt hat, sind die Kosten überschaubar. Die Umstellung ist das eigentlich teure. Und wenn man diese Kosten nicht bereit ist zu erbringen, dann – so die Angst auf besorgter Bürgerseite – wird man gleich als Sexist und Rassist beschimpft oder mindestens als Hinterwäldlerisch. Kurz: man wird abgehängt von den gesellschaftlich dominant erscheinenden Vorstellungen des Guten und Richtigen.

Hier ist es wichtig, die Mechanismen nicht mißzuverstehen, denn wir neigen nur allzuschnell dazu, die Wirkung der Netzwerkmacht als Strafe zu deuten. Doch die Netzwerkmacht straft nicht. Im Gegensatz zur Disziplinarmacht, die noch Foucault beschrieben hat, ist ihr das Individuum egal. Wer die Standards nicht adaptiert, wird in Ruhe gelassen, darf aber nicht mitmachen. Es geht dabei ausschließlich um die Organisation von Zugang – Zugang zu Menschen, und damit zu Möglichkeiten für Karrieren, Mitsprache und Anerkennung. Die Zugangsorganisation ist im Zweifel nicht weniger mächtig als Bestrafung und Subjektivierung, funktioniert aber ganz anders. Die Disziplinarmacht will dich erziehen und wieder Eingliedern, der Netzwerkmacht bist du als Individuum egal. Du kannst nach Spanien ziehen, ohne ein Wort spanisch zu können und niemand wird dich zwingen, es zu lernen. Es wird sich dann aber eben auch niemand mit dir unterhalten. Das ist nicht bös gemeint und nicht erzieherisch. Wenn du kein spanisch kannst, bist du den meisten Spaniern halt einfach nur egal.

Anerkennung und Deutungsmonopol

Der Zugang zu sozialer Anerkennung ist bei Grewal das entscheidende Kriterium, das den Widerstand gegen die Netzwerkmacht legitimiert. Wobei es wichtig ist daran zu erinnern, dass der Kulturkampf gegen die globale Klasse ein Kulturkampf um eine verloren gegangene Hegemonie über die Anerkennungskriterien ist. Das Bürgertum war es, dass die Standards für das gute Leben definiert hatte und allen anderen, die nicht zu ihr gehörten, aufoktroyierten. Wenn das Bürgertum (weiß, heterosexuell, materialistisch, partriarchal) sich heute als unterdrückt inszeniert, darf man zurecht skeptisch sein. Wenn man das Deutungsmonopol gewöhnt ist, fühlt sich der Verlust desgleichen wie Unterdrückung an.

Doch wie kam es zu dem Verlust des Monopols? Als die Gesellschaft sich immer mehr von einer Ansammlung von lokalen Gruppencontainern zu verschalteten Netzwerken (Stichwort: Netzwerkgesellschaft3) verwandelte, konnten immer mehr Sprechakte ortsunabhängig Standards etablieren. Standards – vor allem auch kulturelle Standards – begannen sich somit zunehmend global durchzusetzen – allerdings nur bei denen, die sich bereits global orientierten. Das sind die, die 1. die neuen Technologien als erstes beherrschten, 2. die das kulturelle Kapital besaßen, um für globale Standards überhaupt anschlussfähig zu sein und die 3. genau aus den ersten beiden Gründen auch diejenigen waren, die als erste wiederum die Schalthebel der neuen Medientechnologien bedienten, also vom Empfänger zum Sender wurden.4

Diese Standards konnten – befreit von den engen Grenzen der vordigitalen Kommunikation – eine ungeahnte Traktion und ein Momentum akkumulieren, dass ihnen auch in den nationalen Diskursen eine enorme Netzwerkmacht verlieh. (In meinem Buch spreche ich von einer Entfesselung der Netzwerkeffekte durch die sinkenden Kommunikationskosten.) Dieser Netzwerkmacht kann man sich auch auf nationaler Ebene nur schwer entziehen, sie droht den Grenzwert der Unumgänglichkeit zu erreichen. Für die aus dem globalen Diskurs Ausgeschlossenen wirkt es wie eine plötzliche „Umwertung aller Werte“. Eine Trumpwählerin erklärte im Interview: „Alles, was zu meiner Jungend falsch war, ist heute richtig.“

Diese Umwertung kann man gut finden, wenn man die Standards gut findet, wenn man sie als gesellschaftlichen Fortschritt versteht (und das tue ich). Das kann man auch schrecklich finden, wenn man die Standards ablehnt (Wie es Rassisten und Sexisten zum Beispiel tun). Und das kann man zumindest als eine Kolonialisierung der eigenen Lebenswelt empfinden, wenn man den Standards indifferent gegenübersteht und keinen Anlass sieht, sie zu adaptieren, außer den, dass einem sonst die soziale Anerkennung versagt wird. Aus den letzten beiden Gruppen rekrutiert sich der Widerstand, den wir heute überall sehen.

Soweit zur Analyse. Doch was tun?

Ganz ehrlich: ich weiß es auch nicht. Mir scheint, die Lösung mehr miteinander zu reden und aufeinander zuzugehen, wenig zielführend. Natürlich kann man die Standards aufweichen, Kompromisse suchen, aber das ginge nur auf Kosten der betroffenen Minderheiten und würde den Grundkonflikt ja doch nicht kitten. Zudem ist hier noch anzufügen, dass die Beschreibung nicht der Lage letzter Stand ist.

Denn jetzt kommt der ironische Plottwist: Der internationale Abwehrkampf gegen die globalen Standards der globalen Klasse globalisiert sich seinerseits. Im Grunde ist es bezeichnend, dass diese Bewegungen genau ab ab dem Zeitpunkt an Fahrt gewannen, als die weniger fortschrittsaffinen Milieus das Internet für sich entdeckten (so ab 2011/12). Und nun beeinflussen sich die Bewegungen von Le Pen, AfD bis Trump gegenseitig, das heißt, sie adaptieren gegenseitig ihre Standards auf globalem Level. Das wird auf der einen Seite zu einer Homogenisierung dieser Bewegungen führen, also ironischer Weise zum Aufkeimen einer zweiten globalen Klasse. Die globale antiglobale Klasse, sozusagen. Das wird andererseits aber auch die Gräben weiter auseinandertreiben und die Fronten verhärten. Statt nur die Standards der globalen Klasse abzulehnen etablieren sie Gegenstandards, die meist gezielt rassistisch und sexistisch oder gleich faschistisch sind. Das Alt-Right-Movement begnügt sich schon lange nicht mehr mit Protest, sondern hat längst auf Angriff umgeschaltet.

Was uns zu einen zweiten ironischen Plottwist führt: Ausgerechnet diejenigen, die zurück zum Nationalen wollen, werden durch ihre Totalverweigerung das Nationale Projekt beerdigen. Nicht nur delegitimieren sie in ihren Diskursen alle Institutionen dieser Nationalstaatlichkeit (zum Beispiel Demokratie, freie Presse und Parteien), sondern sie verunmöglichen mit ihrer Verweigerungshaltung jegliche Form nationaler Einigung. Sie institutionalisieren die Spaltung und sie vertiefen die Gräben.

Das ist auch eine gute Nachricht, denn es bedeutet, dass sie nicht gewinnen können. Das ist auch eine schlechte Nachricht, denn es bedeutet, dass ein kein Zurück geben wird. Es wird klar, dass wir den Riss nicht mehr heilen werden und dass wir niemals zu dem früheren Konzept von Gesellschaft – als eine durch Geographie eingehegte und kulturell weitgehend homogene Gemeinschaft – zurückkehren werden. Die nächsten Gesellschaften werden sich entlang der Risse, statt entlang von Staatsgrenzen formieren müssen.

  1. Grewal, David Singh: Networkpower – The Social Dynamics of Globalization
  2. Jaja, ist gut, ich weiß, dass einige meiner Leser hier empört aufschreien, aber versetzt euch bitte für diesen Text kurz mal in normale Leute hinein.
  3. Manuel Castells, The Information Age: Economy, Society, and Culture
  4. Felix Stalder zeichnet in „Kultur der Digitalität“ die Verbreitung drei dieser globalen Standards nach: die Entstehung der Wissensökonomie, das Aufbrechen der Heteronormativität und die Diskurse zum Postkolonialismus. Stalder, Felix: Kultur der Digitalität


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Weltkontrollverlust
Verschlagwortet mit
7 Kommentare

Das Ende der Konsumentenrente oder Wert und Preis Teil III

Big Data verändert den Kapitalismus gerade grundlegend und zwar auf eine Weise, von der noch viel zu wenig gesprochen wird. Big Data macht sich auf, die Konsumentenrente zu bedrohen und das wird die gesamte Ökonomie völlig umkrempeln und zwar zu unser aller Nachteil, wenn wir nicht aufpassen. Aber bevor wir dazu kommen, erstmal eine kleine Rückblende.

Was bisher geschah

Dies ist gewissermaßen ein weiterer, ungeplanter Anschlusspost an meine Marxkritik1. Deswegen sei die noch mal zusammengefasst: Ich kritisiere die Arbeitswerttheorie von Marx, die besagt, dass der Wert einer Ware 1. sich aus der abstrakt geleisteten Arbeit, die zu ihrer Herstellung notwendig ist, herleitet und dass sich 2. dieser Wert in dem Preis der Ware ausdrückt. Wir haben hier also beides: eine Werttheorie und eine Preistheorie. Beide finde ich nicht überzeugend und ich habe dargelegt, warum.

Ich diskutiere in dem Zusammenhang auch die konkurrierende, „bürgerliche“ Preis/Wert-Theorie namens Grenznutzentheorie, die besagt, dass der Wert nicht von der Anbieterseite, sondern von der Nachfrageseite bestimmt wird. Zumindest als Preistheorie finde ich sie ebenfalls nicht überzeugend.

Mein Fazit: Was den Wert anbelangt, lehne ich das Konzept generell ab, da es keinerlei Entsprechung in der realen Welt und keine Aussagekraft über irgendwas hat. Was den Preis angeht, habe ich im Zuge eines Gedankens über den Plattformkapitalismus eine eigene Preistheorie aufgeschrieben2, bei der ich allerdings etwas geschummelt habe, denn sie ist gar keine ökonomische, sondern eine Machttheorie und somit kaum geeignet, ökonomische Aussagen zu treffen. Eine funktionierende ökonomische Preistheorie – so führe ich in einer Fußnote aus – hielt ich damals für nicht leistbar.

Aber vielleicht gibt es ja einen Wert und vielleicht bestimmt er ja, was wir bereit sind, für eine Ware zu bezahlen, aber so lange das nur ein individuelles Konstrukt hinter den Schädeldecken der Menschen ist, bleibt das Hantieren damit ein ans metaphysische grenzender Hokuspokus.

Der Blick in die Köpfe per Big Data

Und hier wäre der Blogpost am Ende, wäre nicht die Entwicklung virulent, dass man heute ja doch in die Köpfe der Leute gucken kann. Genau das haben Forscher nun getan, anhand der vielen Daten, die Uber gesammelt hat. Uber nämlich berechnet seine Preise anhand eines internen, algorithmischen Marktmechanismus von Angebot und Nachfrage. Ruft man ein Uber zu einer Zeit, in der viele Leute ein Uber bestellen, aber nur wenige unterwegs sind, ist der Preis höher, als wenn man ein Uber bestellt, wenn wenig Nachfrage und ein hohes Angebot herrscht. Dieses so genannte „Surge Pricing“ dient Uber zur Auslastungsoptimierung. Zumindest als zentralisierter Algorithmus scheint der Markt also ganz prima zu funktionieren.

Dieser Algorithmus hat nun aber zur Folge, dass es keine Fixpreise für die Ware „Von Ort X zu Ort Y befördert werden“ gibt. Und das macht die Daten wahnsinnig interessant für Ökonomen. Steven Levitt hat sich zusammen mit einem Team von anderen Ökonomen an die Uberdaten gemacht und darin Vergleichsgruppen ermittelt, also Leute, die gewisse homogene Eigenschaften aufweisen, und geschaut, wie sie auf die unterschiedlichen angezeigten Preise für vergleichbare Strecken reagieren und welche Kriterien dabei eine Rolle spielen. Kaufen sie, oder kaufen sie nicht? Ab welchem Preis sind unterschiedliche Menschen in unterschiedlichen Situationen nicht mehr bereit zu zahlen? Wann überschreitet der Preis den Grenznutzen? In den Daten von Uber wurde der Wert in den Köpfen transparent.3

Levitt sagt, es sei das erste Mal, dass Ökonomen die so genannte Kosumentenrente nicht nur nachgewiesen, sondern genau beziffert hätten. Aber zunächst: Was ist die Konsumentenrente? Es ist genau die Differenz zwischen dem, was ich als Konsument bereit bin für ein Produkt zu bezahlen (Reservationspreis – also das, was die Grenznutzentheorie versucht zum Teil zu erklären) und dem, was ich tatsächlich bezahle. Unter anderem darauf bezieht sich die Kosumerwohlfahrt, also im Grunde der ganze Nutzen, den wir Kosmumentendackel dem Kapitalismus entlocken. Und selbst wenn wir immer denken, wir hätten ja nichts davon, haben die Ökonomen ausgerechnet, dass wir doch was davon haben: Allein beim Benutzen von Uber haben die amerikanischen Konsumenten im Jahr 2015 2,9 Milliarden Dollar eingestrichen. Also implizit, indem sie das Geld nicht gezahlt haben, obwohl sie würden.4

Ja, das ist wahnsinnig spannend und vielleicht bekommen die ja auch mal irgendwann den Nobelpreis (also das Pseudodings für Wirtschaft) dafür, aber mich interessiert etwas ganz anderes:

Denn mit der Kosumentenrente ist es ein bisschen so wie mit Captchas. Wenn sie berechenbar ist, dann ist sie bedroht. Anders: Wenn die Ökonomen berechnen können, wie viel jemand bereit ist, für eine Uberfahrt auszugeben, dann kann Uber es auch. Was hindert Uber also daran, einfach genau diesen Betrag als Preis darzureichen und die Konsumentenrente ganz für sich selbst einzustreichen? Was Levitt und seine Kollegen Uber gezeigt haben, ist, dass sie sich 2015 2,9 Milliarden Dollar durch die Lappen haben gehen lassen.

Wenn man das zu ende denkt, wäre der Schritt, mithilfe von Big Data der Konsumentenrente hinterherzusteigen ein wahnsinniger Paradigmenwechsel im Kapitalismus. In Zeiten von Big Data und Profilbildung von alles und jedem ist es ein realistisches Szenario, dass jeder immer genau den Betrag abgerechnet bekommt, den er oder sie bereit ist zu zahlen. Es gibt bereits viele Studien, die zeigen, dass Onlineshops mit Preisdiskriminierung arbeiten.5 Diese Algorithmen sind allerdings noch recht trivial. Da geht es darum, Leuten, die zum ersten Mal die Seite besuchen, Lockangebote zu machen, oder etwas mehr aufzuschlagen, wenn die Menschen mit Applehardware unterwegs sind. Aber wenn der Reservationspreis eines Jeden für jedes Produkt in jeder Situation berechenbar wird, dann sind ganz andere Preisspannen möglich.

Und diese Daten werden gesammelt. Eine Freundin buchte letztens einen Airberlinflug. Die Website machte sie darauf aufmerksam, dass der Platz neben ihr noch frei ist und fragte, ob sie ihn nicht aus Bequemlichkeitsgründen dazubuchen möchte. Dass der Kapitalismus es versteht, aus allem eine Ware zu machen – sogar aus leerbleibenden Sitzplätzen – ist ansich nichts Neues. Das wirklich Spannende ist, dass sie aufgefordert wurde, selbst eine Preisrange anzugeben, die sie dafür zu bezahlen bereit wäre. Mit Hilfe dieser Angabe kann die Preiselastizität der einzelnen Kund/innen ausgemessen werden, um dann speziell zugeschneiderte Preise anzeigt werden.
Meeraltfrau_2016-Okt.-09

Ich denke, wir werden solche Dinge viel öfter sehen. Preisvariationen werden in der ersten Phase wahrscheinlich gar keine echten Diskriminierungen sein, sondern randomisierte Tests. Wenn man vielleicht irgendwann den Schlüssel findet, über den man verschiedene Produktgruppen querreferenzieren kann, geht alles ganz schnell. Und nein, das muss nicht zu 100% funktionieren. Es ist absolut denkbar, dass ein Algorithmus, der 50% der Leute einen Preis vorschlägt, bei dem sie sich entrüstet abwenden, aber bei den anderen 50% die Kosumentenrente fast vollständig einstreicht, weitaus mehr Gewinn generiert als ein normaler Festpreis.

Was hilft dagegen?

Die üblichen Verdächtigen werden wieder ankommen und das Problem mit Datenschutz erschlagen wollen. Profilbildung verbieten! Gespeicherte Daten löschen! Dass das nicht hilft, habe ich an so vielen Stellen bereits ausgeführt, deswegen nur kurz: Was viele nicht verstehen, ist, dass es bei diesen Dingen nie um sie selber geht. Das Individuum und dessen Daten sind den Anbietern egal. Und selbst, wenn sie kaum Daten über dich haben, werden sie dich über das Wenige, was sie haben über Leute, die dir in gewissen Eigenschaften ähneln, querreferenzieren. Und das Schlimmste, was ihnen dabei passieren kann ist, dass sie deinen Reservationspreis falsch berechnen und dir einen Preis anzeigen, den du nicht bezahlen wirst. Und das ist im Zweifelsfall doofer für dich als für sie. Mit anderen Worten: Dass sie weniger Daten über Dich haben, wird nicht dazu führen, dass du fairer behandelt wirst – eher im Gegenteil.

Gut. Was dann?

Mehr Daten, mehr Algorithmen. Ja, so absurd es klingt. Um gegen die Preisdiskriminierung angehen zu können, muss man erstmal wissen, dass es sie überhaupt gibt und dass man davon gerade betroffen ist. Als Einzelner vor dem eigenen Bildschirm ist das eben nicht ersichtlich. Die unterschiedlichen Preise müssen also gesammelt und zentral verglichen werden. Denkbar ist ein Browserplugin, das die abgerufenen Preise automatisch an eine Datenbank sendet und mit den Einsendungen anderer Pluginnutzer/innen vergleicht. Das Plugin schlägt dann Alarm und warnt, wenn man im Begriff ist eine Transaktion zu vollziehen, die einem einen Gutteil der Konsumentenrente entzieht. Wie ich bereits anderswo formulierte: Es braucht mehr Algorithmen, die auf Seiten der Konsumenten agieren.6

Das ist aber natürlich erst der Anfang. Denn anschließend muss und wird es eine Debatte darüber geben, was überhaupt ein fairer Preis ist. Denn wie gesagt: Es ist nicht so, dass es vor Big Data nur faire Preise gab. Oder dass es überhaupt nur die Definition eines fairen Preises gab. Preise sind – innerhalb bestimmter Grenzen – arbiträr. In ganz bestimmten Idealbedingungen orientieren sich Preise zum Beispiel an Angebot und Nachfrage oder an den Grenzkosten oder, oder. Aber sollten sie das? Die Frage des Preises wird eine politische werden.

Vielleicht wäre das die Chance mal einen gesellschaftlichen Konsens darüber zu erreichen, wie sich ein fairer Preis errechnet. Davon kann immer noch abgewichen werden, aus welchen Gründen auch immer. Aber ich glaube, Konsument/innen brauchen einen Referenzpunkt, an dem sie sich orientieren können. Und der wird im Mittelpunkt einer politischen Auseinandersetzung stehen müssen.

  1. Ich lehne Marx‘ Arbeitswerttheorie ab und hier ist warum. http://mspr0.de/?p=4605
  2. Die Gewalt der Plattform und der Preis des Postkapitalismus http://www.ctrl-verlust.net/die-gewalt-der-plattform-und-der-preis-des-postkapitalismus/
  3. Using Big Data Estimating Consumer Surplus: The Case of Uber https://drive.google.com/file/d/0B3y6Efb4V73TdG9pV1F0VGpsM1E/view
  4. Hier die sehr hörenswerte Freakonomicsfolge zu dem Projekt. http://freakonomics.com/podcast/uber-economists-dream/
  5. Schnelle Preisanpassung im Onlinehandel https://www.heise.de/newsticker/meldung/Studie-Schnelle-Preisanpassungen-im-Online-Handel-immer-wichtiger-3230054.html
  6. Wovon wir dringen mehr brauchen: alorithmisierter Verbraucherschutz: https://www.piqd.de/politik-und-netz/wovon-wir-dringend-mehr-brauchen-algorithmisierter-verbraucherschutz?r=channel


Veröffentlicht unter Algorithmenkritik Das Neue Spiel Kontrollverlust Plattformpolitik
Hinterlasse einen Kommentar

Die Gewalt der Plattform und der Preis des Postkapitalismus

Sascha Lobo hat vor einiger Zeit das Wort des Plattformkapitalismus geprägt. 1 Ich war damals sehr dankbar dafür, weil ich der Meinung war, dass es die Diskussion um die sogenannte „Sharing Economy“ wieder auf den Boden der Tatsachen zurückholt. Plattformen sind kapitalistische, wenn nicht sogar hyperkapitalistische Firmen, so war ich damals der Meinung, die auch in meinem Buch Ausdruck findet.2

Seit ich Paul Masons Buch Postkapitalismus gelesen habe 3, bin ich mir da aber nicht mehr so sicher. Nicht, dass ich Mason in allem zustimmen möchte, aber ich glaube, er hat einen Punkt, der nicht ganz wegzudiskutieren ist. Ich will mich hier vom Reflex befreien „Da fließt Geld, also ist das Kapitalistisch“ zu rufen und mich stattdessen in eine tiefere Analyse der Ökonomie der Plattform begeben, um noch mal grundsätzlicher nach dem postkapitalistischen Moment in der Plattformökonomie zu suchen. Vorsichtshalber sage ich es vorweg: das Aufspüren eines postkapitalistischen Moments ist nicht die Behauptung, dass heutige Plattformanbieter bereits jenseits des Kapitalismus operieren oder keine kapitalistischen Unternehmen seien. Es bedeute vielmehr, dass sie grundlegende Mechaniken ins Werk setzen, die nicht mehr kapitalistisch sind, die vielleicht sogar dem Kapitalismus als System und Funktionsweise gegenüberstehen. Und im weitestest aus dem Fenster gelehnten Fall: dass sie ein eigenes System etablieren, das im Stande wäre, den Kapitalismus großflächig zu ersetzen.

Masons Postkapitalismus in a Nutshell

Masons These geht ungefähr wie folgt: Die digitalen Technologien seien nicht mehr wertschöpfend im klassisch ökonomischen Sinn. Zumindest haben wir keine sinnvollen Metriken, um den Wert digitaler Wertschöpfung zu messen. Die Wikipedia und Linux fügen dem Bruttoinlandsprodukt jedenfalls weniger hinzu, als sie ihm abknapsen, indem sie zum Beispiel Unternehmen pleite gehen lassen, die die selben Produkte (Betriebsysteme, Enzyklopädien) für Geld angeboten haben. Überhaupt entwickele sich mittlerweile ja alles in Richtung Informationstechnologie – auch Flugzeuge seien heute zum Großen teil Informationsprodukte – und damit unterwirft sich nach und nach alles dem Gesetz des Informationsgütermarktes. Und dieses Gesetz lautet: alles ist grenzkostenfrei kopier- und distribuierbar. Und damit – so Mason – sei dieses Gesetz selbst schon kein kapitalistisches mehr, denn einen Kapitalismus ohne Knappheit könne es nicht geben. Beobachten lässt sich diese Inkompatibilität an der wesentlichsten Mechanik des Kapitalismus: die Preismechanik von Angebot und Nachfrage.

Mason macht ein Beispiel: iTunes offeriert Preise, diese seien aber schon nicht mehr von dem Preismechanismus bestimmt, sondern rein willkürlich. In einer Welt, in der Songs ohne Kosten reproduzierbar sind, kollabiere der natürliche Preis des Gutes auf 0 Euro.4

Aber: an dieser Stelle Frage ich mich: warum dann also nimmt iTunes 99 Cent pro Song und nicht vielmehr nichts? Mason macht es sich hier leicht. Seiner Meinung nach sind Plattformen wie iTunes temporäre Übergangsformen, quasi das letzte Aufbäumen des Kapitalismus gegen sein bevorstehendes Ende. Der Trick ist folgender: iTunes, indem es sich einen Monopolmarkt aufgebaut habe, könne dadurch den Preis frei bestimmen. iTunes – so könnte man sagen – agiert am System vorbei, es trickst es aus. Es findet einen Preis am Kapitalismus vorbei, einen Preis, der völlig beliebig sei.

Ich finde hingegen, es lohnt sich da etwas genauer hinzuschauen.

Filesharing als Staatskrise

Ich habe in meinem Buch und einigen Texten ebenfalls iTunes gerne als Beispiel genommen.5 iTunes, so könnte man sagen, ist einer der ersten Überlebenden des Kontrollverlusts, weswegen es spannend ist, zu schauen, welche Strategien dort entwickelt wurden. iTunes – indem es den Musikmarkt aus seinen alt hergebrachten Strukturen in sein Plattformmodell überführte – hat die Musikindustrie gewisser maßen gerettet. Und kolonialisiert.

Geschehen konnte das nur, weil die bestehenden Strukturen unter den digitalen Bedingungen versagten. Vertriebstrukturen – vom Presswerk bis zum Plattenladem – wurden durch aufkommende Dienste wie Napster und später Bittorrent gebypasst, so könnte man sagen. Aber waren es wirklich nur die privatwirtschaftlichen Institutionen und Unternehmen, die hier versagten? Ist es nicht etwas grundsätzlicheres, was hier versagte?

Natürlich konnte und wollte die Musikindustrie diese Bedrohung nicht auf sich sitzen lassen und fand einen alten Verbündeten: den Staat. Mithilfe von rechtlichen Schritten schaffte es die Industrie Napster den Gar auszumachen. Sie schaffte es aber nicht, das Filesharing ansich aus dem Verkehr zu ziehen. Die staatliche Gewalt ermöglichte ebenfalls institutionell organisierte Firmen wie Napster auszuschalten, nicht aber so dezentrale Protokolle wie Bittorrent. Filesharing blieb ein Problem, dem man – obwohl es klar illegal war – mit rechtlichen Mitteln nicht herr wurde.

Was hier also versagte, waren weniger die klassischen Vertriebsstrukturen der Musikbranche. Was eigentlich versagte, war der Staat. Obwohl der Staat der Musikindustrie ihr (geistiges) Eigentum garantierte, konnte er diesem Anspruch mit all seiner Gewalt nicht gerecht werden. Und hier wird es erst wirklich interessant. Denn was immer wieder und wieder übersehen wird, ist die Tatsache, wie sehr doch all die Kapitalistische Ordnung vom Staat und dessen Durchsetzungsgewalt abhängig ist. Hier, in diesem Versagen nun, wird es deutlich.

Kapitalismus als staatliche Eigentumsordnung

Was ist der Kapitalismus? Die bisher überzeugendste Antwort, die ich auf diese Frage gefunden habe, ist die von Otto Steiger und Gunnar Heinsohn in „Eigentum, Zins, Geld“. 6

Die klassische und neoklassische und die Keynesianische Ökonomie definieren den Kapitalismus vom Markt (oder ursprünglicher: vom Tausch) her. Sogar der Marxismus, der ihn von den Produktionsverhältnissen und der Lohnarbeit her definiert, setzt den Tausch als Kategorie einfach voraus. 7

Steiger und Heinsohn widersprechen den gängigen Theorien. Der Kapitalismus, sagen sie, definiert sich über die Differenz von Eigentum und Besitz. Der Eigentumsbegriff wurde von der Ökonomie bislang nicht genügend problematisiert und verstanden. Das liegt daran, dass Eigentum – wenn man ihn in Differenz zum Besitz betrachtet – gar kein ökonomischer Begriff ist, sondern ein rechtlicher. Eigentum wird in der Ökonomie immer schon quasinatürlich vorausgesetzt, dabei ist es eine durch und durch menschengemachte Konstruktion.

Diese Konstruktion wird ersichtlich, wenn man die Differenz von Eigentum und Besitz genauer besieht. Während Besitz die aktuelle Herrschaft über eine Sache anzeigt, ist Eigentum ein reiner Rechtstitel. Als Eigentümer brauche ich die Herrschaft über die Sache nicht ständig ausüben. Ich kann mein Eigentum anderen zugänglich machen, ich kann es in den Besitz von anderer geben, ohne, dass ich mein Eigentum daran verliere. Der Grund, warum ich den Besitz an meinem Eigentum nicht ständig ausüben muss, ist der Staat.

Eigentum kann es nur dort geben, wo es ein ausgeprägtes Staatswesen gibt, das mit entsprechenden Eigntumsgesetzen ausgestattet ist und über die Gewalt verfügt, Eigentumsrechte durchzusetzen.8

Der Kapitalismus ist ein System, dass über die zentralistische Gewalt des Staates überhaupt ermöglicht wird. Er steht und fällt mit der Fähigkeit des Staates Eigentumsrechte durchzusetzen, das heißt dem/der Eigentümer/in die Möglichkeit zu geben qua Staatsgewalt die Verfügungsgewalt über eine Sache auszuüben.

Das strukturelle Versagen des Staates im Falle der Durchsetzung der Eigentumssrechte der Musikindustrie ist also mehr als nur die Disruption einer Branche. Im Kern ist es bereits eine sich ankündigende Staatskrise – und somit – da hat Paul Mason recht – eine Krise des Kapitalismus.

Und mitten in dieser Krise des Kapitalismus platzt iTunes herein und setzte den Preis für einen Song auf 99 Cent. Wie kann das sein?

Um diese Frage zu beantworten müssen wir uns mit dem entstehen von Preisen beschäftigen.

Die Gewalttheorie des Preises

Quasi als Vorarbeit zu diesem Text beschäftigte ich mich mit der Marx’schen Arbeitswerttheorie, sowie am Rande mit der Grenznutzentheorie der klassischen Schule.9 Beide gelten als rivalisierende Theorien des Preises. Da ich beide Theorien schlecht finde und zudem Mason meiner Meinung richtig gezeigt hat, dass die Informationswirtschaft dem kapitalistischen Preismechanismus einen Strich durch die Rechnung macht, kündigte ich am Ende des Textes großmäulig an, eine Theorie des Preises zu entwerfen, die besser und universeller ist, als beide vorliegenden Theorien. Eine Theorie die nicht nur für den Kapitalismus gilt, sondern auch vorher und nachher Gültigkeit beansprucht.

Die Zeit ist gekommen. Hier ist sie. Meine universelle Theorie des Preises:

Der Preis einer Sache wird von demjenigen festgelegt der Verfügungsgewalt über die Sache hat. 10

Zugegeben, die Theorie ist recht … übersichtlich. Auf den ersten Blick mag man sie banal nennen. Aber im folgenden will ich zeigen, dass sie durchaus in der Lage ist, einige Sachverhalte, die vorher im Nebel verblieben, aufzuklären. 11

Die Theorie ist eine direkte Ableitung aus dem Paradigma, das von Heinsohn und Steiger vorgegeben wurde. Sie fragt nicht nach Nutzen oder Wert. Ihr Ausgangspunkt ist die Gewalt. Wenn im Kapitalismus, derjenige den Preis definiert, der Eigentümer eine Sache ist, liegt es Nahe im Umkehrschluss zu fragen, ob nicht immer derjenige den Preis einer Sache festlegt, der die Verfügungsgewalt darüber hat. Denn wer einen Preis festsetzen will muss die Gewalt zur Verfügung haben, die Bezahlung auch durchzusetzen, bzw. um den anderen daran hindern, sich die Sache mit Gewalt anzueignen.

Im Feudalismus war es die Gewalt des Besitzers selbst. Die Gewalt konnte unterschiedliche Formen haben. Sei es die rohe Gewalt von Armeen und Waffen, ein Bündnis mit anderen Herrschern oder die Etablierung von Status und Respekt, oder gar Legitimationsstrukturen durch Erzählung/Ideologie. Wenn jemand allerdings die Sache streitig machte, gab es keine externe Instanz, auf die sich der Besitzer berufen konnte.

Im Kapitalismus wird die Verfügungsgewalt im Rechtstitel des Eigentums abstrahiert und an den Staat geoutsourced. Heinsohn und Steiger insistieren zum Beispiel darauf, dass Eigentum bedeutet, dass es beliehen und verpfändet werden kann. Es bedeutet eben auch, dass man als Eigentümer in der Position ist, den Preis dafür festzusetzen. Damit wird ein Mechanismus in Gang gesetzt, der sich über die Jahrhunderte zu allem Formen, Farben und Undurchsichtigkeiten des heutigen Kapitalismus mit seinen verwobenen Finanzstrukturen geführt hat. Grundlage all dessen bleibt der Staat und seine Gewalt.

Und schließlich erklärt die Theorie auch iTunes. Aber dafür müssen wir etwas ausholen.

Der iTunespakt

Als Steve Jobs 2002 auf die Musiklabels zukam, standen sie mit dem Rücken zur Wand. Er zeigte ihnen den iTunes Music Store und verhandelte ein Label nach dem anderen in die Kooperation.

Die Musikindustrie hat mitgemacht. Mehr oder weniger freiwillig, denn die Bedingungen waren ein mittelschwerer Paradigmenwechsel. Jobs wollte die Alben entbundlen, das heißt, die Songs einzeln verkaufbar machen. Außerdem setzte er einen Einheitspreis durch: die 99 Cent. Die Musikmanager verhandelten hart, am Ende aber fügten sie sich dem Applediktat. 12

„Der Preis wird von demjenigen festgelegt, der Verfügungsgewalt über die Sache hat.“ Für die Labels war der Kapitalismus vorbei, seit der Staat unfähig war, ihre Eigentumsrechte durchzusetzen. Jobs bot ihnen eine Infrastruktur an, mit der sie wieder Geld verdienen konnten, diktierte ihnen aber, wie sie Geld verdienen konnten. Steve Jobs war derjenige, der die Verfügungsgewalt über das Eigentum der Musiklabels hatte, weil er die Infrastruktur kontrollierte.

Macht hat, wer die Plattform kontrolliert, lautet die Regel 5 des Neuen Spiels in meinem Buch. Hier sieht man die neue Macht am Werk.

Mason sieht hier noch den Kapitalismus am Werk, sein letztes Aufbäumen. Er sieht nicht, dass sich bereits hier ein System bahn gebrochen hat, dass schon nicht mehr kapitalistisch ist, das man bereits postkapitalistisch nennen kann.

Vielleicht hat er auch recht damit. Dass die Plattformanbietern überhaupt einen Anteil an ihren Einnahmen zugestehen, liegt daran, dass sie das System des Kapitalismus noch anerkennen. Die Plattformanbieter sind selbst noch kapitalistische Institutionen und als solche vom Staat belangbar. Dass sie aber Geld für digitale Güter nehmen können, wird schon nicht mehr vom Staat bewerkstelligt, sondern durch ihre ganz eigene, spezifische Gewalt.13

Es lohnt sich also diese spezifische Gewalt der Plattform in den Blick zu nehmen.

Die Gewalt der Plattform

Die Gewalt der Plattform besteht in ihrem Nutzen und ihrer Fähigkeit, Leute von diesem Nutzen ein- und auszuschließen. Innerhalb ihrer Grenzen macht sie ihre eigenen Regeln, die in Code gegossen sind. Code is Law.14 Diese Regeln können sehr detailliert bestimmte Modi der Nutzung erlauben oder durch schlichtes verweigern des Dienstes untersagen. Die Plattform hat keine Macht über den/die Nutzer/in, die sie ihr/ihm nicht zuvor gegeben hat. Die Plattform gibt, um wieder nehmen zu können. Darin besteht ihre Gewalt, das ist ihre Macht.

Das Monopol, wie Mason es beschwört, trägt zum Gelingen bei, ist aber weder hinreichend noch notwendig für die Gewalt der Plattform. Schon Marktführerschaft setzt durch die überlegenen Netzwerkeffekte die nötige Nutzensschwere frei.15

Die Macht der Netzwerkeffekte ist die entscheidende Zutat. Das wurde so oft wiederholt, aber ich sage es noch mal: Der Nutzen eines Netzwerkes steigt mit jedem/r hinzukommenden Teilnehmer/in. Das gilt aber eben nicht nur für Personen. Jeder Musiktitel auf iTunes (oder Spotify) trägt zum Netzwerkeffekt bei.

Plattformen entstehen immer nach folgendem Muster:

1. Baue interaktive Tools, die ein persönliches und/oder gesellschaftliches Problem lösen und dadurch Nutzen generieren. (Generiere – wenn möglich – viele unterschiedliche Nutzen.)
2. Wachse, bis Du relevante Netzwerkeffekte erzielst, die weiteren Nutzen generieren.
3. Behalte die Kontrolle über en Zugang zum Nutzen, also die Fähigkeit, ihn jederzeit wieder einzuschränken oder ganz zu entziehen.
4. Verknappe den Nutzen und nehme Geld für den Zugang zu ihm.

Dieses Prinzip findet sich in allen Plattformgeschäftsmodellen wieder. Sie unterscheiden sich nur darin, welcher Nutzen für wen verknappt wird. Meistens ist es die Aufmerksamkeit der Nutzer. (Google/Facebook/Twitter). Manchmal ist sind es aber die Informationsgüter selbst (iTunes/Netflix/Apple Appstore). In einigen Fällen ist es auch der Zugang zur Plattform selbst, oder zu gewissen Spezialdiensten oder Dienstleistungen. (Xing, Github, Uber). Besonders umstrittene Beispiele für genau diese Vorgehensweise sind Auflösung der Netzneutralität durch die Internetprovider, wie die Verknappung von Werbeplätzen in Browsern durch AdBlockPlus. Aber auch sie operieren nach derselben Logik.16

Die neue Güterordung

Wir müssen wieder ganz einfache Fragen stellen. Grundlegende Fragen. Was ist ein Gut? Und muss ein Gut jemandem gehören?

Die Gewalt der Plattform ist eine Gewalt, die auch unter den Voraussetzungen des informationellen Kontrollverlusts noch wirkt, weswegen Informationsgüter ihr erster, quasi natürliche Anwendungsfall sind. Informationsgüter sind in der Ordnung des Kapitalismus nichts neues, auch wenn sie sich doch sehr von physischen Unterscheiden, haben sie Eigentümer, können überhaupt Eigentum sein.

Bei Social Media Diensten läuft das schon anders. Sie hantieren mit Daten, Text, Bilder, Videos und natürlich den Verhaltens- und Stammdaten der Nutzer/innen, für die die Eigentumsverhältnisse schwerer zu klären sind. Gehören Facebook die Daten seiner Nutzer/innen, oder gehören sie den Nutzer/innen? Wenige der Postings dürften klassischen Bewertungen nach die Schwelle zum geistigen Eigentum überschreiten. Natürlich sieht das Gesetz gewisse Rechte für persönliche Daten vor, aber einen Eigentumsbegriff gibt es hier nicht. Mit gutem Grund. Wem gehört ein Like? Dem, der liked, demjenigen, der das gelikte Posting verfasst hat, Facebook? Oder was ist mit Aufmerksamkeit, der eigentlichen Geldquelle vieler Plattformen. Wem gehört Aufmerksamkeit? Dem, den man sie „schenkt“? Dem, der sie erzeugt? Oder dem, der sie aufbringt?

Die Antwort ist: es ist egal. Eigentum ist ein Konzept, das innerhalb von Plattformen obsolet ist, denn die Zugangsregulierung wird einfach direkter betrieben. Jurist/innen werden sich wahrscheinlich dennoch weiter darüber streiten, aber Auswirkungen dieser Streits dürften keinen normativen Effekt haben.

In meinem Buch hatte ich die verschiedenen Güterarten hinsichtlich des Plattformmodell bereits durchdekliniert. Plattformen versuchen Öffentliche Güter (nichtrivalisierende, nicht zugangsbeschränkte Güter) in Clubgüter (nichtrivalisierende aber zugangsbeschränkte Güter) zu verwandeln, indem sie Kontrolle über den Zugang erlangen 17. Dass diese nichtrivalisierenden, zugangsbeschränkten Güter wiederum keinen Eigentümer brauchen ist aber das eigentlich Neue und postkapitalistische Moment des Plattformmodells.

An dieser Stelle könnte man auf die Idee kommen, dass das Plattformmodell und damit eine Postkapitalistische Ordnung nur ein Sturm im immateriellen Wasserglas ist. Die klassische Ökonomie der Dinge und Gegenstände sei davon gar nicht betroffen.

Das ist das ist bereits heute leicht von der Hand zu weisen. Vom Carsharing, über die Sharingökonomie zum Internet of Things wird klar, dass das Plattformmodell längst begonnen hat, die physische Ökomomie zu okkupieren. Oder kolonisieren. Das wiederum ist aber wieder eine ganz andere Geschichte, die ein andermal erzählt werden muss.

Plan C

Ich finde es zu weit gegangen, die heute realexistierenden Plattformen postkapitalistisch zu nennen. Sie sind aber eben auch nicht mehr ganz kapitalistisch, bzw. etablieren eine postkapitalistische Mechanik. In ihnen steckt der Kern einer Ordnung, die ohne Eigentum und damit ohne Staat auskommt und diese durch ihre eigenen Ordnungs- und Gewaltprinzipien ersetzen könnte. 18

Betrachtet man den derzeitigen Zustand des Systems des Kapitalismus – beide Seiten: des Nationalstaates, wie auch des Marktsystems – dann kann man unabhängig von unseren Überlegungen hier auf den Gedanken verfallen, dass der Kapitalismus bereits im Sterben liegt. Einen einfachen Übergang vom Kapitalistischen System zum Plattformsystem wird es aber nicht geben. Das alte muss erst zerrüttet sein, bevor das neue sich etablieren kann. Es wird eine Phase der Unruhe und des Chaos geben müssen, an deren Anfang wir vielleicht schon stehen.

Eine Ordnung der Plattformen mag man ablehnen und zwar aus guten Gründen. Zuvorderst ihrer mangelnden demokratischen Legitimation wegen. Das ist aber keine strukturelles Argument. Auch der Staat hat nicht als Demokratie angefangen, sondern hat sich als Ordnungsmacht in der frühen Neuzeit erstmal unter absolutistischen Vorzeichen bahn gebrochen. Rechtsstaatlichkeit, Gewaltenteilung und Demokratie sind hinterher als AddOn in die bereits vorhandene Struktur implementiert worden.

Deswegen wäre ich vorsichtig, das Plattformmodell als postkapitalistische Möglichkeit rundheraus abzulehnen, sondern plädiere vielmehr dafür, das Modell weiter zu studieren und zu verstehen und nach Möglichkeiten zu suchen, wie man auch diese Struktur domestiziert – also demokratisiert bekommt.

Wenn der Nationalstaat und seine Institutionen inklusive Kapitalismus der Plan A war, dem wir Anfang des Jahrtausends den libertären wie naiven Gedanken des heterarchischen Netzwerkes als Plan B entgegenhielten, dann ist es Zeit jetzt an Plan C zu feilen. Denn weder wird sich Plan B bewahrheiten, noch noch gibt es eine mögliche Rückkehr zu Plan A. Das derzeitige System wird vielleicht schon in den nächsten 5 bis 10 Jahren verfallen sein. Und dann ist es gut, Plan C in der Schublade zu haben.

  1. Lobo, Sascha: Die Mensch-Maschine: Auf dem Weg in die Dumpinghölle http://www.spiegel.de/netzwelt/netzpolitik/sascha-lobo-sharing-economy-wie-bei-uber-ist-plattform-kapitalismus-a-989584.html
  2. Seemann, Michael: Das Neue Spiel, S. 118
  3. Mason, Paul: Postcapitalism, A Guide to Our Future
  4. Das ist natürlich ebenfalls die Argumentation bei Jeremy Rifkins Zero Marginal Cost Society. Beide Bücher werden deswegen gerne verglichen. Dennoch, finde ich, geht Mason in seiner Analyse tiefer, weswegen ich ihn weiter als Ausgangspunkt behalte.
  5. vgl. z.B. http://www.ctrl-verlust.net/plattformprivacy
  6. Ich halte es für eines der wichtigsten Bücher über Ökonomie der letzten 20 Jahre, auch wenn ich einige Teile der Analyse nur sehr bedingt teile.
  7. Zum Beispiel im zentralen Begriff des Tauschwertes. David Graeber hatte dagegen sehr schön gezeigt, dass die quasi von allen Ökonomen immer vorausgesetzte Urszene des Kapitalismus: der Markt auf dem Güter gegen Güter getauscht werden, nirgends nachgewiesen werden kann. (Graeber, David: Debt, the first 5000 Years) Diese Gesellschaftsform hat es weder irgendwo gegeben, noch hat sie sich in irgendeinem Volk herausgebildet. Sie ist ein reines Geistesprodukt von bereits kapitalistisch denkenden Ökonomen.
  8. Der Feudalismus kannte nicht nur keinen rechtlichen Begriff von Eigentum, sondern hatte auch gar nicht die Strukturen, es durchzusetzen. Besitzen konnten nur die Stände, weil sie über Strukturen verfügten, den Besitz auch zu verteidigen.
  9. Ich lehne die Marx’sche Arbeitswerttheorie ab und hier ist warum. http://mspr0.de/?p=4605
  10. Als Verfügungsgewalt verstehen wir die Fähigkeit die Sache zu nutzen und gleichzeitig, andere von der Nutzung der Sache auszuschließen.
  11. Wer sich an dieser Stelle eine Preistheorie gewünscht hat, die Aussagen darüber zu treffen im Stande ist, welcher Preis für eine Sache veranschlagt werden wird, wird hier natürlich enttäuscht sein. Aber ganz ehrlich: ich bezweifle, dass es eine solche Theorie je geben kann. Die Behavouristische Forschung hat die Idee des Homo Oeconimicus längst relativiert. Die Grenznutzentheorie hat sicher ihre Anwendungsfälle und spielt in der Preisgeataltung sicherlich mit rein, aber sie trifft oft nicht immer zu. Preisbildung ist ein komplexes Problem, in das sehr viele Variablen einfließen. Schaut man sich bestimmte Märkte an, scheint die Preisbildung beinahe beliebig zu sein. Ein Beispiel sind Matratzen, die mit teils mehreren Hundert Prozent Marge verkauft werden, was einen ganzen Anhang von Gründen hat, wie in dieser Freakonomics-Folge zu erfahren ist: http://freakonomics.com/podcast/mattress-store-bubble/ Ähnlich sieht es bei Hygieneartikeln aus, die sich unter einem gewissen Preis gar nicht verkaufen, weil sonst das Qualitätsempfinden nicht befriedigt wird. Spannend auch, wie ganz situationsabhängige Variablen reinspielen. Hier ein schöner Artikel darüber, warum bestimmte Küchen aus bestimmten Ländern für teurere Preise verkauft werden, als bestimmte andere: http://www.theatlantic.com/business/archive/2016/07/the-future-is-expensive-chinese-food/491015/?single_page=true Uber wiederum hat zum Beispiel herausgefunden, dass Kunden gewillt sind, biszu 9 mal so hohe Preise für eine Fahrt zu zahlen, wenn ihr Handyakku fast alle ist.
    http://thenextweb.com/insider/2016/05/20/uber-riders-will-pay-9-9-times-surge-pricing-phone-battery-low/#gref. Preismechanismen sind in der Realität wahnsinnig komplex und lassen sich nicht auf einen oder einige Gesetze runterbrechen. Das alles beiseite gelassen, ist wenig gesetzmäßiges über den Preis zu sagen. Bis auf: wer ihn festlegt. Welche Überlegungen und Motivationsstrukturen ihn dabei leiten ist dabei erst mal nachrangig. Die Ökonomie geht zum Beispiel immer davon aus, dass jemand, der einen Preis für eine Sache festlegt, diese auch verkaufen will. Das ist nicht immer der Fall. Ich selbst lege für Dinge, auf die ich keine Lust habe, prohibitiv hohe Preise fest, damit sie nicht gekauft werden (Und wenn doch, dass ich eine entsprechende Entschädigung bekomme, was auch schon vorgekommen ist).
  12. Schön dokumentiert in diesem alten Artikel: http://www.rollingstone.com/music/news/steve-jobs-music-vision-20111007
  13. An dieser Stelle müssen ein paar Nachträge gemacht werden. Bei der Unterwerfung der Labels unter das Applediktat ist es bekanntlich nicht geblieben. Heute existiert eine heterogene Plattformstruktur im Musikmarkt. Insbesondere Spotify hat sich als wichtige Plattform etabliert. Sie wird zu einem großen Teil von den Labels selbst getragen, was darauf hindeutet, dass sie sehr wohl gelernt haben. Auch sonst haben sie quasi kartellartige Strukturen gebildet und diktieren auch allen anderen Streaminganbietern, welches Songkontingent sie für welchen Preis anbieten dürfen, was der Grund dafür ist, dass sich sie Angebote so wenig unterscheiden. Auch wenn man sagen kann, dass die Labels ihre Macht zurückgewonnen haben, kann man also nicht von einer Rückkehr in Kapitalistische Strukturen sprechen. Zudem ist spannend, wie lange sich die Staaten und die EU z.B. dieses Schauspiel noch bieten lassen.
  14. Es gibt wenige Punkte, an dem Lawrence Lessig 16 Jahre alte These deutlicher zu sich selbst findet, als bei der Gewalt der Plattform. Allerdings wäre zu ergänzen, dass Code nicht nur Law ist. Es ist Auch Judge und Vollzugsbeamter. Im Grunde lässt sich das noch besser und klarer anhand Deleuzes‘ Konzept der Kontrollgesellschaften beschreiben. Ich habe das bereits in meinem Buch skizziert. Das Neue Spiel, Seite 75f.
  15. Es wird bei Google, Facebook, etc. gerne von Monopolen gesprochen. Das ist genau genommen falsch. Es sind Marktführer, oft mit großem Abstand. Ihre Nichtmonopolstellung aber schränkt sie tatsächlich faktisch ein.
  16. Der einzige Unterschied dürfte sein, dass die von diesen Akteuren verknappten Nutzen vorher öffentliche Güter waren, sie also keinen originären Nutzen erschaffen haben, weswegen das Moralempfinden vieler Leute Sturm läuft. Jedoch kann man argumentieren, dass zum Beispiel AdBlockPlus von einem reinen Blockingdienst zu einem Regulator für Onlinewerbung wurde. Dann müsste man ihn an seiner Funktion messen und also zugestehen, dass es doch originären Nutzen generiert. Auch die Netzprovider versprechen mit gelockerter Netzneutralität neuen Nutzen zu generieren. Man darf da aber skeptisch bleiben.
  17. Seemann, Michael: Das Neue Spiel, Seite 132
  18. An dieser Stelle könnte man fragen, wie sehr Geld und Geldtransaktion strukturell an das System des Kapitalismus gebunden ist. Wird es verschwinden, wenn das kapitalistische Modell rund um die Plattformen zusammenbricht? Wird es ersetzt werden durch andere transaktionsformen? Dazu kann ich nur spekulieren. Seit Maxwells Demon wissen wir, dass Ordnung nie umsonst zu haben ist, weswegen ich davon ausgehe, dass der ordnenden Instanz immer ein Tribut auf die eine andere Weise gezollt werden wird. Vielleicht lässt sich Ordnung auch dezentral organisieren, wie einige Verfechter des Openweb und der distributed Networks behaupten. Aber auch dann wird es irgendeinen Preis geben, der dafür an irgendwen gezahlt werden muss und sei es nur das gegenseitige Betrauen mit Policing-Aufgaben oder freiwillige Selbsteinschränkungen, etc.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Weltkontrollverlust
Verschlagwortet mit
10 Kommentare

Steuerungsverlust

Ich war gerade eine knappe Woche paddeln. Wir fuhren mit einem Kanadier Kanu namens „Kirschkuchen“ auf der mecklenburgischen Seenplatte herum und ich war dabei meist der Steuermann – also derjenige, der hinten paddelt. Es war nicht das erste Mal, dass mir beim Paddeln diese Aufgabe zuteil wurde, aber sie eine so lange Zeit auszuführen, ermöglichte mir, meine Steuerkompetenzen auszubauen und sie gleichzeitig zu reflektieren.
kirschkuchen

Denn natürlich passiert dabei immer mal wieder ein Kontrollverlust, oder sagen wir besser „ein Steuerungsverlust“. Kontrolle und Steuerung sind im englischen ein Wort (control) und tatsächlich spricht wenig dagegen, Kontrolle und Steuerung synonym zu verwenden. Deswegen will meine gewonnenen Erfahrungen nutzen, um ein wenig über den Steuerungsverlust nachzudenken.

Zunächst einmal ist „steuern“ eine Tätigkeit, von der wir eine ziemlich verzerrte Vorstellung haben. Wir sind gewohnt, dass Steuerung direkt passiert, so wir es beim Auto- oder Fahrradfahren gewohnt sind. Man lenkt etwas nach links, das Fahrzeug bewegt sich entsprechend, man lenkt nach rechts, etc. Das ist aber keinesfalls die Standardsituation des Steuerns, vielmehr überlagert die überlegene Steuerbarkeit unserer Alltagsfahrzeuge genau das, worauf es beim Steuern überhaupt ankommt.

Beim Paddeln hat man noch ein sehr elementares Steuererlebnis. Jeder Paddelschlag hat eine steuernde Wirkung. Abhängig davon, ob ich ihn rechts oder links vom Kanu mache, bewegt sich das Kanu in die entsprechende Richtung. Die Steuerwirkung ist allerdings sehr gering und setzt nur verzögert ein. Wenn man hinten paddelt ist die Steuerwirkung deutlich stärker als vorn, weswegen hinten eben die natürliche Steuerposition ist. Jedoch steuert der Paddelschlag vorne auch.

Das hat einige Konsequenzen, bzw. erlaubt Erkenntnisse über das Steuern an sich:

1. Steuern heißt Planen. Die minimale und verzögerte Steuerwirkung hat zunächst einmal die Konsequenz, dass man sehr vorausschauend fahren muss. Scharfe Kurven sind eine ziemliche Herausforderung und schon leichte Anpassungsmanöver müssen mehrere Sekunden im Voraus eingeleitet worden sein.

2. Steuern ist ein bisschen wie Politik. Andere als die eigenen Steuerkräfte kommen deutlicher zum Tragen. Die eigene Trägheit der Massen schiebt einen, auf dem Wasser gibt es Strömungen, der Wind kann einen ganz schön ärgern und natürlich kommt immer die Steuerwirkung des Vordermannes zum Tragen. Auf dem Boot heißt Steuern also mehr das Dirigieren eines vielstimmigen Orchesters, bei dem einige der Musiker aber nicht auf einen hören. Man steuert immer mit und man steuert immer gegen bestimmte Kräfte, die als heterogene Vektoren ein vielstimmiges Mitreden haben. Die Kunst besteht darin, diese Kräfte zu spüren, sie einigermaßen einzuschätzen und die eigene Steuerkraft so einzusetzen, dass die Kräfte, die gegen einen steuern, nicht größer sind als die eigene Steuerkraft. Im Zweifelsfall bedeutet es auch Koalitionen zu bilden mit anderen externen Steuerkräften, die mehr im eigene Sinne steuern.

3. … was dann eben auch den Steuerungsverlust definiert, als den Punkt, wo die externen Steuerkräfte, die gegen einen arbeiten, die eigenen Steuerkräfte übersteigen. Der Steuerungsverlust kann zwei Ursachen haben. Erstens: Man wird von einer neuen, unbekannten Steuerkraft überrumpelt, oder hat sie falsch eingeschätzt oder sie ändert ihre Richtung, etc. Oder zweitens: die eigene Steuerkraft kommt einem Abhanden. Das Paddel bricht oder man verliert es. (Letzteres ist uns zum Glück nicht passiert, ersteres jedoch öfter.)

* * *

Beziehen wir die Erkenntnisse zurück auf den informationellen Kontrollverlust, wird dadurch einiges klarer: Die Digitalisierung hat zweifelsohne die vorhandenen, externen Steuerkräfte durcheinandergewirbelt. Gleichzeitig hat es die zur Verfügung stehenden Steuermechanismen unterminiert.

Die leichte Kopierbarkeit und Distribuierbarkeit hat sich zum Beispiel für die Musikindustrie angefühlt, als würde plötzlich das Wasser jeglichen Widerstand verlieren. Alles kann sich darin auf einmal widerstandslos bewegen, was einerseits toll ist. Gleichzeitig wird aber auch das Paddel nutzlos, weil es jegliche Antriebs- und Steuerkraft verliert. Das Paddel wären hier Vertriebsstrukturen und -Prozesse, die auf einmal im Leeren ruderten.

Die Privatsphäre hingegen sah sich mit völlig neuen Strömungen konfrontiert. Allgegenwärtige Sensoren, Kamerahandys, Locationdienste und dergleichen waren zur Entstehung des Datenschutzes nicht vorgesehen. Gegen diese neue, enorme Steuerkraft konnte der Datenschutz nicht an und so trieb das Boot immer weiter und immer schneller weg vom eigentlichen Ziel der Informationellen Selbstbestimmung. Mit Big Data und Machine Learning pusten weitere starke Steuerkräfte als Böen gegen die Fahrtrichtung. Zwar gibt es mit immer neuen kryptografischen Verfahren durchaus einen Vordermann, der im Zweifel auf der eigenen Seite mitpaddelt, jedoch scheint auch der nicht stark genug zu sein, um den Trend umzukehren. Das Datenschutzpaddel ist ins Wasser gefallen.

* * *

An der Müritz haben wir uns nach den Steuerungsverlusten immer wieder gefangen. Meist habe ich die Situation einfach neu bewertet, die neuen Steuerungskräfte mit in die Rechnung aufgenommen und mein Steuern entsprechend angepasst. Wäre mein Paddel weggewesen, hätte ich mir ein neues besorgt. So hat auch die Welt auch auf den informationellen Kontrollverlust reagiert. Sie hat neue Institutionen geschaffen, die neue Steuerungssituationen etabliert haben: die Plattformen.

Plattformen können als künstlich beruhigte Gewässer innerhalb des stürmischen Ozeans Internet verstanden werden. Es sind sowas wie private Enklaven und so ist man Tributpflichtig, aber man findet dafür einigermaßen handhabbare Steuerungsumgebungen vor. Plattformen sind im Gegensatz zu klassichen Institutionen selbst keine Steuerungseinheiten, sondern durch geschlossenheit beruhigte Zonen, in denen externe Steuerungskräfte nicht sehr dazwischenfunken können. Sie geben meist aber auch eigene, auf ihre Umgebung optimierte Paddel heraus, die nur innerhalb der Enklave funktionieren. Sie steuern nicht (oder nur wenig), sondern bieten vor allem Steuerkraft, so lange man sich in ihren Gebieten bewegt.

Der Sturm da draußen wird indessen immer heftiger, immer mehr Steuer versagen den Dienst. Immer mehr Plattformen gründen sich und die bestehenden Plattformen werden immer größer und mächtiger. Irgendwann wird es keine Boote mehr im offenen Meer geben, weil alle nur noch innerhalb der Plattformen paddeln. Das ist sicher nicht befriedigend, aber es funktioniert.


Veröffentlicht unter Kontrollverlust Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar

Vortrag: Netzinnenpolitik – Grundzüge einer Politik der Plattformgesellschaft

Mein re:publica-Vortrag von diesem Jahr spinnt die These der Plattformgesellschaft weiter und definiert die Plattform als leviatnistischen Akteur, dem immer mehr die Aufgabe zuteil wird, den Netzinnenraum zu befrieden.


Veröffentlicht unter Das Neue Spiel Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar

Informationelle Selbstzertrümmerung

/*** Im Februar habe ich einen Vortrag bei der Tagung „Diskurs der Daten“ an der Uni Leipzig gehalten, dessen Verschriftlichung ich hier nun endlich veröffentliche. ***/

Auf der so genannten Computers, Privacy & Data Protection-Konferenz (CPDP2016)1 im Januar 2016 in Brüssel gab Alexander Dix, scheidender Datenschutzbeauftragter des Landes Berlin anscheinend folgendes von sich:
Bildschirmfoto 2016-02-04 um 17.57.16
Das klingt erst mal gut, aufrüttelnd und irgendwie moralisch richtig. Bis man sich mit der Frage befasst, was denn das eigentlich sein soll, ein „Data Object“.

Dazu ein Beispiel: Das Zitat fand seinen Weg zu mir in Form eines Tweets. Nicht aber eines Tweets von Alexander Dix. So weit ich weiß, benutzt er kein Twitter. Er ist in diesem Fall also selbst kein „Data Subject“. Der Tweet stammt viel mehr von Gabriela Zanfir, einer Mitarbeiterin beim EDPS. Sie zitiert Alexander Dix hier namentlich. Die Frage scheint mir also offensichtlich: Ist hier etwa Alexander Dix, ohne überhaupt Data Subject sein zu müssen, zu einem „Data Object“ geworden? Und führe ich diese Dataobjektivizierung durch das digitale Zitieren dieses Tweets nicht noch fort und erweitere die Datenobjektsammlung damit wiederum um Gabriela Zanfir selbst?

Objektifizierung. Überall. Schlimm!

So geht das die ganze Zeit. Die Rhetorik ist alarmistisch, die Geschehnisse banal. Irgendwas stimmt mit diesem ganzen Datenschutz-Diskurs nicht. Wir alle sind in unzähligen Datenbanken verzeichnet und werden dort immer wieder der einen oder andern Datenverarbeitung unterworfen. Niemand kann von sich behaupten _kein_ Datenobjekt zu sein und dennoch malen wir es als Horrorszenario an die Wand. Was genau ist hier also „at stake“?

Ich glaube, es gibt in der westlichen Welt kaum ein Thema, über das unehrlicher gesprochen wird, als über Datenschutz. Und – um an dieser Stelle Alexander Dix auch zu verteidigen (den ich eigentlich sehr schätze) – das liegt nicht einfach an den einzelnen Protagonist/innen dieses Diskurses. Die Lüge besteht aus einem ganzen System unhinterfragter Annahmen und Behauptungen, die sich im Laufe der Zeit zu einer Ideologie sedimentiert und einer kollektiven Illusion tradiert haben. Nur hier und da erkennt man die „Glitches“, also die Stellen, wo die Lüge unmißverständlich aufblitzt und in kurzen Momenten mit einer Klarheit droht, das ganze System zum Einsturz zu bringen könnte. Die Aussage von Dix ist so ein Glitch. Es gibt aber ungleich größere.

Der Fall des Safe-Harbor-Abkommens2 kann gut und gerne als das Ground Zero dieses Systems verstanden werden und in seinen Trümmern lässt es sich gut studieren. Wir erinnern uns: Das Safe-Harbor-Abkommen bestand im Grunde aus der Behauptung, Unternehmen in den USA würden ihr Handeln dem Niveau europäischer Datenschutzbestimmungen unterwerfen. Dafür mussten sich Unternehmen ungeprüft zertifizieren lassen und schon war die Behauptung rechtskräftig. Also wahr. Auf so ne Art.

Die Episode erinnerte sehr an Hans Christian Andersens bekanntes Märchen: Des Kaisers neue Kleider. Dem Kaiser wird von einem Scharlatan ein Gewand aus dünnstem Stoff aufgeschwatzt, dass es in Wirklichkeit gar nicht gibt. Die Leichtigkeit dieses Nichts wurde dem Herrscher alsbald als Tragekomfort angepriesen und die Tatsache, dass er nichts an hatte, schlicht geleugnet. Aufgrund einer sozial induzierten kognitiven Dissonanz traut sich niemand bei Hofe darauf hinzuweisen, dass der Kaiser ja eigentlich nackt ist. Erst als er mit dem nichtvorhandenen Kleid in die Öffentlichkeit tritt, ruft ein Kind die Wahrheit: „Der hat ja gar nichts an!“, woraufhin alle anderen sich ebenfalls trauen das Offensichtliche auszusprechen.

Max Schrems hieß das Kind in unserem Fall. Er hatte es in einem Musterprozess gegen Facebook bis zum EuGH geschafft, welches mit Schrems feststellte, dass das Safe Harbor-Abkommen schon immer nackt war, dass die Behauptung die Unwahrheit war und überhaupt alles eine große Lüge. Pfui! Böse, USA!

Schrems wiederum bezog sich in seiner Argumentation auf ein anderes rufendes Kind: Edward Snowden. Der hatte gezeigt, dass US-Unternehmen nicht ohne Kooperation und/oder heimlicher – sogar illegaler – Bespitzelung von den dortigen Geheimdiensten arbeiten könnten. Damit war die Nacktheit des Kaisers bewiesen und konnte selbst von noch so rhetorisch geschickten Anwälten nicht mehr bestritten werden.

Weil es aber auch für Selbstverständlichkeiten wie der Tatsche, dass das Internet nun mal bis nach Amerika reicht, eine Rechtsgrundlage braucht, machten sich Juristen und Politiker sogleich daran einen Safe Harbor-Nachfolger zu konstruieren. Das neue Kleid heißt nun Privacy Shield, doch jenseits der aufgerüsteten Rhetorik (weg von der weltläufigen Offenheit des Hafens hin zur militaristischen Logik einer Defensivwaffe) hatte sich am Tragekomfort des neuen Kleides verdächtig wenig geändert.

Viele glauben, dass auch das Privacy-Shield einer juristischen Prüfung nicht stand halten werde. Max Schrems selbst hat mehrmals angemerkt, dass ein gültiges Abkommen unter der Prämisse der allgemeinen Geheimdienstüberwachung gar nicht möglich sei.3 Wie solle denn ein Bürger/eine Bürgerin noch eine „informierte Zustimmung“ zur Datenverarbeitung geben, wenn denn prinzipiell unwissbar sei, wer dann auf die Daten Zugriff habe und was dieser jemand dann damit anstelle? So lange eine solche geheimdienstliche Praxis vorherrsche, könne eigentlich eine rechtliche Grundlage für ein solches Abkommen gar nicht im Bereich des Möglichen liegen.

Interessant wird es, wenn man dieses Argument weiterdenkt. Auf die Frage, ob denn dann in Europa die Rechtsgrundlage für Datenverarbeitung in diesem Sinne nicht ebenfalls fraglich ist, da ja auch hier Geheimdienste nachgewiesener Maßen geheime Dinge mit den hier gespeicherten Daten machen, bejaht Max Schrems durchaus. Glücklicher Weise gibt es hier kein Abkommen, dass in Frage stehen würde. In den eigenen vier Wänden darf der Kaiser natürlich nackt rumlaufen.

Man kann das noch weiterspinnen, wie ich es ja bereits seit einigen Jahren tue 4: Wenn wir 1. nicht mehr kontrollieren können, welche Daten über uns an welchen Stellen gesammelt werden, weil wir die ganze Welt mit immer mehr und immer unsichtbareren Sensoren ausstatten;
Wenn wir 2. die Kapazitäten von Leitungen und Datenträgern immer weiter erhöhen, so dass Daten in immer größerem Umfang immer problemloser von A nach B kopiert werden können;
Wenn wir 3. immer bessere Methoden und Software zur Datenauswertung bereitstellen, die noch aus den unschuldigsten Daten komplexe Profilbildungen und unvorhergesehene Erkenntnisse erlauben;
Wenn wir also den informationellen Kontrollverlust auf den Ebenen der Sammlung, Speicherung und Auswertung erleben, wie können wir dann überhaupt noch – egal wo – von einer „informierten Einwilligung“ sprechen, ohne uns in die eigene Tasche zu lügen?

Und hier nähern wir uns endlich dem Kern des Systems aus Lügen: der „Informationellen Selbstbestimmung“5. Die Idee, dass ich das Recht habe zu kontrollieren, wer etwas über mich weiß und was er mit diesem Wissen anstellt, mag in den 80er Jahren eine kühne Utopie gewesen sein, heute ist sie ein gefährliches, niemals einzulösendes Versprechen, das – weil es niemals zugeben darf, eine Lüge zu sein – immer weitere Lügen gebiert.

Seien wir das Kind und sprechen es aus: die Illusion der „Informationellen Selbstbestimmung“ konnte nur deswegen funktionieren, weil wir alle mitgelogen haben und auch heute bereit sind jederzeit zu lügen. Jedesmal, wenn wir „Ok“ oder „Ich habe verstanden“ bei den unzähligen Terms of Service, Allgemeinen Geschäftsbedingungen und Datenschutzbelehrungen geklickt haben, aber in Wirklichkeit nicht das Gefühl hatten, wirklich zu wissen, was da mit unseren Daten geschieht, haben wir mitgeholfen diese kollektive Fiktion am Leben zu erhalten. Unsere Lügen haben sich akkumuliert zu einem System der Unehrlichkeit, in der die eine Lüge die andere Lüge deckte und als Wahrheit verifizierte. Und nun stehen wir auf unserem eigenen Lügenberg und übersehen von dort die Trümmer von Safe Harbor, welches doch auch nur eine weitere Lüge war. Und wir lachen. Worüber lachen wir eigentlich?

Ganz konkret: Wem bringt der Fall von Safe Harbor denn jetzt irgendwas? Also mehr Sicherheit? Mehr Schutz? Irgendwelche sonstigen Vorteile?

Die Antwort ist: Niemandem. Irgendetwas. Also bis auf die Deutsche Telekom, für die die Rechtsunsicherheit amerikanischer Serverbetreiber einen riesigen anstrengungslosen Reibach bedeutet.

In Wirklichkeit ist der Fall von Safe Harbor vergleichbar mit dem Platzen der Kreditblase von 2008. Es wird bis heute fälschlicher Weise behauptet, damals seien Werte vernichtet worden. Das stimmt nicht. Der Wert war nie da, er war immer nur behauptet. Genau so wie der „Schutz“ durch Safe Harbor immer nur behauptet war. Durch den Wegfall von Safe Harbor ist niemand mehr oder weniger geschützt. Und egal wie das neue Abkommen aussehen wird, der Schutz wird sich nicht wesentlich verschlechtern oder verbessern. All das sind nur Schattenboxkämpfe von Politiker/innen und Jurist/innen.

Mein Eindruck ist mittlerweile, dass die verbissene Verteidigung der Informationellen Selbstbestimmung einer Implementierung von tatsächlichem Schutz für Individuen im Weg steht. Wir sollten aufhören, darüber zu streiten, wie wir ein fiktives Recht bewerkstelligen können und anfangen zu fragen, welche Probleme sich denn nun aus Datenhaltung und -Verarbeitung konkret für Menschen ergeben.

Unser Motto sollte sein: Schützt die Menschen, nicht die Daten. Und das geht nur, wenn man sich von dem Konzept der Informationellen Selbstbestimmung endlich verabschiedet.

Es gibt da durchaus Ansätze das zu tun. Hans-Peter Bull, erster Bundesdatenschutzbeauftragter Deutschlands sieht das Konzept der informationellen Selbstbestimmung ebenfalls am Ende6. Niko Härting wirbt mit der Neuausrichtung des Datenschutzes anhand eines risikobasierten Ansatzes.7

Ich denke, diese Ansätze gehen in die richtige Richtung. Es gibt unterschiedliche Gefahren durch unterschiedliche Daten für unterschiedliche Menschen. Was für den einen eine Gefahr ist, ist für den anderen kein Problem. Ich will deswegen auf einer etwas abstrakteren Ebene einiger der Gefahren aufzeigen:

1. Diskriminierung (Institutionelle und auch alltägliche)
2. Manipulation (bishin zu handfester Erpressung)
3. Staatliche Willkür (zb. Cherrypicking von Daten zur Konstruktion von Evidenz)
4. Kriminalität (Identitätsdiebstahl bis Stalking)
5. Entwürdigende Bloßstellung (Public Shaming)

Wenn wir diese Probleme in den Vordergrund stellen wird schnell klar, dass Datenschutz oft nur eine sehr schlechte Antwort auf die Herausforderungen der digitalisierten Welt ist. Es gibt bessere Ansätze: Diskrimierungsverbote, demokratische Kontrollinstanzen, Kompetenzbeschneidung von Behörden, mehr Transparenzanforderungen, auch für Unternehmen, etc. Klar. Das sind alles nur Flicken. Das ist nicht ein schön in einem Stück gefertigtes Kleidchen und der Tragekomfort ist nicht so toll, wie bei der luftig leichten informationellen Selbstbestimmung.

Aber wir könnten alle wieder ein bisschen ehrlicher sein und ich bin fest überzeugt, dass das Schutzniveau unterm Strich steigen würde.

  1. CPDP http://www.cpdpconferences.org
  2. Holland, Martin: Datenschutz bei Facebook & Co.: EuGH erklärt Safe Harbor für ungültig, http://www.heise.de/newsticker/meldung/Datenschutz-bei-Facebook-Co-EuGH-erklaert-Safe-Harbor-fuer-ungueltig-2838025.html (06.10.2015)
  3. Vgl.: Armasu, Lucian: Max Schrems Provides In-depth Analysis Of Safe Harbor Ruling, http://www.tomshardware.com/news/max-schrems-post-safe-harbor,30343.html (16.102015)
  4. In diesem Blog oder Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Berlin: iRights Media 2014, S. 8.
  5. Vgl. Recht auf Informationelle Selbstbestimmung: http://www.grundrechteschutz.de/gg/recht-auf-informationelle-selbstbestimmung-272.
  6. Bull. Hans-Peter: Informationelle Selbstbestimmung – Visionoder Illusion? https://www.mohr.de/buch/informationelle-selbstbestimmung-vision-oder-illusion-9783161509056?createPdf=true.
  7. Härting, Niko: Vom Verbotsprinzip zur Risikoorientierung, http://www.haerting.de/de/neuigkeit/vom-verbotsprinzip-zur-risikoorientierung


Veröffentlicht unter Das Neue Spiel Kontrollverlust Postprivacy
4 Kommentare

Das Internet nach dem Internet – Eine persönliche Anamnese

/** Dieser Text basiert auf einem Vortrag, den ich im Rahmen einer Tagung an der Universität Köln gehalten habe und wird demnächst in einem zugehörigen Reader veröffentlicht. **/

Vor etwa 2,4 Milliarden Jahren brach eine einzigartige Naturkatastrophe über die Welt hinein. Eine neue Spezies, die Cyanobakterien, hatten sich im Kampf der Evolution durchgesetzt und machten sich daran, alle anderen Spezies mittels eines aggressiven Giftes auzulöschen. Ein Großteil der bis dahin lebenden Organismen fielen dem Massaker zum Opfer. Die Nachfahren dieser Massenmörderspezies nennen wir heute „Pflanzen“ und ihr tödliches Gift war der Sauerstoff.

Das neue Gift atmete ich etwa Anfang der 90er. Ein Freund von mir wählte sich oft in das FidoNet ein. Eine Art Proto-Internet, was aber eigentlich nur ein System von Mailboxen beschrieb, bei dem man sich einwählen konnte und das automatisiert Daten austauschte. In diesem Netz konnte man bereits mit Unbekannten kommunizieren. Man lud Texte und Bilder herunter, diskutierte und schloss Freundschaften.

Wenige Jahre später sah ich meine erste Website. Es war Spiegel Online. Ich zuckte mit den Schultern. Es gibt doch schon Zeitungen, dachte ich mir. Doch das Schulterzucken hielt nicht lang. Meine erste eigene Mailadresse holte ich mir im Web. 1997 bei GMX. Ich wollte mit Freunden zu Hause in Kontakt bleiben, denn ich sollte zum Studium nach Lüneburg umziehen.

Erst im Studium habe ich wirklich angefangen, mich für das Netz zu begeistern. Es war mitten in der Dotcom-Bubble und ich wollte alles über das Internet wissen. Ich legte meine Zwischenprüfung über die Geschichte des Internets ab. Ich fing an zu programmieren. Erst nur Webdesign, dann Java, PHP und Datenbanken. Mehrere Jahre lang arbeitete ich als Programmierer in einer kleinen Internetfirma.

Doch egal was ich tat, ich wurde das Gefühl nicht los, der Idee und dem Potential des Internets nicht gerecht zu werden. Schließlich wendete ich mich den Medienwissenschaften zu. Nur leider hatten die zu dem Thema kaum etwas zu sagen, jedenfalls zu jener Zeit. Die deutsche Medientheorie war geprägt von der Kittlerschule und die hatte erst mal nur den Computer in den Blick genommen.

“Close enough”, dachte ich mir und las, was ich kriegen konnte. Doch etwas war mir fremd: Die Erfindung und Entwicklung des Computers wurde mit der Ehrfurcht gefeiert, die an die Landung eines Außerirdischen erinnerte. Die Beschäftigung mit dem Computer wirkte wie die Kommunikationsversuche mit einer fremden Spezies. Ich verstand natürlich, dass der Computer ein besonderes, ein universelles Medium war, aber für mich war er eben doch Teil der Welt. Kittlers Passion für maschinennahen Code etwa und sein Herabblicken auf alles, was nicht in C oder Assembler programmiert ist, empfand ich absurd und weltfremd. Es gibt keine Software? Was für ein absurder Gedanke.

Heute mache ich die unterschiedliche Aneignungsgeschichte für diese Andersartigkeit der Wahrnehmung verantwortlich. Der Computer trat ja tatsächlich in das Leben der Generation Kittler wie ein frisch gelandetes Alien. Der Computer erschien als wissenschaftlich-militärische Großmaschine auf der Bildfläche und hatte damit die Aura von Raketentechnologie. Atombombe, Interkontinentalrakete und Computer bildeten einen gemeinsamen modernistischen Komplex in den Assoziationen der Zeitgenossen.

Ich hingegen hatte den Computer als den netten Spielgefährten auf dem Schreibtisch kennengelernt. Mein erster Computer war ein Commodore 128D, eine etwas weiterentwickelte Variante des berühmten C64. Der Computer war ein Alltagsgegenstand, fast schon ein Kinderspielzeug. (Um ehrlich zu sein, habe ich ihn in erster Linie auch ausschließlich zum Spielen benutzt.)

Noch während ich meine Abschlussarbeit schrieb – etwa 2005 – fing ich an zu bloggen. Zunächst war es reine Prokrastination. Aber es nahm mich sofort gefangen. Mich reizte das „sich ausdrücken können“, bei gleichzeitiger Unmittelbarkeit des Feedbacks. Die Schnelligkeit und die Freiheit alles zu sagen, was ich will, während (theoretisch) Millionen Leute das lesen können. Das ist vielleicht gar nicht mehr so gut nachvollziehbar, aber damals fühlte sich das wirklich revolutionär an. Meinungsfreiheit galt damals nur theoretisch. In Wirklichkeit musste man enorme Ressourcen in Bewegung setzen, um auch nur ein kleinen Teil Öffentlichkeit zu generieren.

So sehr ich mich bemühte, das Netz und sein Veränderungspotential über Bücher und Programmieren zu verstehen; so richtig verstand ich es erst beim Bloggen. Beim freien Benutzen des offenen Webs und seiner Möglichkeiten wurde mir klar, dass dieser persönliche, ja intime Zugang zu Öffentlichkeit es war, der alles verändern würde. In der Blogosphäre streckte nicht eine kalte Technik seine Apparate in die Welt, sondern es etablierte sich eine neue Form von Lebensraum. Ich las Blogs, wie andere durch ihre Straße gehen, und kommentierte Artikel als würde ich mit den Nachbarn quatschen. Ich spürte das Internet förmlich, und zwar als Verbundenheit und Heimat. Ich fühlte mich im Internet zu Hause.

Wir Blogger waren die Avangarde einer global unausweichlichen Utopie totalvernetzter Diskurse. Wir waren uns sicher: bald schon würden alle tun, was wir tun. Bis dahin mussten wir nur zweierlei machen: Weitermachen und das Netz gegen all diejenigen verteidigen, die es eifersüchtig bekämpften. Das waren nicht wenige, denn das Netz begann schon früh die gesellschaftliche Position von vielen zu bedrohen. Journalist/innen, Verleger/innen, Rechteinhaber/innen, Innen- und Justiz-Politiker/innen und die Lobbys von einigen Wirtschaftverbänden. Um das Jahr 2009 herum emergierte das, was man bis heute „Netzpolitik“ nennt und was sicher eine der schlagfertigsten Grassrootslobbys der letzten Jahrzehnte war.

Mitten in dieser Zeit, Anfang 2010, fing ich an für die FAZ zu bloggen. Ich wollte meine ganz eigene Medientheorie des Internets aufschreiben. Alles kulminiert in der These vom Kontrollverlust. Der Kern der Idee: Wir verlieren Kontrolle über Datenströme und alle Folgewirkungen, positive wie negative, und sich die darum scharenden Diskuse können auf dieses Grundphänomen zurückgeführt werden. Unter dem Strich jedoch, da war ich sicher, würde sich dieser Kontrolltverlust lohnen. Im Ganzen werde er positive Auswirkungen auf die Gesellschaft und seine Individuen haben.

Als ich vier Jahre später das Buch 1 dazu schrieb, war die positive Grundstimmung einer desillusionierteren Variante gewichen: “Der Kontrollverlust hat die Welt im Griff. Was heißt schon gut oder schlecht? Jedenfalls sollte man seine Strategien anpassen.” “Machiavelli des 21. Jahunderts” nannte man mich daraufhin.2

Was war in der Zwischenzeit von 2010 bis 2014 passiert? An dieser Stelle werden für Gemeinhin die Snowdenenthüllungen als desillusionierendes Weltereignis angeführt. Es hatte sich gezeigt, dass aussgerechnet die Offenheit der digitalen Technologie von mächtigen Akteuren missbraucht wurde, um Menschen in einem nie dagewesenen Ausmaß auszuspionieren. Diese Möglichkeit jedoch war in der Kontrollverlustthese von vornherein eingepreist. Privatsphäre war etwas, auf das man sich schon länger nicht mehr verlassen konnte.

Jede Dystopie ist in ihrer Realisierung banal. Ja, wir leben heute in der viel beschworenen Überwachungsgesellschaft. Der aktuelle Zustand der Welt übertrifft unsere schlimmsten Erwartungen. Aber hey, sein wir ehrlich. Das ist schon auf ne Art ganz ok. Niemand hat wirklich Angst. Protestieren tun nur ein paar Bürgerrechtler, so aus Prinzip.

Nein, Snowden war nicht der Grund. Es waren drei Entwicklungen, die meine Euphorie gegenüber dem Internet deutlich dämpften.

Erstens: Wir haben gewonnen. Bzw. wir – die Blogger – haben recht behalten. Die grenzenlose Freiheit des Publizierens durch das Internet kam tatsächlich im Mainstream an. Alle haben nun Zugang, jede/r bekommt Öffentlichkeit, wenn er/sie es will. Meinungsfreiheit wurde von einem abstrakten Recht zu einer realen Praxis.

Jede Utopie ist in ihrer Realisierung dystopisch. Ungehinderter Zugang zur Informationsverbreitung und ungehinderter Zugang zu Organisation stellten sich als wirkungsvolle Strukturverstärker nicht nur der Zivilgesellschaft, sondern auch des Hasses heraus. Ein Hass, der bis dahin in den dunklen Gewölben der Eckkneipen eingehegt war und nun mittels gegenseitiger Selbstverstärkung durch die digitalen Ritzen in die Öffentlichkeit quillt. Pegida, das vergessen viele, ist als Facebookgruppe gestartet. Pegida ist unser arabischer Frühling. Hass wird heute online geschürt, Demos und Brandanschläge werden per Messenger koordiniert. Immer mehr Menschen ziehen sich zurück in die Heimeligkeit zwischen Verschwörungsblog und WhatsHass-Gruppe. Auch sie haben ihr Zuhause im Netz gefunden.

Zweitens: Das Netz hat seine Grundstrukturen verändert. 2010 lief ein Großteil des Diskurses – vor allem der um das Netz – auf Blogs und Twitter ab. Es gab eine Vielzahl an Möglichkeiten, sich auszudrücken, obwohl schon damals beobachtbar war, wie sehr geschlossene Plattformen an Relevanz gewannen. Als die Menschenmassen kamen – etwa 2012, gründeten die wenigsten Blogs, sondern strömten zunächst fast ausschließlich auf Facebook. In dieser Zeit verdoppelte Facebook seine Nutzer/innen-Zahlen. Andere geschlossene Plattformen – Instagram, Whatsapp und Snapchat – wiederum profitierten von den Distinktions- und Ausweichbewegungen der jüngeren Generation und wurden ebenfalls in enormen Tempo zu riesigen Playern. All das hat zur Folge, dass das Internet und das open Web als Entität in den Hintergrund getreten ist, es bildet lediglich die Infrastruktur der eigentlichen Interaktionsschnittstellen. Und die werden von den Plattformen bereitgestellt.

Drittens: Das Netz hatte also die Unverschämtheit, sich hinter dem Rücken der ersten Netzcommunity einfach weiterzuentwickeln. Was sich auf Youtube, Instagram, Snapchat und Periscope entwickelte, wurde auf den Blogs der Netzgemeinde kaum reflektiert. Doch auf einmal hatten Einkaufvideos (haul-videos) von 15 jährigen Jugendlichen 100 mal so viele Zugriffe als die wichtigsten netzpolitischen Flagschiffe der Bloggergeneration.

Das mag nach verbitterter Kulturkritik klingen, es ist aber vielmehr das Eingeständnis von vergangenem Größenwahn und aktuellem Nichtverstehen. Es geht mir wie Grandpa Simpson: “I used to be with it, but then they changed what it was. Now what I’m with isn’t it, and what’s it seems weird and scary to me. It’ll happen to you!”3

Dieses “it” war bei uns vor allem die politische und intellektuelle Auslotung des Netzes. Unsere Themen waren immer “special Interest”. Aber wir hatten ja die Gewissheit, dass unsere Anliegen nicht special Interest bleiben würden. Würde das Netz erst Mainstream werden, so dachten wir, würden unsere Debatten und unsere gut informierten Positionen zum Netz ebenfalls im Mainstream einreiten. Kurz: Wir dachten unser “it” würde das “it” sein, wie noch jede Generation vor uns.

Doch die neue Netzgeneration setzt sich nicht mit Netzneutralität auseinander. Sie interessiert sich nicht für Netzsperren oder Datenschutz. Schlimmer noch: für sie ist das Netz kein Begriff mehr, der überhaupt etwas neues verheißt. Sie empfinden keinen Drang alles verstehen zu wollen. Das Netz ist halt da. Es ist ein Alltagsgegenstand, mit dem man Dinge machen kann.

Und hier, am Ende dieser Reise finde ich mich dann doch in wieder. Das Internet ist für diese Generation das, was für mich der Personal Computer war. Und so wenig, wie ich mich in Turing und von Neumann eingearbeitet habe, so wenig mich die Schaltpläne des ENIAC, das Programmieren in Assembler oder Compilerbau interessierten, so wenig spannend finden die Jugendlichen die Geschichte des ARPA-Net, den Kontrollverlust durch TCP/IP oder die Idee des Open Web.

Genauer betrachtet ist das, was sie im Internet machen, viel radikaler. Wir haben unsere Blogs noch in die bestehende Medienordnung einzuordnen versucht. Mit Begriffen wie “Bürgerjournalismus” oder “Gegenöffentlichkeit” suchten wir Anschluss an bestehende Mediendiskurse. Die Kids jedoch interessiert das alles nicht. Sie machen das, was sie machen unter völliger Absehung vorhandener Systeme und Öffentlichkeiten. Sie schaffen neue Medienformate aus sich heraus, aus ihren Interessen und aus ihrem Leben zwischen Playstation, Schulhof und Drogerieeinkauf. Sie kennen den ängstlich rückversichernden Blick auf Relevanz und Anschlussfähigkeit gar nicht, den wir Blogger der alten Schule nie abgelegt haben.

Am Ende, wenn alle Utopien und Dystopien verwirklicht sind, bleibt nur noch die bereits veränderte Welt als neue Normalität. Überwachung und unendliche Möglichkeiten der Öffentlichkeit sind keine Dinge mehr, die man gut oder schlecht finden kann. Das Internet zu beschimpfen oder zu idealisieren macht so viel Sinn, wie über die Vor- und Nachteile von Sauerstoff zu diskutieren. Der Trick heißt Atmen.

  1. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Freiburg 2014.
  2. Business Punk Heft 5/2014: Machiavelli des 21sten Jahrhunderts.
  3. The Simpsons S07E24: Homerpalooza. (Danke an Felix Neumann für die Referenz)


Veröffentlicht unter Das Neue Spiel extern Plattformpolitik reloaded
5 Kommentare

Plattform vs. Staat – Es wird interessant

Jeder staatliche Regulierungsanspruch, der an Plattformen herangetragen wird, wird dort letzten Endes in zentralistischer Kontrolle umgesetzt und stärkt so die politische Machtstellung der Plattformbetreiber. Auf der anderen Seite sind Plattformen geradezu gezwungen, das Recht des einen Staates gegen das Recht des anderen durchzusetzen. Der zweite Treiber des Kontrollverlusts dekonstruiert gerade durch die Kooperation der Plattformen mit den Staaten ihre eigene Grundlage: die durch Grenzen definierten Jurisdiktionen.

Das schrieb ich vorletztes Jahr in „Das Neue Spiel„.

Wir sehen seit geraumer Zeit die sich aus diesem Zusammenhang ergebenden Konflikte fast täglich in den News. Sei es Facebook vs. EU-Datenschutz, sei es das Recht auf Vergessenwerden vs. Google, sei es der Kampf Apples für Verschlüsserlung gegen die US-Politik oder die vielen regionalen Konflikte, in denen sich Uber befindet. Überall knallen Regulierungsbestrebungen von Staaten mit den international ausgelegten Strukturen von Plattformen aneinander. (Siehe dazu ausführlicher meinen Beitrag auf Online Open)

Nun ist ein Gerichtsurteil erfolgt, das uns grundsätzlicher aufhorchen lassen sollte. In Frankreich entschied ein Gericht, dass Facebooks Löschung von – aus seiner Sicht unangebrachter Nacktheit – nach französischem Recht ein nicht zu rechtfertigender Eingriff in die Meinungsfreiheit ist. So weit, so gut. Hier freuen sich die Netzpolitikaktivist/innen, die bis zum Ende ihrer Nasenspitzen denken. Denn viel entscheidender ist, dass sich das französische Gericht in diesem Fall überhaupt zuständig sieht. Facebook hatte sich immer mit dem Hinweis auf die Jurisdiktion in den USA aus solchen Dingen herauslaviert.

Diese Entscheidung ist teil eines Trends. Schon das Safe Harbor-Urteil nagelt amerikanische Plattformanbieter sehr viel stärker an europäische Gesetze. Ebenfalls ein französisches Gericht will Googles Löschungen im Bezug auf das Recht auf Vergessenwerden gerne in der ganzen Welt durchgesetzt sehen. Was wiederum ein unzulässiger Eingriff in die Redefreiheit in anderen Juristdiktionen bedeuten dürfte.

Wenn dieser Trend anhält, das Französische Urteil also eine Signalwirkung entfaltet oder gar vom EuGH bestätigt wird, wird es richtig spannend. Einen gemeinsamen, universellen Dienst Länderübergreifend anzubieten wird dann quasi unmöglich. Das Durchsetzen des Rechts des einen Staates ist oft nur mit im anderen Staat illegalen Mitteln machbar. Facebook – und jede andere Kommunikationsplattform – müsste dann nach Jurisdiktionen aufgesplittet werden. Auf Facebook.de kann ich mich dann nur noch mit meinen deutschen Freunden unterhalten.

Ich glaube … ich hoffe(!) nicht, dass es so kommt. Ich stelle mir hier lieber pragmatischere Alternativen vor. Ich will drei Szenarien vorstellen:

1. Plattformanbieter werden die Nutzer/innen auffordern, selbstständig anzugeben, welcher Nation sie angehören. Alle lügen und sagen, sie seien Amerikaner.
Problem: das wird europäischen Politikern wahrscheinlich nicht genügen. Sie werden darauf drängen, dass Facebook Geoblocking oder ähnlich ekelhaftes einsetzt, um ihr Recht durchgesetzt zu sehen.

2. Plattformanbieter werden sich aus der EU zurückziehen. Zumindest geschäftlich. Wer mit Facebook geschäftlich zu tun haben will, muss sich an die Mutterzentrale in Menlo Park wenden.
Problem: Das könnte neue Rechtsunsicherheiten bringen und sehr wahrscheinlich zu intensiv in die Einnahmeseite der Plattformanbieter eingreifen. Es ist eine Frage, ob sie sich das leisten können. Und wollen.

3. Plattformanbieter fordern für sich eine – zumindest zum Teil – eigenständige, selbstregulierte Zone zu sein, in der die Regulierungskompetenzen der Länder nur bedingt gelten. Sie definieren dafür ihre eigenen Spielregeln sehr viel klarer als bisher und etablieren eigene Strukturen, diese transparent, nachvollziehbar und kontrolliert durchzusetzen. Sie gestalten ihre Regeln natürlich möglichst nahe an den Gesetzen ihrer wichtigsten Heimatmärkte, beharren aber darauf, deren Gesetze nur partiell (sofern sie mit den eigenen Standards übereinstimmen), auch durchzusetzen. Im Zweifel lassen sie sich dafür auch Sperren gefallen (wie in China und teils in der Türkei ja bereits gängige Praxis).
Problem: Staaten müssten ihre eigentlich universell verstandene Regulierungskompetenz freiwillig einschränken. Das scheint derzeit kaum vorstellbar. Aber vor dem 30jährigen Krieg war auch nicht vorstellbar, dass Reiche ihren universellen Führungsanspruch in der Welt zugunsten eines Nebeneinanders von souveränen Staaten einschränken.

Ich persönlich denke, dass es langfristig auf Option drei zulaufen wird. Darüber hatte ich neulich mal mit Christoph Kappes diskutiert. Dann wären Plattformen eigenständige, politische Gebilde auf Augenhöhe von Staaten. Aber das prophezeihe ich ja auch schon in meinem Buch.

Staaten sind in vielerlei Hinsicht ein organisatorisches Auslaufmodell. Es braucht internationale Strukturen, die den veränderten Informationsbedingungen nicht nur Rechnung tragen, sondern sie direkt implementieren. Und das sind nun mal Plattformen. Ob Facebook oder sein Nachfolger. Irgendwann werden sie ihre Souveränität fordern. Müssen.


Veröffentlicht unter Das Neue Spiel Plattformpolitik Weltkontrollverlust
2 Kommentare

Die Webregierung, Teil I – Der Tod des Open Web

Auf unserem Talk auf der re:publica haben Sebastian Gießmann und ich beschrieben, wie in den letzten 10 Jahren eine Transition vom Netzwerk hin zur Plattform stattgefunden hat. Plattformen entstehen, wenn sich Netzwerke verstetigen und mittels Ausprägung von bürokratischen Medien wie Standards, Protokollen – oder meistens: einem zentralistischen Regime – institutionalisieren. Das hat zur Folge, dass auf der einen Seite Handlungsspielräume einschränkt, dafür aber neue Sicherheiten geschaffen werden. Diese Sicherheiten ermöglichen dann wieder neue, oft komplexere Nutzungspraktiken.

Der Siegeszug der zentralistischen Plattformen steht dabei ganz besonders im Widerspruch zu vielem, was Ende der 90er Jahre unter dem Paradigma des Netzwerkes gefeiert wurde. Die erfolgreichsten Plattformen sind heutzutage zentralistisch, kontrollwütig und in sich geschlossen.

Eines der prominenteren Opfer dieser Plattformisierung ist das Open Web, also die Idee eines rein auf offenen Standards basierenden Netzwerkes von einander unabhängig betriebener Websites. Die Merkmale Offenheit und Dezentralität haben das Web zuvorderst attraktiv gemacht und zu seinem Siegeszug geführt. Sie haben aber auch Player hervorgebracht, die es nun massiv bedrohen. Die Revolution frisst ihre Eltern.

Facebook hat einmal als eine Website unter vielen Millionen angefangen. Doch dieses Netzwerk im Netzwerk saugte über die letzten Jahre die Usecases des Webs und damit die Nutzer/innen fast vollständig in sich auf. Würde man Facebook weiterhin als Teil des Webs betrachten (das ist zweifelhaft, da heute weit über 50% der Nutzer/innen per mobiler App auf Facebook zugreifen), dann hat Facebook ein großes schwarzes Loch inmitten des offnen Webs gerissen. Es gibt ein paar Anschlussstellen – öffentliche Posts können noch verlinkt werden – aber der Großteil des Facebookuniversums bleibt in den Untiefen der Privacyeinstellungen seiner Nutzer/innen verborgen.

Und damit auch vor Google. Google, die mit ihrer Suchmaschine eine gewisse Symbiose mit dem Open Web pflegen ist das schon lange ein Dorn im Auge. Sie wissen eigentlich gar nicht mehr, was im Internet passiert, weil der Großteil der relevanten Signale (Wer linkt auf was, welche Artikel sind heiß diskutiert? Sowie natürlich der ganze Content, der nur auf Facebook stattfindet) ihren Crawlern verborgen bleibt. Der Versuch, Facebook mit Google+ eine Entsprechung entgegenzusetzen muss heute als gescheitert gelten.

Auf Lange Sicht bedeutet das scheitern des Open Web, dass Facebook den Werbemarkt auf dauer dominieren wird, während Google immer mehr an Relevanz verlieren wird.

Es gibt viele Gründe für das Scheitern des Open Web. Ich möchte an dieser Stelle vier systemische Gründe nennen, die ich für die wesentlichsten halte:

1. Transaktionskosten

Eine Website zu betreiben war immer schon mit einer Menge Aufwand verbunden. Man braucht einen Webspace und eine Domain, das kostet Geld. Man muss sich mit Technik auskennen, zumindest soweit, um ein Content Mangementsystem installieren und warten zu können. Hinzu kommen viele rechtliche Unsicherheiten. Wie ist das mit der Impressumspflicht? Es drohen Abmahnungen wegen Urheberrechts-, Wettbewerbsrechts- und Persönlichkeitsrechtsverletzungen. Hinzu kommen ab 2018 eine ganze Latte neuer Rechtsunsicherheiten durch die neue Datenschutzgrundverordnung der EU. Der Jugendmedienstaatsvertrag wird demnächst weitere Unheile bringen. Auch ich überlege ernsthaft 2018 meine Domains zu kündigen.

Die Rechnung ist recht einfach: Je größer der regulatorische Druck und die rechtliche Unsicherheit im Netz wird, desto unattraktiver wird das Open Web und umso attraktiver werden zentralistische Plattformen. Eine Plattform wirkt wie ein Puffer, der vor den meisten rechtlichen Angriffvektoren schützt. Notice and Takedown mag man als orwellsches Kontrollinstrument der Urheberrechtslobby verteufeln. Es schafft aber für millionen Menschen überhaupt die nötige Rechtssicherheit auch ohne Jurastudium im Internet veröffentlichen zu können. Auch um Datenschutz muss ich mich als Betreiber von einer Facebookpage nicht kümmern (es sei denn, ich lebe in Schleswig-Holstein ). Es ist alles geregelt. Ob gut oder schlecht, liegt nicht in meiner Verantwortung.

2. Features

Das ist ziemlich offensichtlich, aber eigentlich auch erstaunlich: Facebook ist in Sachen Features und Usability allen Ansätzen aus dem Open Web meilenweit voraus. Und selbst WordPress hat es als populärstes Content Mangement System trotz seiner großen „installed Base“ nicht geschafft, featuremäßig auch nur in die Nähe zu kommen. (Und nein. Ich will über Diaspora nicht reden. Wenn ihr über Diaspora reden wollt, geht bitte zu Diaspora. Dort gibt es bestimmt Leute, die das interessiert.)

Es scheint so zu sein, dass ein Unternehmen mit genügend Ressourcen und zentralem Produktmangement einfach schneller und effektiver populäre Produkte und Features entwickeln kann, als eine gegebene Open Source Community.

3. Kontrolle

Noch etwas anderes ist auf Facebook vorhanden, dass es im Open Web nicht gibt: Kontrolle. An anderer Stelle habe ich ausgeführt, warum die geschlossenen Plattformen auch eine Antwort auf den Kontrollverlust sind. Sie heben den Kontrollverlust nicht auf, aber sie mindern in gewisser Hinsicht seine Wirkung bei vielen Anwendungsfällen. Urheber/innen und Verwerter/innen bekommen zwar ihr altes Geschäftsmodell nicht zurück, aber finden wieder einigermaßen kontrollierbare Absatzwege. Nutzer/innen finden zwar keine Privacy, dafür aber Privacyeinstellungen. Den meisten reicht das. All gibt es nicht im Open Web, denn es lässt sich nur sinnvoll umzusetzen, wenn ein zentrales Regime eine gewisse Kontrolle auch durchsetzen kann.

4. Tragödie der Allmende

Dieser Punkt ist verwandt mit dem Oberen, geht aber darüber hinaus. Ausnahmsweise ist mal nicht die Überlegenheit der Plattform schuld, sondern das Open Web selbst. Es begeht in gewisser Weise seit vielen Jahren einen schleichenden Selbstmord.

Es ist verdammt hässlich geworden. Man traut sich kaum noch irgendeinen Link zu klicken. Die Websites laden ewig, sind zugedeckt mit nerviger Layover-Werbung, es werden etliche Skripte und Tracker geladen, die die Lüfter zum Glühen bringen, etc. Kurz: es wird zunehmend unmöglich, überhaupt noch Inhalte im Web zu konsumieren.

Es gibt einen Begriff dazu aus der Ökonomie. Tragedy of the Commons. Es ist die allgemeine Beobachtung, dass Gemeingüter mit der Zeit mittels Überwirtschaftung durch egoistische Akteuere zu Grunde gehen. Was überall auf der Welt mit Wiesen, Wäldern und Äckern geschah, passiert derzeit mit dem Open Web. Die offene Struktur hat neben all den positiven Praktiken auch negative ermöglicht. Niemand kann Einschränken was jemand auf seiner Website treibt. Und deswegen wurde viel gemacht, was Geld bringt. Und dann wurde mehr gemacht, was Geld bringt. Und dann noch mehr.

Die Quittung bekommen die Websites zwar derzeit durch die Massenverbreitung von Adblockern, aber das wird wiederum zu Abwerhmaßnahmen führen. Am Ende bleiben wahrscheinlich auch nur die Paywalls hinter die sich die Verlage flüchten, also eine weitere Abkehr vom Open Web.

Doch an dieser Stelle kommen die Plattformen wieder ins Spiel. Dass Apple mit News als auch Facebook mit Instant Articles jetzt den Verlagen das Angebot machen, bei ihnen Unterschlupf zu finden, ist die Antwort auf die selbstverschuldete Miesere. Auf den Plattformen sind die Möglichkeiten der Verlage extrem eingeschränkt. Aber gerade das könnte sie retten, so wie schon iTunes die Musikindustrie vor dem trotzigen Freitod bewahrte. Nachrichten werden so wieder lesbar und die Plattformen ermöglichen den Verlagen dennoch ein Einkommen, indem sie sie an den Webeeinnahmen (Facebook) oder Einnahmen (Apple) beteiligt. Ob das klappt, steht noch nicht aus, aber die Chancen stehen nicht schlecht.

Wenn die Rechnung aufgeht, wäre dann wohl das Ende des Open Web, denn sonst bleibt nicht mehr viel übrig. Klar, Websites werden nicht von heute auf morgen abgestellt. Das Usenet gibt es ja auch immer noch. Aber wenn wir dann in 10 Jahren vom offnen Web erzählen, wird es so klingen wie heute, wenn die Nerds umdie 40 von ihren ersten Ausflügen in eine Mailboxen erzählen.

Ich persönlich habe für mich das Open Web bereits abgehakt. Es war eine gute Idee. So wie der Kommunismus eigentlich eine gute Idee war.

Aber es soll nicht um mich gehen. Was ich tue oder lasse hat eh keine Auswirkungen. Viel interessanter ist, dass es noch einen mächtigen Akteur gibt, der das Web nicht sterben lassen will: Google.

Google verdient nach wie vor einen Haufen Geld mit dem open Web und macht sich wahrscheinlich auch deswegen auf, das Web vor sich selbst zu retten. Zu diesem Zweck reißt das Unternehmen aggressiver denn je die Führungsrolle an sich. Wie man etwas regieren kann, dass eigentlich unregierbar ist, werde ich im nächsten Teil beschreiben.


Veröffentlicht unter Das Neue Spiel Plattformpolitik
17 Kommentare

Game of Things

/*******
9783837630466_216x1000Im Sommer fragte mich der großartige Christoph Engemann, ob ich nicht die schönsten Tage im Jahr damit zubringen wolle, einen ellenlangen Text für einen Reader zum Internet of Things zu verfassen. Da man zu Christoph Engemann nie nein sagt, habe ich natürlich zugesagt. Das Buch: „Internet der Dinge – Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt“ (Werbelink) ist jetzt raus und sehr empfehlenswert. Es finden sich unter anderem Texte von Mercedes Bunz, Linus Neumann und Sebastian Gießmann darin. Mein Text versucht anhand von „Game of Thrones“ die wirtschaftswissenschaftlichen Grundlagen des Internet of Things zu erklären. Und weil Linus das auch gemacht hat, stell ich hier auch mal meinen Text zur Verfügung. Quasi als Werbung für das Buch.
********/

Vorrede

Mit Friedrich Kittler hielt eine Neuerung innerhalb der Geisteswissenschaften Einzug, die wohl sein wichtigstes Vermächtnis bleibt: Das Interesse und die deutliche Einbeziehung von technischem Sachverstand in eine Disziplin, die bislang mit ihrer Technikferne und ihrer abstinenten und kritischen Haltung gegenüber technischen Neuerungen geradezu kokettierte. Dies war ein wichtiger Schritt, der die Medienwissenschaften in der Tiefe, wie sie heute praktiziert wird, erst ermöglichte. Natürlich würde heute niemand mehr abstreiten, dass technisches Design sowie die Möglichkeiten und Unmöglichkeiten der Apparatur in medientheoretischen Überlegungen mit einfließen müssen.

Mit dem kittlerschen Diktum hat sich die Medienwissenschaft aber auch in eine Sackgasse begeben. Die Anschauung des »Geräts« reicht lange nicht mehr aus, um die Entwicklungen der letzten 15 Jahre auch nur annähernd adäquat beschreiben zu können. Das Gerät wurde vernetzt und vor allem in dieser Vernetzung hat es seine ungeheuer weltverändernde Kraft entwickelt, der wir heute gegenüberstehen. Kulturelle Praktiken und soziale Zusammenhänge, historische Konstellationen und die Betrachtung technischer Artefakte allein können den heutigen Stand der Medien nicht mehr erfassen. Sie erklären nicht die Größe von Google oder den Erfolg von Facebook. Sie verstehen die Machtspiele des Silicon Valley nicht und sind nicht kompetent im Erklären der Machtstrukturen.
Diese Kompetenz wird stattdessen den Wirtschaftswissenschaften zugeschrieben und das mit einem gewissen Recht. Während sich die Medienwissenschaften dem Gerät zuwendeten, hatten die Wirtschaftswissenschaften zunehmend die Transaktion und die Distribution von Information zu ihrem Gegenstand. Zusätzlich zwangen sogenannte »Externe Effekte«, die Wirtschaftswissenschaft immer wieder sich von ihrem ureigensten Thema – dem Markt – zu lösen und die Mechanik von Vernetzungszusammenhängen zu verstehen. So sammelten sich nach und nach Theorien über die Mechanik von zirkulierenden Zeichen in komplexen sozialen Gefügen, die – so meine Überzeugung – auch außerhalb der Wirtschaftswissenschaften ihren Nutzen haben können.

Statt sich also nur im Kleinklein technischer Details zu verlieren und historische Zusammenhänge zu suchen, wo doch gerade Neues entsteht, sollten die Medienwissenschaften prüfen, wie Theorien um »Disruption«, »Netzwerkeffekte« und »Transaktionskosten« ihnen helfen können, die aktuellen Medienformationen zu deuten.

Doch auch die Wirtschaftswissenschaften alleine tragen nur bis zu einem gewissen Punkt. War der Computer noch mit Müh und Not (auch) als Medium zu begreifen, wird es beim kommenden Internet of Things noch enger. Wenn Dinge durch ihre Ausstattung mit Mikrochips anfangen »mediale Eigenschaften« zu implementieren, werden sie nicht zu Medien im klassischen Sinne. Sie sind weit mehr, als die menschlichen Sinnesorgane erweiternden Prothesen, wie McLuhan sie noch sah. Die vernetzten Dinge leihen ihre Sinnesorgane nicht mehr in erster Linie dem Menschen, sondern zunehmend einander. Die Dynamik des dabei entstehenden Netzes einander zuhörender, kommunizierender, regulierender und einander kontrollierender Dinge, ist auch für die anthropozentrische Wirtschaftswissenschaft kaum mehr zugänglich.

Es wird also einerseits Zeit, sich im Werkzeugkasten der Wirtschaftswissenschaften zu bedienen. Das geht auch, ohne alle ihre Prämissen zu signieren. Andererseits soll das nicht ohne Rückgriff auf aktuelle sozialwissenschaftliche und kulturwissenschaftliche Theorien geschehen. Zu zeigen, wie wunderbar sich diese ergänzen – dafür gibt die Debatte um das Internet of Things hier Anlass.

1. Das Spiel um die Netzwerkeffekte

»You know nothing, Jon Snow«, ist der Satz, den Ygritte dem »Bastard« und Mitglied der »Nights Watch« Jon Snow immer wieder zuruft. Wir befinden uns bei Game of Thrones (Buch: Song Of Ice and Fire), jener populären Buch- und später Fernsehserie, die ihre Fans in Atem hält. Game of Thrones spielt in einem leicht Fantasy-haften Parallelmittelalter. Game of Thrones ist nur oberflächlich gesehen eine Fantasy-Saga. In Wirklichkeit sind trotz Magie, Drachen und Riesen die Machtspiele und politischen Verstrickungen der Menschen die entscheidenden Treiber der Handlung.

Das Setting ist wie folgt: Die sieben Adelshäuser auf dem Kontinent Westeros befinden sich im fortwährenden Konflikt um den eisernen Thron. Dieser wird mal als Intrige, zeitweiser Koalition, Verrat oder offenem Krieg ausgetragen. Jede der Familien hat, für sich genommen aus rein subjektiver Perspektive, einen gewissen Anspruch auf den Thron – oder glaubt zumindest, einen zu haben. Die sich in vielen nebeneinander verlaufenden Strängen verwickelnde
Handlung bringt komplexe politische Situationen hervor, die regelmäßig in spektakulären Showdowns zu unerwarteten Wendungen führen.

Trotz des erratischen Settings ist diese Erzählung auch gerade deswegen so populär, weil sie mit gelernten narrativen Strukturen bricht. In dem Handlungsgeflecht voller Eitelkeit, Hinterlist und politischem Verrat fallen die Protagonisten sinnbildlich wie die Fliegen. Tragende Figuren, die über viele Episoden mühsam aufgebaut wurden, werden mit der Leichtigkeit eines Fingerstreichs aus der Handlung befördert. Gerade diejenigen, die sich mit ihrer Ritterlichkeit und Reinherzigkeit unsere Sympathien erspielen, sind auch diejenigen, die schnell in den Hinterhalt gelockt und getötet werden.
Jon Snow ist so einer dieser ritterlichen Charaktere. Als unehelicher Sohn des Hauses Stark hat er einen relativ unterprivilegierten Status und bewacht als Ritter der »Nights Watch« die nördliche Mauer aus Eis, die Westeros vor den Gefahren aus der vereisten Welt jenseits der Mauer beschützen soll. »You know nothing« kann also als Mahnung verstanden werden, als ein Verweis auf die Naivität desjenigen, der die Regeln des Spiels nicht versteht, das er spielen soll.

In einer ähnlichen Situation stehen wir heute. Das Spiel hat sich durch die Digitalisierung und das Internet radikal verändert. Geschäftsmodelle, Lebenskonzepte, politische und soziale Gewissheiten wirken immer seltener tragfähig. Es findet nicht nur eine Anpassung der einen oder anderen Spielregel statt, das gesamte Spiel ist ein anderes,1 und so führt die Interpretation aktueller Ereignisse unter den Prämissen des alten Spiels regelmäßig zu Missverständnissen.

Als Facebook 2012 Instagram für insgesamt eine Milliarde Dollar kaufte, waren selbst Silicon-Valley-Kenner geschockt. Eine solche Unternehmensbewertung für ein Unternehmen, das erst zwei Jahre alt war und nur 13 Mitarbeiter hatte, war ein Dammbruch. Natürlich wurde heiß über eine neue Technologie-Blase diskutiert, die sich vermeintlich aufgetan hätte.

Rückblickend aber erscheint die Milliarde für Instagram beinahe mickrig, seitdem Facebook nur wenige Monate später WhatsApp für insgesamt 19 Milliarden Dollar gekauft hat. WhatsApp war zum Zeitpunkt des Kaufs noch kleiner als Instagram und hatte noch weniger Mitarbeiter. Hinzu kommt, dass WhatsApp von seinem technologischen Ansatz her viel trivialer ist als ein richtiges Social Network wie Instagram.

Unter den herkömmlichen ökonomischen Prämissen ist so eine Investition kaum zu rechtfertigen. Was also hat den als wirtschaftlich kühl agierend bekannten Facebook-CEO Mark Zuckerberg dazu getrieben, in kürzester Zeit so viel Geld für zwei vergleichsweise junge und kleine Start-Ups auszugeben? Es war viel davon die Rede, dass es Facebook vermutlich um die Daten gehe und es wurde ausgerechnet, was das Unternehmen faktisch pro User auf den Tisch gelegt hatte. Andere vermuteten eine selten kostbare Belegschaft, die sie sich einverleiben wollten.

»You know nothing« würde Ygritte ihnen zurufen. Sie wissen nicht, wie das Spiel funktioniert, sie verstehen nicht, was auf dem Spiel steht. Mark Zuckerberg aber weiß es: es geht nur um die Netzwerkeffekte. Sie sind schlussendlich einer der Gründe, warum Facebook so erfolgreich ist und eben diese Netzwerkeffekte, sind auch der Grund, warum Zuckerberg trotzdem nicht gut schlafen kann.

Netzwerkeffekte sind so genannte positive Rückkopplungen, die auf das Wachstum eines Netzwerkes wirken. Der allererste Telefonnutzer hatte nicht viel Freude an seinem Gerät. Ein Telefon stiftet erst Nutzen, wenn es mit anderen Telefonen verbunden wird. Dieser Nutzen steigt mit jedem einzelnen Teilnehmer, der an das Netzwerk angeschlossen wird. 2

Die Netzwerkeffekte gelten selbstverständlich auch für alle andere Arten von interaktiven Kommunikationssystemen: für Faxmaschinen, Telefonsysteme oder Netzwerkprotokolle, aber auch für solche Dinge wie Standards in der Computertechnologie. Überall dort, wo unterschiedliche Teilnehmer interagieren und dies auf einer standardisierten Grundlage tun, kommen die Netzwerkeffekte zum Tragen. Das Neue an der Situation von Facebook und anderen Plattformen sind also gar nicht die Netzwerkeffekte. Die Netzwerkeffekte kommen nur heute stärker zum Tragen, denn etwas hatte sie bis jetzt gefesselt. Neben den positiven Rückkopplungen, die alle Tendenzen immer nur verstärken, gibt es auch solche, die alle Tendenzen immer schwächen. Eine solche negative Rückkopplung sind die Kosten, die Vernetzung produziert. Mit Kosten sind nicht nur Kosten gemeint, die tatsächlich Geld kosten, sondern es meint alle Kosten: jeden zusätzlichen Aufwand, jede extra Anstrengung, jede zusätzliche Zeit, aber vor allem auch jede zusätzliche Unsicherheit, die ich in Kauf nehmen muss, um z.B. zu kommunizieren.3 Diese Kosten zur Kommunikation sind es, die die Netzwerkeffekte in ihrem Wirken bislang immer gebremst haben. Und diese Kosten brechen durch das Internet und die Digitalisierung in einem größeren Maßstab weg.

Der erste Kommunikationskostenfaktor der wegfiel, waren die Kosten für die Überwindung von Entfernung. Noch bei Telefonbedingungen spielte Entfernung eine große Rolle. Unterschiedliche regionale, später nationale Telefonnetze mussten überbrückt werden und die Telefongesellschaften ließen sich diese Überbrückung gut bezahlen. Vollkommen unterschiedliche und intransparente Tarife für Orts-, Landes- oder internationale Gespräche waren die Folge. Erst im Internet sind Entfernungen nur noch eine Frage von Latenz und unterschiedlichen Zeitzonen. Die Kosten von Kommunikation von einem Internetknoten zum anderen sind fast überall gleich und quasi bei null. Solange die Kosten für Fernkommunikation noch an die Entfernungen gekoppelt waren, bedeutete das, dass mit zunehmender Vernetzung zwar der Nutzen des Netzwerkes für die Teilnehmer stieg, aber dass dieser Nutzen durch die steigenden Kommunikationskosten mit zunehmender Entfernung wieder neutralisiert wurde.

Ein zweiter Kommunikationskostenfaktor ist der der sozialen Komplexität. Bei der Einführung der kommerziellen Telefonie um 1848 in den USA wurden alle Telefone noch zu sogenannten Party Lines zusammengeschlossen.4 Wenn man den Telefonhörer abnahm, war man mit allen Teilnehmern des Telefonnetzes gleichzeitig verbunden. Ein grandioses Chaos, das zu vielen interessanten sozialen Situationen führte, aber die Nutzer auch schnell überforderte. Erst als die Schalttafeln für Einzelverbindungen der Teilnehmer untereinander 1878 Einzug hielten, wurde diese Komplexität wieder auf ein handhabbares Maß reduziert.

Das Internet durchlief in seiner Entwicklung vom Entstehen hin zu seiner jetzigen Form eine ähnliche Entwicklung: Zunächst waren Chatrooms und Foren im Web der Ort, an dem sich Menschen austauschten. Genau wie die Partylines in der Frühzeit des Telefons spricht der Nutzer dort in einen Raum hinein und alle, die sich zu diesem Zeitpunkt virtuell in diesem Raum befinden, können mitlesen, antworten und so mit dem ursprünglichen Sender in Kontakt kommen – egal, ob dies ursprünglich von diesem antizipiert worden war oder nicht. Zwar gab es mit Angeboten wie EMail auch bereits eins-zu-eins Kommunikation, die innerhalb kürzester Entwicklungszeit mit Instant Messengern ergänzt wurden, aber nichts davon war wirklich neu: Die bidirektionale Kommunikation kennen wir bereits aus der analogen Welt, genauso wie die Kommunikation mit einer Masse von Menschen. Erstere ist denkbar einfach, letztere erreicht schnell ihren Grenznutzen, je mehr Leute am Gewimmel teilnehmen. Wer schon mal in einem Meeting mit mehr als drei Leuten saß, kennt dieses Scheitern an der Komplexität.

Doch die eigentliche Komplexitätsrevolution kam erst mit dem sogenannten Social Web. Mithilfe von gut skalierbaren relationalen Datenbanken können komplexe soziale Verhältnisse abgebildet werden.5 Relationale Datenbanken speichern Daten in voneinander unabhängigen Tabellen. Zusätzlich kann man die Beziehung der Datensätze untereinander in sogenannten Verknüpfungstabellen speichern. Erst mit der Abfrage der Datenbank – die bei relationalen Datenbanken in einer speziellen Abfragesprache (SQL) verfasst wird – können die komplexen Verknüpfungen dann mit aufgerufen werden. Die Freundschaften bei Facebook zum Beispiel oder die Abonnements bei Twitter sind eigentlich nichts anderes, als eine solche Verknüpfungstabelle, die die eigentlichen Profildaten miteinander verknüpfen. Das soziale Netzwerk ist also ein rein virtuelles Netzwerk, gespeichert in den Tiefen der Datenbanktabellen auf den Servern einer zentralen Recheneinheit. Neben dem »Raum«, in dem alle gemeinsam sprechen, und der einfachen bidirektionalen Konversation gibt es nun den Graphen, ein komplexes Geflecht aus den selbstgewählten Beziehungen, die man in einem sozialen Netzwerk knüpfen kann.

Diese beiden Entwicklungen, die die Kommunikationskosten kollabieren ließen, entfesselten die Netzwerkeffekte. Das ist der Grund, weshalb Internetplattformen ein so scheinbar unbegrenztes Wachstum feiern. Je größer sie werden, desto größer wird die Attraktion und der soziale Druck, sich ihnen anzuschließen. Man kann deswegen die Netzwerkeffekte als »soziale Gravitation« bezeichnen. Und diese Metapher trägt weiter als man denkt.

Als 2006 eine eigens dafür einberufene Kommission den Begriff »Planet« neu fasste, fiel Pluto durch das Raster. Pluto, jahrzehntelang das kleine, abseitige Nesthäkchen in unserem Sonnensystem, wurde von heute auf morgen der Planetenstatus entzogen. Der entscheidende Satz dazu in der neuen Planetendefinition lautet: »[Ein Planet ist ein Objekt, das] das dominierende Objekt seiner Umlaufbahn ist, das heißt, diese über die Zeit durch sein Gravitationsfeld von weiteren Objekten ›geräumt‹ hat.«6 Pluto wurde der Planetenstatus aberkannt, weil sich in seiner Umlaufbahn teilweise größere Gesteinsbrocken als er selbst finden. Pluto hatte im Gegensatz zu Facebook seine Umlaufbahn nicht geräumt, sein Gravitationsfeld wirkte nicht stark genug.

Und damit sind wir wieder bei Facebook. Wenn Mark Zuckerberg eskalierende Milliardensummen für Start-Ups ausgibt, dann tut er dies, um seine Umlaufbahn frei zu räumen. Facebook räumte seine Umlaufbahn frei, als es Myspace aus dem Orbit rammte. Facebook räumt seine Umlaufbahn frei, als es sich Instagram und WhatsApp einfach einverleibte. Alles, was eine hinreichend direkte Konkurrenz zu Facebooks Funktionalität bildet und eine rasant wachsende Nutzerbasis hat, kann Facebook im Handumdrehen brandgefährlich werden.

Und Facebook ist nicht alleine. Auch andere große digital agierende Unternehmen gehen diesen Weg, um ihre Marktmacht zu sichern: Ebay räumt seine Umlaufbahn von anderen Auktionsplattformen, Amazon von anderen Onlineversandhäusern etc. Die von Kommunikationskosten befreiten Netzwerkeffekte sind das eigentliche Spiel um den Thron im Internet. Es sind viele Königshäuser da draußen, die ihre Umlaufbahnen freihalten, sie gelegentlich verlassen und kollidieren. Je länger dieses Spiel geht, desto klarer wird, dass es dem Game of Thrones ähnelt: The winner takes it all.

2. An den Grenzen der Menschheit

»When you play the Game of Thrones, you either win or die, there is no middleground« heißt es bei Game of Thrones. Wir befinden uns mitten im Spiel um den eisernen Thron. Einige Königshäuser haben bereits beträchtliche Macht akkumuliert, immer wieder kommt es zu Konflikten, Kollisionen und Machtspielen. Und alle kämpfen nicht nur um den Thron, sondern auch um ihr Überleben.

Facebook hat ein Problem. Es kann nicht mehr weiter wachsen, denn es ist an die Stratosphäre der Menschheit gelangt. Hier oben ist die Luft dünn. Etwa die Hälfte der ans Internet angeschlossenen Menschheit hat bereits ein Facebook- Konto. Die andere Hälfte ist für Mark Zuckerberg nur sehr schwer zu bekommen. Es ist unwahrscheinlich, dass diese Menschen von Facebook noch nichts gehört haben und so muss es andere Gründe haben, warum sie den Dienst nicht nutzen. Entweder haben sie sich bereits bewusst gegen Facebook entschlossen oder aber sie können Facebook nicht nutzen, weil sie zum Beispiel in Ländern wohnen, wo der Dienst geblockt wird. Da dazu neben China auch viele andere sehr bevölkerungsstarke Länder gehören, sind das sehr viele Menschen.

Diese Grenze sieht man bereits im Wachstum. Zwar wächst Facebook immer noch, aber immer langsamer. Der Wachstumsgraph wird zur Asymptote, er nähert sich langsam aber sicher einem Null-Wachstum an. Die positiven Netzwerkeffekte versiegen langsam aber sicher an den Grenzen der Menschheit. In den entwickelten Ländern fallen bereits die Nutzer-Zahlen und die Nutzungsdauer stetig. Nur die Wachstumsmärkte halten den Wachstumstrend aufrecht.7 Eine Studie der Princeton Universität sieht Facebook bereits 2017 auf dem Schrumpfungskurs.8

Das ist gefährlich, denn die positive Rückkopplung, die die Netzwerkeffekte ja bewirken sollen, besagt eben nicht nur, dass ein Dienst, der im Wachstum begriffen ist, dadurch attraktiver wird. Positive Rückkopplung bedeutet auch, dass ein Dienst, der schrumpft, immer unattraktiver wird. Wenn immer weniger Menschen, mit denen ich interagiere, den Dienst nutzen, sinkt auch der Nutzen, den der Dienst mir stiftet. Die positive Rückkopplung hat auch einen Rückwärtsgang. Würde das geschehen, würde Facebook in eine sich selbst beschleunigende Schrumpfungsspirale geraten. Es würde den Berg rückwärts hinunterrollen, den es erklommen hat.

Henry Ford hatte nach dem ersten Weltkrieg ein ähnliches Problem. Er war zu erfolgreich. Mithilfe des Fließbandes, strenger Arbeitsteilung und innovativer Managementtechnik hatte er seine Konkurrenz deklassiert. Er konnte schneller, besser und billiger Autos produzieren als alle anderen. Ähnlich wie Zuckerberg ist auch Ford ein Getriebener der positiven Rückkopplung. Der sogenannte Skaleneffekt besagt, dass mit steigender Produktionsstückzahl die Grenzkosten pro produziertem Stück sinken. Mit anderen Worten: Je mehr man produziert, desto billiger kann man produzieren und damit auch verkaufen – was in der Theorie die Nachfrage verstärkt, weswegen man mehr produzieren kann.
Ford-Autos waren sehr populär und beinahe jede Familie, die es sich leisten konnte, hatte sich bereits eines gekauft. Und das war das Problem: Die vorhandene Nachfrage war erfüllt und der Markt in seiner Form gesättigt. Das Wachstum stagnierte und Ford suchte nach neuen Möglichkeiten, dieser Stagnation entgegenzuwirken, die Nachfrage wieder anzukurbeln und in der Folge wieder mehr Autos zu verkaufen. Im Zuge dieser umsatzgetriebenen Problemstellung kam dem Unternehmer die wesentliche Idee, die den Begriff des »Fordismus« erst allgemein etablieren sollte. Er zahlte seinen Arbeiter einfach Lohnzuschüsse und gab ihnen das Wochenende frei – Konzessionen, die rein betriebswirtschaftlich unsinnig waren, kosteten sie ihn doch einfach Geld. Die Kalkulation war aber eine andere: Mit dem extra Geld und den freien Wochenenden hatten die Arbeiter einen Anreiz, selbst einen Ford zu kaufen. Ford produzierte also neben Autos auch gleichzeitig seine Kunden mit.

Facebook und Google müssen sich an Henry Ford ein Beispiel nehmen und jetzt, wo der bestehende Markt gesättigt ist und die Nutzerstruktur längst nicht mehr in der Form anwächst, wie es die Unternehmen aus ihren Anfangsjahren gewöhnt sind, neue Nutzer »produzieren«. Praktisch bedeutet das, dass die Konzerne seit einiger Zeit daran arbeiten, das Gesamtvolumen des digitalen Marktes auszubauen. Facebook tut das zum Beispiel mit seinem Projekt Internet.org. Die Domainendung .ORG wird häufig von gemeinnützigen Organisationen wie NGOs benutzt. Internet.org tritt entsprechend als gemeinnützige Aktion auf und verspricht, strukturschwache Regionen an das Internet anzuschließen. Facebook hat dafür mehr als einen Weg vorgesehen, aber die spektakulärste Variante ist wohl, dass Facebook gedenkt Satelliten ins All zu schicken und mit segelfliegenden autonomen Drohnen W-Lan-Zugang anzubieten. Derzeit wird aber die größte Masse an Menschen dadurch erreicht, dass man in Zusammenarbeit mit lokalen Providern Internetzugänge subventioniert. Bereits seit langem konnte man in vielen Ländern der Welt unter der Domain 0.facebook.com Facebook aufrufen, ohne dass dafür Daten abgerechnet wurden. Diese Zusammenarbeit wird unter dem Banner der guten Sache ausgedehnt. Netzaktivisten sehen darin eine Verletzung der Netzneutralität. Spezielle Dienste wie Facebook aus den Bezahltarifen herauszunehmen, kommt einer Bevorzugung gleich. Facebook zementiert damit seine Vormachtstellung gegenüber allen anderen Netzdiensten und macht so jeden Wettbewerb zunichte.

Für Google ist so ein Vorgehen nichts wesentlich Neues. Das Motto ›Was gut für das Wachstum des Netzes ist, ist gut für uns‹ war schon ein wesentlicher Baustein von Googles Wachstumsstrategie. Schon immer bot der Konzern mit dieser Begründung Tools und Dienste kostenlos und sogar werbefrei an, nur um mehr Menschen ins Internet zu ziehen – potentielle Kunden. Auch Infrastrukturmaßnahmen stehen dabei vermehrt auf dem Programm. In der westlichen Hemisphäre versucht der Konzern mit Google Fiber Highspeed-Internet einzuführen, das den Namen verdient. In Pilotprojekten wurden Haushalte mit echter Glasfaser mit Gigabit-Anschlüssen versorgt. Zum Vergleich: Die Telekom bietet im Highprice-Segment derzeit höchstens 100 Megabit an. Ein Zehntel.

Aber auch in den strukturschwachen Regionen engagiert sich Google. Mit dem Project Loon will der Konzern Heliumballons in die Stratosphäre schicken, so hoch, dass sie aus den wetterbedingten Unkalkulierbarkeiten entfliehen und dennoch genug Auftrieb haben. Diese fliegenden Sendestationen auf halbem Weg ins All können auch große Regionen mit W-Lan oder Mobilfunk versorgen.

Die Strukturschwache Region in Game of Thrones liegt jenseits der »Wall« und wird immer nur als »the north« bezeichnet. Die »Wall« ist eine viele hundert Meter hohe Mauer aus Eis, die den gesamten Kontinent Westeros von dem Territorium im Norden abschneidet. Hier tut Jon Snow seinen Dienst, verteidigt Westeros gegen die sogenannten »Wildlinge«. Es sind »wilde« in Horden lebende Menschen, zurückgelassen jenseits der Zivilisation im ewigen Eis. Sie versuchen immer wieder, die Mauer zu überwinden und brandschatzen, plündern und morden, wenn sie es schaffen.

»You know nothing, Jon Snow« bezieht sich auch auf die Unwissenheit und den Vorurteilen gegenüber den »Wildlings«, zu denen eben auch Ygritte gehört. Jon überwindet seine Vorurteile und versucht schließlich, einen Pakt mit den Wildlings zu schließen. Er geht diesen schwierigen Schritt, denn er braucht ihre kämpferische Stärke, so wie Google und Facebook die vielen neuen Internetnutzer aus den strukturschwachen Gegenden brauchen.

3. Die Macht des Unbelebten

Jon Snow braucht die Wildlings, um die die Armee der »White Walkers« aufzuhalten. Diese Armee – bestehend aus bereits gestorbenen und zombiefiziert wieder auferstandenen Menschen – marschiert vom Norden auf die »Wall« zu. Während die mächtigen Königshäuser sich gegenseitig in Westeros bekämpfen, sind es die White Walkers, die in überwältigender Anzahl den gesamten Kontinent bedrohen. Und Ygrittes immer dringendere Ermahnung bezog sich eben auch auf diese Armee, die für Snow und seine Mitmenschen unsichtbare Gefahr aus dem Norden, die den Wildlings bereits seit langem ausgeliefert sind. »You know nothing, Jon Snow!«

Das Spiel um die Netzwerkeffekte wird in der Wirtschaftswissenschaft meist anthropozentrisch gedacht. Egal ob Telefon, Computer oder Facebook, am Ende sind es immer Menschen, die aus dem Netzwerk einen Nutzen ziehen und am Ende sind es auch immer wir Menschen, die diesen Nutzen stiften. Wer denn auch sonst? »You know nothing, Jon Snow!«

In den Sozialwissenschaften und bestimmten Richtungen der Philosophie hat sich eine solche Sichtweise längst überholt. Die Wichtigkeit von nichtmenschlichen Akteuren wird von modernen soziologischen Theorien wie der Akteur-Netzwerk-Theorie von Bruno Latour radikal einbezogen. Die Idee der ANT ist, dass soziale Situationen nicht mehr anhand von Metakonzepten wie Gruppen, Gesellschaft oder Systemen beschrieben werden sollten, sondern von den viel konkreteren Bindungen eines Netzwerkes. Dabei werden Hierarchien und Entfernungen ebenso nivelliert wie der Unterschied zwischen Makro- und Mikro-Ebene. Übrig bleiben nur die zu einem Netzwerk verwobenen Akteure. Bruno Latour erkannte früh, dass diese Akteure eben nicht nur Handelnde im klassischen Sinne sein können, sondern dass Texte, Messapparate, Graphen, Formeln und andere Artefakte einen ebenso wichtigen Einfluss auf eine Akteurskonstellation ausüben können wie Menschen. Je nach analytischer Situation lassen sich so Akteure identifizieren, die Diskurse und Erkenntnisse produzieren und sich gegenseitig Handlungsmacht (Agency) übertragen. Latour will seinen Netzwerkbegriff allerdings nicht mit technischen Netzwerkbegriffen verwechselt sehen. Und doch kann er nicht anders, als auch technische Netzwerke als Akteurs-Netzwerke zu verstehen, nur eben als verstetigte, statische Varianten.9

2012 legte Ian Bogost einen Vorschlag für eine universelle Phänomenologie der Dinge vor. In seinem Buch Alien Phenomenology, or What It’s Like to Be a Thing10 geht er über Latour hinaus, indem er den Dingen nicht nur Handlungsmacht, sondern auch Perzeptionsvermögen zuspricht. In seiner auf Graham Harmans objektorientierten Ontologie auf bauenden Phänomenologie11 entwirft er den Blick des Dings auf die Dinge, einen Blick, der vom menschlichen Blick völlig verschieden ist. Anspielend auf die bekannte philosophische Spekulation von Thomas Nagel: What It’s Like to Be a Bat von 1974 versucht er, mithilfe von Metaphorik einer Vorstellung davon nahezukommen, wie Dinge die Welt wahrnehmen.12 Sein Bezug auf technologische und gar digitale Artefakte ist weitaus stärker ausgeprägt als bei Latour. So untersucht Bogost unter anderem die Wahrnehmung von Computerspielen und des Video-Interfaces des Atari-Computers.

Auch wenn Netzwerkeffekte weder bei Latour noch bei Bogost eine Rolle spielen, so lässt sich doch die Grundannahme von rezipierenden und agierenden Netzwerkteilnehmern auf sie übertragen. Genau genommen war die Annahme, dass Netzwerkeffekte nur durch Menschen verursacht und abgeschöpft werden, schon immer abwegig. Menschen kommen ins Netz, um dort die Dienste und Werkzeuge zu nutzen. Am besten lässt sich das anhand von Apples AppStore zeigen. Ökonomen sprechen hier von einem zweiseitigen Markt, getrieben von wechselseitigen Netzwerkeffekten. Sie sehen auf der einen Seite eine große Masse von kaufbereiten Menschen, die gerne Apps nutzen wollen. Auf der anderen Seite sehen sie die programmiermächtigen Entwickler, die deren Bedürfnisse erfüllen wollen. Beide Seiten, so die Ökonomie, profitieren von dem Wachstum der jeweils anderen Seite.

Doch sind es wirklich in erster Linie die Nutzer und Entwickler, die sich hier gegenüberstehen? Sind es nicht vielmehr deren Artefakte – die Apps –, die den Nutzen stiften? Ist die Anzahl der Entwickler nicht völlig egal für den Nutzen, den diese Artefakte stiften? Wenn all die Millionen Apps von nur wenigen, oder gar nur einem einzelnen Entwickler entwickelt worden wären, würde das irgendeinen Unterschied für die Netzwerkeffekte machen? Und sind es nicht auch die verbauten Sensoren, die von der sie benutzenden App-Vielfalt profitieren? Wie sehen die wechselseitigen Netzwerkeffekte von Hardware- und Software-Features bei Smartphones aus? Wie die zwischen den Plattformen iOS (mobile Geräte) und denen von OSX (Desktop Betriebssystem)?
Weiter gedacht: Wieso soll der Markt nur zwei Seiten haben? Sind es denn nicht auch die vielen Newsangebote, speziellen Blogs, Podcasts und Nutzer-Foren zu Geräten mit Apples iOS, die das Betriebssystem attraktiver machen und somit auch den Nutzen einer Plattform erhöhen? Sind es nicht die vielen Zusatzgeräte, spezialisiert auf deren Schnittstellen, die ebenfalls ihren Teil hinzufügen? Ist ein Betriebssystem nicht weniger ein zweiseitiger Markt als vielmehr ein komplexes, weit verzweigtes Ökosystem? Ein Ökosystem der Dinge?
Ausgestattet mit all diesem theoretischen Rüstzeug stehen wir nun an der nächsten Zündstufe der digitalen Evolution: dem Internet of Things. Das Internet der Dinge (oder auch Ubiquitus Computing) ist ein Sammelbegriff für die Tatsache, dass wir nach und nach anfangen, alle möglichen Dinge mit Mikrochips und Sensoren auszustatten, und diese mit einer Anbindung an lokale Netzwerke oder eben dem Internet versehen. Die Dinge werden ihrer Umwelt gewahr und beginnen miteinander zu kommunizieren.

Dabei deckt der Begriff Internet of Things (IoT) bereits sehr viele unterschiedliche Entwicklungen ab: Smart Homes bezeichnet die fortschreitende Entwicklung, Haushaltsgeräte mit intelligenten Chips auszustatten, damit sie fernsteuerbar werden und auf ihre jeweilige Situation halbautomatisch reagieren. Intelligente Stromzähler, Mediacenter und mit dem Handy bedienbare Türschlösser gehören dazu. Wearables sind dagegen intelligente Accessoires, die man am Körper trägt. FitBit-Armbänder, die die Schritte zählen, SmartWatches, die den Puls und andere Körperdaten messen und eine Ergänzung zum Smartphone sein sollen. In der Industrie 4.0 interagieren mit Intelligenz ausgestattete Maschinen miteinander und organisieren dynamische Produktionsprozesse. Dadurch sollen Kosten gespart, die Produktion agiler gemacht und dadurch mehr Individualisierung für die Kunden geboten werden. Bei den Smart Cities geht es darum, den städtischen Raum mit Sensoren auszustatten. Der Mülleimer, der weiß, wann er voll ist, die Ampelanlage, die auf ihre Umwelt reagiert. Demnächst werden autonome Flug-Drohnen und selbstfahrende Autos auf den Markt kommen – auch sie sind Teil des IoT.

Der Treiber hinter dem IoT sind die immer kleiner und billiger werdenden Computerchips. Ein Trend, der im Sinne von Moores Law weiterhin anhalten wird. Das Internet of Things ist daher ein Begriff für eine Übergangszeit. Dass jedes Ding auch ein Computer sein wird, der mit Sensoren und Intelligenz ausgestattet ist, das wird in zehn Jahren so selbstverständlich sein, dass es dafür dann keinen Begriff mehr braucht.

Als Henry Ford damals begann, seine eigene Nachfrage zu produzieren, indem er seine eigenen Arbeitnehmer zu Kunden machte, musste er noch auf Menschen als Akteure zurückgreifen. Apple, Google und vielleicht bald auch Facebook werden bald nicht mehr auf Menschen angewiesen sein, wenn es darum geht, die Netzwerkeffekte am Laufen zu halten. Der Kampf wird nicht mehr um die Vormachtstellung bei menschlichen Akteuren gehen, sondern um die Frage, wer die Armee der Leblosen befehligt, die viel, viel größer sein wird als die kleine Gruppe von Menschen und ihren Geräten, die das heutige Internet ausmachen.

4. Das Babel der Dinge

Wir sind bei der Entwicklung des Internets der Dinge derzeit noch in der Phase, in der das Web Mitte der 1990er Jahre war. Es gibt nur wenige sinnvolle Anwendungszwecke und eine Plattform wie Facebook ist noch nicht vorstellbar. Es wird viel experimentiert und der Markt ist noch nicht groß, aber die Potentiale sind riesig. Der Netzwerkausstatter CISCO errechnete, dass bis 2020 etwa 75 Milliarden Sensoren ans Internet angeschlossen sein werden.13 IBM geht für das Jahr 2030 sogar von circa 100 Trillionen aus.

Wenn das Internet der Menschen der Gravitation des Sonnensystems entspricht, wird das Internet der Dinge eher einer Galaxie gleichen. Die Netzwerkeffekte werden um das schwarze Loch im Zentrum kreisen, das alles in sich hineinzieht und seine Gravitation damit nur noch weiter steigert.

Für die Netzwerkeffekte kommt es weniger darauf an, ob Akteure menschlich oder nichtmenschlich sind, sondern ob sie miteinander interagieren können. Um das zu gewährleisten, müssen sie eine gemeinsame Sprache sprechen. Facebook war Mitte der 1990er Jahre noch nicht denkbar. Es gab zwar eine gemeinsame Plattform – das Web – aber dieses war so generisch, dass es zunächst viele miteinander inkompatible Systeme (Websites) schuf. Aber so wie Facebooknutzer nur kommunizieren können, weil sie eine einheitliche Infrastruktur dafür zur Verfügung haben, werden auch die Dinge als Ganzes nur interagieren können, wenn sie eine gemeinsame Plattform haben.

Plattformen können verstanden werden als homogene Schnittstellen, die als Infrastruktur allerlei Interaktionsmöglichkeiten unter den Teilnehmer eines Netzwerkes ermöglichen. Sie sind die Bedingung der Möglichkeit von Vernetzung und deswegen selbst oft unsichtbar. Aber gerade dort, wo die Vernetzung im Entstehen ist, es also noch keine solche allgemeine Plattform gibt, wird das Spiel um die Definitionsmacht der Vernetzung gespielt. Das Game of Things ist der Kampf um die Sprache der Dinge. Wer die Schnittstellen kontrolliert, wird die Netzwerkeffekte ernten.

Die derzeitig wichtigsten Anwärter in diesem Spiel sind Apple und Google. Google verfolgt einen Cloud-zentrierten Ansatz. Sein Handy-Betriebssystem Android ist jetzt schon in vielen Dingen verbaut: Autos, Fernseher, Kühlschränke. Sie alle sollen über das Internet mit Googles zentralen Servern reden, wo die Daten zusammengeführt werden und die Geräte zentral einsehbar und steuerbar sind. Der Nutzer greift mit einer Smartphone-App darauf zu. Auch bei Apple wird das Smartphone die Schaltzentrale des Internet of Things sein. Im Gegensatz zu der Lösung, die Google auf seiner Entwicklerkonferenz I/O vorgestellt hat,14 sollen die Daten bei Apple aber nicht über zentrale Server zusammenkommen, sondern die Geräte sollen sich untereinander direkt austauschen. Das Thermostat spricht mit der Heizung, beide sprechen wiederum mit dem Smartphone, und vielleicht synchronisieren sie sich noch mit dem Homeserver.

Man wird sich also für Apples Lösung entscheiden können – die durch den Verzicht auf einen zentralen Server etwas schonender für die Privatsphäre ausfällt, aber dafür beschränkter im Funktionsumfang ist – oder für Googles Ansatz – der über die Auswertung des Gesamtnutzerverhaltens wahrscheinlich hilfreiche Tipps, aber auch lästige Werbung generieren kann.

Neben den beiden Großen gibt es bei dem Game of Things noch viele weitere Anwärter. Von vielen haben wir wahrscheinlich noch nicht einmal gehört. Derzeit findet die meiste Entwicklung von IoT-Geräten im kleinen Rahmen von Crowdfundingplattformen wie Kickstarter und Indiegogo statt. Kleine Start-ups oder Privatpersonen stellen ihre Vision eines vernetzten Haushaltsgegenstandes vor und lassen sich die Entwicklung von Enthusiasten vorfinanzieren. Dabei kommen mal mehr mal weniger nützliche Gegenstände heraus. Hinzu kommen die vielen Bastler und Tüftler, die mithilfe von günstigen Chipsätzen wie Arduino oder Raspberry Pi selbstgebaute Home-Automation-Projekte durchführen, sich in Blogs und Foren über die besten Setups austauschen und die Steuerungssoftware Open Source stellen. Etwas größere Anbieter wie Smartthings gehen einen Schritt weiter und bieten ganze Sets von Sensoren, Kameras und zum Beispiel Lampensteuerung und Heizungsregulierern an, die sich über eine zentrale Schaltstelle steuern lassen. Natürlich wollen auch die großen, etablierten Hersteller wie Siemens, Miele und Grundig den Trend nicht verschlafen und bieten vernetzte Kühlschränke, Waschmaschinen, Fernseher und sogar Rasierapparate an.

Und all diese Ansätze, Konzepte und Projekte agieren oft mit dem heimischen W-Lan oder per Bluetooth, und meist sind die dabei entwickelten Protokolle spezialisierte Entwicklungen, inkompatibel mit dem Rest. Sie sprechen Privatsprachen, einen ganzen Zoo an spezialisierten, proprietären Eigenentwicklungen, das Babel der Dinge. Deswegen können sie nur das, was sie können sollen. Doch der eigentliche Wert liegt in der Vernetzung all der Geräte und der muss noch gehoben werden.

Die Netzwerkeffekte besagen, dass die Heizung besser funktioniert, wenn sie mit dem Thermostat spricht und weiß, ob das Fenster offen ist. Die Netzwerkeffekte gebieten, dass das Kraftwerk besser funktioniert, wenn es mit allen Thermostaten auf Du ist und Sensoren entlang der Stromtrassen hat. Das Kraftwerk will über die Lieferketten seines Treibstoffs bescheid wissen, genauso wie der Techniker, der das Stromnetz kontrolliert. Das Stromnetz braucht Informationen darüber wie der Verkehr in der Innenstadt fließt, die Autoindustrie ebenfalls, um ihre Produktionsstraßen anzupassen. Die Solarzelle will mit den Wetterstationen sprechen, die Wetterstation mit der Klimaanlage, die Klimaanlage mit dem Türschloss, das Türschloss mit dem Auto, das Auto mit allen anderen Autos und der Straßenverkehrsleitstelle. Der Kühlschrank braucht eine Idee davon, was in ihm steht und alle, alle, alle wollen mit der Smartwatch reden – vor allem, sobald das Garagentor aufgeht. Die Netzwerkeffekte werden eine ungeahnte Traktion erfahren, denn am Ende muss alles mit allem interoperabel sein.

Am Ende muss eine Sprache all die Dinge sinnvoll verbinden. Apple, Google und die vielen anderen Adelshäuser werden alles dafür tun, diejenigen zu sein, die diese Sprache vorgeben. Es ist dann am Ende egal, wer die Geräte herstellt und verkauft. Das Facebook of Things zu sein, das ist der Eiserne Thron der Dinge.
Doch es gibt eine Alternative. Es muss kein einzelnes Unternehmen sein, dass die Protokollebene kontrolliert. Das Internet selbst wird von keiner zentralen Instanz kontrolliert und doch bietet es die Grundlage der meisten Kommunikation, die wir in der digitalen Welt tun. Das Netz der Netze steht auch bereit, Grundlage für das IoT sein zu können. Heute schon enthält es den Kern für ein allgemeines Protokoll der Dinge, dezentral organisiert, weltweit erreichbar, offen für alle, die auf dieser Grundlage entwickeln wollen.
Dass das Internet mehr Adressen braucht, als die ursprünglichen im Protokollstandard vorgesehenen, wussten die Netzingenieure bereits seit 1998. Damals haben sie schon einen neuen Internetstandard verabschiedet. Das dem Internet zugrundeliegende Netzwerk-Protokoll »IP«, also »Internet Protokoll« ist dafür zuständig, dass die Daten von A ihren Weg nach B finden. Die dafür vorgesehene Adressierung nennt man deswegen IP-Adressen. Sie sind diese in vier voneinander mit Punkten getrennten Nummernblöcke, etwa 233.154.98.67. Jede der durch einen Punkt getrennten Stellen entspricht ein Byte (8 Bit). Mit einem Byte lassen sich 256 Zustände darstellen, weswegen jede der Stellen eine Zahl zwischen 0 und 255 annehmen kann. Das ergibt also etwas über vier Milliarden mögliche IP Adressen, die zu verteilen sind. Jedes Gerät, das im Internet kommunizieren will, braucht eine solche Adresse, und diese Adressen werden knapp. Eigentlich gibt es kaum noch freie. Natürlich sind viele unbenutzt. In der Frühphase wurden sie zu großzügig vergeben. Apple beispielsweise besitzt alleine ein Class-A Netz, also ein Netz, dessen erste Stelle fix ist und alle anderen frei definieren kann, was immerhin 16,7 Millionen IP-Adressen entspricht.

Doch Rettung naht. Das bisherige Internet Protokoll (Version 4) soll durch ein neues ersetzt werden (Version 6). Technisch ist es beinahe auf allen Geräten bislang vorinstalliert. Alleine die Internetprovider zieren sich noch bei der Umstellung. IPv6 hat eine 128 Bit-Adressierung, im Gegensatz zur 32 Bit- Adressierung von IPv4. Das erhöht die Möglichkeiten dramatisch. 340 Sextillionen IP-Adressen werden damit möglich. Eine Sextillionen ist eine 1 gefolgt von 36 Nullen. Damit könnte jedem Sandkorn auf der Erde eine IP-Adresse zugewiesen werden. Wir können aber derzeit auch nicht ausschließen, dass Sandkörner nicht dereinst beim Internet of Things eingemeindet werden.
Für das Internet der Dinge ist IPv6 derzeit die größte Chance, sich nicht auf Dauer von einem Unternehmen dominieren zu lassen, und dennoch die Netzwerkeffekte für alle abschöpfen zu können. Natürlich kann IPv6 nur die Grundlage liefern, auf der weitere Protokolle aufsetzen müssen. Wie diese aussehen müssen, ist heute noch schwer zu sagen, denn wir sind noch mitten drin, in der Experimentierphase. Es muss gewährleistet sein, dass die Dinge sich gegenseitig sehen und erkennen, dass sie Messtandards verstehen, Daten austauschen können, sich vielleicht auf Dialekte einigen können. Auf die Frage: »How it’s like to be a thing?« müssen jetzt die Entwickler eine weniger spekulative, sondern eine normative Antwort geben. Dabei ist es wohl unvermeidlich, dass einzelne Unternehmen erstmal mit eigenen Standards vorpreschen und am besten mit anderen Standards konkurrieren. Auf lange Frist wollen sich aber weder die Menschen noch die Dinge um Protokollstandards und unterschiedliche Plattformkonzepte die Köpfe zerbrechen.

Die Game of Thrones-Saga ist bekanntlich noch nicht fertig geschrieben. Dessen Autor George R. R. Martin arbeitet zur Zeit der Entstehung dieses Textes an dem sechsten Band. Wir wissen noch nicht, wie die Schlacht zwischen White Walkers und Menschheit ausgehen wird. Ein ebenfalls immer wiederkehrendes Sprichwort aus der Saga ist »Winter is coming«. Der große Winter ist die Ankündigung der mythischen Ära der Kälte, eine Zeit, in der die White Walkers durch Westeros marschieren werden. Wahrscheinlich wird es noch fünf bis zehn Jahre dauern, bis wir die großen Schlachten um das Game of Things erleben werden. Vielleicht werden sie dann von völlig anderen Akteuren geführt werden, als die, die wir heute für die wichtigsten Anwärter halten. Die Unvorhersehbarkeit der Ereignisse im volativen Plattformmarkt könnte der Feder von George R. R. Martin entsprungen sein. Sicher ist nur eines: »Winter is Coming«.

  1. Vgl. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Berlin: iRights Media 2014, S. 8.
  2. Tatsächlich wurden die Netzwerkeffekte zuerst 1908 vom legendären ersten AT&T-Geschätfsführer Theodor Vail festgestellt, als er für die Überführung von AT&T zum staatlich kontrollierten Monopol argumentierte (vgl. Wu, Tim: The Master Switch – The Rise and Fall of Information Empires, New York: Knopf 2010, S. 124, S. 6 ff). Wissenschaftlich wurden die Netzwerkeffekte erst viel später bearbeitet. Bekannt ist die Formel von Robert Metcalfe: n (n − 1)/2. Sie besagt, dass der Nutzen des Netzwerks pro- portional zur Anzahl der Teilnehmer des Netzwerks im Quadrat ist. Die Stichhaltigkeit von Metcalfes Law wird aber auch angezweifelt (Bob Briscoe, »Metcalfes Law is Wrong«, www.cse.unr.edu/~yuksem/teaching/nae/reading/2006-briscoe-metcalfes.pdf, vom 30. Juli 2006). Ich schlage vor, solchen Quantifizierungsversuchen skeptisch gegen- überzutreten. Um den Zusammenhang zwischen Netzwerkteilnehmer und Attraktivität des Netzwerks plausibel zu machen, sind Formeln meines Erachtens auch nicht nötig.
  3. Dass die Kosten von Interaktion eine wesentliche Rolle beim (wirtschaftlichen) Handeln spielen, entdeckte zuerst Ronald Coase. Er zeigte, dass die neoklassische Vorstellung vom Funktionieren des Marktes außer Acht lässt, dass das Teilnehmen an einem Markt Kosten verursacht. Die sogenannten »Transaktionskosten« sind die Kosten, um Information zu sammeln, Aufwand zu verhandeln und vor allem die Risiken, die ich eingehen muss. Coase, Ronald: »The Nature of the Firm«, in: Economia 4/16 (1937), S. 386-405.
  4. Vgl. Wu, Tim: The Master Switch – The Rise and Fall of Information Empires, P. 103,8.
  5. Vgl. Burkhardt, Marcus: Digitale Datenbanken – Eine Medientheorie im Zeitalter von Big Data, S. 288.
  6. International Astronomical Union: »iau0603 – News Release« www.iau.org/news/ pressreleases/detail/iau0603/, vom 24. August 2006.
  7. Garside, Juliette: Facebook loses millions of users as biggest markets peak, www.theguardian.com/technology/2013/apr/28/facebook-loses-users-biggest-markets, vom 29. April 2013.
  8. Cannarella1, John/Spechler, Joshua A.: Epidemiological modeling of online social network dynamics, http://arxiv.org/pdf/1401.4208v1.pdf vom 17. Januar 2014.
  9. »A technical network in the engineer’s sense is only one of the possible final and stabilized state of an actor-network.« Latour, Bruno: On Actor Network Theory: A few clarifications 1/2, on nettime, www.nettime.org/Lists-Archives/nettime-l-9801/msg0 0019.html, vom 11.01.1998.
  10. Bogost, Ian: Alien Phenomenology, or What It’s Like to Be a Thing, Minneapolis u. London: University of Minnesota Press 2012.
  11. Harman, Graham: Tool-Being: Heidegger and the Metaphysics of Objects, Chicago: Open Court 2002.
  12. Ian Bogost: Alien Phenomenology, or What It’s Like to Be a Thing, S. 65.
  13. CISCO, http://newsroom.cisco.com/feature-content?type=webcontent&articleId= 1208342, vom 29.Juli 2013.
  14. Ball, Benjamin, »Google I/O 2014: Android Meets the Internet of Things with An- droid Wear, Android Auto, and Google Fit«, http://java.dzone.com/articles/google-io-2014-and-internet, vom 26. Juni


Veröffentlicht unter extern Kontrollverlust Plattformpolitik Queryology
Verschlagwortet mit
1 Kommentar