Die Webregierung, Teil I – Der Tod des Open Web

Auf unserem Talk auf der re:publica haben Sebastian Gießmann und ich beschrieben, wie in den letzten 10 Jahren eine Transition vom Netzwerk hin zur Plattform stattgefunden hat. Plattformen entstehen, wenn sich Netzwerke verstetigen und mittels Ausprägung von bürokratischen Medien wie Standards, Protokollen – oder meistens: einem zentralistischen Regime – institutionalisieren. Das hat zur Folge, dass auf der einen Seite Handlungsspielräume einschränkt, dafür aber neue Sicherheiten geschaffen werden. Diese Sicherheiten ermöglichen dann wieder neue, oft komplexere Nutzungspraktiken.

Der Siegeszug der zentralistischen Plattformen steht dabei ganz besonders im Widerspruch zu vielem, was Ende der 90er Jahre unter dem Paradigma des Netzwerkes gefeiert wurde. Die erfolgreichsten Plattformen sind heutzutage zentralistisch, kontrollwütig und in sich geschlossen.

Eines der prominenteren Opfer dieser Plattformisierung ist das Open Web, also die Idee eines rein auf offenen Standards basierenden Netzwerkes von einander unabhängig betriebener Websites. Die Merkmale Offenheit und Dezentralität haben das Web zuvorderst attraktiv gemacht und zu seinem Siegeszug geführt. Sie haben aber auch Player hervorgebracht, die es nun massiv bedrohen. Die Revolution frisst ihre Eltern.

Facebook hat einmal als eine Website unter vielen Millionen angefangen. Doch dieses Netzwerk im Netzwerk saugte über die letzten Jahre die Usecases des Webs und damit die Nutzer/innen fast vollständig in sich auf. Würde man Facebook weiterhin als Teil des Webs betrachten (das ist zweifelhaft, da heute weit über 50% der Nutzer/innen per mobiler App auf Facebook zugreifen), dann hat Facebook ein großes schwarzes Loch inmitten des offnen Webs gerissen. Es gibt ein paar Anschlussstellen – öffentliche Posts können noch verlinkt werden – aber der Großteil des Facebookuniversums bleibt in den Untiefen der Privacyeinstellungen seiner Nutzer/innen verborgen.

Und damit auch vor Google. Google, die mit ihrer Suchmaschine eine gewisse Symbiose mit dem Open Web pflegen ist das schon lange ein Dorn im Auge. Sie wissen eigentlich gar nicht mehr, was im Internet passiert, weil der Großteil der relevanten Signale (Wer linkt auf was, welche Artikel sind heiß diskutiert? Sowie natürlich der ganze Content, der nur auf Facebook stattfindet) ihren Crawlern verborgen bleibt. Der Versuch, Facebook mit Google+ eine Entsprechung entgegenzusetzen muss heute als gescheitert gelten.

Auf Lange Sicht bedeutet das scheitern des Open Web, dass Facebook den Werbemarkt auf dauer dominieren wird, während Google immer mehr an Relevanz verlieren wird.

Es gibt viele Gründe für das Scheitern des Open Web. Ich möchte an dieser Stelle vier systemische Gründe nennen, die ich für die wesentlichsten halte:

1. Transaktionskosten

Eine Website zu betreiben war immer schon mit einer Menge Aufwand verbunden. Man braucht einen Webspace und eine Domain, das kostet Geld. Man muss sich mit Technik auskennen, zumindest soweit, um ein Content Mangementsystem installieren und warten zu können. Hinzu kommen viele rechtliche Unsicherheiten. Wie ist das mit der Impressumspflicht? Es drohen Abmahnungen wegen Urheberrechts-, Wettbewerbsrechts- und Persönlichkeitsrechtsverletzungen. Hinzu kommen ab 2018 eine ganze Latte neuer Rechtsunsicherheiten durch die neue Datenschutzgrundverordnung der EU. Der Jugendmedienstaatsvertrag wird demnächst weitere Unheile bringen. Auch ich überlege ernsthaft 2018 meine Domains zu kündigen.

Die Rechnung ist recht einfach: Je größer der regulatorische Druck und die rechtliche Unsicherheit im Netz wird, desto unattraktiver wird das Open Web und umso attraktiver werden zentralistische Plattformen. Eine Plattform wirkt wie ein Puffer, der vor den meisten rechtlichen Angriffvektoren schützt. Notice and Takedown mag man als orwellsches Kontrollinstrument der Urheberrechtslobby verteufeln. Es schafft aber für millionen Menschen überhaupt die nötige Rechtssicherheit auch ohne Jurastudium im Internet veröffentlichen zu können. Auch um Datenschutz muss ich mich als Betreiber von einer Facebookpage nicht kümmern (es sei denn, ich lebe in Schleswig-Holstein ). Es ist alles geregelt. Ob gut oder schlecht, liegt nicht in meiner Verantwortung.

2. Features

Das ist ziemlich offensichtlich, aber eigentlich auch erstaunlich: Facebook ist in Sachen Features und Usability allen Ansätzen aus dem Open Web meilenweit voraus. Und selbst WordPress hat es als populärstes Content Mangement System trotz seiner großen “installed Base” nicht geschafft, featuremäßig auch nur in die Nähe zu kommen. (Und nein. Ich will über Diaspora nicht reden. Wenn ihr über Diaspora reden wollt, geht bitte zu Diaspora. Dort gibt es bestimmt Leute, die das interessiert.)

Es scheint so zu sein, dass ein Unternehmen mit genügend Ressourcen und zentralem Produktmangement einfach schneller und effektiver populäre Produkte und Features entwickeln kann, als eine gegebene Open Source Community.

3. Kontrolle

Noch etwas anderes ist auf Facebook vorhanden, dass es im Open Web nicht gibt: Kontrolle. An anderer Stelle habe ich ausgeführt, warum die geschlossenen Plattformen auch eine Antwort auf den Kontrollverlust sind. Sie heben den Kontrollverlust nicht auf, aber sie mindern in gewisser Hinsicht seine Wirkung bei vielen Anwendungsfällen. Urheber/innen und Verwerter/innen bekommen zwar ihr altes Geschäftsmodell nicht zurück, aber finden wieder einigermaßen kontrollierbare Absatzwege. Nutzer/innen finden zwar keine Privacy, dafür aber Privacyeinstellungen. Den meisten reicht das. All gibt es nicht im Open Web, denn es lässt sich nur sinnvoll umzusetzen, wenn ein zentrales Regime eine gewisse Kontrolle auch durchsetzen kann.

4. Tragödie der Allmende

Dieser Punkt ist verwandt mit dem Oberen, geht aber darüber hinaus. Ausnahmsweise ist mal nicht die Überlegenheit der Plattform schuld, sondern das Open Web selbst. Es begeht in gewisser Weise seit vielen Jahren einen schleichenden Selbstmord.

Es ist verdammt hässlich geworden. Man traut sich kaum noch irgendeinen Link zu klicken. Die Websites laden ewig, sind zugedeckt mit nerviger Layover-Werbung, es werden etliche Skripte und Tracker geladen, die die Lüfter zum Glühen bringen, etc. Kurz: es wird zunehmend unmöglich, überhaupt noch Inhalte im Web zu konsumieren.

Es gibt einen Begriff dazu aus der Ökonomie. Tragedy of the Commons. Es ist die allgemeine Beobachtung, dass Gemeingüter mit der Zeit mittels Überwirtschaftung durch egoistische Akteuere zu Grunde gehen. Was überall auf der Welt mit Wiesen, Wäldern und Äckern geschah, passiert derzeit mit dem Open Web. Die offene Struktur hat neben all den positiven Praktiken auch negative ermöglicht. Niemand kann Einschränken was jemand auf seiner Website treibt. Und deswegen wurde viel gemacht, was Geld bringt. Und dann wurde mehr gemacht, was Geld bringt. Und dann noch mehr.

Die Quittung bekommen die Websites zwar derzeit durch die Massenverbreitung von Adblockern, aber das wird wiederum zu Abwerhmaßnahmen führen. Am Ende bleiben wahrscheinlich auch nur die Paywalls hinter die sich die Verlage flüchten, also eine weitere Abkehr vom Open Web.

Doch an dieser Stelle kommen die Plattformen wieder ins Spiel. Dass Apple mit News als auch Facebook mit Instant Articles jetzt den Verlagen das Angebot machen, bei ihnen Unterschlupf zu finden, ist die Antwort auf die selbstverschuldete Miesere. Auf den Plattformen sind die Möglichkeiten der Verlage extrem eingeschränkt. Aber gerade das könnte sie retten, so wie schon iTunes die Musikindustrie vor dem trotzigen Freitod bewahrte. Nachrichten werden so wieder lesbar und die Plattformen ermöglichen den Verlagen dennoch ein Einkommen, indem sie sie an den Webeeinnahmen (Facebook) oder Einnahmen (Apple) beteiligt. Ob das klappt, steht noch nicht aus, aber die Chancen stehen nicht schlecht.

Wenn die Rechnung aufgeht, wäre dann wohl das Ende des Open Web, denn sonst bleibt nicht mehr viel übrig. Klar, Websites werden nicht von heute auf morgen abgestellt. Das Usenet gibt es ja auch immer noch. Aber wenn wir dann in 10 Jahren vom offnen Web erzählen, wird es so klingen wie heute, wenn die Nerds umdie 40 von ihren ersten Ausflügen in eine Mailboxen erzählen.

Ich persönlich habe für mich das Open Web bereits abgehakt. Es war eine gute Idee. So wie der Kommunismus eigentlich eine gute Idee war.

Aber es soll nicht um mich gehen. Was ich tue oder lasse hat eh keine Auswirkungen. Viel interessanter ist, dass es noch einen mächtigen Akteur gibt, der das Web nicht sterben lassen will: Google.

Google verdient nach wie vor einen Haufen Geld mit dem open Web und macht sich wahrscheinlich auch deswegen auf, das Web vor sich selbst zu retten. Zu diesem Zweck reißt das Unternehmen aggressiver denn je die Führungsrolle an sich. Wie man etwas regieren kann, dass eigentlich unregierbar ist, werde ich im nächsten Teil beschreiben.


Veröffentlicht unter Das Neue Spiel Plattformpolitik
15 Kommentare

Game of Things

/*******
9783837630466_216x1000Im Sommer fragte mich der großartige Christoph Engemann, ob ich nicht die schönsten Tage im Jahr damit zubringen wolle, einen ellenlangen Text für einen Reader zum Internet of Things zu verfassen. Da man zu Christoph Engemann nie nein sagt, habe ich natürlich zugesagt. Das Buch: “Internet der Dinge – Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt” (Werbelink) ist jetzt raus und sehr empfehlenswert. Es finden sich unter anderem Texte von Mercedes Bunz, Linus Neumann und Sebastian Gießmann darin. Mein Text versucht anhand von “Game of Thrones” die wirtschaftswissenschaftlichen Grundlagen des Internet of Things zu erklären. Und weil Linus das auch gemacht hat, stell ich hier auch mal meinen Text zur Verfügung. Quasi als Werbung für das Buch.
********/

Vorrede

Mit Friedrich Kittler hielt eine Neuerung innerhalb der Geisteswissenschaften Einzug, die wohl sein wichtigstes Vermächtnis bleibt: Das Interesse und die deutliche Einbeziehung von technischem Sachverstand in eine Disziplin, die bislang mit ihrer Technikferne und ihrer abstinenten und kritischen Haltung gegenüber technischen Neuerungen geradezu kokettierte. Dies war ein wichtiger Schritt, der die Medienwissenschaften in der Tiefe, wie sie heute praktiziert wird, erst ermöglichte. Natürlich würde heute niemand mehr abstreiten, dass technisches Design sowie die Möglichkeiten und Unmöglichkeiten der Apparatur in medientheoretischen Überlegungen mit einfließen müssen.

Mit dem kittlerschen Diktum hat sich die Medienwissenschaft aber auch in eine Sackgasse begeben. Die Anschauung des »Geräts« reicht lange nicht mehr aus, um die Entwicklungen der letzten 15 Jahre auch nur annähernd adäquat beschreiben zu können. Das Gerät wurde vernetzt und vor allem in dieser Vernetzung hat es seine ungeheuer weltverändernde Kraft entwickelt, der wir heute gegenüberstehen. Kulturelle Praktiken und soziale Zusammenhänge, historische Konstellationen und die Betrachtung technischer Artefakte allein können den heutigen Stand der Medien nicht mehr erfassen. Sie erklären nicht die Größe von Google oder den Erfolg von Facebook. Sie verstehen die Machtspiele des Silicon Valley nicht und sind nicht kompetent im Erklären der Machtstrukturen.
Diese Kompetenz wird stattdessen den Wirtschaftswissenschaften zugeschrieben und das mit einem gewissen Recht. Während sich die Medienwissenschaften dem Gerät zuwendeten, hatten die Wirtschaftswissenschaften zunehmend die Transaktion und die Distribution von Information zu ihrem Gegenstand. Zusätzlich zwangen sogenannte »Externe Effekte«, die Wirtschaftswissenschaft immer wieder sich von ihrem ureigensten Thema – dem Markt – zu lösen und die Mechanik von Vernetzungszusammenhängen zu verstehen. So sammelten sich nach und nach Theorien über die Mechanik von zirkulierenden Zeichen in komplexen sozialen Gefügen, die – so meine Überzeugung – auch außerhalb der Wirtschaftswissenschaften ihren Nutzen haben können.

Statt sich also nur im Kleinklein technischer Details zu verlieren und historische Zusammenhänge zu suchen, wo doch gerade Neues entsteht, sollten die Medienwissenschaften prüfen, wie Theorien um »Disruption«, »Netzwerkeffekte« und »Transaktionskosten« ihnen helfen können, die aktuellen Medienformationen zu deuten.

Doch auch die Wirtschaftswissenschaften alleine tragen nur bis zu einem gewissen Punkt. War der Computer noch mit Müh und Not (auch) als Medium zu begreifen, wird es beim kommenden Internet of Things noch enger. Wenn Dinge durch ihre Ausstattung mit Mikrochips anfangen »mediale Eigenschaften« zu implementieren, werden sie nicht zu Medien im klassischen Sinne. Sie sind weit mehr, als die menschlichen Sinnesorgane erweiternden Prothesen, wie McLuhan sie noch sah. Die vernetzten Dinge leihen ihre Sinnesorgane nicht mehr in erster Linie dem Menschen, sondern zunehmend einander. Die Dynamik des dabei entstehenden Netzes einander zuhörender, kommunizierender, regulierender und einander kontrollierender Dinge, ist auch für die anthropozentrische Wirtschaftswissenschaft kaum mehr zugänglich.

Es wird also einerseits Zeit, sich im Werkzeugkasten der Wirtschaftswissenschaften zu bedienen. Das geht auch, ohne alle ihre Prämissen zu signieren. Andererseits soll das nicht ohne Rückgriff auf aktuelle sozialwissenschaftliche und kulturwissenschaftliche Theorien geschehen. Zu zeigen, wie wunderbar sich diese ergänzen – dafür gibt die Debatte um das Internet of Things hier Anlass.

1. Das Spiel um die Netzwerkeffekte

»You know nothing, Jon Snow«, ist der Satz, den Ygritte dem »Bastard« und Mitglied der »Nights Watch« Jon Snow immer wieder zuruft. Wir befinden uns bei Game of Thrones (Buch: Song Of Ice and Fire), jener populären Buch- und später Fernsehserie, die ihre Fans in Atem hält. Game of Thrones spielt in einem leicht Fantasy-haften Parallelmittelalter. Game of Thrones ist nur oberflächlich gesehen eine Fantasy-Saga. In Wirklichkeit sind trotz Magie, Drachen und Riesen die Machtspiele und politischen Verstrickungen der Menschen die entscheidenden Treiber der Handlung.

Das Setting ist wie folgt: Die sieben Adelshäuser auf dem Kontinent Westeros befinden sich im fortwährenden Konflikt um den eisernen Thron. Dieser wird mal als Intrige, zeitweiser Koalition, Verrat oder offenem Krieg ausgetragen. Jede der Familien hat, für sich genommen aus rein subjektiver Perspektive, einen gewissen Anspruch auf den Thron – oder glaubt zumindest, einen zu haben. Die sich in vielen nebeneinander verlaufenden Strängen verwickelnde
Handlung bringt komplexe politische Situationen hervor, die regelmäßig in spektakulären Showdowns zu unerwarteten Wendungen führen.

Trotz des erratischen Settings ist diese Erzählung auch gerade deswegen so populär, weil sie mit gelernten narrativen Strukturen bricht. In dem Handlungsgeflecht voller Eitelkeit, Hinterlist und politischem Verrat fallen die Protagonisten sinnbildlich wie die Fliegen. Tragende Figuren, die über viele Episoden mühsam aufgebaut wurden, werden mit der Leichtigkeit eines Fingerstreichs aus der Handlung befördert. Gerade diejenigen, die sich mit ihrer Ritterlichkeit und Reinherzigkeit unsere Sympathien erspielen, sind auch diejenigen, die schnell in den Hinterhalt gelockt und getötet werden.
Jon Snow ist so einer dieser ritterlichen Charaktere. Als unehelicher Sohn des Hauses Stark hat er einen relativ unterprivilegierten Status und bewacht als Ritter der »Nights Watch« die nördliche Mauer aus Eis, die Westeros vor den Gefahren aus der vereisten Welt jenseits der Mauer beschützen soll. »You know nothing« kann also als Mahnung verstanden werden, als ein Verweis auf die Naivität desjenigen, der die Regeln des Spiels nicht versteht, das er spielen soll.

In einer ähnlichen Situation stehen wir heute. Das Spiel hat sich durch die Digitalisierung und das Internet radikal verändert. Geschäftsmodelle, Lebenskonzepte, politische und soziale Gewissheiten wirken immer seltener tragfähig. Es findet nicht nur eine Anpassung der einen oder anderen Spielregel statt, das gesamte Spiel ist ein anderes,1 und so führt die Interpretation aktueller Ereignisse unter den Prämissen des alten Spiels regelmäßig zu Missverständnissen.

Als Facebook 2012 Instagram für insgesamt eine Milliarde Dollar kaufte, waren selbst Silicon-Valley-Kenner geschockt. Eine solche Unternehmensbewertung für ein Unternehmen, das erst zwei Jahre alt war und nur 13 Mitarbeiter hatte, war ein Dammbruch. Natürlich wurde heiß über eine neue Technologie-Blase diskutiert, die sich vermeintlich aufgetan hätte.

Rückblickend aber erscheint die Milliarde für Instagram beinahe mickrig, seitdem Facebook nur wenige Monate später WhatsApp für insgesamt 19 Milliarden Dollar gekauft hat. WhatsApp war zum Zeitpunkt des Kaufs noch kleiner als Instagram und hatte noch weniger Mitarbeiter. Hinzu kommt, dass WhatsApp von seinem technologischen Ansatz her viel trivialer ist als ein richtiges Social Network wie Instagram.

Unter den herkömmlichen ökonomischen Prämissen ist so eine Investition kaum zu rechtfertigen. Was also hat den als wirtschaftlich kühl agierend bekannten Facebook-CEO Mark Zuckerberg dazu getrieben, in kürzester Zeit so viel Geld für zwei vergleichsweise junge und kleine Start-Ups auszugeben? Es war viel davon die Rede, dass es Facebook vermutlich um die Daten gehe und es wurde ausgerechnet, was das Unternehmen faktisch pro User auf den Tisch gelegt hatte. Andere vermuteten eine selten kostbare Belegschaft, die sie sich einverleiben wollten.

»You know nothing« würde Ygritte ihnen zurufen. Sie wissen nicht, wie das Spiel funktioniert, sie verstehen nicht, was auf dem Spiel steht. Mark Zuckerberg aber weiß es: es geht nur um die Netzwerkeffekte. Sie sind schlussendlich einer der Gründe, warum Facebook so erfolgreich ist und eben diese Netzwerkeffekte, sind auch der Grund, warum Zuckerberg trotzdem nicht gut schlafen kann.

Netzwerkeffekte sind so genannte positive Rückkopplungen, die auf das Wachstum eines Netzwerkes wirken. Der allererste Telefonnutzer hatte nicht viel Freude an seinem Gerät. Ein Telefon stiftet erst Nutzen, wenn es mit anderen Telefonen verbunden wird. Dieser Nutzen steigt mit jedem einzelnen Teilnehmer, der an das Netzwerk angeschlossen wird. 2

Die Netzwerkeffekte gelten selbstverständlich auch für alle andere Arten von interaktiven Kommunikationssystemen: für Faxmaschinen, Telefonsysteme oder Netzwerkprotokolle, aber auch für solche Dinge wie Standards in der Computertechnologie. Überall dort, wo unterschiedliche Teilnehmer interagieren und dies auf einer standardisierten Grundlage tun, kommen die Netzwerkeffekte zum Tragen. Das Neue an der Situation von Facebook und anderen Plattformen sind also gar nicht die Netzwerkeffekte. Die Netzwerkeffekte kommen nur heute stärker zum Tragen, denn etwas hatte sie bis jetzt gefesselt. Neben den positiven Rückkopplungen, die alle Tendenzen immer nur verstärken, gibt es auch solche, die alle Tendenzen immer schwächen. Eine solche negative Rückkopplung sind die Kosten, die Vernetzung produziert. Mit Kosten sind nicht nur Kosten gemeint, die tatsächlich Geld kosten, sondern es meint alle Kosten: jeden zusätzlichen Aufwand, jede extra Anstrengung, jede zusätzliche Zeit, aber vor allem auch jede zusätzliche Unsicherheit, die ich in Kauf nehmen muss, um z.B. zu kommunizieren.3 Diese Kosten zur Kommunikation sind es, die die Netzwerkeffekte in ihrem Wirken bislang immer gebremst haben. Und diese Kosten brechen durch das Internet und die Digitalisierung in einem größeren Maßstab weg.

Der erste Kommunikationskostenfaktor der wegfiel, waren die Kosten für die Überwindung von Entfernung. Noch bei Telefonbedingungen spielte Entfernung eine große Rolle. Unterschiedliche regionale, später nationale Telefonnetze mussten überbrückt werden und die Telefongesellschaften ließen sich diese Überbrückung gut bezahlen. Vollkommen unterschiedliche und intransparente Tarife für Orts-, Landes- oder internationale Gespräche waren die Folge. Erst im Internet sind Entfernungen nur noch eine Frage von Latenz und unterschiedlichen Zeitzonen. Die Kosten von Kommunikation von einem Internetknoten zum anderen sind fast überall gleich und quasi bei null. Solange die Kosten für Fernkommunikation noch an die Entfernungen gekoppelt waren, bedeutete das, dass mit zunehmender Vernetzung zwar der Nutzen des Netzwerkes für die Teilnehmer stieg, aber dass dieser Nutzen durch die steigenden Kommunikationskosten mit zunehmender Entfernung wieder neutralisiert wurde.

Ein zweiter Kommunikationskostenfaktor ist der der sozialen Komplexität. Bei der Einführung der kommerziellen Telefonie um 1848 in den USA wurden alle Telefone noch zu sogenannten Party Lines zusammengeschlossen.4 Wenn man den Telefonhörer abnahm, war man mit allen Teilnehmern des Telefonnetzes gleichzeitig verbunden. Ein grandioses Chaos, das zu vielen interessanten sozialen Situationen führte, aber die Nutzer auch schnell überforderte. Erst als die Schalttafeln für Einzelverbindungen der Teilnehmer untereinander 1878 Einzug hielten, wurde diese Komplexität wieder auf ein handhabbares Maß reduziert.

Das Internet durchlief in seiner Entwicklung vom Entstehen hin zu seiner jetzigen Form eine ähnliche Entwicklung: Zunächst waren Chatrooms und Foren im Web der Ort, an dem sich Menschen austauschten. Genau wie die Partylines in der Frühzeit des Telefons spricht der Nutzer dort in einen Raum hinein und alle, die sich zu diesem Zeitpunkt virtuell in diesem Raum befinden, können mitlesen, antworten und so mit dem ursprünglichen Sender in Kontakt kommen – egal, ob dies ursprünglich von diesem antizipiert worden war oder nicht. Zwar gab es mit Angeboten wie EMail auch bereits eins-zu-eins Kommunikation, die innerhalb kürzester Entwicklungszeit mit Instant Messengern ergänzt wurden, aber nichts davon war wirklich neu: Die bidirektionale Kommunikation kennen wir bereits aus der analogen Welt, genauso wie die Kommunikation mit einer Masse von Menschen. Erstere ist denkbar einfach, letztere erreicht schnell ihren Grenznutzen, je mehr Leute am Gewimmel teilnehmen. Wer schon mal in einem Meeting mit mehr als drei Leuten saß, kennt dieses Scheitern an der Komplexität.

Doch die eigentliche Komplexitätsrevolution kam erst mit dem sogenannten Social Web. Mithilfe von gut skalierbaren relationalen Datenbanken können komplexe soziale Verhältnisse abgebildet werden.5 Relationale Datenbanken speichern Daten in voneinander unabhängigen Tabellen. Zusätzlich kann man die Beziehung der Datensätze untereinander in sogenannten Verknüpfungstabellen speichern. Erst mit der Abfrage der Datenbank – die bei relationalen Datenbanken in einer speziellen Abfragesprache (SQL) verfasst wird – können die komplexen Verknüpfungen dann mit aufgerufen werden. Die Freundschaften bei Facebook zum Beispiel oder die Abonnements bei Twitter sind eigentlich nichts anderes, als eine solche Verknüpfungstabelle, die die eigentlichen Profildaten miteinander verknüpfen. Das soziale Netzwerk ist also ein rein virtuelles Netzwerk, gespeichert in den Tiefen der Datenbanktabellen auf den Servern einer zentralen Recheneinheit. Neben dem »Raum«, in dem alle gemeinsam sprechen, und der einfachen bidirektionalen Konversation gibt es nun den Graphen, ein komplexes Geflecht aus den selbstgewählten Beziehungen, die man in einem sozialen Netzwerk knüpfen kann.

Diese beiden Entwicklungen, die die Kommunikationskosten kollabieren ließen, entfesselten die Netzwerkeffekte. Das ist der Grund, weshalb Internetplattformen ein so scheinbar unbegrenztes Wachstum feiern. Je größer sie werden, desto größer wird die Attraktion und der soziale Druck, sich ihnen anzuschließen. Man kann deswegen die Netzwerkeffekte als »soziale Gravitation« bezeichnen. Und diese Metapher trägt weiter als man denkt.

Als 2006 eine eigens dafür einberufene Kommission den Begriff »Planet« neu fasste, fiel Pluto durch das Raster. Pluto, jahrzehntelang das kleine, abseitige Nesthäkchen in unserem Sonnensystem, wurde von heute auf morgen der Planetenstatus entzogen. Der entscheidende Satz dazu in der neuen Planetendefinition lautet: »[Ein Planet ist ein Objekt, das] das dominierende Objekt seiner Umlaufbahn ist, das heißt, diese über die Zeit durch sein Gravitationsfeld von weiteren Objekten ›geräumt‹ hat.«6 Pluto wurde der Planetenstatus aberkannt, weil sich in seiner Umlaufbahn teilweise größere Gesteinsbrocken als er selbst finden. Pluto hatte im Gegensatz zu Facebook seine Umlaufbahn nicht geräumt, sein Gravitationsfeld wirkte nicht stark genug.

Und damit sind wir wieder bei Facebook. Wenn Mark Zuckerberg eskalierende Milliardensummen für Start-Ups ausgibt, dann tut er dies, um seine Umlaufbahn frei zu räumen. Facebook räumte seine Umlaufbahn frei, als es Myspace aus dem Orbit rammte. Facebook räumt seine Umlaufbahn frei, als es sich Instagram und WhatsApp einfach einverleibte. Alles, was eine hinreichend direkte Konkurrenz zu Facebooks Funktionalität bildet und eine rasant wachsende Nutzerbasis hat, kann Facebook im Handumdrehen brandgefährlich werden.

Und Facebook ist nicht alleine. Auch andere große digital agierende Unternehmen gehen diesen Weg, um ihre Marktmacht zu sichern: Ebay räumt seine Umlaufbahn von anderen Auktionsplattformen, Amazon von anderen Onlineversandhäusern etc. Die von Kommunikationskosten befreiten Netzwerkeffekte sind das eigentliche Spiel um den Thron im Internet. Es sind viele Königshäuser da draußen, die ihre Umlaufbahnen freihalten, sie gelegentlich verlassen und kollidieren. Je länger dieses Spiel geht, desto klarer wird, dass es dem Game of Thrones ähnelt: The winner takes it all.

2. An den Grenzen der Menschheit

»When you play the Game of Thrones, you either win or die, there is no middleground« heißt es bei Game of Thrones. Wir befinden uns mitten im Spiel um den eisernen Thron. Einige Königshäuser haben bereits beträchtliche Macht akkumuliert, immer wieder kommt es zu Konflikten, Kollisionen und Machtspielen. Und alle kämpfen nicht nur um den Thron, sondern auch um ihr Überleben.

Facebook hat ein Problem. Es kann nicht mehr weiter wachsen, denn es ist an die Stratosphäre der Menschheit gelangt. Hier oben ist die Luft dünn. Etwa die Hälfte der ans Internet angeschlossenen Menschheit hat bereits ein Facebook- Konto. Die andere Hälfte ist für Mark Zuckerberg nur sehr schwer zu bekommen. Es ist unwahrscheinlich, dass diese Menschen von Facebook noch nichts gehört haben und so muss es andere Gründe haben, warum sie den Dienst nicht nutzen. Entweder haben sie sich bereits bewusst gegen Facebook entschlossen oder aber sie können Facebook nicht nutzen, weil sie zum Beispiel in Ländern wohnen, wo der Dienst geblockt wird. Da dazu neben China auch viele andere sehr bevölkerungsstarke Länder gehören, sind das sehr viele Menschen.

Diese Grenze sieht man bereits im Wachstum. Zwar wächst Facebook immer noch, aber immer langsamer. Der Wachstumsgraph wird zur Asymptote, er nähert sich langsam aber sicher einem Null-Wachstum an. Die positiven Netzwerkeffekte versiegen langsam aber sicher an den Grenzen der Menschheit. In den entwickelten Ländern fallen bereits die Nutzer-Zahlen und die Nutzungsdauer stetig. Nur die Wachstumsmärkte halten den Wachstumstrend aufrecht.7 Eine Studie der Princeton Universität sieht Facebook bereits 2017 auf dem Schrumpfungskurs.8

Das ist gefährlich, denn die positive Rückkopplung, die die Netzwerkeffekte ja bewirken sollen, besagt eben nicht nur, dass ein Dienst, der im Wachstum begriffen ist, dadurch attraktiver wird. Positive Rückkopplung bedeutet auch, dass ein Dienst, der schrumpft, immer unattraktiver wird. Wenn immer weniger Menschen, mit denen ich interagiere, den Dienst nutzen, sinkt auch der Nutzen, den der Dienst mir stiftet. Die positive Rückkopplung hat auch einen Rückwärtsgang. Würde das geschehen, würde Facebook in eine sich selbst beschleunigende Schrumpfungsspirale geraten. Es würde den Berg rückwärts hinunterrollen, den es erklommen hat.

Henry Ford hatte nach dem ersten Weltkrieg ein ähnliches Problem. Er war zu erfolgreich. Mithilfe des Fließbandes, strenger Arbeitsteilung und innovativer Managementtechnik hatte er seine Konkurrenz deklassiert. Er konnte schneller, besser und billiger Autos produzieren als alle anderen. Ähnlich wie Zuckerberg ist auch Ford ein Getriebener der positiven Rückkopplung. Der sogenannte Skaleneffekt besagt, dass mit steigender Produktionsstückzahl die Grenzkosten pro produziertem Stück sinken. Mit anderen Worten: Je mehr man produziert, desto billiger kann man produzieren und damit auch verkaufen – was in der Theorie die Nachfrage verstärkt, weswegen man mehr produzieren kann.
Ford-Autos waren sehr populär und beinahe jede Familie, die es sich leisten konnte, hatte sich bereits eines gekauft. Und das war das Problem: Die vorhandene Nachfrage war erfüllt und der Markt in seiner Form gesättigt. Das Wachstum stagnierte und Ford suchte nach neuen Möglichkeiten, dieser Stagnation entgegenzuwirken, die Nachfrage wieder anzukurbeln und in der Folge wieder mehr Autos zu verkaufen. Im Zuge dieser umsatzgetriebenen Problemstellung kam dem Unternehmer die wesentliche Idee, die den Begriff des »Fordismus« erst allgemein etablieren sollte. Er zahlte seinen Arbeiter einfach Lohnzuschüsse und gab ihnen das Wochenende frei – Konzessionen, die rein betriebswirtschaftlich unsinnig waren, kosteten sie ihn doch einfach Geld. Die Kalkulation war aber eine andere: Mit dem extra Geld und den freien Wochenenden hatten die Arbeiter einen Anreiz, selbst einen Ford zu kaufen. Ford produzierte also neben Autos auch gleichzeitig seine Kunden mit.

Facebook und Google müssen sich an Henry Ford ein Beispiel nehmen und jetzt, wo der bestehende Markt gesättigt ist und die Nutzerstruktur längst nicht mehr in der Form anwächst, wie es die Unternehmen aus ihren Anfangsjahren gewöhnt sind, neue Nutzer »produzieren«. Praktisch bedeutet das, dass die Konzerne seit einiger Zeit daran arbeiten, das Gesamtvolumen des digitalen Marktes auszubauen. Facebook tut das zum Beispiel mit seinem Projekt Internet.org. Die Domainendung .ORG wird häufig von gemeinnützigen Organisationen wie NGOs benutzt. Internet.org tritt entsprechend als gemeinnützige Aktion auf und verspricht, strukturschwache Regionen an das Internet anzuschließen. Facebook hat dafür mehr als einen Weg vorgesehen, aber die spektakulärste Variante ist wohl, dass Facebook gedenkt Satelliten ins All zu schicken und mit segelfliegenden autonomen Drohnen W-Lan-Zugang anzubieten. Derzeit wird aber die größte Masse an Menschen dadurch erreicht, dass man in Zusammenarbeit mit lokalen Providern Internetzugänge subventioniert. Bereits seit langem konnte man in vielen Ländern der Welt unter der Domain 0.facebook.com Facebook aufrufen, ohne dass dafür Daten abgerechnet wurden. Diese Zusammenarbeit wird unter dem Banner der guten Sache ausgedehnt. Netzaktivisten sehen darin eine Verletzung der Netzneutralität. Spezielle Dienste wie Facebook aus den Bezahltarifen herauszunehmen, kommt einer Bevorzugung gleich. Facebook zementiert damit seine Vormachtstellung gegenüber allen anderen Netzdiensten und macht so jeden Wettbewerb zunichte.

Für Google ist so ein Vorgehen nichts wesentlich Neues. Das Motto ›Was gut für das Wachstum des Netzes ist, ist gut für uns‹ war schon ein wesentlicher Baustein von Googles Wachstumsstrategie. Schon immer bot der Konzern mit dieser Begründung Tools und Dienste kostenlos und sogar werbefrei an, nur um mehr Menschen ins Internet zu ziehen – potentielle Kunden. Auch Infrastrukturmaßnahmen stehen dabei vermehrt auf dem Programm. In der westlichen Hemisphäre versucht der Konzern mit Google Fiber Highspeed-Internet einzuführen, das den Namen verdient. In Pilotprojekten wurden Haushalte mit echter Glasfaser mit Gigabit-Anschlüssen versorgt. Zum Vergleich: Die Telekom bietet im Highprice-Segment derzeit höchstens 100 Megabit an. Ein Zehntel.

Aber auch in den strukturschwachen Regionen engagiert sich Google. Mit dem Project Loon will der Konzern Heliumballons in die Stratosphäre schicken, so hoch, dass sie aus den wetterbedingten Unkalkulierbarkeiten entfliehen und dennoch genug Auftrieb haben. Diese fliegenden Sendestationen auf halbem Weg ins All können auch große Regionen mit W-Lan oder Mobilfunk versorgen.

Die Strukturschwache Region in Game of Thrones liegt jenseits der »Wall« und wird immer nur als »the north« bezeichnet. Die »Wall« ist eine viele hundert Meter hohe Mauer aus Eis, die den gesamten Kontinent Westeros von dem Territorium im Norden abschneidet. Hier tut Jon Snow seinen Dienst, verteidigt Westeros gegen die sogenannten »Wildlinge«. Es sind »wilde« in Horden lebende Menschen, zurückgelassen jenseits der Zivilisation im ewigen Eis. Sie versuchen immer wieder, die Mauer zu überwinden und brandschatzen, plündern und morden, wenn sie es schaffen.

»You know nothing, Jon Snow« bezieht sich auch auf die Unwissenheit und den Vorurteilen gegenüber den »Wildlings«, zu denen eben auch Ygritte gehört. Jon überwindet seine Vorurteile und versucht schließlich, einen Pakt mit den Wildlings zu schließen. Er geht diesen schwierigen Schritt, denn er braucht ihre kämpferische Stärke, so wie Google und Facebook die vielen neuen Internetnutzer aus den strukturschwachen Gegenden brauchen.

3. Die Macht des Unbelebten

Jon Snow braucht die Wildlings, um die die Armee der »White Walkers« aufzuhalten. Diese Armee – bestehend aus bereits gestorbenen und zombiefiziert wieder auferstandenen Menschen – marschiert vom Norden auf die »Wall« zu. Während die mächtigen Königshäuser sich gegenseitig in Westeros bekämpfen, sind es die White Walkers, die in überwältigender Anzahl den gesamten Kontinent bedrohen. Und Ygrittes immer dringendere Ermahnung bezog sich eben auch auf diese Armee, die für Snow und seine Mitmenschen unsichtbare Gefahr aus dem Norden, die den Wildlings bereits seit langem ausgeliefert sind. »You know nothing, Jon Snow!«

Das Spiel um die Netzwerkeffekte wird in der Wirtschaftswissenschaft meist anthropozentrisch gedacht. Egal ob Telefon, Computer oder Facebook, am Ende sind es immer Menschen, die aus dem Netzwerk einen Nutzen ziehen und am Ende sind es auch immer wir Menschen, die diesen Nutzen stiften. Wer denn auch sonst? »You know nothing, Jon Snow!«

In den Sozialwissenschaften und bestimmten Richtungen der Philosophie hat sich eine solche Sichtweise längst überholt. Die Wichtigkeit von nichtmenschlichen Akteuren wird von modernen soziologischen Theorien wie der Akteur-Netzwerk-Theorie von Bruno Latour radikal einbezogen. Die Idee der ANT ist, dass soziale Situationen nicht mehr anhand von Metakonzepten wie Gruppen, Gesellschaft oder Systemen beschrieben werden sollten, sondern von den viel konkreteren Bindungen eines Netzwerkes. Dabei werden Hierarchien und Entfernungen ebenso nivelliert wie der Unterschied zwischen Makro- und Mikro-Ebene. Übrig bleiben nur die zu einem Netzwerk verwobenen Akteure. Bruno Latour erkannte früh, dass diese Akteure eben nicht nur Handelnde im klassischen Sinne sein können, sondern dass Texte, Messapparate, Graphen, Formeln und andere Artefakte einen ebenso wichtigen Einfluss auf eine Akteurskonstellation ausüben können wie Menschen. Je nach analytischer Situation lassen sich so Akteure identifizieren, die Diskurse und Erkenntnisse produzieren und sich gegenseitig Handlungsmacht (Agency) übertragen. Latour will seinen Netzwerkbegriff allerdings nicht mit technischen Netzwerkbegriffen verwechselt sehen. Und doch kann er nicht anders, als auch technische Netzwerke als Akteurs-Netzwerke zu verstehen, nur eben als verstetigte, statische Varianten.9

2012 legte Ian Bogost einen Vorschlag für eine universelle Phänomenologie der Dinge vor. In seinem Buch Alien Phenomenology, or What It’s Like to Be a Thing10 geht er über Latour hinaus, indem er den Dingen nicht nur Handlungsmacht, sondern auch Perzeptionsvermögen zuspricht. In seiner auf Graham Harmans objektorientierten Ontologie auf bauenden Phänomenologie11 entwirft er den Blick des Dings auf die Dinge, einen Blick, der vom menschlichen Blick völlig verschieden ist. Anspielend auf die bekannte philosophische Spekulation von Thomas Nagel: What It’s Like to Be a Bat von 1974 versucht er, mithilfe von Metaphorik einer Vorstellung davon nahezukommen, wie Dinge die Welt wahrnehmen.12 Sein Bezug auf technologische und gar digitale Artefakte ist weitaus stärker ausgeprägt als bei Latour. So untersucht Bogost unter anderem die Wahrnehmung von Computerspielen und des Video-Interfaces des Atari-Computers.

Auch wenn Netzwerkeffekte weder bei Latour noch bei Bogost eine Rolle spielen, so lässt sich doch die Grundannahme von rezipierenden und agierenden Netzwerkteilnehmern auf sie übertragen. Genau genommen war die Annahme, dass Netzwerkeffekte nur durch Menschen verursacht und abgeschöpft werden, schon immer abwegig. Menschen kommen ins Netz, um dort die Dienste und Werkzeuge zu nutzen. Am besten lässt sich das anhand von Apples AppStore zeigen. Ökonomen sprechen hier von einem zweiseitigen Markt, getrieben von wechselseitigen Netzwerkeffekten. Sie sehen auf der einen Seite eine große Masse von kaufbereiten Menschen, die gerne Apps nutzen wollen. Auf der anderen Seite sehen sie die programmiermächtigen Entwickler, die deren Bedürfnisse erfüllen wollen. Beide Seiten, so die Ökonomie, profitieren von dem Wachstum der jeweils anderen Seite.

Doch sind es wirklich in erster Linie die Nutzer und Entwickler, die sich hier gegenüberstehen? Sind es nicht vielmehr deren Artefakte – die Apps –, die den Nutzen stiften? Ist die Anzahl der Entwickler nicht völlig egal für den Nutzen, den diese Artefakte stiften? Wenn all die Millionen Apps von nur wenigen, oder gar nur einem einzelnen Entwickler entwickelt worden wären, würde das irgendeinen Unterschied für die Netzwerkeffekte machen? Und sind es nicht auch die verbauten Sensoren, die von der sie benutzenden App-Vielfalt profitieren? Wie sehen die wechselseitigen Netzwerkeffekte von Hardware- und Software-Features bei Smartphones aus? Wie die zwischen den Plattformen iOS (mobile Geräte) und denen von OSX (Desktop Betriebssystem)?
Weiter gedacht: Wieso soll der Markt nur zwei Seiten haben? Sind es denn nicht auch die vielen Newsangebote, speziellen Blogs, Podcasts und Nutzer-Foren zu Geräten mit Apples iOS, die das Betriebssystem attraktiver machen und somit auch den Nutzen einer Plattform erhöhen? Sind es nicht die vielen Zusatzgeräte, spezialisiert auf deren Schnittstellen, die ebenfalls ihren Teil hinzufügen? Ist ein Betriebssystem nicht weniger ein zweiseitiger Markt als vielmehr ein komplexes, weit verzweigtes Ökosystem? Ein Ökosystem der Dinge?
Ausgestattet mit all diesem theoretischen Rüstzeug stehen wir nun an der nächsten Zündstufe der digitalen Evolution: dem Internet of Things. Das Internet der Dinge (oder auch Ubiquitus Computing) ist ein Sammelbegriff für die Tatsache, dass wir nach und nach anfangen, alle möglichen Dinge mit Mikrochips und Sensoren auszustatten, und diese mit einer Anbindung an lokale Netzwerke oder eben dem Internet versehen. Die Dinge werden ihrer Umwelt gewahr und beginnen miteinander zu kommunizieren.

Dabei deckt der Begriff Internet of Things (IoT) bereits sehr viele unterschiedliche Entwicklungen ab: Smart Homes bezeichnet die fortschreitende Entwicklung, Haushaltsgeräte mit intelligenten Chips auszustatten, damit sie fernsteuerbar werden und auf ihre jeweilige Situation halbautomatisch reagieren. Intelligente Stromzähler, Mediacenter und mit dem Handy bedienbare Türschlösser gehören dazu. Wearables sind dagegen intelligente Accessoires, die man am Körper trägt. FitBit-Armbänder, die die Schritte zählen, SmartWatches, die den Puls und andere Körperdaten messen und eine Ergänzung zum Smartphone sein sollen. In der Industrie 4.0 interagieren mit Intelligenz ausgestattete Maschinen miteinander und organisieren dynamische Produktionsprozesse. Dadurch sollen Kosten gespart, die Produktion agiler gemacht und dadurch mehr Individualisierung für die Kunden geboten werden. Bei den Smart Cities geht es darum, den städtischen Raum mit Sensoren auszustatten. Der Mülleimer, der weiß, wann er voll ist, die Ampelanlage, die auf ihre Umwelt reagiert. Demnächst werden autonome Flug-Drohnen und selbstfahrende Autos auf den Markt kommen – auch sie sind Teil des IoT.

Der Treiber hinter dem IoT sind die immer kleiner und billiger werdenden Computerchips. Ein Trend, der im Sinne von Moores Law weiterhin anhalten wird. Das Internet of Things ist daher ein Begriff für eine Übergangszeit. Dass jedes Ding auch ein Computer sein wird, der mit Sensoren und Intelligenz ausgestattet ist, das wird in zehn Jahren so selbstverständlich sein, dass es dafür dann keinen Begriff mehr braucht.

Als Henry Ford damals begann, seine eigene Nachfrage zu produzieren, indem er seine eigenen Arbeitnehmer zu Kunden machte, musste er noch auf Menschen als Akteure zurückgreifen. Apple, Google und vielleicht bald auch Facebook werden bald nicht mehr auf Menschen angewiesen sein, wenn es darum geht, die Netzwerkeffekte am Laufen zu halten. Der Kampf wird nicht mehr um die Vormachtstellung bei menschlichen Akteuren gehen, sondern um die Frage, wer die Armee der Leblosen befehligt, die viel, viel größer sein wird als die kleine Gruppe von Menschen und ihren Geräten, die das heutige Internet ausmachen.

4. Das Babel der Dinge

Wir sind bei der Entwicklung des Internets der Dinge derzeit noch in der Phase, in der das Web Mitte der 1990er Jahre war. Es gibt nur wenige sinnvolle Anwendungszwecke und eine Plattform wie Facebook ist noch nicht vorstellbar. Es wird viel experimentiert und der Markt ist noch nicht groß, aber die Potentiale sind riesig. Der Netzwerkausstatter CISCO errechnete, dass bis 2020 etwa 75 Milliarden Sensoren ans Internet angeschlossen sein werden.13 IBM geht für das Jahr 2030 sogar von circa 100 Trillionen aus.

Wenn das Internet der Menschen der Gravitation des Sonnensystems entspricht, wird das Internet der Dinge eher einer Galaxie gleichen. Die Netzwerkeffekte werden um das schwarze Loch im Zentrum kreisen, das alles in sich hineinzieht und seine Gravitation damit nur noch weiter steigert.

Für die Netzwerkeffekte kommt es weniger darauf an, ob Akteure menschlich oder nichtmenschlich sind, sondern ob sie miteinander interagieren können. Um das zu gewährleisten, müssen sie eine gemeinsame Sprache sprechen. Facebook war Mitte der 1990er Jahre noch nicht denkbar. Es gab zwar eine gemeinsame Plattform – das Web – aber dieses war so generisch, dass es zunächst viele miteinander inkompatible Systeme (Websites) schuf. Aber so wie Facebooknutzer nur kommunizieren können, weil sie eine einheitliche Infrastruktur dafür zur Verfügung haben, werden auch die Dinge als Ganzes nur interagieren können, wenn sie eine gemeinsame Plattform haben.

Plattformen können verstanden werden als homogene Schnittstellen, die als Infrastruktur allerlei Interaktionsmöglichkeiten unter den Teilnehmer eines Netzwerkes ermöglichen. Sie sind die Bedingung der Möglichkeit von Vernetzung und deswegen selbst oft unsichtbar. Aber gerade dort, wo die Vernetzung im Entstehen ist, es also noch keine solche allgemeine Plattform gibt, wird das Spiel um die Definitionsmacht der Vernetzung gespielt. Das Game of Things ist der Kampf um die Sprache der Dinge. Wer die Schnittstellen kontrolliert, wird die Netzwerkeffekte ernten.

Die derzeitig wichtigsten Anwärter in diesem Spiel sind Apple und Google. Google verfolgt einen Cloud-zentrierten Ansatz. Sein Handy-Betriebssystem Android ist jetzt schon in vielen Dingen verbaut: Autos, Fernseher, Kühlschränke. Sie alle sollen über das Internet mit Googles zentralen Servern reden, wo die Daten zusammengeführt werden und die Geräte zentral einsehbar und steuerbar sind. Der Nutzer greift mit einer Smartphone-App darauf zu. Auch bei Apple wird das Smartphone die Schaltzentrale des Internet of Things sein. Im Gegensatz zu der Lösung, die Google auf seiner Entwicklerkonferenz I/O vorgestellt hat,14 sollen die Daten bei Apple aber nicht über zentrale Server zusammenkommen, sondern die Geräte sollen sich untereinander direkt austauschen. Das Thermostat spricht mit der Heizung, beide sprechen wiederum mit dem Smartphone, und vielleicht synchronisieren sie sich noch mit dem Homeserver.

Man wird sich also für Apples Lösung entscheiden können – die durch den Verzicht auf einen zentralen Server etwas schonender für die Privatsphäre ausfällt, aber dafür beschränkter im Funktionsumfang ist – oder für Googles Ansatz – der über die Auswertung des Gesamtnutzerverhaltens wahrscheinlich hilfreiche Tipps, aber auch lästige Werbung generieren kann.

Neben den beiden Großen gibt es bei dem Game of Things noch viele weitere Anwärter. Von vielen haben wir wahrscheinlich noch nicht einmal gehört. Derzeit findet die meiste Entwicklung von IoT-Geräten im kleinen Rahmen von Crowdfundingplattformen wie Kickstarter und Indiegogo statt. Kleine Start-ups oder Privatpersonen stellen ihre Vision eines vernetzten Haushaltsgegenstandes vor und lassen sich die Entwicklung von Enthusiasten vorfinanzieren. Dabei kommen mal mehr mal weniger nützliche Gegenstände heraus. Hinzu kommen die vielen Bastler und Tüftler, die mithilfe von günstigen Chipsätzen wie Arduino oder Raspberry Pi selbstgebaute Home-Automation-Projekte durchführen, sich in Blogs und Foren über die besten Setups austauschen und die Steuerungssoftware Open Source stellen. Etwas größere Anbieter wie Smartthings gehen einen Schritt weiter und bieten ganze Sets von Sensoren, Kameras und zum Beispiel Lampensteuerung und Heizungsregulierern an, die sich über eine zentrale Schaltstelle steuern lassen. Natürlich wollen auch die großen, etablierten Hersteller wie Siemens, Miele und Grundig den Trend nicht verschlafen und bieten vernetzte Kühlschränke, Waschmaschinen, Fernseher und sogar Rasierapparate an.

Und all diese Ansätze, Konzepte und Projekte agieren oft mit dem heimischen W-Lan oder per Bluetooth, und meist sind die dabei entwickelten Protokolle spezialisierte Entwicklungen, inkompatibel mit dem Rest. Sie sprechen Privatsprachen, einen ganzen Zoo an spezialisierten, proprietären Eigenentwicklungen, das Babel der Dinge. Deswegen können sie nur das, was sie können sollen. Doch der eigentliche Wert liegt in der Vernetzung all der Geräte und der muss noch gehoben werden.

Die Netzwerkeffekte besagen, dass die Heizung besser funktioniert, wenn sie mit dem Thermostat spricht und weiß, ob das Fenster offen ist. Die Netzwerkeffekte gebieten, dass das Kraftwerk besser funktioniert, wenn es mit allen Thermostaten auf Du ist und Sensoren entlang der Stromtrassen hat. Das Kraftwerk will über die Lieferketten seines Treibstoffs bescheid wissen, genauso wie der Techniker, der das Stromnetz kontrolliert. Das Stromnetz braucht Informationen darüber wie der Verkehr in der Innenstadt fließt, die Autoindustrie ebenfalls, um ihre Produktionsstraßen anzupassen. Die Solarzelle will mit den Wetterstationen sprechen, die Wetterstation mit der Klimaanlage, die Klimaanlage mit dem Türschloss, das Türschloss mit dem Auto, das Auto mit allen anderen Autos und der Straßenverkehrsleitstelle. Der Kühlschrank braucht eine Idee davon, was in ihm steht und alle, alle, alle wollen mit der Smartwatch reden – vor allem, sobald das Garagentor aufgeht. Die Netzwerkeffekte werden eine ungeahnte Traktion erfahren, denn am Ende muss alles mit allem interoperabel sein.

Am Ende muss eine Sprache all die Dinge sinnvoll verbinden. Apple, Google und die vielen anderen Adelshäuser werden alles dafür tun, diejenigen zu sein, die diese Sprache vorgeben. Es ist dann am Ende egal, wer die Geräte herstellt und verkauft. Das Facebook of Things zu sein, das ist der Eiserne Thron der Dinge.
Doch es gibt eine Alternative. Es muss kein einzelnes Unternehmen sein, dass die Protokollebene kontrolliert. Das Internet selbst wird von keiner zentralen Instanz kontrolliert und doch bietet es die Grundlage der meisten Kommunikation, die wir in der digitalen Welt tun. Das Netz der Netze steht auch bereit, Grundlage für das IoT sein zu können. Heute schon enthält es den Kern für ein allgemeines Protokoll der Dinge, dezentral organisiert, weltweit erreichbar, offen für alle, die auf dieser Grundlage entwickeln wollen.
Dass das Internet mehr Adressen braucht, als die ursprünglichen im Protokollstandard vorgesehenen, wussten die Netzingenieure bereits seit 1998. Damals haben sie schon einen neuen Internetstandard verabschiedet. Das dem Internet zugrundeliegende Netzwerk-Protokoll »IP«, also »Internet Protokoll« ist dafür zuständig, dass die Daten von A ihren Weg nach B finden. Die dafür vorgesehene Adressierung nennt man deswegen IP-Adressen. Sie sind diese in vier voneinander mit Punkten getrennten Nummernblöcke, etwa 233.154.98.67. Jede der durch einen Punkt getrennten Stellen entspricht ein Byte (8 Bit). Mit einem Byte lassen sich 256 Zustände darstellen, weswegen jede der Stellen eine Zahl zwischen 0 und 255 annehmen kann. Das ergibt also etwas über vier Milliarden mögliche IP Adressen, die zu verteilen sind. Jedes Gerät, das im Internet kommunizieren will, braucht eine solche Adresse, und diese Adressen werden knapp. Eigentlich gibt es kaum noch freie. Natürlich sind viele unbenutzt. In der Frühphase wurden sie zu großzügig vergeben. Apple beispielsweise besitzt alleine ein Class-A Netz, also ein Netz, dessen erste Stelle fix ist und alle anderen frei definieren kann, was immerhin 16,7 Millionen IP-Adressen entspricht.

Doch Rettung naht. Das bisherige Internet Protokoll (Version 4) soll durch ein neues ersetzt werden (Version 6). Technisch ist es beinahe auf allen Geräten bislang vorinstalliert. Alleine die Internetprovider zieren sich noch bei der Umstellung. IPv6 hat eine 128 Bit-Adressierung, im Gegensatz zur 32 Bit- Adressierung von IPv4. Das erhöht die Möglichkeiten dramatisch. 340 Sextillionen IP-Adressen werden damit möglich. Eine Sextillionen ist eine 1 gefolgt von 36 Nullen. Damit könnte jedem Sandkorn auf der Erde eine IP-Adresse zugewiesen werden. Wir können aber derzeit auch nicht ausschließen, dass Sandkörner nicht dereinst beim Internet of Things eingemeindet werden.
Für das Internet der Dinge ist IPv6 derzeit die größte Chance, sich nicht auf Dauer von einem Unternehmen dominieren zu lassen, und dennoch die Netzwerkeffekte für alle abschöpfen zu können. Natürlich kann IPv6 nur die Grundlage liefern, auf der weitere Protokolle aufsetzen müssen. Wie diese aussehen müssen, ist heute noch schwer zu sagen, denn wir sind noch mitten drin, in der Experimentierphase. Es muss gewährleistet sein, dass die Dinge sich gegenseitig sehen und erkennen, dass sie Messtandards verstehen, Daten austauschen können, sich vielleicht auf Dialekte einigen können. Auf die Frage: »How it’s like to be a thing?« müssen jetzt die Entwickler eine weniger spekulative, sondern eine normative Antwort geben. Dabei ist es wohl unvermeidlich, dass einzelne Unternehmen erstmal mit eigenen Standards vorpreschen und am besten mit anderen Standards konkurrieren. Auf lange Frist wollen sich aber weder die Menschen noch die Dinge um Protokollstandards und unterschiedliche Plattformkonzepte die Köpfe zerbrechen.

Die Game of Thrones-Saga ist bekanntlich noch nicht fertig geschrieben. Dessen Autor George R. R. Martin arbeitet zur Zeit der Entstehung dieses Textes an dem sechsten Band. Wir wissen noch nicht, wie die Schlacht zwischen White Walkers und Menschheit ausgehen wird. Ein ebenfalls immer wiederkehrendes Sprichwort aus der Saga ist »Winter is coming«. Der große Winter ist die Ankündigung der mythischen Ära der Kälte, eine Zeit, in der die White Walkers durch Westeros marschieren werden. Wahrscheinlich wird es noch fünf bis zehn Jahre dauern, bis wir die großen Schlachten um das Game of Things erleben werden. Vielleicht werden sie dann von völlig anderen Akteuren geführt werden, als die, die wir heute für die wichtigsten Anwärter halten. Die Unvorhersehbarkeit der Ereignisse im volativen Plattformmarkt könnte der Feder von George R. R. Martin entsprungen sein. Sicher ist nur eines: »Winter is Coming«.

  1. Vgl. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Berlin: iRights Media 2014, S. 8.
  2. Tatsächlich wurden die Netzwerkeffekte zuerst 1908 vom legendären ersten AT&T-Geschätfsführer Theodor Vail festgestellt, als er für die Überführung von AT&T zum staatlich kontrollierten Monopol argumentierte (vgl. Wu, Tim: The Master Switch – The Rise and Fall of Information Empires, New York: Knopf 2010, S. 124, S. 6 ff). Wissenschaftlich wurden die Netzwerkeffekte erst viel später bearbeitet. Bekannt ist die Formel von Robert Metcalfe: n (n − 1)/2. Sie besagt, dass der Nutzen des Netzwerks pro- portional zur Anzahl der Teilnehmer des Netzwerks im Quadrat ist. Die Stichhaltigkeit von Metcalfes Law wird aber auch angezweifelt (Bob Briscoe, »Metcalfes Law is Wrong«, www.cse.unr.edu/~yuksem/teaching/nae/reading/2006-briscoe-metcalfes.pdf, vom 30. Juli 2006). Ich schlage vor, solchen Quantifizierungsversuchen skeptisch gegen- überzutreten. Um den Zusammenhang zwischen Netzwerkteilnehmer und Attraktivität des Netzwerks plausibel zu machen, sind Formeln meines Erachtens auch nicht nötig.
  3. Dass die Kosten von Interaktion eine wesentliche Rolle beim (wirtschaftlichen) Handeln spielen, entdeckte zuerst Ronald Coase. Er zeigte, dass die neoklassische Vorstellung vom Funktionieren des Marktes außer Acht lässt, dass das Teilnehmen an einem Markt Kosten verursacht. Die sogenannten »Transaktionskosten« sind die Kosten, um Information zu sammeln, Aufwand zu verhandeln und vor allem die Risiken, die ich eingehen muss. Coase, Ronald: »The Nature of the Firm«, in: Economia 4/16 (1937), S. 386-405.
  4. Vgl. Wu, Tim: The Master Switch – The Rise and Fall of Information Empires, P. 103,8.
  5. Vgl. Burkhardt, Marcus: Digitale Datenbanken – Eine Medientheorie im Zeitalter von Big Data, S. 288.
  6. International Astronomical Union: »iau0603 – News Release« www.iau.org/news/ pressreleases/detail/iau0603/, vom 24. August 2006.
  7. Garside, Juliette: Facebook loses millions of users as biggest markets peak, www.theguardian.com/technology/2013/apr/28/facebook-loses-users-biggest-markets, vom 29. April 2013.
  8. Cannarella1, John/Spechler, Joshua A.: Epidemiological modeling of online social network dynamics, http://arxiv.org/pdf/1401.4208v1.pdf vom 17. Januar 2014.
  9. »A technical network in the engineer’s sense is only one of the possible final and stabilized state of an actor-network.« Latour, Bruno: On Actor Network Theory: A few clarifications 1/2, on nettime, www.nettime.org/Lists-Archives/nettime-l-9801/msg0 0019.html, vom 11.01.1998.
  10. Bogost, Ian: Alien Phenomenology, or What It’s Like to Be a Thing, Minneapolis u. London: University of Minnesota Press 2012.
  11. Harman, Graham: Tool-Being: Heidegger and the Metaphysics of Objects, Chicago: Open Court 2002.
  12. Ian Bogost: Alien Phenomenology, or What It’s Like to Be a Thing, S. 65.
  13. CISCO, http://newsroom.cisco.com/feature-content?type=webcontent&articleId= 1208342, vom 29.Juli 2013.
  14. Ball, Benjamin, »Google I/O 2014: Android Meets the Internet of Things with An- droid Wear, Android Auto, and Google Fit«, http://java.dzone.com/articles/google-io-2014-and-internet, vom 26. Juni


Veröffentlicht unter extern Kontrollverlust Plattformpolitik Queryology
Verschlagwortet mit
1 Kommentar

open!: The Kontrollverlust of the Nation-State and the Rise of the Platforms

/****
In letzter Zeit bekomme ich vermehrt Anfragen für Texte auf Englisch. Das macht mir zwar mehr Mühe, da ich nicht so erfahren bin, in dieser Sprache zu schreiben. Aber ich denke, es lohnt sich allein des anderen Leserkreises wegen. Hier ein Text, den ich für die Plattform “open!” geschrieben habe. Es geht nur am Anfang einführend um den Kontrollverlust, der Hauptteil des Textes setzt sich mit der Politik von Plattformen auseinander. Eine kürzere Version einiger der Gedanken und Beispielen aus dem Text kann man auch auf Deutsch bei der Zeitschrift “Kunst und Kommerz” des deutschen Kulturrates nachlesen. (Hier das PDF)
****/

The Kontrollverlust of the Nation-State and the Rise of the Platforms

Since Wikileaks revealed large amounts of US intelligence to the public in 2010, most people are now more aware of the vulnerability of the nation-state: that it must keep it’s secrets safe in order to function. (At least, this is what the nation-state believes.) But as technology evolves, it seems less and less able to do so.

[Weiterlesen >>>]


Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Plattformprivacy

Es wird immer offenbarer, dass die Antwort der Gesellschaft auf den Kontrollverlust die zentral gesteuerten Plattformen sind. Auffällig wurde dies spätestens seit Apple der Musikindustrie mit iTunes den Allerwertesten rettete und es wurde am deutlichsten, als Google mit ContentID einen Weg für Verwerter anbot, wie sie die unkontrollierbaren User-Uploads für sich vergolden konnten. Aber auch bei der Privatsphäre hat sich ähnliches ereignet. Aller Unkenrufe zum Trotz hat Facebook die Privatsphäre einfach als Privacy-Setting neu erfunden und in den geschlossenen Welten von WhatsApp und Snapchat werden ebenfalls ganz neue Formen von Privatheit erprobt.

Die alte Vorstellung von Privatsphäre wird dabei natürlich ebenso über Bord geworfen (“Informationelle Selbstbestimmung”, haha!), wie die alte Vertriebskanäle von Radio bis Plattenladen. Auf den Plattformen rüttelt sich etwas zurecht, das auf einer anderen Komplexitätsstufe dem Alten (Privatsphäre, Erlösmodelle) nah genug kommt, damit sich die Leute damit zufrieden geben.

Eine besonders aufschlussreiche Blüte dieser Kontroll-Transition hin zu den Plattformen treibt derzeit im Journalismus. Facebook hat den Verlagen ein Angebot gemacht und viele springen auf. Sie sollen ihre Artikel im Volltext bei Facebook zum syndizieren abliefern und können dann an der Werbung mitverdienen und bekommen detaillierte Daten über ihre Leser.

Auf ein solches Angebot einzugehen könnte direkt aus den Strategien entlehnt sein, die ich in meinem Buch vorstelle. Die Kontrolle über die Inhalte auszuüben ist eh viel zu aufwändig und in letzter Konsequenz quasi unmöglich, also lieber auf antifragile Strategien setzen und den Content möglichst breit streuen und daraus den Nutzen ziehen.

Ich hätte allerdings argumentiert, dass das doch schon längst per RSS machbar ist und von den Verlagen nur schon seit langer Zeit boykottiert wird (zumindest Fullfeeds). Und hier ist der Punkt: Wir waren doch schon mal viel weiter. Mit RSS und co. hatten wir einen Standard, der es erlaubte Artikelinhalte in einem generischen Format in alle möglichen Veröffentlichungssitationen zu integrieren. Ich schreibe in Vergangenheitsform. Natürlich gibt es RSS noch, aber es hat sich nicht breit durchgesetzt und Facebook und andere Plattformen treten nun mit ihren eigenen Tools an diese Stelle.

Statt dass Inhalte frei und für jeden syndizierbar und weiterverwertbar angeboten werden, werden sie lieber den proprietären (und undurchschaubaren) Anzeigetechnologien der geschlossenen Datensilos in den Rachen geworfen.

Und hier drängt sich ein Vergleich mit der Post-Privacy auf: RSS entspricht so ziemlich dem, was Christian Heller (und in Folge auch ich und einige andere) sich als Post-Privacy vorgestellt haben. Gibt die Daten frei, dann können alle partizipieren. Datenmonopole zu beseitigen wäre ein wichtiger Schritt hin zu einer egalitäreren Machtverteilung in der Gesellschaft. Bekommen haben wir aber stattdessen Plattformprivacy.

Plattformprivacy ist nach oben offen (Facebook, Staat, Geheimdienste) und zu den Seiten geschlossen (Privacysettings). Das reicht den meisten Menschen, denn im Gegensatz zur Datenschützer-Szene war für sie Privacy nie ein Selbstzweck, sondern immer Tool zur alltäglichen Lebensführung. Deswegen war die Privatsphäre gegenüber der eigenen Mutter schon immer wesentlich wichtiger, als die gegenüber der NSA. Plattformprivacy ist die Zukunft der Privatsphäre und gleichzeitig eine Datenmonopolisierung weit größeren Ausmaßes, als wir es uns haben vorstellen können.

Das kann man enttäuschend finden und zwar auf allen Seiten: der Datenschützer/innen-Seite genauso wie auf der Post-Privacy-Seite. Aber es ist nun mal die Realität. Zumindest vorerst.

Das ist auch das Fazit meines Buches: Wir sind noch nicht so weit. Unser Wunsch nach Kontrolle verhindert eine freie Gesellschaft und einen emanzipativen Umgang mit den digitalen Technologien. Stattdessen haben wir uns neue Regime geschaffen, die uns vermutlich noch eine ganze weile voreinander “beschützen” werden.

Ich kann bei all den aufkommenden strukturellen Problemen der Netzgesellschaft kaum etwas dagegen sagen. Kontrolle wird gebraucht. Doch wo Kontrolle herrscht, braucht es Politik. Und das ist jetzt unsere Aufgabe: Plattformpolitik.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Postprivacy
7 Kommentare

Was ist eine Plattform? – Ein Neuanfang

Vor ein paar Tagen habe ich zusammen mit Sebastian Gießmann auf der re:publica einen Talk gehalten. Der Titel war “Von der Netzwerk- zur PLattformgesellschaft“. Neben vielen neuen Gedanken zu Plattformen und ihrer Rolle in unserer Gesellschaft habe ich mich auch an einer neuen Plattformdefinition versucht, die aber in der Kürze der Zeit etwas unterbelichtet blieb. Eine genauere Definition plus Erklärung will ich hier nachliefern. Aber ersteinmal der Talk:

Selektion(-Entscheidung/-Option/-Prozess)
Selektion bedeutet schlicht: so und nicht anders. Aus einem Raum an Möglichkeiten (Kontingenz) wird sich auf eine der Möglichkeiten (Selektionsoption) festgelegt (Selektionsentscheidung). Akkumulierte Selektionsentscheidungen können die anschließenden Selektionsoptionen so weit eingrenzen, dass wir von einem definierten Selektionsprozess (oder Schnittstelle) sprechen können.

Plattformen
Plattformen sind solche akkumulierten Selektionsentscheidungen, die für viele Interaktionsteilnemer/innen kohärente Selektionsprozesse bereitstellen (entweder durch zentrale Steuerung oder protokollarische Festlegung), um die Anschlussfähigkeit weiterer Selektionen zu ermöglichen.

Netzwerkeffekte
Die Plattform generiert Netzwerkeffekte in dem Maße, wie die vorgegebenen, kohärenten Sekektionsprozesse für möglichst viele Interaktionsteilnehmer/innen Selektionsoptionen eröffnet.

Netzwerk und Plattform
Netzwerk und Plattform sind keine sich ausschließenden Konzepte. Im Gegenteil. Plattformen ermöglichen Netzwerke, indem sie die Interoperabilität der Teilnehmer erst bewerkstelligen. Das gilt für das Internet genauso, wie für Facebook.

Spielen wir das mal anhand der Vortragsbeispiele durch:

Schon das Telefon, indem es seriell baugleich hergestellt wird, bildet eine Plattform. Die Art es zu benutzen und die Möglichkeiten es anzuschließen sind durch Selektionsentscheidungen festgelegte Selektionsprozesse. Auch die Leitungen und der Betrieb gehören dazu: Welches Material darf für den Draht verwendet werden, welche Spannung wird angelegt, in welcher Frequenz wird moduliert, etc. All diese Dinge sind Selektionsentscheidungen, die einmal getroffen wurden und kohärent im “System Telefon” eingearbeitet sind und so enggefasste Prozesse vorgeben. Innerhalb dieser enggefassten Prozesse entstehen aber neue Selektionsoptionen, die ohne Plattform nicht existieren würden: z.B. Telefone zu verschalten.

Diese neuen Selektionsoptionen sind: Welches Telefon wird mit welchem Telefon verbunden? Oder: An welches Netz schließe ich das Telefon an? Oder tue ich das überhaupt? Wichtig: diese Selektionsoptionen werden durch die vorherigen Selektionsentscheidungen erst ermöglicht. Genau das meinen wir mit Plattform.

Und wenn wir ein verknüpftes Telefonnetz haben, dann haben wir – klar ein Netzwerk. Dieses Netzwerk steht aber nicht für sich, sondern hat seine Plattform in den bereits besprochenen Selektionsentscheidungen und jede/r, der/die die Selektionsprozesse der Plattform erfüllt, kann Teil des Netzwerkes werden. Die Plattform wird zur Zugangsberechtigung des Netzwerkes.

Und jetzt machen wir eine Iteration: Denn das fertige Telefonnetzwerk ist nicht nur ein Netzwerk, sondern bildet mit seinen immanenten Selektionsentscheidungen wiederum die Plattform für weitere Selektionsentscheidungen.

Bleiben wir vorerst bei den Partylines (also alle Telefone sind direkt miteinander verschaltet). Dann ergibt sich für mich die Selektionoption, mich durch das Aufnehmen des Hörers in die Leitung zu begeben, oder eben nicht. Bei der zweiteren Selektion bleibt das Netzwerk latent, also eine reine Selektionsoption. Das Netzwerk wird erst aktuell, wenn ich tatsächlich mich mit den anderen Teilnehmer/innen in der Partyline verschalte.

Komplizierter wird das noch mit den Einszueins-Verbindungen, die dann über die Switchboards und den Telefonistinnen organisiert wird. Diese Verschaltung (also die Selektionsleistung) bedarf einer vergleichsweise komplizierten Logik. Sie wird zentral organisiert, weswegen wir es hier (lange vor Facebook) mit einer zentral gesteuerten Plattform zu tun haben. Zunächst bleiben die Selektionsprozesse physisch erlebbar, weil sie offen prozessiert werden.

Die Legende geht, dass die Nichtneutralität dieser Selektionsprozesse durch die Telefonistinnen zur Entwicklung der mechanischen Hebdrehschaltung geführt hat. Dessen Erfinder, der Bestattungsunternehmer Almon Brown Strowger aus Kansas City, wurde bei der Verbindung in Todesfällen gegenüber einem anderen Bestattungsunternehmer, der Verbindungen in die Telefonzentrale hatte angeblich systematisch diskriminiert. (die Anekdote ist aber fraglich.)

Zusammenfassend: Die Plattform besteht nun aus einem ganzen Zoo von Selektionsentscheidungen, die jeweils aufeinander beruhen. Von der Bauart des Telefons, über die Beschaffenheit und Betrieb des Netzes, über Verschaltung der physischen Leitungen, bishin zur verschaltenden zentralintelligenz der Telefonistinnen an ihren Switchboards (und später ihrer mechanischen Substitution).

Machen wir zum Gegencheck einen kurzen Sprung ins Internet. Hier haben wir ebenfalls auf einander aufbauende Selektionsentscheidungen, die in ihrer Komplexität und Reichhaltigkeit allerdings die Telefonnetze weit in den Schatten stellen. So kann man jeden einzelnen Layer im Netzwerkmodell (wir nehmen hier nicht OSI, sondern orientieren uns am viertstufigen Aufbau) als Plattform verstehen. Wir haben da den physischen Layer, der das basale Funktionieren der Datenverbindung bereitstellt. Die dort getroffenen Selektionsentscheidungen geben die Prozesse vor, auf denen das Internet Protokoll (IP) seine eigenen Selektionsprozesse fahren kann. Und so geht das weiter. TCP arbeitet auf den von IP bereitgestellten Prozessen, um die Paketdistribution und Logistik zu organisieren und die Applikationen arbeiten wiederum auf den Prozessen die TCP ihnen zur Verfügung stellt und machen, was sie eben machen. Jeder Layer wird durch den vorherigen ermöglicht, bildet also dessen Plattform. Und das geht weit über die Protokollebene hinaus. Das WWW hat das Internet zur Plattform und Facebook hat das WWW zur Plattform.

Bleiben wir kurz bei Facebook, denn Facebook ist natürlich Prototyp eines bestimmten, (scheinbar) neuen Paradigmas der Plattform. Es stellt nämlich die Kohärenz seiner Selektionsprozesse nicht durch verabredete Standards fest, sondern organisiert sie über eine zentrale Datenbank. All ihre Selektionsentscheidungen werden in Datentabellen gespeichert und bei Bedarf durch komplexe Querystatements reaktualisiert. Ich nenne solche Plattformen deswegen auch querybasierte Plattformen. Wenn wir genauer hinschauen, ist die querybasierte Plattform aber überhaupt nichts Neues, sondern in ihrer basalen Form bereits durch die Telefonistinnen an den Switchboards gegeben (es wird wirklich Zeit den Begriff der Query neu auszuarbeiten). Warum diese Form der Plattform sehr erfolgreich ist, hat viele Gründe, auf die ich jetzt aber nicht eingehen will.

Wir haben gesehen, dass die Plattformdefinition sowohl auf das Telefonnetz, das Internet und seinen Protokollschichten, als auch auf Facebook & co anwendbar sind. Testen wir zum Schluss noch einmal unseren Plattformbegriff auf ihre ursprüngliche Definition (jedenfalls eine davon):

“Plattform f. begrenzte, erhöhte Fläche, Fundament, Aussichtsterrasse, Plateau, vom gleichbedeutend französisch plate-forme, […] in der Sprache der zivilen und militärischen Baukunst. Die Bezeichnung wird besonders im Festungsbau für flaches Bollwerk, starkes Fundament für Wurfgeschütze gebräuchlich (17. Jahr.), […]”

(Etymologisches Wörterbuch des Deutschen. Erarbeitet unter der Leitung von Wolfgang Pfeifer, S. 1018)

Das hört sich erstmal sehr fern unserer Definition an, ist es aber nicht. All die genannten Eigenschaften treffen zu. Jede zu Grunde liegende Selektionsentscheidung “erhöht” die Plattform und hebt sie heraus aus der Kontingenz. Die Plattform ist hier wie dort “begrenzt” und vor allem ist sie “flach”. Flach ist unserer Plattformbegriff dort, wo wir von Kohärenz sprechen. Die Fläche ist eine in sich kohärente (wenn auch basale) Selektionsentscheidung. Und hier können wir ein wenig spekulieren: Wie in unserer Definition hat die Pattform im Original zur Folge, dass die dort plazierten Wurfgeschosse schnell austauschbar sind, sowohl untereinander als auch generell. Weil sie alle auf derselben Höhe operieren, können sie – jedenfalls wenn sie baugleich sind – auch gleichförmig eingestellt und ausgerichtet werden. Schon die frühste Idee von Plattform sollte also Interoperabilität bewerkstelligen.

Aber wenn denn nun Plattformen gar kein neues Ding sind, warum sollen wir dann jetzt von der Plattformgesellschaft reden?

Die Plattform war immer die implizite Grundlage – weil organisatorische Bedingung – des Netzwerkes und damit der Netzwerkgesellschaft. So lange diese Grundlagen (und ihre bürokratische Arbeit, wie wir im Vortrag sagen) einfach still vorsichhin-funktionieren, sind sie für unsere Wahrnehmung quasi unsichtbar. Jetzt aber, da die Kohärenz ihrer Selektionsprozesse in Gefahr ist (Netzneutralität), sich bestimmte Plattformverschiebungen ereignen (Appstore vs. Open Web) und auf der anderen Seite die mächtigen zentralistischen Query-Plattformplayer empor steigen, werden diese Grundlagen sichtbar und (teils) bedrohlich.

Was mich zu einer letzten These verleitet: Während Netzwerke durch ihr Funktionieren beobachtbar sind, sind Plattformen nur in ihrem Nichtfunktionieren beobachtbar; also z.B. dort, wo die Kohärenz gebrochen wird.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Queryology
7 Kommentare

Warum wir eine Netzinnenpolitik brauchen

Gestern saß ich bei der Friedrich-Ebert-Stiftung auf einem Panel über Hate Speech und was wir dagegen unternehmen können. Ich hatte mir einige Vorschläge und Argumentationen zurechtgelegt, dabei aber nicht so recht bedacht, dass meine Mitdiskutant/innen ja vor allem SPD-Politiker/innen sein werden. Dass also erst einmal die Grundbegriffe geklärt werden müssen und worüber wir überhaupt reden.

Ich habe dennoch meine Forderung nach einer Netzinnenpolitik anbringen können. Was meine ich damit?

Die deutsche Netzszene hat sich formiert als zivilgesellschaftliche Verteidigung der Netzfreiheit gegenüber den Regulierungsbestrebungen der Politik. Überspitzt kann man formulieren, dass Netzpolitik die Selbstverteidiung des Netzes gegenüber seinen äußeren Feinden ist. Das war und ist eine wichtiger Kampf und er muss auch weiterhin gefochten werden. Doch wir haben nicht mehr 2009 und dieser Kampf wird zunehmend überschattet von internen Effekten und Phänomenen eines in der Zwischenzeit enorm gewachsenen Netzes.

Das Netz ist jetzt überall und kennt kein richtiges Außen mehr (gut, bis auf SPD-Politiker/innen …) und immer größere und wichtigere Kämpfe finden bereits intern statt. Dort geht es aber nicht mehr um SPD gegen CDU (haha!), sondern zum Beispiel um die Maskulinistische/Antifeministische Szene gegen Feminist/innen. Um Mißverständnisse von Nichtkennern zu vermeiden: dieser Kampf geht weit über die alltäglichen Twitterscharmützel hinaus, sondern hat mit #Gamergate globale Ausmaße angenommen. Es ist ein weltweiter Kulturkampf und er findet mittlerweile in allen möglichen kulturellen und diskursiven Teilbereichen statt, z.b. auch in der Science Fiction Szene. Aber auch dieser antifeministische Backlash ist nur ein Beispiel von vielen. Die Debattenfrontstellungen im Netz zu Ukraine vs. Russland stehen in ihrer Größe und Heftigkeit diesem Konflikt zumindest hierzulande kaum nach. Auch weil sie teils mit viel Geld gestützt, bzw. gesteuert werden. Wir haben die Pegida/Legidia/Hogesa/Dinsgadabumsda-Rassisten, die sich auf Facebook und Blogs mit allerlei Verschwörungstheorien ihre Rassistische Weltsicht zurecht spinnern. Dazu die Reichsbürger/innen und Verschwörungstheoretiker/innen und Antisemit/innen der Mahnwichtel. All diese Gruppen überschneiden sich vielfältig, sind aber nicht identisch. Und es werden immer mehr und sie werden immer schlagkräftiger.

Da von dem weiteren Wachstum des Netzes und der Vielfältigkeit seiner Verbindungen (und damit seiner Konflikte) auszugehen ist, traue ich mir hier ein paar Prognosen zu: die Konflikte der Zukunft finden nicht mehr zwischen Staaten statt, sondern zwischen Weltanschauungen. Aber anders als bei der Blockkonfrontation des kalten Krieges werden die Weltanschauungen nicht mehr durch geographische Grenzen beschreibbar, sondern die Fronten ziehen sich global durch alle Gesellschaften. Es werden sich nicht mehr zwei Weltanschauungen gegenüberstehen, sondern hunderte, vielleicht tausende parallel. Sie werden nicht in einem Wettrüsten der Systeme, sondern in kleinen Scharmützel nebenher oder großen Shitstorms zwischendurch ausgetragen werden. Und sie werden nicht befriedet werden können, weil keine Seite der anderen ihren Willen aufzwingen kann und weil die Konfliktparteien einander immer referenzierbar bleiben werden.

All das zeigt, dass dass wir die Probleme um Hate-Speech um ca. 100 Größenordnungen zu klein denken. Es sind keine Probleme die irgendein Staat mit irgendeiner Verschärfung irgendeines Gesetzes in den Griff bekommt. Es sind interne Probleme eines globalen und zu den Individuen hinunterdiffundierten Netzdiskurses und sie können somit auch nur mit den Mitteln des Netzes adressieret werden.

Was wir brauchen ist eine Netzinnenpolitik.

Eine Schlüsselstellung nehmen dabei die Plattformbetreiber ein. Die Forderungen, Twitter möge doch bitte deutlicher und schneller eingreifen bei Belästigung und Angriffen, ihre Tools zum Blocken und Muten doch bitte den Wünschen potentieller Opfern entsprechend anpassen und verbessern sind nicht neu und sie sind der richtige Weg. Aber ich glaube, das reicht nicht.

Es kann auf Dauer nicht funktionieren, die Plattform sowohl der maskulinistischen Szene, als auch die der Feminist/innen zu sein. Ja, ich zweifele hier das Konzept der Neutralität der Plattform an. Ich glaube, das ist auf Dauer nicht machbar.

Die Probleme, die diese Konflikte aufzeigen – das merkte man auch deutlich auf der Tagung gestern – sind eben nicht in erster Linie normative. Natürlich sind Vergewaltigungs- und Morddrohungen sowie Beleidigungen ein großes Problem. Aber dagegen gibt es bereits nationalstaatliche Gesetze. Und auch wenn man die Rechtsdurchsetzung hier sicher verbessern kann, machen wir uns selbst etwas vor, wenn wir glauben, dass alles gut würde, wenn die Maskus anfangen, ihre Handlungen im Rahmen des Strafgesetzbuches organisieren (was sie größtenteils eh schon tun). Die Maskus sind nicht nur als Harasser ein Problem, sondern als politische Gruppe, als giftige Ideologie.

Deswegen glaube ich, dass man diese Probleme nicht normativ (im Sinne von gewünschtem und nicht gewünschten Verhalten, egal ob im Strafgesetzbuch oder in den Terms of Service) lösen kann, sondern dass man sie politisch beantworten muss. Politisch, im Sinne von “eine Haltung zeigen” und sie durchsetzen.

Facebook und Twitter könnten sich zum Beispiel zu einem emanzipatorischen Menschenbild bekennen und sagen, dass bestimmte Ideologien dort keinen Platz haben. Das ist auch gar nicht so neu. Gegen Sites des Islamischen Staats und anderen militant islamistischen Gruppen geht Facebook bereits gezielt vor. Klar, auch auf Druck der US-Regierung, aber auch darüber hinaus. Warum nicht auch mit dem selben Eifer gegen Nazi-sites? Warum nicht gegen Pegida? Warum nicht auch Maskulinistengruppen?

Jetzt kommen wieder die Leute, die rufen, dass das ja eine Beschneidung der Meinungsfreiheit bedeutet. Dem will ich nicht völlig widersprechen, denn natürlich ist Facebook ein mächtiges Instrument der Reichweite. Dennoch halte ich einen solchen Schritt für vertretbar. Das Internet ist groß und es gibt noch viele andere Plattformen, auf denen der Content solcher Leute geduldet wird. Und ich bin mir sicher, wenn Pegida Facebook verlassen muss, ziehen ihre Anhänger hinterher. Warum nicht das russische V-Kontakte? Das ist sowieso schon ein wichtiges Vernetzungsinstrument der rechten Szene geworden. Auch Homophobie und sonstige Menschenfeindlichkeit sind dort immer gerne gesehen.

Wofür ich also plädiere ist nicht eine Abschaffung bestimmter Meinungen, sondern eine Ausdifferenzierung der Plattformen nach politischer, weltanschaulicher Haltung. Ich halte eine solche Ausdifferenzierung auf Dauer eh für unumgänglich. Einer der wichtigsten Aspekte eines netzinnenpolitischen Aktivismus wird sein, die strategisch wichtigen Plattformen auf die richtige Seite zu ziehen.

Bis es aber so weit ist, gilt es, soziale Sanktionsmechanismen zu finden, um auf den Plattformen selbst gegen die entsprechenden Auswüchse vorzugehen. Dafür habe ich unlängst die Filtersouveränität als Politik vorgeschlagen.

Netzinnenpolitik muss also auf zwei Ebenen stattfinden: der längst im Gange befindliche zivilgesellschaftliche Kampf um Deutungshoheit und gegen Menschenfeindlichkeit und der langfristig wichtige, strategische Kampf um die Positionierung der Plattformen.

Und dann muss das noch irgendjemand für die SPD-Politiker/innen erklären. Obwohl … Wozu?


Veröffentlicht unter Das Neue Spiel Kontrollverlust Weltkontrollverlust
18 Kommentare

Die Impfgegner und die Krise der Institutionen

Vier Jahre ist das jetzt her, dass Gunter Dueck auf der re:publica 2011 seinen viel gefeierten Talk “Das Internet als Gesellschaftsbetriebssystem” hielt. Höhepunkt seines Vortrags (“So jetzt kommt das schwere Geschütz”) war die Frage:

“Glauben Sie nicht, dass wenn jemand eine Krankheit hat, dass er dann nach 2 Stunden surfen 10 mal mehr weiß, als sein Arzt?”

Ich aber saß in meinem Sitz und ich konnte mich der schlichten wie unaufdringlichen Logik dieser Frage nicht entziehen. Wir kennen das alle: 10 Ärzt/innen 12 Diagnosen. Jeder kennt Fälle, in dem eine Patient/in tatsächlich die Diagnose richtiger einschätzte als der/die Arzt/in. Und hier nun stand Gunter Dueck und gab eine einfache Erklärung. Das Internet enthält doch bereits alles Wissen. Wer genügend Motivation mitbringt, (und die fehlt Betroffenen selten), kann sich (zumindest in vielen Fällen) selbst besser diagnostizieren, als ein Allgemeinarzt, der im Zweifelsfall vor vielen Jahren mal irgendwo eine Vorlesung zum Thema wieder vergessen hat.

Ich sehe Duecks Argument heute nicht widerlegt, aber es wird immer offenbarer, dass es mehr braucht, als nur Internet und Motivation. Etwas, was Dueck und auch ich damals implizit vorausgesetzt gesetzt haben: das Vorhandensein von kritischem Denken, eine gewisse wissenschaftsmethodische Bildung. Damit meine ich die Fähigkeit, kritisch mit Quellen umzugehen und auch seinem eigenen Urteil zu mißtrauen (das ist – nebenbei – der Hauptunterschied zu den Verschwörungstheoretikern: ihr kritisches Denken zieht alles in Zweifel außer dem eigenen Urteil).

Was nämlich passiert, wenn unter sonst gleichen Bedingungen das kritische Denken fehlt, kann man derzeit in Berlin und schon länger in den USA beobachten. Impfgegner machen mit Verschwörungstheorien, Selbstdiagnosen und anekdotischer Evidenz gegen das Impfen mobil. Längst ausgestorben gedachte Krankheiten brechen wieder aus, in Berlin gibt es jetzt den ersten Masern-Todesfall.
(Nachtrag: Anne Roth macht mich per Facebook gerade darauf aufmerksam, dass es Impfgegner natürlich bereits viel länger gibt und wirft richtig ein, dass mir jegliche Evidenz fehlt, dass das Thema in letzter Zeit größer geworden ist. Das ist richtig. Dieser Text basiert auf meiner subjektiven Beobachtung und stellt implizit die These auf, dass Impfgegnerschaft durch das Netz zugenommen hat.)

Das Internet hat sich während meiner Beschäftigung damit wahnsinnig verändert. Die Hauptveränderung ist aber mit Sicherheit seine Skalierung. Waren wir von 2007 bis 2011 noch eine sehr kleine, spezielle Gruppe von Menschen, die das Internet publizistisch nutzten und auf den re:publicas als zukünftigen und utopischen Raum des Denkens feierten, hat sich das Internet inzwischen als Medium der Massen durchgesetzt. Die Durchdringung einzelner Seiten wie z.B. Facebook hat längst alle Zeitungen und Fernsehsender zusammengenommen überflügelt. Letzteren wird immer weniger Vertrauen geschenkt, man findet sich zusammen um gemeinsam am Mainstream zu zweifeln. Wir bekommen das nicht so mit, weil unsere Queryöffentlichkeiten uns von dem meisten abschirmen – und deren Queryöffentlichkeiten schirmen sie von uns ab. Ich habe das letztens bereits anhand von Pegida beschrieben:

“Doch die Resonanzräume ermöglichen sowohl Vernetzung als auch Abschottung. Hermetische Weltbilder, die Evidenz durch zirkuläres zitieren und den ausschließlich negativen Bezug auf die mediale Außenwelt bezieht: “Sie wollen uns als Verschwörungstheoretiker verunglimpfen, also muss es wahr sein!” Wissen ist nichts anderes als ein hinreichend dichtes Netz aus Informationen, schreibe ich in meinem Buch. Unter guten Vernetzungsvoraussetzung kann also alles zum Wissen werden – zur Wahrheit – zumindest aus einer bestimmten Query heraus gesehen.”

Der Vertrauensverlust gilt nicht nur gegenüber den Massenmedien und den “Politikern da oben”, sondern eben auch gegenüber den Ärzt/innen. Wie das, was Gunter Dueck damals beschrieb, heute in der Realität aussieht, kann man aktuell studieren, wenn man Stephan von Schockfaktor in die Facebookgruppen der Impfgegner folgt. Minutiös beschreibt er die Diskussionen, die er dort führte und mit welchen “Argumenten” er konfrontiert wurde. (Ich werde im Folgenden ein wenig daraus zitieren.)

Politik, Medien, Gesundheitssystem. Alle haben sich verschworen gegen die kleinen Leute. Was wir erleben nenne ich in meinem Buch “die Krise der Institutionen” und widme ihr ein Kapitel. Durch die Selbstorganisationsmächtigkeit der neuen Medien verlieren die zentralistisch und hierarchisch organisierten Institutionen an Macht:

“Institutionen verlieren an Macht, da sie besser kontrolliert werden können, Konkurrenz bekommen und an Vertrauen verlieren. Wir dagegen gewinnen an Macht. Wenn wir einander über die Query suchen und finden, brauchen wir keine externen Instanzen mehr, die Komplexität reduzieren und Transaktionskosten gering halten.”

Gehen wir die genannten drei angesprochenen Angriffsvektoren Kontrolliert werden, Konkurrenz bekommen und an Vertrauen verlieren mal anhand der Impfdebatte durch:

Durch die allgemeine Zugänglichkeit von Informationen, lassen sich Ärzt/innen besser kontrollieren. Man muss ihrer Diagnosen nicht mehr blind vertrauen. Mit ein wenig Googlerecherche und Wikipediagewühle lassen sich meistens Diagnosen und Ratschläge verifizieren – oder auch nicht. Vielleicht findet man überzeugende Argumente und Belege seinem Arzt/Ärztin das Vertrauen zu entziehen. Oder man findet Ci Ci, die sagt: “Weil Fakt ist: Impfungen sind Gesundheitsschädlich. Ich kenne in meinem Umfeld mind. 3 Kinder mit impfschaden!

Das heißt, implizit, dass die Ärzte Konkurrenz bekommen. Nicht im kommerziellen Sinne, sondern, dass ihr Urteil Konkurrenz bekommt. Mal von einer informierten Betroffenen, die die Wikipedia leergelesen, sich durch Bücher gewühlt und die neusten Paper zur Krankheit in Fachmagazinen gelesen hat, oder das andere Mal durch Marion K, die sagt:

“Mal zu den Büchern und Wikipedia. Egal was ihr lesen werdet. In den wenigsten Fällen IST es die Wahrheit. Wer liest, liest das was der Staat will das ihr es lest. Das nicht impfen lernt man nicht in einem Buch. Das sollte ein Urinstinkt sein. Und bei den meisten ist das auch so. Und überzeugen könnt ihr eh kein. Entweder man ist bereit den Weg zu gehen oder nicht.”

So oder so, der Arzt als Institution erleidet durch die Queryöffentlichkeit der Menschen einen Vertrauensverlust. Sei es, dass die informierte Betroffene mit Grund das Urteil ihrer Ärzt/in anzweifelt und lieber eine andere Spezialist/in aufsucht. Oder eben wie Corinna H., die statt anderer Spezialist/innen sich in der erwähnten Facebookgruppe rückversichert als ihr Arzt riet, ihr Kind gegen Tetanus zu impfen, als es sich beim Spielen mit vielen Splittern übersäht hatte. “Ich habe abgelehnt – aber dennoch hat er mich verunsichert.

Funktional betrachtet ist das alles dasselbe. “Mißtraut Autoritäten!” ist eine richtige Forderung, die aber gefährlich ist, weil sie von Privilegienblindheit geschlagen ist. Sie funktioniert nur für Menschen die gar nicht wissen, dass sie mehr wissen als die meisten – und deswegen vielleicht tatsächlich keine Autoritäten brauchen. Andere verlieren durch den Machtverlust der Autoritäten die Orientierung und und suchen sich einfach Neue, die sehr viel fragwürdiger sind, als die offiziellen. Die blühenden Verschwörungstheorien, die Männerrechtler, die Impfgegner und Pegida und co sind (auch) Phänomene dieser Krise der Institutionen.

Versteht mich nicht falsch: Ich bin immer noch ein großer Fan des Internets und seiner immanenten Eigenschaft, Gatekeeper zu entmachten und die regulative Rolle der Institutionen abzubauen. Aber wir sollten uns klar darüber sein, dass manche Wände, die wir gerade einreißen, tragend waren. Wir müssen damit rechnen, dass durch den Machtverlust der Institutionen erst einmal eine Menge Unordnung freigesetzt wird und bestimmte Errungenschaften zurück in einen chaotischen Zustand entgleiten, der längst überwunden geglaubt war. Das gilt nicht nur für Uber und AirBnB, sondern auch für die Diskurse ansich. Das Internet ist für die einen das perfekte Tool der Aufklärung, für die anderen der perfekte Ort, sich ungestört in einem faktenbefreiten Diskurs über die eigenen Glaubenssätze zurückzuziehen. Und es gibt niemanden mehr, der sie dafür sanktionieren könnte.

Ich will das alles aber auch nicht allzu zu schwarz malen. Es werden sich jenseits der kriselnden Institutionen neue Kontrollmechanismen entwickeln (müssen). Mein derzeitiger best Guess sind derzeit die Plattformen. Sie entwickeln sich immer weiter in Richtung Nutzer- und Diskurskontrolle. Auch das kann man ebenso gefährlich finden, wie notwendig. Vielleicht wird es aber auch ganz andere Mechanismen geben. Die Frage ist nur – und die stellt sich angesichts solcher Phänomene wie der Impfgegner immer drängender – wird das Kontrolldefizit durch den Kontrollverlust zwischenzeitlich in einer allgemeinen Katastrophe ausarten, oder werden neue Kontrollmechanismen früh genug greifen und das Schlimmste verhindern?


Veröffentlicht unter Das Neue Spiel Kontrollverlust Queryology Weltkontrollverlust
Verschlagwortet mit
4 Kommentare

Planwirtschaft vs. Marktwirtschaft unter digitalen Bedingungen

Diesen Tweet kann man lustig finden. Ich finde ihn lustig. Und gleichzeitig meine ich ihn ernst.


Ich glaube tatsächlich, dass marktwirtschaftliche und planwirtschaftliche Organisationsformen in einem Wettbewerb stehen und ich glaube tatsächlich, dass sich das eine und/oder andere am Markt durchsetzt. Vor allem heute, in unser sich durch die Digitalisierung wandelnden Zeit.

Um das zu verstehen muss man ersteinmal ein paar Begriffe klarkriegen, die oft durcheinandergeworfen werden.

1. Marktwirtschaft und Kapitalismus sind nicht dasselbe. Der Kapitalismus, wie wir ihn kennen, ist zwar zu einem großen Teil marktwirtschaftlich organisiert, aber weder ist die Marktwirtschaft ein notwendiges, noch ein hinreichendes Kriterium des Kapitalismus. Kapitalismus ist – wie ich ihn verstehe – vor allem das Prinzip, dass mittels Kapitalbesitz die gesellschaftliche Wertschöpfung strukturiert wird. Ob der Kapitalist die dafür eingesetzten Ressourcen an einem Markt aquirieren muss ist dabei erstmal egal. Umgekehrt kann es durchaus Wettbewerb und Marktmechanismen komplett ohne Eigentumsrecht geben.

2. Marktwirtschaft und Planwirtschaft sind keine streng antagonistischen Prinzipien, die sich ausschließen. Es wird wohl niemand irgendwo eine reine Planwirtschaft und es wird niemand irgendwo eine reine Marktwirtschaft nachweisen können. Beides sind einfach Prinzipien der Ressourcenallokation, die unterschiedliche Vor- und Nachteile haben und die überall zu finden sind. Wir haben beim Begriff “Planwirtschaft” immer die großen staatsgetriebenen Planwirtschaften der Ostblockstaaten vor Augen und glauben deswegen, dass Planwirtschaft einfach eine ineffiziente Variante des Wirtschaftens ist. Das war sie in diesen Systemen ohne Frage (wir kommen noch dazu), aber auch die Marktwirtschaft hat enorme Effizienzprobleme. Marktwirtschaftliche Konkurrenz setzt beispielsweise voraus, dass unglaublich viel Infrastruktur mehrfach vorhanden sein muss und gleichzeitig, dass Skaleneffekte (also die Kostenreduktion bei Herstellung vieler Güter) nicht voll ausgeschöpft werden kann.

3. Und das wichtigste: Die Planwirtschaft hat einen enormen Stellenwert innerhalb unseres derzeitigen Kapitalismus. Ronald Coase hat bereits in den 30er Jahren darauf hingewiesen, dass wir bei all unserem Schwärmen für den Markt völlig übersehen, dass jedes Unternehmen intern eine Planwirtschaft ist. Unternehmen sind Organisationen, die sich durch Institutionalisierung, Verstetigung und hierarchische Organisation und Planung dem Markt entziehen. Unternehmen stellen zum Beispiel Menschen für eine längere Zeit ein, weil es für sie zu aufwändig wäre, jeden Tag neu Leute auf dem Arbeitsmarkt zu rekrutieren. Unternehmen machen kurzfristige, mittelfristige und langfristige Pläne, die sie dann hierarchisch organisiert durchsetzten. Mit anderen Worten, Planwirtschaften sind dem Kapitalismus nicht nur nicht Fremd, sie haben sogar sich bereits am Markt durchgesetzt, als dominante, interne Organisationsform seiner Teilnehmer.

Nachdem wir diese Punkte geklärt haben, kommen wir nun zum spannenden Teil: Wie verändert sich nun das Verhältnis von Marktwirtschaft und Planwirtschaft im Zuge der fortschreitenden Digitalisierung?

Es gab bereits in den 70er Jahren die Bestrebung, anhand von computergestützter Organisation eine fortgeschrittene Variante der Planwirtschaft zu installieren: CyberSin. Die Sozialistische Regierung Allendes hat in Chile zusammen mit dem Informatiker Stafford Beer an einer kybernetischen Planwirtschaft gearbeitet. Wie effizient dieser Versuch war, lässt sich leider nicht genau bemessen, denn das Experiment fand bekanntlich sein Ende im Putsch von Pinochet. Nichtsdestotrotz gibt es – gerade in kommunistischen Kreisen die Hoffnung – mit heutiger Technologie einen solchen kybernetischen Kommunismus durchführen zu können. Die Frage der Effizienz von Ressourcenallocationsmechanismen entscheidet sich nämlich tatsächlich am Informationsfluss. Die staatlichen Planwirtschaften von Einst mussten enormen Planungshorizonten entsprechen. Fünf- oder gar Zehnjahrespläne bestimmten die Produktion von Gütern. Wer weiß schon, wer was in fünf oder zehn Jahren braucht? Hinzu kam, dass die Komplexität dieser Planungsprozesse jede Bürokratie überforderte, weswegen es immer wieder zu Fehlallokationen kam. Dagegen stelle man sich mit Internet of Things ausgestattete Smarthomes in Smartcitys vor, die an einer künstlichen Zentralintelligenz mit der Rechenpower mehrerer Rechenzentren angeschlossen sind, welche alle Informationen in Echtzeit zusammenbringt und prozessiert. Planungshorizonte würden so selten einen Tag überschreiten und meist unter einer Sekunde bleiben. Eine Echtzeitplanwirtschaft würde doch eine ungeahnte Effizienz schaffen. Wer braucht da noch den Markt?

Ich halte das durchaus für ein wahrscheinliches Szenario. Aber ich glaube nicht, dass es den Kommunist/innen gefallen wird. Die kybernetische Planwirtschaft kommt, aber diese Infrastruktur wird keine staatliche, oder gar Volkseigene sein, sondern höchst wahrscheinlich die eines Unternehmens. Und wie wir gelernt haben, widerspricht sich das ja keinesfalls, denn Unternehmen sind ja planwirtschaftliche Entitäten.

Noch haben wir einen Markt – auch im IoT – aber die nächsten Jahre werden wir sehen, wie sich verschiedene Unternehmen um den Platz als Zentralsteuerung unserer Welt balgen werden. Apple und Google sind dabei an den vordersten Plätzen aufgestellt, aber es kann in dieser frühen Phase immer noch Überraschungen geben (dafür ist die Marktwirtschaft immer gut: Überraschungen, Disruptionen etc.). Am Ende wird sich – wie das bei aller grundlegenden Infrastruktur üblich ist – EIN System durchsetzen. Und der Betreiber dieses Systems wird dann die kybernetische Echtzeit-Planwirtschaft bereitstellen, in der wir dann alle leben werden. (Fußnote: grundsätzlich ist es technisch denkbar, dass sich auch ein Set standardisierter Schnittstellen und Spezifikationen durchsetzt, welches die Plattform von IoT bildet, auf dem dann smarte Geräte miteinander reden (und konkurrieren), aber das halte ich derzeit für unwahrscheinlich, da gerade viel Ressourcen in Forschung und Entwicklung gesteckt werden, die die Unternehmen dann durch ihr geschlossenes Ökosystem wieder herauswirtschaften wollen.)

Und dann haben wir die Marktwirtschaft (nicht aber den Kapitalismus) überwunden, oder?

Nicht so schnell! In meinem Buch beschreibe ich ebenfalls, dass viele planwirtschaftliche Ressourcenallokationsprozesse zu marktwirtschaftlichen übergehen. Der Grund für die planwirtschaftliche Organisation von Unternehmen sieht Ronald Coase in den Transaktionskosten, die ein Markt so verursacht. Ressourcen am Markt zu organisieren verlangt viel Mühe: Ich muss mit anderen Marktteilnehmern verhandeln, Informationen einholen, Risiken eingehen, dass mich andere übers Ohr hauen wollen, etc. Durch die Digitalisierung reduzieren sich diese Transaktionskosten, denn die meisten Transaktionskosten entstehen durch Informationseinholung und -Verarbeitung und das nehmen uns die Computer ja immer besser ab. Deswegen werden Dinge zu marktfähigen Gütern, die vorher nicht effizient am Markt organisierbar waren. Das Resultat nennen wir heute Sharing Economy – oder Plattformkapitalismus: ein Stündchen Arbeitszeit hier, eine Nacht in einem privaten WG-Zimmer dort, eine Fahrt zum Flughafen von einem X-beliebigen Autofahrer. All diese Dinge waren vor ein paar Jahren dem Markt unzugänglich, weil der Aufwand sie zu tauschen zu groß war. Manche sprechen deswegen auch von der Durchkommerzialisierung aller Lebensbereiche.

Wir haben also durch die Digitalisierung sowohl einen Trend, der hin zur planwirtschaftlichen Organisation geht und wir haben einen Trend der hin zur verstärkten marktwirtschaftlichen Organisation geht. Und beides schließt sich nicht aus, nein, es bedingt sich sogar. Denn beide treffen sich in der neuen Form der Institution: der Plattform.

Plattformen sind meist durch ein Unternehmen bereitgestellte, also planwirtschaftlich organisierte Infrastrukturen, auf denen sich Inseln marktwirtschaftlicher Organisation bilden können. Sie sind damit die Invertierung unseres tradierten Systems: einer Martktwirtschaft mit planwirtschaftlichen Inseln (Unternehmen).

Die Zukunft ist lustig, oder?


Veröffentlicht unter Das Neue Spiel Plattformpolitik
6 Kommentare

Die Struktur geheimen Wissens und sein Staat

Gerade spielen sich in der Politik Szenen ab, die sehr gut Aufschluss darüber geben, wie die eigentliche machtpolitische Konstellation zwischen Geheimdiensten und den sie bezahlenden Staaten aufgebaut ist.

Auslöser ist der NSA-Untersuchungsausschluss des deutschen Bundestages. Es war schon oft bemängelt worden, dass vertrauliche Informationen und Dokumente im Zuge der Untersuchung ans Tageslicht kamen. Nun aber macht einer der wichtigsten Partner des BND Ärger. Der britische GCHQ droht mit der Kündigung der Zusammenarbeit und nun wird befürchtet, dass der BND dem Untersuchungsausschuß aus diesem Grund Akten vorenthalten könnte.

Wir sehen also einen BND, der zwischen seiner operativen Verpflichtung des Staates gegenüber, dessen Behörde er immer noch ist und der Loyalität zu seinen britischen Partnern hin und her gerissen ist. Wir sehen, dass eine Behörde ihre politische Aufsicht in Frage stellt. Und das ist doch … ganz interessant.

Nun ist es keine Neuigkeit, dass das Konzept Geheimdienst strukturell der Funktionsweise eines demokratischen Staates widerspricht und dass institutionelle Kontrollversuche deswegen immer wieder scheitern. Die Notwendigkeit der Geheimhaltung zur Gewährleistung der Arbeit von Geheimdiensten ist die Sollbruchstelle seiner demokratischen Einbeziehbarkeit. Aber das ist nicht der einzige Grund. Die letzten Jahre wirkten weitere, externe Kräfte auf die besagte Konstellation und entfalteten eine enorme Sogwirkung auf die Geheimdienste, was die Sollbruchstelle zusätzlich strapazierte.

In meinem Buch identifiziere ich die vier wesentlichen Akteure des Neuen Spiels: Staaten, Geheimdienste, Plattformen und die Zivilgesellschaft. Ganz richtig, ich liste Staaten und Geheimdienste als voneinander unabhängige Akteure auf und zu den Geheimdiensten schreibe ich:

“Fast schon unabhängig von der schwindenden Bedeutung des Staates ist die Bedeutung der Geheimdienste. Oberflächlich betrachtet, scheinen sie von ihren jeweiligen Staaten abhängig zu sein, in Wirklichkeit jedoch haben sie sich als internationales Geflecht weitgehend autarke, selbstbezogene Strukturen geschaffen, die so leicht nicht mehr loszuwerden sind. Sie sind zur internationalen Plattform des geheimen Wissens geworden und werden im Neuen Spiel eine wichtige, wahrscheinlich unangenehme Rolle spielen.”

Die Struktur der “internationalen Plattform geheimen Wissens” ist der eigentliche Grund, weswegen die Loyalitäten für den BND nicht mehr klar entscheidbar sind. Und das hat damit zu tun, dass Wissen Netzwerkeffekte ausbildet. Ein großes Wissen macht es immer attraktiv, weiteres Wissen anzuschließen. Je größer das Wissen, desto größer der Sog. Und dieser Sog betrifft auch die Geheimdienste:

“Das Wissen der Geheimdienste bildet massive Netzwerkeffekte aus, und das ist einer der strukturellen Gründe für unsere heutige Situation. In seinem Paper „Privacy versus government surveillance: where network effects meet public choice“(PDF) vertritt der britische Sicherheitsforscher Ross Anderson die These, dass die Netzwerkeffekte der NSA-Datensammlung derart groß sind, dass sich die Geheimdienste anderer Länder dem Sog gar nicht entziehen können. Angefangen hat es mit dem Five-Eyes-Abkommen zwischen Kanada, Großbritannien, Australien, USA und Neuseeland. Da es für Auslandsgeheimdienste in den meisten Demokratien verboten ist, ihre eigene Bevölkerung auszuspähen, haben sich die Dienste zu einer Art Ringtausch zusammengeschlossen: „Ihr überwacht unsere Bevölkerung und wir eure.“ Die Daten tauschen die Dienste dann bei Bedarf.
Wir wissen seit Snowden, dass solche Verbindungen weit über die Five Eyes hinausreichen. Der deutsche BND, der französische DGSE, die Geheimdienste der Türkei, Indiens, Schwedens und einer unbekannten Anzahl weiterer Partner tauschen in großem Umfang Daten mit der NSA. Die Erkenntnis drängt sich auf: Auch Geheimdienste sind eine Plattform. Die alles verknüpfende Querytechnologie xKeyScore verbindet sie schließlich zum alles sehenden Orakel – ein Orakel, bei dem wieder gilt: Die Kleinen profitieren von den Großen deutlich mehr als umgekehrt. Ein Geheimdienst, der nicht mit der NSA Daten tauscht, ist nach heutigen Maßstäben schlicht blind. Das erklärt auch, warum ein Dienst wie der BND bereit ist, alles zu tun, um wertvolle Daten für die NSA bereitzustellen.
[…]
Die NSA ist das Schwarze Loch im Zentrum der Geheimdienstgalaxie. Ihre Datengravitation zieht die Daten aller anderen Geheimdienste an, und kein Geheimdienst kann sich dem widersetzen. Sie haben im Grunde dasselbe Problem wie wir. Der BND ist von der NSA und ihrem Zugang zu XKeyscore ebenso abhängig wie wir von Facebook.”

Die Bundesregierung ist in einem Zwiespalt. Natürlich will sie einen Geheimdienst, der ihr treu ergeben ist. Aber sie will auch einen effektiven Geheimdienst. Ein Geheimdienst, der nicht mit NSA und GCHQ zusammenarbeitet, ist aber um viele Faktoren weniger effektiv. Also lässt man ihn mit den anderen Kindern spielen, verzichtet auf allzu harsche Kontrollen und hofft, dass das schon gutgehen wird.

Am Ende bleibt zwar ein Verhältnis gegenseitiger Abhängigkeit zwischen Staaten und Geheimdiensten (der Staat stellt die Mittel bereit, die Geheimdienste versorgen ihn mit Information), aber das ist nicht mehr das einer Behörde zu seinem Dienstherrn. Vielmehr entwickelt es sich zu einem Austausch auf Augenhöhe, bei dem jeder der Akteure eigene Interessen hat und die auch egoistisch verfolgt. Mit anderen Worten, das Verhältnis der Dienste zu den Staaten wird zum Markt. Geheimwissen als Dienstleistung.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Queryology
1 Kommentar

Die neuen Cryptowars und die Plattformdämmerung

Derzeit scheinen wir gerade wieder in einen neuen Cryptowar hineinzuschlittern. Als Cryptowar wurde der Versuch der Regierungen, insbesondere der US-Regierung in den 90er Jahren bezeichnet, wirksame PublicKey-Verschlüsselungs-Software an ihrer Verbreitung zu hindern. Hacker und Aktivisten gingen damals so weit, auf Papier ausgedruckten und aus den USA importierten Quellcode händisch abzutippen. Die Regierung musste damals, vor allem auch aufgrund des Drucks aus der Wirtschaft, einlenken.

Heute scheint es einen erneuten Vorstoß zu geben. Erst kam der britische Premier Cameron aus der Deckung, dann Obama und nun hat auch unser Innenminister de Maizière erste Andeutungen gemacht. Die Behörden sollen im Notfall auf jede Kommunikation zugreifen können. Die Gunst der Stunde nach den Anschlägen in Paris muss schließlich genutzt werden.

Lässt man die Propaganda (und zwar von beiden Seiten …) mal beiseite und richtet lieber einen zweiten Blick auf das Timing und vor allem den Wortlaut der Formulierungen, kommt man nicht umhin, von den drei riesigen Elefanten Notiz zu nehmen, die da übergroß im Raum stehen. Ihre Namen sind iMessage, Hangout und WhatsApp und die Politiker geben sich auch nur wenig Mühe diese Adressaten zu verschleiern.

Egal, was unsere snobistische Hackerauskenner erzählen (“das kann ich nicht ernst nehmen, das ist nicht Open Source und ich habe da keine Kontrolle über die Schlüssel)”, ist es die teils angekündigte, teils schon umgesetzte Umrüstung durch Google, Apple und Facebook auf Ende-zu-Ende-verschlüsselter Kommunikation ihrer Messanger, die den Sicherheitsbehörden, Geheimdiensten und Innenpolitikern den Angstschweiß auf die Stirn zaubert. Denn während unsere braven Hacker mit ihren Cryptoparties die letzten zwei Jahre vielleicht ein paar tausend Leute zum partiellen Gebrauch von PGP angeleitet haben, gehen für die Geheimdienste durch den Move der Kommunikationsgiganten auf einen Schlag über eine Milliarde Lichter aus. Weit über eine fucking Milliarde! Gleichzeitig wird durch die Marktmacht der drei Riesen ein neuer Industriestandard geschaffen. Ende-zu-Ende-Verschlüsselung wird zu einem Mandatory-Häkchen auf den Werbetafeln aller Messangeranbieter, wie heute “HD” bei Fernsehgeräten. Wird die Ende-zu-Ende-Verschlüsselung in den Diensten wie angekündigt sauber implementiert – und es gibt keine Anzeichen, warum das nicht der Fall sein sollte – dann ist das der größte und wirksamste Schlag gegen die Massenüberwachung, der heute überhaupt technisch vorstellbar ist.

(Jajaja, jetzt höre ich sie schimpfen! Den Konzernen könne man doch eh nicht trauen, die haben doch bestimmt Backdoors und schlechte Zufallszahlen implementiert! Durch die intransparente Keyverwaltung können die Dienste Man-in-the-Middle-Attacken durchführen, etc. Das mag sein, doch selbst im verschwörungstheoretischen Worstcase gehen bei der Massenüberwachung die Lichter aus. Man-in-the-middle ist ein aufwändiger, gezielter Angriff und selbst wenn Geheimdienste Wege haben, die Crypto durch manipulierten Zufall schneller zu knacken, wird ihnen angesichts der schieren Masse an verschlüsselter Kommunikation (mehr als eine Milliarde Accounts!) die Rechenpower ausgehen.)

Das hier könnte ein Gamechanger sein, die einzige wirklich positive und signifikant wirksame Antwort auf und seit den Enthüllungen von Edward Snowden. Und es ist nicht alles.

Der Clash der Systeme

Ich sehe hier auch eine entscheidende Schlacht eines viel größeren Machtkampfes, den ich in meinem Buch beschreibe: Den Niedergang des Einflussbereichs der Staaten und der wachsenden Relevanz von Plattformen.

Im Buch stelle ich fest, dass sowohl immer mehr Lebensbereiche über Plattformen geregelt werden (von Retail bis Sharing Economy) und gleichzeitig Plattformen durch ihre Netzwerkeffekte zu internationalen Machtzentren heranwachsen (Facebook, Google, etc.). Schon heute kollidieren die Plattformen auf vielen Ebenen mit den Regulierungsanspruch der Nationalstaaten. Doch diese Konfrontationen sind nur unwichtige Scharmützel gegenüber den wirklich treibenden Kräften dieser Entwicklung: die Emergenz und das rasante Wachstum von neuen Formen menschlicher Interaktion, für die sich die Nationalstaaten logischer Weise gar nicht zuständig sehen. Die Anwendung von AGBs, die Absicherung von Transaktionen durch Prozesse, Regularien und eigenen Institutionen, die impliziten Vorgaben des Code ist Law, aber auch die Bekämpfung von Spam, Trollen, nicht justiziablen Formen von Betrug und Hatespeach – oder die zunehmende Durchsetzung von inklusionistischen Konzepten. Wie wir einkaufen, wie wir Auto fahren, wie wir reisen und wohnen, wie wir uns Unterhalten lassen, wie wir kommunizieren, was erlaubt ist und was nicht wird zunehmend nicht mehr auf der staatlichen, sondern auf der Plattformebene bestimmt.

Natürlich ist es reine PR, wenn Cameron, Obama und de Maizière auf die terroristische Bedrohung verweisen, um Verschlüsselung zu regulieren. Terroristen und organisierte Kriminelle konnten schon immer auf die volle Bandbreite der Cryptotools zugreifen und können das auch weiter.

Der Move der großen Drei ist eher ein Gamechanger in die oben skizzierte Richtung. Eine Milliarde von ende-zu-ende-verschlüsselter Kommunikationen entreißt den Nationalstaaten einen enormen Brocken an Rechtsdurchsetzungsmacht. Nicht gegenüber den Terroristen, sondern gegenüber dem täglichen Every-Day-Enforcement des staatlichen Gewaltmonopols im Internet.

Es geht um die Kids auf dem Schulhof, die Serien und Songs per WhatsApp tauschen. Es geht um Kleinkriminelle, die sich zum Autoklauen koordinieren – und ja, um Aktivist/innen die Aktionen und Demos organisieren. Es geht um den Drogendealer von nebenan und den Versicherungsbetrug des Nachbarn. Es geht um versteckte Transaktionen, Korruption und die kleine Verschwörung, denen gegenüber nun ein Rechtsdurchsetzungsdefizit klafft. Das alles scheint noch recht unwichtig und hinnehmbar. Aber in der Masse summiert es sich auf einen riesigen Batzen auf, der die Strafverfolgungsbehörden nun panisch zurücklässt.

Vor ein paar Jahren schrieb ich in meiner SPEX-Reportage über das Darknet:

“Doch die Technologien des Darknet, so unvollkommen sie sein mögen, stehen wie ein Versprechen im Möglichkeitsraum der digitalen Zukunft. Oder – je nachdem wie man es sehen will – als eine Drohung. Es gibt immer einen Weg, es wird immer einen Weg geben. Der mögliche Kontrollverlust, den ein starkes Darknet bedeuten würde, wird den politischen Diskus über das Internet disziplinieren. Das jedenfalls ist meine Hoffnung.”

Die Drohung ist wahr geworden. Das Darknet in einer Light-Version – so kann man die vollverschlüsselte Kommunikation der Plattformanbieter nennen – wird jetzt als Reaktion gegenüber dem überboardenden Kontrollanspruch der Staaten Mainstream. Es wird schicker und benutzerfreundlicher als die Tor-Hidden-Services (dafür ohne Anonymität) und es wird betrieben von großen, kapitalistischen Konzernen. Der Effekt wird dennoch enorm.

Und ist das jetzt … gut?

Aber ob das jetzt eine gute Idee ist, wird für mich immer fraglicher: Tante hat seine Bedenken artikuliert aber vor allem hat David Golumbia bereits 2013 gedanklich durchgespielt, was eine vollverschlüsselte Kommunikationswelt bedeuten würde:

Full encryption would make hiding it standard, and make law enforcement something between difficult and impossible. The basis on which that happens is the assertion by cyberlibertarians that they are not subject to the laws that constitute our society. We should be having a thick and robust discussion about these problems, not just presuming that it is fine to opt out of citizenship obligations if you have the technical means to do so.

Und damit sind wir bereits in dem Dilemma, in das ich beim Buchschreiben gekommen bin und das dem gesamten zweiten Teil eine zauderhafte Unentschlossenheit bescherte. Ich bin mir zwar sicher, dass die Transition hin zu den Plattformen in den derzeitigen Gegebenheiten unvermeidbar, gewissermaßen auch sinnvoll ist. (Wir brauchen internationale Strukturen, die nicht-rivalisierend und agiler sind – weniger Ordnung vorgeben, als vielmehr Ordnung ermöglichen, etc.) Aber ich bin nicht so sicher, ob das nicht auch eine enorm gefährliche Entwicklung ist und wie man damit – als Zivilgesellschaft – am besten umgeht.

Am besten wird man der Komplexität dieser Frage gerecht, wenn man mit verschiedenen politischen Brillen auf diese Entwicklung blickt:

1. Blick: Etaisten plädieren gewöhnlich für eine Rückgewinnung des Zepters an den Staat. Für sie ist die Machtverschiebung durch das Internet nur eine vorübergehende Episode, der es entgegenzuwirken gilt. Konservative bemühen dafür meist die Floskel des “rechtsfreien Raumes”, der das Internet sei, Sozialdemokraten sprechen vom “Primat der Politik”, das zurückzuerobern sei. Dafür gibt es unterschiedliche Strategien: Manche wollen Plattformanbieter Schwächen, indem sie sie per Kartellrecht zerschlagen, oder ihren Einfluss durch staatliche Regulierung sonstwie einschränken. Andere gehen weiter, sprechen sich für eine renationalisierung des Netzes aus: Wenn wir internationale Plattformen nicht regulieren können, dann brauchen wir eben Abschottung und nationale Anbieter ähnlicher Dienste. Heimliches Vorbild ChinaNet. Andere wiederum sehen in den Plattformen sogar die Chance, das Recht über sie durchsetzen zu lassen, sie quasi als private Hilfssherrifs zu rekrutieren und nehmen damit in kauf, dass sie durch die sich daraus ergebenden Jurisdiktionskonflikte das Konzept Nationalstaat noch weiter schwächen. Alle diese Konzepte werden heute schon ansatzweise verfolgt und umgesetzt. Ich sehe in keiner von ihnen eine Zukunft. Manche dieser Strategien werden die Entwicklungen etwas verlangsamen, andere werden den Machtverlust der Nationalstaaten sogar beschleunigen, manche, wie Ideen der renationalisierung des Netzes halte ich für extrem gefährlich, gerade für die Zivilgesellschaft.

2. Blick: (Techno-)Libertäre Kräfte stimmen mir in der Diagnose, dass die Nationalstaaten sich aus der Internetregulierung bitte raushalten sollen, größtenteils überein. Sie sehen aber genau so ein großes Problem in den Konzentrationsprozessen durch die Plattformen. Sie würden auch ihnen gerne so weit wie möglich jede Regulierungsmacht entziehen. Politische Prozesse aufzubauen, Plattformlobbying zu betreibe, wie ich es in meinem Buch vorschlage, fänden sie höchst suspekt. Sie würden vermutlich auf dezentrale Social Networks setzen, die sich mit einem Höchstmaß an Ende-zu-Ende-verschlüsselten, anonymen Verbindungen jeglicher externer Kontrollgewalt entziehen.

Ich habe – wie auch in meinem Buch deutlich wird – eher den 2. Blick, allerdings mit einem Schuß mehr Realismus. Ich halte unreglementierte Kommunikationsräume zwar erstmal grundsätzlich eine gute Idee. Auch mein Konzept der Plattformneutralität ist in diesem Sinne ein techno-libertäres Konzept, das zwar einerseits dem Plattformparadigma statt gibt, dann aber eben Herrschaftsfreiheit als anzustrebende Benchmark und politischen Wert verankert. Wenn ich mein Buch zwei Jahre früher geschrieben hätte, wäre es sicher ein sehr viel reinerer, technolibertärer Wurf geworden.

Ich sehe die Dinge aber heute deutlich anders. Verändert hat diese Sicht nicht die Enthüllungen von Edward Snowden – im Gegenteil – die haben meine techno-libertäre Grundstimmung eher erneut befeuert. Nein, verändert hat sie das Internet selbst und seine Akteure – die Zivilgesellschaft. Ich sah über lange Zeit, wie rechtsradikale Blogs sprießen und immer größere Erfolge einstrichen. Ich habe den Aufstieg der maskulinistischen Szene mitverfolgt – und ihren Hass selbst miterlebt. Ich habe gesehen, wie Menschen für Meinungen gemobbt, fertiggemacht und erfolgreich zum Schweigen gebracht wurden. Einige Freude und Freundinnen von mir wurden Opfer von Stalkern und einige wurden Opfer von Hetz- und Verleumdnungskampagnen. Ich habe Mord- und Vergewaltigungsaufrufe gegen Freundinnen gelesen und miterlebt, wie Facebook eines der wichtigsten Organisationstools für die Pegida-Bewegung wurde. Ich sah die Aktionen von Anonymous und GamerGate und ich surfte an den Waffenhändlern, Auftragsmördern und Kinderpornographen im Darknet vorbei. Ich habe erlebt, wie die totale Freiheit von Kommunikationsräumen das schlimmste im Menschen hervorbringt und so andere ausschließt.

3. Blick: Ich glaube an jetzt die Notwendigkeit von zumindest irgendeiner Form von Regierung. Zumindest vorübergehend. Oder wie Golumbia es ausdrückt: “In order to have a relatively free society, we cannot have absolutely free individuals.” Ich glaube immer noch nicht daran, dass es eine gute Idee ist, den Staat – die Staaten – in vollem Maße zu beauftragen. Ich glaube aber auch, dass es ein Problem ist, die Plattformanbieter mit dieser Macht auszustatten. Aber ich weiß, dass auf kurz oder lang kein Weg daran vorbei führt.

1. Ich denke, der Staat/die Staaten sollten ihre bisherigen Befugnisse weiterverfolgen und justitiables – sofern es ihnen möglich ist – inländisch und mithilfe ihrer gegebenen Tools verfolgen. Wenn das nicht möglich ist, dann müssen wir diese Rechtslücke eben so hinnehmen.
2. Ich glaube, dass Plattformanbieter mehr Verantwortung übernehmen sollten, mehr eingreifen, mehr moderieren, bestimmte Entwicklungen hemmen, bestimmte andere fördern sollen. Plattformen müssen in gewisser Weise ihre Neutralität aufgeben und Haltung zeigen und ihr entsprechend handeln und Policies aufstellen und durchsetzen.
3. Ich weiß aber gleichzeitig, dass die mit der Verantwortung einhergehende Macht ein beträchtlicher Risikofaktor ist. Wir sollten nicht bedenkenlos Kompetenzen zu den Plattformen schieben, sondern uns immer im Klaren darüber sein, dass wir hier einem Regime stattgeben. Dafür braucht es wiederum Plattformeigene Institutionen für Partizipation und Kontrollmöglichkeiten.
4. Ich gehe sehr fest davon aus, dass wir langfristig dezentrale Politiken und Formen zivilgesellschaftlicher Gewaltausübungen finden können und müssen, um uns von zentralistischen Plattformen zu emanzipieren. Wir können den Einfluss zentraler Plattformen langfristig nur genau in dem Maße zurückdrängen, wie wir es schaffen ein dezentrales Regime lebenswerter Verhältnisse zu schaffen. Ohne das, wird jede libertäre Utopie zum Alptraum der Schwächeren. Wichtig dabei könnte die Filtersouveränität werden, wie ich sie im Buch und im letzten Blogspost beschreibe.

Fazit

Ich denke, der Vorstoß der Konzerne könnte ein Weg sein, den wir jetzt beschreiten müssen. Wir würden damit die Geheimdienste aussperren, aber vor allem auch die Strafverfolgungsbehörden. Die Plattformanbieter würden sich ein großes Stück von den Staaten emanzipieren und und gleichzeitig würden auch wir uns jeglichem Kontrollanspruch entziehen (Wenn auch um den Preis, dass wir unsere Abhängigkeit zu den Plattformen steigern). Das größte Problem sehe ich tatsächlich im Machtvakuum, das in diesem Darknet light dann entsteht und inwieweit es für den/die Einzelne auch zum Alptraum werden kann. Ich denke dennoch, dass wir das versuchen müssen.

Es kann natürlich auch ganz anders kommen und die Konzerne knicken vor den Regierungen ein, oder ein amerikanisches/deutsches/europäisches Gesetzt wird verabschiedet, dass Schlüsselweitergabe vorschreibt, Key Escrow wird bei allen Plattformanbietern implementiert und wir setzen die Behörden mit jeder verschlüsselten Kommunikation CC. Am Wahrscheinlichsten wird sein, dass sich hier ein netzpolitisches Schlachtfeld ergeben wird, in dem sich Zivilgesellschaft und allem auch die Konzerne zu unvorhersehbarer Mobilisierungskraft gegen den Staat zusammenschließen könnten. Die nächsten Wochen werden sehr interessant. Es gibt einige spannende Fragen:

  • Wie erfolgreich schaffen es die Regierungen angesichts des Vertrauensverlusts durch Snowden, die rechtstaatliche Besonnenheit der geplanten Abhörpraxis glaubhaft zu machen?
  • Wie weit werden die Konzerne auf Konfrontationskurs mit den Regierungen in dieser Frage gehen? Werden sie gleich einknicken oder kämpfen?
  • Werden die Plattformen ihre Publizitätsmacht einsetzen, um ihre Nutzer/innen für die Verschlüsselung zu mobilisieren?
  • Auf welche Seite schlagen sich die klassischen Medien in dieser Frage. Snowdenhype und Informant/innen-Schutz vs. Rechtsstaatsmacht und Anti-Google-Einstellung?
  • Wie werden die Kund/innen reagieren? Ist ihnen dieses Cryptozeug egal, oder finden sie es wichtig? Wenn sie es erst haben, lassen sie es sich wieder wegnehmen?
  • Wie werden die Hacker und Netzaktivist/innen reagieren, wenn sie merken, dass die Politik gar nicht ihr PGP verbieten, sondern “nur” Mainstreamcrypto verhindert will? Werden die ihren Stolz überwinden und für WhatsApp-Verschlüsselung kämpfen, obwohl das nicht Open Source ist und sie Facebook für böse halten?

So oder so: Die Transition schreitet voran und Machtgleichgewichte werden zwangsläufig aus den Fugen geraten. Halb beängstigt, halb hoffnungsvoll schau ich dem Geschehen zu. Das Einzige, was ich derzeit tun kann, ist die Naivität von allen Seiten zu bekämpfen.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Weltkontrollverlust
6 Kommentare