Informationelle Selbstzertrümmerung

/*** Im Februar habe ich einen Vortrag bei der Tagung „Diskurs der Daten“ an der Uni Leipzig gehalten, dessen Verschriftlichung ich hier nun endlich veröffentliche. ***/

Auf der so genannten Computers, Privacy & Data Protection-Konferenz (CPDP2016)1 im Januar 2016 in Brüssel gab Alexander Dix, scheidender Datenschutzbeauftragter des Landes Berlin anscheinend folgendes von sich:
Bildschirmfoto 2016-02-04 um 17.57.16
Das klingt erst mal gut, aufrüttelnd und irgendwie moralisch richtig. Bis man sich mit der Frage befasst, was denn das eigentlich sein soll, ein „Data Object“.

Dazu ein Beispiel: Das Zitat fand seinen Weg zu mir in Form eines Tweets. Nicht aber eines Tweets von Alexander Dix. So weit ich weiß, benutzt er kein Twitter. Er ist in diesem Fall also selbst kein „Data Subject“. Der Tweet stammt viel mehr von Gabriela Zanfir, einer Mitarbeiterin beim EDPS. Sie zitiert Alexander Dix hier namentlich. Die Frage scheint mir also offensichtlich: Ist hier etwa Alexander Dix, ohne überhaupt Data Subject sein zu müssen, zu einem „Data Object“ geworden? Und führe ich diese Dataobjektivizierung durch das digitale Zitieren dieses Tweets nicht noch fort und erweitere die Datenobjektsammlung damit wiederum um Gabriela Zanfir selbst?

Objektifizierung. Überall. Schlimm!

So geht das die ganze Zeit. Die Rhetorik ist alarmistisch, die Geschehnisse banal. Irgendwas stimmt mit diesem ganzen Datenschutz-Diskurs nicht. Wir alle sind in unzähligen Datenbanken verzeichnet und werden dort immer wieder der einen oder andern Datenverarbeitung unterworfen. Niemand kann von sich behaupten _kein_ Datenobjekt zu sein und dennoch malen wir es als Horrorszenario an die Wand. Was genau ist hier also „at stake“?

Ich glaube, es gibt in der westlichen Welt kaum ein Thema, über das unehrlicher gesprochen wird, als über Datenschutz. Und – um an dieser Stelle Alexander Dix auch zu verteidigen (den ich eigentlich sehr schätze) – das liegt nicht einfach an den einzelnen Protagonist/innen dieses Diskurses. Die Lüge besteht aus einem ganzen System unhinterfragter Annahmen und Behauptungen, die sich im Laufe der Zeit zu einer Ideologie sedimentiert und einer kollektiven Illusion tradiert haben. Nur hier und da erkennt man die „Glitches“, also die Stellen, wo die Lüge unmißverständlich aufblitzt und in kurzen Momenten mit einer Klarheit droht, das ganze System zum Einsturz zu bringen könnte. Die Aussage von Dix ist so ein Glitch. Es gibt aber ungleich größere.

Der Fall des Safe-Harbor-Abkommens2 kann gut und gerne als das Ground Zero dieses Systems verstanden werden und in seinen Trümmern lässt es sich gut studieren. Wir erinnern uns: Das Safe-Harbor-Abkommen bestand im Grunde aus der Behauptung, Unternehmen in den USA würden ihr Handeln dem Niveau europäischer Datenschutzbestimmungen unterwerfen. Dafür mussten sich Unternehmen ungeprüft zertifizieren lassen und schon war die Behauptung rechtskräftig. Also wahr. Auf so ne Art.

Die Episode erinnerte sehr an Hans Christian Andersens bekanntes Märchen: Des Kaisers neue Kleider. Dem Kaiser wird von einem Scharlatan ein Gewand aus dünnstem Stoff aufgeschwatzt, dass es in Wirklichkeit gar nicht gibt. Die Leichtigkeit dieses Nichts wurde dem Herrscher alsbald als Tragekomfort angepriesen und die Tatsache, dass er nichts an hatte, schlicht geleugnet. Aufgrund einer sozial induzierten kognitiven Dissonanz traut sich niemand bei Hofe darauf hinzuweisen, dass der Kaiser ja eigentlich nackt ist. Erst als er mit dem nichtvorhandenen Kleid in die Öffentlichkeit tritt, ruft ein Kind die Wahrheit: „Der hat ja gar nichts an!“, woraufhin alle anderen sich ebenfalls trauen das Offensichtliche auszusprechen.

Max Schrems hieß das Kind in unserem Fall. Er hatte es in einem Musterprozess gegen Facebook bis zum EuGH geschafft, welches mit Schrems feststellte, dass das Safe Harbor-Abkommen schon immer nackt war, dass die Behauptung die Unwahrheit war und überhaupt alles eine große Lüge. Pfui! Böse, USA!

Schrems wiederum bezog sich in seiner Argumentation auf ein anderes rufendes Kind: Edward Snowden. Der hatte gezeigt, dass US-Unternehmen nicht ohne Kooperation und/oder heimlicher – sogar illegaler – Bespitzelung von den dortigen Geheimdiensten arbeiten könnten. Damit war die Nacktheit des Kaisers bewiesen und konnte selbst von noch so rhetorisch geschickten Anwälten nicht mehr bestritten werden.

Weil es aber auch für Selbstverständlichkeiten wie der Tatsche, dass das Internet nun mal bis nach Amerika reicht, eine Rechtsgrundlage braucht, machten sich Juristen und Politiker sogleich daran einen Safe Harbor-Nachfolger zu konstruieren. Das neue Kleid heißt nun Privacy Shield, doch jenseits der aufgerüsteten Rhetorik (weg von der weltläufigen Offenheit des Hafens hin zur militaristischen Logik einer Defensivwaffe) hatte sich am Tragekomfort des neuen Kleides verdächtig wenig geändert.

Viele glauben, dass auch das Privacy-Shield einer juristischen Prüfung nicht stand halten werde. Max Schrems selbst hat mehrmals angemerkt, dass ein gültiges Abkommen unter der Prämisse der allgemeinen Geheimdienstüberwachung gar nicht möglich sei.3 Wie solle denn ein Bürger/eine Bürgerin noch eine „informierte Zustimmung“ zur Datenverarbeitung geben, wenn denn prinzipiell unwissbar sei, wer dann auf die Daten Zugriff habe und was dieser jemand dann damit anstelle? So lange eine solche geheimdienstliche Praxis vorherrsche, könne eigentlich eine rechtliche Grundlage für ein solches Abkommen gar nicht im Bereich des Möglichen liegen.

Interessant wird es, wenn man dieses Argument weiterdenkt. Auf die Frage, ob denn dann in Europa die Rechtsgrundlage für Datenverarbeitung in diesem Sinne nicht ebenfalls fraglich ist, da ja auch hier Geheimdienste nachgewiesener Maßen geheime Dinge mit den hier gespeicherten Daten machen, bejaht Max Schrems durchaus. Glücklicher Weise gibt es hier kein Abkommen, dass in Frage stehen würde. In den eigenen vier Wänden darf der Kaiser natürlich nackt rumlaufen.

Man kann das noch weiterspinnen, wie ich es ja bereits seit einigen Jahren tue 4: Wenn wir 1. nicht mehr kontrollieren können, welche Daten über uns an welchen Stellen gesammelt werden, weil wir die ganze Welt mit immer mehr und immer unsichtbareren Sensoren ausstatten;
Wenn wir 2. die Kapazitäten von Leitungen und Datenträgern immer weiter erhöhen, so dass Daten in immer größerem Umfang immer problemloser von A nach B kopiert werden können;
Wenn wir 3. immer bessere Methoden und Software zur Datenauswertung bereitstellen, die noch aus den unschuldigsten Daten komplexe Profilbildungen und unvorhergesehene Erkenntnisse erlauben;
Wenn wir also den informationellen Kontrollverlust auf den Ebenen der Sammlung, Speicherung und Auswertung erleben, wie können wir dann überhaupt noch – egal wo – von einer „informierten Einwilligung“ sprechen, ohne uns in die eigene Tasche zu lügen?

Und hier nähern wir uns endlich dem Kern des Systems aus Lügen: der „Informationellen Selbstbestimmung“5. Die Idee, dass ich das Recht habe zu kontrollieren, wer etwas über mich weiß und was er mit diesem Wissen anstellt, mag in den 80er Jahren eine kühne Utopie gewesen sein, heute ist sie ein gefährliches, niemals einzulösendes Versprechen, das – weil es niemals zugeben darf, eine Lüge zu sein – immer weitere Lügen gebiert.

Seien wir das Kind und sprechen es aus: die Illusion der „Informationellen Selbstbestimmung“ konnte nur deswegen funktionieren, weil wir alle mitgelogen haben und auch heute bereit sind jederzeit zu lügen. Jedesmal, wenn wir „Ok“ oder „Ich habe verstanden“ bei den unzähligen Terms of Service, Allgemeinen Geschäftsbedingungen und Datenschutzbelehrungen geklickt haben, aber in Wirklichkeit nicht das Gefühl hatten, wirklich zu wissen, was da mit unseren Daten geschieht, haben wir mitgeholfen diese kollektive Fiktion am Leben zu erhalten. Unsere Lügen haben sich akkumuliert zu einem System der Unehrlichkeit, in der die eine Lüge die andere Lüge deckte und als Wahrheit verifizierte. Und nun stehen wir auf unserem eigenen Lügenberg und übersehen von dort die Trümmer von Safe Harbor, welches doch auch nur eine weitere Lüge war. Und wir lachen. Worüber lachen wir eigentlich?

Ganz konkret: Wem bringt der Fall von Safe Harbor denn jetzt irgendwas? Also mehr Sicherheit? Mehr Schutz? Irgendwelche sonstigen Vorteile?

Die Antwort ist: Niemandem. Irgendetwas. Also bis auf die Deutsche Telekom, für die die Rechtsunsicherheit amerikanischer Serverbetreiber einen riesigen anstrengungslosen Reibach bedeutet.

In Wirklichkeit ist der Fall von Safe Harbor vergleichbar mit dem Platzen der Kreditblase von 2008. Es wird bis heute fälschlicher Weise behauptet, damals seien Werte vernichtet worden. Das stimmt nicht. Der Wert war nie da, er war immer nur behauptet. Genau so wie der „Schutz“ durch Safe Harbor immer nur behauptet war. Durch den Wegfall von Safe Harbor ist niemand mehr oder weniger geschützt. Und egal wie das neue Abkommen aussehen wird, der Schutz wird sich nicht wesentlich verschlechtern oder verbessern. All das sind nur Schattenboxkämpfe von Politiker/innen und Jurist/innen.

Mein Eindruck ist mittlerweile, dass die verbissene Verteidigung der Informationellen Selbstbestimmung einer Implementierung von tatsächlichem Schutz für Individuen im Weg steht. Wir sollten aufhören, darüber zu streiten, wie wir ein fiktives Recht bewerkstelligen können und anfangen zu fragen, welche Probleme sich denn nun aus Datenhaltung und -Verarbeitung konkret für Menschen ergeben.

Unser Motto sollte sein: Schützt die Menschen, nicht die Daten. Und das geht nur, wenn man sich von dem Konzept der Informationellen Selbstbestimmung endlich verabschiedet.

Es gibt da durchaus Ansätze das zu tun. Hans-Peter Bull, erster Bundesdatenschutzbeauftragter Deutschlands sieht das Konzept der informationellen Selbstbestimmung ebenfalls am Ende6. Niko Härting wirbt mit der Neuausrichtung des Datenschutzes anhand eines risikobasierten Ansatzes.7

Ich denke, diese Ansätze gehen in die richtige Richtung. Es gibt unterschiedliche Gefahren durch unterschiedliche Daten für unterschiedliche Menschen. Was für den einen eine Gefahr ist, ist für den anderen kein Problem. Ich will deswegen auf einer etwas abstrakteren Ebene einiger der Gefahren aufzeigen:

1. Diskriminierung (Institutionelle und auch alltägliche)
2. Manipulation (bishin zu handfester Erpressung)
3. Staatliche Willkür (zb. Cherrypicking von Daten zur Konstruktion von Evidenz)
4. Kriminalität (Identitätsdiebstahl bis Stalking)
5. Entwürdigende Bloßstellung (Public Shaming)

Wenn wir diese Probleme in den Vordergrund stellen wird schnell klar, dass Datenschutz oft nur eine sehr schlechte Antwort auf die Herausforderungen der digitalisierten Welt ist. Es gibt bessere Ansätze: Diskrimierungsverbote, demokratische Kontrollinstanzen, Kompetenzbeschneidung von Behörden, mehr Transparenzanforderungen, auch für Unternehmen, etc. Klar. Das sind alles nur Flicken. Das ist nicht ein schön in einem Stück gefertigtes Kleidchen und der Tragekomfort ist nicht so toll, wie bei der luftig leichten informationellen Selbstbestimmung.

Aber wir könnten alle wieder ein bisschen ehrlicher sein und ich bin fest überzeugt, dass das Schutzniveau unterm Strich steigen würde.

  1. CPDP http://www.cpdpconferences.org
  2. Holland, Martin: Datenschutz bei Facebook & Co.: EuGH erklärt Safe Harbor für ungültig, http://www.heise.de/newsticker/meldung/Datenschutz-bei-Facebook-Co-EuGH-erklaert-Safe-Harbor-fuer-ungueltig-2838025.html (06.10.2015)
  3. Vgl.: Armasu, Lucian: Max Schrems Provides In-depth Analysis Of Safe Harbor Ruling, http://www.tomshardware.com/news/max-schrems-post-safe-harbor,30343.html (16.102015)
  4. In diesem Blog oder Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Berlin: iRights Media 2014, S. 8.
  5. Vgl. Recht auf Informationelle Selbstbestimmung: http://www.grundrechteschutz.de/gg/recht-auf-informationelle-selbstbestimmung-272.
  6. Bull. Hans-Peter: Informationelle Selbstbestimmung – Visionoder Illusion? https://www.mohr.de/buch/informationelle-selbstbestimmung-vision-oder-illusion-9783161509056?createPdf=true.
  7. Härting, Niko: Vom Verbotsprinzip zur Risikoorientierung, http://www.haerting.de/de/neuigkeit/vom-verbotsprinzip-zur-risikoorientierung


Veröffentlicht unter Das Neue Spiel Kontrollverlust Postprivacy
3 Kommentare

Das Internet nach dem Internet – Eine persönliche Anamnese

/** Dieser Text basiert auf einem Vortrag, den ich im Rahmen einer Tagung an der Universität Köln gehalten habe und wird demnächst in einem zugehörigen Reader veröffentlicht. **/

Vor etwa 2,4 Milliarden Jahren brach eine einzigartige Naturkatastrophe über die Welt hinein. Eine neue Spezies, die Cyanobakterien, hatten sich im Kampf der Evolution durchgesetzt und machten sich daran, alle anderen Spezies mittels eines aggressiven Giftes auzulöschen. Ein Großteil der bis dahin lebenden Organismen fielen dem Massaker zum Opfer. Die Nachfahren dieser Massenmörderspezies nennen wir heute „Pflanzen“ und ihr tödliches Gift war der Sauerstoff.

Das neue Gift atmete ich etwa Anfang der 90er. Ein Freund von mir wählte sich oft in das FidoNet ein. Eine Art Proto-Internet, was aber eigentlich nur ein System von Mailboxen beschrieb, bei dem man sich einwählen konnte und das automatisiert Daten austauschte. In diesem Netz konnte man bereits mit Unbekannten kommunizieren. Man lud Texte und Bilder herunter, diskutierte und schloss Freundschaften.

Wenige Jahre später sah ich meine erste Website. Es war Spiegel Online. Ich zuckte mit den Schultern. Es gibt doch schon Zeitungen, dachte ich mir. Doch das Schulterzucken hielt nicht lang. Meine erste eigene Mailadresse holte ich mir im Web. 1997 bei GMX. Ich wollte mit Freunden zu Hause in Kontakt bleiben, denn ich sollte zum Studium nach Lüneburg umziehen.

Erst im Studium habe ich wirklich angefangen, mich für das Netz zu begeistern. Es war mitten in der Dotcom-Bubble und ich wollte alles über das Internet wissen. Ich legte meine Zwischenprüfung über die Geschichte des Internets ab. Ich fing an zu programmieren. Erst nur Webdesign, dann Java, PHP und Datenbanken. Mehrere Jahre lang arbeitete ich als Programmierer in einer kleinen Internetfirma.

Doch egal was ich tat, ich wurde das Gefühl nicht los, der Idee und dem Potential des Internets nicht gerecht zu werden. Schließlich wendete ich mich den Medienwissenschaften zu. Nur leider hatten die zu dem Thema kaum etwas zu sagen, jedenfalls zu jener Zeit. Die deutsche Medientheorie war geprägt von der Kittlerschule und die hatte erst mal nur den Computer in den Blick genommen.

“Close enough”, dachte ich mir und las, was ich kriegen konnte. Doch etwas war mir fremd: Die Erfindung und Entwicklung des Computers wurde mit der Ehrfurcht gefeiert, die an die Landung eines Außerirdischen erinnerte. Die Beschäftigung mit dem Computer wirkte wie die Kommunikationsversuche mit einer fremden Spezies. Ich verstand natürlich, dass der Computer ein besonderes, ein universelles Medium war, aber für mich war er eben doch Teil der Welt. Kittlers Passion für maschinennahen Code etwa und sein Herabblicken auf alles, was nicht in C oder Assembler programmiert ist, empfand ich absurd und weltfremd. Es gibt keine Software? Was für ein absurder Gedanke.

Heute mache ich die unterschiedliche Aneignungsgeschichte für diese Andersartigkeit der Wahrnehmung verantwortlich. Der Computer trat ja tatsächlich in das Leben der Generation Kittler wie ein frisch gelandetes Alien. Der Computer erschien als wissenschaftlich-militärische Großmaschine auf der Bildfläche und hatte damit die Aura von Raketentechnologie. Atombombe, Interkontinentalrakete und Computer bildeten einen gemeinsamen modernistischen Komplex in den Assoziationen der Zeitgenossen.

Ich hingegen hatte den Computer als den netten Spielgefährten auf dem Schreibtisch kennengelernt. Mein erster Computer war ein Commodore 128D, eine etwas weiterentwickelte Variante des berühmten C64. Der Computer war ein Alltagsgegenstand, fast schon ein Kinderspielzeug. (Um ehrlich zu sein, habe ich ihn in erster Linie auch ausschließlich zum Spielen benutzt.)

Noch während ich meine Abschlussarbeit schrieb – etwa 2005 – fing ich an zu bloggen. Zunächst war es reine Prokrastination. Aber es nahm mich sofort gefangen. Mich reizte das „sich ausdrücken können“, bei gleichzeitiger Unmittelbarkeit des Feedbacks. Die Schnelligkeit und die Freiheit alles zu sagen, was ich will, während (theoretisch) Millionen Leute das lesen können. Das ist vielleicht gar nicht mehr so gut nachvollziehbar, aber damals fühlte sich das wirklich revolutionär an. Meinungsfreiheit galt damals nur theoretisch. In Wirklichkeit musste man enorme Ressourcen in Bewegung setzen, um auch nur ein kleinen Teil Öffentlichkeit zu generieren.

So sehr ich mich bemühte, das Netz und sein Veränderungspotential über Bücher und Programmieren zu verstehen; so richtig verstand ich es erst beim Bloggen. Beim freien Benutzen des offenen Webs und seiner Möglichkeiten wurde mir klar, dass dieser persönliche, ja intime Zugang zu Öffentlichkeit es war, der alles verändern würde. In der Blogosphäre streckte nicht eine kalte Technik seine Apparate in die Welt, sondern es etablierte sich eine neue Form von Lebensraum. Ich las Blogs, wie andere durch ihre Straße gehen, und kommentierte Artikel als würde ich mit den Nachbarn quatschen. Ich spürte das Internet förmlich, und zwar als Verbundenheit und Heimat. Ich fühlte mich im Internet zu Hause.

Wir Blogger waren die Avangarde einer global unausweichlichen Utopie totalvernetzter Diskurse. Wir waren uns sicher: bald schon würden alle tun, was wir tun. Bis dahin mussten wir nur zweierlei machen: Weitermachen und das Netz gegen all diejenigen verteidigen, die es eifersüchtig bekämpften. Das waren nicht wenige, denn das Netz begann schon früh die gesellschaftliche Position von vielen zu bedrohen. Journalist/innen, Verleger/innen, Rechteinhaber/innen, Innen- und Justiz-Politiker/innen und die Lobbys von einigen Wirtschaftverbänden. Um das Jahr 2009 herum emergierte das, was man bis heute „Netzpolitik“ nennt und was sicher eine der schlagfertigsten Grassrootslobbys der letzten Jahrzehnte war.

Mitten in dieser Zeit, Anfang 2010, fing ich an für die FAZ zu bloggen. Ich wollte meine ganz eigene Medientheorie des Internets aufschreiben. Alles kulminiert in der These vom Kontrollverlust. Der Kern der Idee: Wir verlieren Kontrolle über Datenströme und alle Folgewirkungen, positive wie negative, und sich die darum scharenden Diskuse können auf dieses Grundphänomen zurückgeführt werden. Unter dem Strich jedoch, da war ich sicher, würde sich dieser Kontrolltverlust lohnen. Im Ganzen werde er positive Auswirkungen auf die Gesellschaft und seine Individuen haben.

Als ich vier Jahre später das Buch 1 dazu schrieb, war die positive Grundstimmung einer desillusionierteren Variante gewichen: “Der Kontrollverlust hat die Welt im Griff. Was heißt schon gut oder schlecht? Jedenfalls sollte man seine Strategien anpassen.” “Machiavelli des 21. Jahunderts” nannte man mich daraufhin.2

Was war in der Zwischenzeit von 2010 bis 2014 passiert? An dieser Stelle werden für Gemeinhin die Snowdenenthüllungen als desillusionierendes Weltereignis angeführt. Es hatte sich gezeigt, dass aussgerechnet die Offenheit der digitalen Technologie von mächtigen Akteuren missbraucht wurde, um Menschen in einem nie dagewesenen Ausmaß auszuspionieren. Diese Möglichkeit jedoch war in der Kontrollverlustthese von vornherein eingepreist. Privatsphäre war etwas, auf das man sich schon länger nicht mehr verlassen konnte.

Jede Dystopie ist in ihrer Realisierung banal. Ja, wir leben heute in der viel beschworenen Überwachungsgesellschaft. Der aktuelle Zustand der Welt übertrifft unsere schlimmsten Erwartungen. Aber hey, sein wir ehrlich. Das ist schon auf ne Art ganz ok. Niemand hat wirklich Angst. Protestieren tun nur ein paar Bürgerrechtler, so aus Prinzip.

Nein, Snowden war nicht der Grund. Es waren drei Entwicklungen, die meine Euphorie gegenüber dem Internet deutlich dämpften.

Erstens: Wir haben gewonnen. Bzw. wir – die Blogger – haben recht behalten. Die grenzenlose Freiheit des Publizierens durch das Internet kam tatsächlich im Mainstream an. Alle haben nun Zugang, jede/r bekommt Öffentlichkeit, wenn er/sie es will. Meinungsfreiheit wurde von einem abstrakten Recht zu einer realen Praxis.

Jede Utopie ist in ihrer Realisierung dystopisch. Ungehinderter Zugang zur Informationsverbreitung und ungehinderter Zugang zu Organisation stellten sich als wirkungsvolle Strukturverstärker nicht nur der Zivilgesellschaft, sondern auch des Hasses heraus. Ein Hass, der bis dahin in den dunklen Gewölben der Eckkneipen eingehegt war und nun mittels gegenseitiger Selbstverstärkung durch die digitalen Ritzen in die Öffentlichkeit quillt. Pegida, das vergessen viele, ist als Facebookgruppe gestartet. Pegida ist unser arabischer Frühling. Hass wird heute online geschürt, Demos und Brandanschläge werden per Messenger koordiniert. Immer mehr Menschen ziehen sich zurück in die Heimeligkeit zwischen Verschwörungsblog und WhatsHass-Gruppe. Auch sie haben ihr Zuhause im Netz gefunden.

Zweitens: Das Netz hat seine Grundstrukturen verändert. 2010 lief ein Großteil des Diskurses – vor allem der um das Netz – auf Blogs und Twitter ab. Es gab eine Vielzahl an Möglichkeiten, sich auszudrücken, obwohl schon damals beobachtbar war, wie sehr geschlossene Plattformen an Relevanz gewannen. Als die Menschenmassen kamen – etwa 2012, gründeten die wenigsten Blogs, sondern strömten zunächst fast ausschließlich auf Facebook. In dieser Zeit verdoppelte Facebook seine Nutzer/innen-Zahlen. Andere geschlossene Plattformen – Instagram, Whatsapp und Snapchat – wiederum profitierten von den Distinktions- und Ausweichbewegungen der jüngeren Generation und wurden ebenfalls in enormen Tempo zu riesigen Playern. All das hat zur Folge, dass das Internet und das open Web als Entität in den Hintergrund getreten ist, es bildet lediglich die Infrastruktur der eigentlichen Interaktionsschnittstellen. Und die werden von den Plattformen bereitgestellt.

Drittens: Das Netz hatte also die Unverschämtheit, sich hinter dem Rücken der ersten Netzcommunity einfach weiterzuentwickeln. Was sich auf Youtube, Instagram, Snapchat und Periscope entwickelte, wurde auf den Blogs der Netzgemeinde kaum reflektiert. Doch auf einmal hatten Einkaufvideos (haul-videos) von 15 jährigen Jugendlichen 100 mal so viele Zugriffe als die wichtigsten netzpolitischen Flagschiffe der Bloggergeneration.

Das mag nach verbitterter Kulturkritik klingen, es ist aber vielmehr das Eingeständnis von vergangenem Größenwahn und aktuellem Nichtverstehen. Es geht mir wie Grandpa Simpson: “I used to be with it, but then they changed what it was. Now what I’m with isn’t it, and what’s it seems weird and scary to me. It’ll happen to you!”3

Dieses “it” war bei uns vor allem die politische und intellektuelle Auslotung des Netzes. Unsere Themen waren immer “special Interest”. Aber wir hatten ja die Gewissheit, dass unsere Anliegen nicht special Interest bleiben würden. Würde das Netz erst Mainstream werden, so dachten wir, würden unsere Debatten und unsere gut informierten Positionen zum Netz ebenfalls im Mainstream einreiten. Kurz: Wir dachten unser “it” würde das “it” sein, wie noch jede Generation vor uns.

Doch die neue Netzgeneration setzt sich nicht mit Netzneutralität auseinander. Sie interessiert sich nicht für Netzsperren oder Datenschutz. Schlimmer noch: für sie ist das Netz kein Begriff mehr, der überhaupt etwas neues verheißt. Sie empfinden keinen Drang alles verstehen zu wollen. Das Netz ist halt da. Es ist ein Alltagsgegenstand, mit dem man Dinge machen kann.

Und hier, am Ende dieser Reise finde ich mich dann doch in wieder. Das Internet ist für diese Generation das, was für mich der Personal Computer war. Und so wenig, wie ich mich in Turing und von Neumann eingearbeitet habe, so wenig mich die Schaltpläne des ENIAC, das Programmieren in Assembler oder Compilerbau interessierten, so wenig spannend finden die Jugendlichen die Geschichte des ARPA-Net, den Kontrollverlust durch TCP/IP oder die Idee des Open Web.

Genauer betrachtet ist das, was sie im Internet machen, viel radikaler. Wir haben unsere Blogs noch in die bestehende Medienordnung einzuordnen versucht. Mit Begriffen wie “Bürgerjournalismus” oder “Gegenöffentlichkeit” suchten wir Anschluss an bestehende Mediendiskurse. Die Kids jedoch interessiert das alles nicht. Sie machen das, was sie machen unter völliger Absehung vorhandener Systeme und Öffentlichkeiten. Sie schaffen neue Medienformate aus sich heraus, aus ihren Interessen und aus ihrem Leben zwischen Playstation, Schulhof und Drogerieeinkauf. Sie kennen den ängstlich rückversichernden Blick auf Relevanz und Anschlussfähigkeit gar nicht, den wir Blogger der alten Schule nie abgelegt haben.

Am Ende, wenn alle Utopien und Dystopien verwirklicht sind, bleibt nur noch die bereits veränderte Welt als neue Normalität. Überwachung und unendliche Möglichkeiten der Öffentlichkeit sind keine Dinge mehr, die man gut oder schlecht finden kann. Das Internet zu beschimpfen oder zu idealisieren macht so viel Sinn, wie über die Vor- und Nachteile von Sauerstoff zu diskutieren. Der Trick heißt Atmen.

  1. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Freiburg 2014.
  2. Business Punk Heft 5/2014: Machiavelli des 21sten Jahrhunderts.
  3. The Simpsons S07E24: Homerpalooza. (Danke an Felix Neumann für die Referenz)


Veröffentlicht unter Das Neue Spiel extern Plattformpolitik reloaded
5 Kommentare

Plattform vs. Staat – Es wird interessant

Jeder staatliche Regulierungsanspruch, der an Plattformen herangetragen wird, wird dort letzten Endes in zentralistischer Kontrolle umgesetzt und stärkt so die politische Machtstellung der Plattformbetreiber. Auf der anderen Seite sind Plattformen geradezu gezwungen, das Recht des einen Staates gegen das Recht des anderen durchzusetzen. Der zweite Treiber des Kontrollverlusts dekonstruiert gerade durch die Kooperation der Plattformen mit den Staaten ihre eigene Grundlage: die durch Grenzen definierten Jurisdiktionen.

Das schrieb ich vorletztes Jahr in „Das Neue Spiel„.

Wir sehen seit geraumer Zeit die sich aus diesem Zusammenhang ergebenden Konflikte fast täglich in den News. Sei es Facebook vs. EU-Datenschutz, sei es das Recht auf Vergessenwerden vs. Google, sei es der Kampf Apples für Verschlüsserlung gegen die US-Politik oder die vielen regionalen Konflikte, in denen sich Uber befindet. Überall knallen Regulierungsbestrebungen von Staaten mit den international ausgelegten Strukturen von Plattformen aneinander. (Siehe dazu ausführlicher meinen Beitrag auf Online Open)

Nun ist ein Gerichtsurteil erfolgt, das uns grundsätzlicher aufhorchen lassen sollte. In Frankreich entschied ein Gericht, dass Facebooks Löschung von – aus seiner Sicht unangebrachter Nacktheit – nach französischem Recht ein nicht zu rechtfertigender Eingriff in die Meinungsfreiheit ist. So weit, so gut. Hier freuen sich die Netzpolitikaktivist/innen, die bis zum Ende ihrer Nasenspitzen denken. Denn viel entscheidender ist, dass sich das französische Gericht in diesem Fall überhaupt zuständig sieht. Facebook hatte sich immer mit dem Hinweis auf die Jurisdiktion in den USA aus solchen Dingen herauslaviert.

Diese Entscheidung ist teil eines Trends. Schon das Safe Harbor-Urteil nagelt amerikanische Plattformanbieter sehr viel stärker an europäische Gesetze. Ebenfalls ein französisches Gericht will Googles Löschungen im Bezug auf das Recht auf Vergessenwerden gerne in der ganzen Welt durchgesetzt sehen. Was wiederum ein unzulässiger Eingriff in die Redefreiheit in anderen Juristdiktionen bedeuten dürfte.

Wenn dieser Trend anhält, das Französische Urteil also eine Signalwirkung entfaltet oder gar vom EuGH bestätigt wird, wird es richtig spannend. Einen gemeinsamen, universellen Dienst Länderübergreifend anzubieten wird dann quasi unmöglich. Das Durchsetzen des Rechts des einen Staates ist oft nur mit im anderen Staat illegalen Mitteln machbar. Facebook – und jede andere Kommunikationsplattform – müsste dann nach Jurisdiktionen aufgesplittet werden. Auf Facebook.de kann ich mich dann nur noch mit meinen deutschen Freunden unterhalten.

Ich glaube … ich hoffe(!) nicht, dass es so kommt. Ich stelle mir hier lieber pragmatischere Alternativen vor. Ich will drei Szenarien vorstellen:

1. Plattformanbieter werden die Nutzer/innen auffordern, selbstständig anzugeben, welcher Nation sie angehören. Alle lügen und sagen, sie seien Amerikaner.
Problem: das wird europäischen Politikern wahrscheinlich nicht genügen. Sie werden darauf drängen, dass Facebook Geoblocking oder ähnlich ekelhaftes einsetzt, um ihr Recht durchgesetzt zu sehen.

2. Plattformanbieter werden sich aus der EU zurückziehen. Zumindest geschäftlich. Wer mit Facebook geschäftlich zu tun haben will, muss sich an die Mutterzentrale in Menlo Park wenden.
Problem: Das könnte neue Rechtsunsicherheiten bringen und sehr wahrscheinlich zu intensiv in die Einnahmeseite der Plattformanbieter eingreifen. Es ist eine Frage, ob sie sich das leisten können. Und wollen.

3. Plattformanbieter fordern für sich eine – zumindest zum Teil – eigenständige, selbstregulierte Zone zu sein, in der die Regulierungskompetenzen der Länder nur bedingt gelten. Sie definieren dafür ihre eigenen Spielregeln sehr viel klarer als bisher und etablieren eigene Strukturen, diese transparent, nachvollziehbar und kontrolliert durchzusetzen. Sie gestalten ihre Regeln natürlich möglichst nahe an den Gesetzen ihrer wichtigsten Heimatmärkte, beharren aber darauf, deren Gesetze nur partiell (sofern sie mit den eigenen Standards übereinstimmen), auch durchzusetzen. Im Zweifel lassen sie sich dafür auch Sperren gefallen (wie in China und teils in der Türkei ja bereits gängige Praxis).
Problem: Staaten müssten ihre eigentlich universell verstandene Regulierungskompetenz freiwillig einschränken. Das scheint derzeit kaum vorstellbar. Aber vor dem 30jährigen Krieg war auch nicht vorstellbar, dass Reiche ihren universellen Führungsanspruch in der Welt zugunsten eines Nebeneinanders von souveränen Staaten einschränken.

Ich persönlich denke, dass es langfristig auf Option drei zulaufen wird. Darüber hatte ich neulich mal mit Christoph Kappes diskutiert. Dann wären Plattformen eigenständige, politische Gebilde auf Augenhöhe von Staaten. Aber das prophezeihe ich ja auch schon in meinem Buch.

Staaten sind in vielerlei Hinsicht ein organisatorisches Auslaufmodell. Es braucht internationale Strukturen, die den veränderten Informationsbedingungen nicht nur Rechnung tragen, sondern sie direkt implementieren. Und das sind nun mal Plattformen. Ob Facebook oder sein Nachfolger. Irgendwann werden sie ihre Souveränität fordern. Müssen.


Veröffentlicht unter Das Neue Spiel Plattformpolitik Weltkontrollverlust
2 Kommentare

Die Webregierung, Teil I – Der Tod des Open Web

Auf unserem Talk auf der re:publica haben Sebastian Gießmann und ich beschrieben, wie in den letzten 10 Jahren eine Transition vom Netzwerk hin zur Plattform stattgefunden hat. Plattformen entstehen, wenn sich Netzwerke verstetigen und mittels Ausprägung von bürokratischen Medien wie Standards, Protokollen – oder meistens: einem zentralistischen Regime – institutionalisieren. Das hat zur Folge, dass auf der einen Seite Handlungsspielräume einschränkt, dafür aber neue Sicherheiten geschaffen werden. Diese Sicherheiten ermöglichen dann wieder neue, oft komplexere Nutzungspraktiken.

Der Siegeszug der zentralistischen Plattformen steht dabei ganz besonders im Widerspruch zu vielem, was Ende der 90er Jahre unter dem Paradigma des Netzwerkes gefeiert wurde. Die erfolgreichsten Plattformen sind heutzutage zentralistisch, kontrollwütig und in sich geschlossen.

Eines der prominenteren Opfer dieser Plattformisierung ist das Open Web, also die Idee eines rein auf offenen Standards basierenden Netzwerkes von einander unabhängig betriebener Websites. Die Merkmale Offenheit und Dezentralität haben das Web zuvorderst attraktiv gemacht und zu seinem Siegeszug geführt. Sie haben aber auch Player hervorgebracht, die es nun massiv bedrohen. Die Revolution frisst ihre Eltern.

Facebook hat einmal als eine Website unter vielen Millionen angefangen. Doch dieses Netzwerk im Netzwerk saugte über die letzten Jahre die Usecases des Webs und damit die Nutzer/innen fast vollständig in sich auf. Würde man Facebook weiterhin als Teil des Webs betrachten (das ist zweifelhaft, da heute weit über 50% der Nutzer/innen per mobiler App auf Facebook zugreifen), dann hat Facebook ein großes schwarzes Loch inmitten des offnen Webs gerissen. Es gibt ein paar Anschlussstellen – öffentliche Posts können noch verlinkt werden – aber der Großteil des Facebookuniversums bleibt in den Untiefen der Privacyeinstellungen seiner Nutzer/innen verborgen.

Und damit auch vor Google. Google, die mit ihrer Suchmaschine eine gewisse Symbiose mit dem Open Web pflegen ist das schon lange ein Dorn im Auge. Sie wissen eigentlich gar nicht mehr, was im Internet passiert, weil der Großteil der relevanten Signale (Wer linkt auf was, welche Artikel sind heiß diskutiert? Sowie natürlich der ganze Content, der nur auf Facebook stattfindet) ihren Crawlern verborgen bleibt. Der Versuch, Facebook mit Google+ eine Entsprechung entgegenzusetzen muss heute als gescheitert gelten.

Auf Lange Sicht bedeutet das scheitern des Open Web, dass Facebook den Werbemarkt auf dauer dominieren wird, während Google immer mehr an Relevanz verlieren wird.

Es gibt viele Gründe für das Scheitern des Open Web. Ich möchte an dieser Stelle vier systemische Gründe nennen, die ich für die wesentlichsten halte:

1. Transaktionskosten

Eine Website zu betreiben war immer schon mit einer Menge Aufwand verbunden. Man braucht einen Webspace und eine Domain, das kostet Geld. Man muss sich mit Technik auskennen, zumindest soweit, um ein Content Mangementsystem installieren und warten zu können. Hinzu kommen viele rechtliche Unsicherheiten. Wie ist das mit der Impressumspflicht? Es drohen Abmahnungen wegen Urheberrechts-, Wettbewerbsrechts- und Persönlichkeitsrechtsverletzungen. Hinzu kommen ab 2018 eine ganze Latte neuer Rechtsunsicherheiten durch die neue Datenschutzgrundverordnung der EU. Der Jugendmedienstaatsvertrag wird demnächst weitere Unheile bringen. Auch ich überlege ernsthaft 2018 meine Domains zu kündigen.

Die Rechnung ist recht einfach: Je größer der regulatorische Druck und die rechtliche Unsicherheit im Netz wird, desto unattraktiver wird das Open Web und umso attraktiver werden zentralistische Plattformen. Eine Plattform wirkt wie ein Puffer, der vor den meisten rechtlichen Angriffvektoren schützt. Notice and Takedown mag man als orwellsches Kontrollinstrument der Urheberrechtslobby verteufeln. Es schafft aber für millionen Menschen überhaupt die nötige Rechtssicherheit auch ohne Jurastudium im Internet veröffentlichen zu können. Auch um Datenschutz muss ich mich als Betreiber von einer Facebookpage nicht kümmern (es sei denn, ich lebe in Schleswig-Holstein ). Es ist alles geregelt. Ob gut oder schlecht, liegt nicht in meiner Verantwortung.

2. Features

Das ist ziemlich offensichtlich, aber eigentlich auch erstaunlich: Facebook ist in Sachen Features und Usability allen Ansätzen aus dem Open Web meilenweit voraus. Und selbst WordPress hat es als populärstes Content Mangement System trotz seiner großen „installed Base“ nicht geschafft, featuremäßig auch nur in die Nähe zu kommen. (Und nein. Ich will über Diaspora nicht reden. Wenn ihr über Diaspora reden wollt, geht bitte zu Diaspora. Dort gibt es bestimmt Leute, die das interessiert.)

Es scheint so zu sein, dass ein Unternehmen mit genügend Ressourcen und zentralem Produktmangement einfach schneller und effektiver populäre Produkte und Features entwickeln kann, als eine gegebene Open Source Community.

3. Kontrolle

Noch etwas anderes ist auf Facebook vorhanden, dass es im Open Web nicht gibt: Kontrolle. An anderer Stelle habe ich ausgeführt, warum die geschlossenen Plattformen auch eine Antwort auf den Kontrollverlust sind. Sie heben den Kontrollverlust nicht auf, aber sie mindern in gewisser Hinsicht seine Wirkung bei vielen Anwendungsfällen. Urheber/innen und Verwerter/innen bekommen zwar ihr altes Geschäftsmodell nicht zurück, aber finden wieder einigermaßen kontrollierbare Absatzwege. Nutzer/innen finden zwar keine Privacy, dafür aber Privacyeinstellungen. Den meisten reicht das. All gibt es nicht im Open Web, denn es lässt sich nur sinnvoll umzusetzen, wenn ein zentrales Regime eine gewisse Kontrolle auch durchsetzen kann.

4. Tragödie der Allmende

Dieser Punkt ist verwandt mit dem Oberen, geht aber darüber hinaus. Ausnahmsweise ist mal nicht die Überlegenheit der Plattform schuld, sondern das Open Web selbst. Es begeht in gewisser Weise seit vielen Jahren einen schleichenden Selbstmord.

Es ist verdammt hässlich geworden. Man traut sich kaum noch irgendeinen Link zu klicken. Die Websites laden ewig, sind zugedeckt mit nerviger Layover-Werbung, es werden etliche Skripte und Tracker geladen, die die Lüfter zum Glühen bringen, etc. Kurz: es wird zunehmend unmöglich, überhaupt noch Inhalte im Web zu konsumieren.

Es gibt einen Begriff dazu aus der Ökonomie. Tragedy of the Commons. Es ist die allgemeine Beobachtung, dass Gemeingüter mit der Zeit mittels Überwirtschaftung durch egoistische Akteuere zu Grunde gehen. Was überall auf der Welt mit Wiesen, Wäldern und Äckern geschah, passiert derzeit mit dem Open Web. Die offene Struktur hat neben all den positiven Praktiken auch negative ermöglicht. Niemand kann Einschränken was jemand auf seiner Website treibt. Und deswegen wurde viel gemacht, was Geld bringt. Und dann wurde mehr gemacht, was Geld bringt. Und dann noch mehr.

Die Quittung bekommen die Websites zwar derzeit durch die Massenverbreitung von Adblockern, aber das wird wiederum zu Abwerhmaßnahmen führen. Am Ende bleiben wahrscheinlich auch nur die Paywalls hinter die sich die Verlage flüchten, also eine weitere Abkehr vom Open Web.

Doch an dieser Stelle kommen die Plattformen wieder ins Spiel. Dass Apple mit News als auch Facebook mit Instant Articles jetzt den Verlagen das Angebot machen, bei ihnen Unterschlupf zu finden, ist die Antwort auf die selbstverschuldete Miesere. Auf den Plattformen sind die Möglichkeiten der Verlage extrem eingeschränkt. Aber gerade das könnte sie retten, so wie schon iTunes die Musikindustrie vor dem trotzigen Freitod bewahrte. Nachrichten werden so wieder lesbar und die Plattformen ermöglichen den Verlagen dennoch ein Einkommen, indem sie sie an den Webeeinnahmen (Facebook) oder Einnahmen (Apple) beteiligt. Ob das klappt, steht noch nicht aus, aber die Chancen stehen nicht schlecht.

Wenn die Rechnung aufgeht, wäre dann wohl das Ende des Open Web, denn sonst bleibt nicht mehr viel übrig. Klar, Websites werden nicht von heute auf morgen abgestellt. Das Usenet gibt es ja auch immer noch. Aber wenn wir dann in 10 Jahren vom offnen Web erzählen, wird es so klingen wie heute, wenn die Nerds umdie 40 von ihren ersten Ausflügen in eine Mailboxen erzählen.

Ich persönlich habe für mich das Open Web bereits abgehakt. Es war eine gute Idee. So wie der Kommunismus eigentlich eine gute Idee war.

Aber es soll nicht um mich gehen. Was ich tue oder lasse hat eh keine Auswirkungen. Viel interessanter ist, dass es noch einen mächtigen Akteur gibt, der das Web nicht sterben lassen will: Google.

Google verdient nach wie vor einen Haufen Geld mit dem open Web und macht sich wahrscheinlich auch deswegen auf, das Web vor sich selbst zu retten. Zu diesem Zweck reißt das Unternehmen aggressiver denn je die Führungsrolle an sich. Wie man etwas regieren kann, dass eigentlich unregierbar ist, werde ich im nächsten Teil beschreiben.


Veröffentlicht unter Das Neue Spiel Plattformpolitik
17 Kommentare

Game of Things

/*******
9783837630466_216x1000Im Sommer fragte mich der großartige Christoph Engemann, ob ich nicht die schönsten Tage im Jahr damit zubringen wolle, einen ellenlangen Text für einen Reader zum Internet of Things zu verfassen. Da man zu Christoph Engemann nie nein sagt, habe ich natürlich zugesagt. Das Buch: „Internet der Dinge – Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt“ (Werbelink) ist jetzt raus und sehr empfehlenswert. Es finden sich unter anderem Texte von Mercedes Bunz, Linus Neumann und Sebastian Gießmann darin. Mein Text versucht anhand von „Game of Thrones“ die wirtschaftswissenschaftlichen Grundlagen des Internet of Things zu erklären. Und weil Linus das auch gemacht hat, stell ich hier auch mal meinen Text zur Verfügung. Quasi als Werbung für das Buch.
********/

Vorrede

Mit Friedrich Kittler hielt eine Neuerung innerhalb der Geisteswissenschaften Einzug, die wohl sein wichtigstes Vermächtnis bleibt: Das Interesse und die deutliche Einbeziehung von technischem Sachverstand in eine Disziplin, die bislang mit ihrer Technikferne und ihrer abstinenten und kritischen Haltung gegenüber technischen Neuerungen geradezu kokettierte. Dies war ein wichtiger Schritt, der die Medienwissenschaften in der Tiefe, wie sie heute praktiziert wird, erst ermöglichte. Natürlich würde heute niemand mehr abstreiten, dass technisches Design sowie die Möglichkeiten und Unmöglichkeiten der Apparatur in medientheoretischen Überlegungen mit einfließen müssen.

Mit dem kittlerschen Diktum hat sich die Medienwissenschaft aber auch in eine Sackgasse begeben. Die Anschauung des »Geräts« reicht lange nicht mehr aus, um die Entwicklungen der letzten 15 Jahre auch nur annähernd adäquat beschreiben zu können. Das Gerät wurde vernetzt und vor allem in dieser Vernetzung hat es seine ungeheuer weltverändernde Kraft entwickelt, der wir heute gegenüberstehen. Kulturelle Praktiken und soziale Zusammenhänge, historische Konstellationen und die Betrachtung technischer Artefakte allein können den heutigen Stand der Medien nicht mehr erfassen. Sie erklären nicht die Größe von Google oder den Erfolg von Facebook. Sie verstehen die Machtspiele des Silicon Valley nicht und sind nicht kompetent im Erklären der Machtstrukturen.
Diese Kompetenz wird stattdessen den Wirtschaftswissenschaften zugeschrieben und das mit einem gewissen Recht. Während sich die Medienwissenschaften dem Gerät zuwendeten, hatten die Wirtschaftswissenschaften zunehmend die Transaktion und die Distribution von Information zu ihrem Gegenstand. Zusätzlich zwangen sogenannte »Externe Effekte«, die Wirtschaftswissenschaft immer wieder sich von ihrem ureigensten Thema – dem Markt – zu lösen und die Mechanik von Vernetzungszusammenhängen zu verstehen. So sammelten sich nach und nach Theorien über die Mechanik von zirkulierenden Zeichen in komplexen sozialen Gefügen, die – so meine Überzeugung – auch außerhalb der Wirtschaftswissenschaften ihren Nutzen haben können.

Statt sich also nur im Kleinklein technischer Details zu verlieren und historische Zusammenhänge zu suchen, wo doch gerade Neues entsteht, sollten die Medienwissenschaften prüfen, wie Theorien um »Disruption«, »Netzwerkeffekte« und »Transaktionskosten« ihnen helfen können, die aktuellen Medienformationen zu deuten.

Doch auch die Wirtschaftswissenschaften alleine tragen nur bis zu einem gewissen Punkt. War der Computer noch mit Müh und Not (auch) als Medium zu begreifen, wird es beim kommenden Internet of Things noch enger. Wenn Dinge durch ihre Ausstattung mit Mikrochips anfangen »mediale Eigenschaften« zu implementieren, werden sie nicht zu Medien im klassischen Sinne. Sie sind weit mehr, als die menschlichen Sinnesorgane erweiternden Prothesen, wie McLuhan sie noch sah. Die vernetzten Dinge leihen ihre Sinnesorgane nicht mehr in erster Linie dem Menschen, sondern zunehmend einander. Die Dynamik des dabei entstehenden Netzes einander zuhörender, kommunizierender, regulierender und einander kontrollierender Dinge, ist auch für die anthropozentrische Wirtschaftswissenschaft kaum mehr zugänglich.

Es wird also einerseits Zeit, sich im Werkzeugkasten der Wirtschaftswissenschaften zu bedienen. Das geht auch, ohne alle ihre Prämissen zu signieren. Andererseits soll das nicht ohne Rückgriff auf aktuelle sozialwissenschaftliche und kulturwissenschaftliche Theorien geschehen. Zu zeigen, wie wunderbar sich diese ergänzen – dafür gibt die Debatte um das Internet of Things hier Anlass.

1. Das Spiel um die Netzwerkeffekte

»You know nothing, Jon Snow«, ist der Satz, den Ygritte dem »Bastard« und Mitglied der »Nights Watch« Jon Snow immer wieder zuruft. Wir befinden uns bei Game of Thrones (Buch: Song Of Ice and Fire), jener populären Buch- und später Fernsehserie, die ihre Fans in Atem hält. Game of Thrones spielt in einem leicht Fantasy-haften Parallelmittelalter. Game of Thrones ist nur oberflächlich gesehen eine Fantasy-Saga. In Wirklichkeit sind trotz Magie, Drachen und Riesen die Machtspiele und politischen Verstrickungen der Menschen die entscheidenden Treiber der Handlung.

Das Setting ist wie folgt: Die sieben Adelshäuser auf dem Kontinent Westeros befinden sich im fortwährenden Konflikt um den eisernen Thron. Dieser wird mal als Intrige, zeitweiser Koalition, Verrat oder offenem Krieg ausgetragen. Jede der Familien hat, für sich genommen aus rein subjektiver Perspektive, einen gewissen Anspruch auf den Thron – oder glaubt zumindest, einen zu haben. Die sich in vielen nebeneinander verlaufenden Strängen verwickelnde
Handlung bringt komplexe politische Situationen hervor, die regelmäßig in spektakulären Showdowns zu unerwarteten Wendungen führen.

Trotz des erratischen Settings ist diese Erzählung auch gerade deswegen so populär, weil sie mit gelernten narrativen Strukturen bricht. In dem Handlungsgeflecht voller Eitelkeit, Hinterlist und politischem Verrat fallen die Protagonisten sinnbildlich wie die Fliegen. Tragende Figuren, die über viele Episoden mühsam aufgebaut wurden, werden mit der Leichtigkeit eines Fingerstreichs aus der Handlung befördert. Gerade diejenigen, die sich mit ihrer Ritterlichkeit und Reinherzigkeit unsere Sympathien erspielen, sind auch diejenigen, die schnell in den Hinterhalt gelockt und getötet werden.
Jon Snow ist so einer dieser ritterlichen Charaktere. Als unehelicher Sohn des Hauses Stark hat er einen relativ unterprivilegierten Status und bewacht als Ritter der »Nights Watch« die nördliche Mauer aus Eis, die Westeros vor den Gefahren aus der vereisten Welt jenseits der Mauer beschützen soll. »You know nothing« kann also als Mahnung verstanden werden, als ein Verweis auf die Naivität desjenigen, der die Regeln des Spiels nicht versteht, das er spielen soll.

In einer ähnlichen Situation stehen wir heute. Das Spiel hat sich durch die Digitalisierung und das Internet radikal verändert. Geschäftsmodelle, Lebenskonzepte, politische und soziale Gewissheiten wirken immer seltener tragfähig. Es findet nicht nur eine Anpassung der einen oder anderen Spielregel statt, das gesamte Spiel ist ein anderes,1 und so führt die Interpretation aktueller Ereignisse unter den Prämissen des alten Spiels regelmäßig zu Missverständnissen.

Als Facebook 2012 Instagram für insgesamt eine Milliarde Dollar kaufte, waren selbst Silicon-Valley-Kenner geschockt. Eine solche Unternehmensbewertung für ein Unternehmen, das erst zwei Jahre alt war und nur 13 Mitarbeiter hatte, war ein Dammbruch. Natürlich wurde heiß über eine neue Technologie-Blase diskutiert, die sich vermeintlich aufgetan hätte.

Rückblickend aber erscheint die Milliarde für Instagram beinahe mickrig, seitdem Facebook nur wenige Monate später WhatsApp für insgesamt 19 Milliarden Dollar gekauft hat. WhatsApp war zum Zeitpunkt des Kaufs noch kleiner als Instagram und hatte noch weniger Mitarbeiter. Hinzu kommt, dass WhatsApp von seinem technologischen Ansatz her viel trivialer ist als ein richtiges Social Network wie Instagram.

Unter den herkömmlichen ökonomischen Prämissen ist so eine Investition kaum zu rechtfertigen. Was also hat den als wirtschaftlich kühl agierend bekannten Facebook-CEO Mark Zuckerberg dazu getrieben, in kürzester Zeit so viel Geld für zwei vergleichsweise junge und kleine Start-Ups auszugeben? Es war viel davon die Rede, dass es Facebook vermutlich um die Daten gehe und es wurde ausgerechnet, was das Unternehmen faktisch pro User auf den Tisch gelegt hatte. Andere vermuteten eine selten kostbare Belegschaft, die sie sich einverleiben wollten.

»You know nothing« würde Ygritte ihnen zurufen. Sie wissen nicht, wie das Spiel funktioniert, sie verstehen nicht, was auf dem Spiel steht. Mark Zuckerberg aber weiß es: es geht nur um die Netzwerkeffekte. Sie sind schlussendlich einer der Gründe, warum Facebook so erfolgreich ist und eben diese Netzwerkeffekte, sind auch der Grund, warum Zuckerberg trotzdem nicht gut schlafen kann.

Netzwerkeffekte sind so genannte positive Rückkopplungen, die auf das Wachstum eines Netzwerkes wirken. Der allererste Telefonnutzer hatte nicht viel Freude an seinem Gerät. Ein Telefon stiftet erst Nutzen, wenn es mit anderen Telefonen verbunden wird. Dieser Nutzen steigt mit jedem einzelnen Teilnehmer, der an das Netzwerk angeschlossen wird. 2

Die Netzwerkeffekte gelten selbstverständlich auch für alle andere Arten von interaktiven Kommunikationssystemen: für Faxmaschinen, Telefonsysteme oder Netzwerkprotokolle, aber auch für solche Dinge wie Standards in der Computertechnologie. Überall dort, wo unterschiedliche Teilnehmer interagieren und dies auf einer standardisierten Grundlage tun, kommen die Netzwerkeffekte zum Tragen. Das Neue an der Situation von Facebook und anderen Plattformen sind also gar nicht die Netzwerkeffekte. Die Netzwerkeffekte kommen nur heute stärker zum Tragen, denn etwas hatte sie bis jetzt gefesselt. Neben den positiven Rückkopplungen, die alle Tendenzen immer nur verstärken, gibt es auch solche, die alle Tendenzen immer schwächen. Eine solche negative Rückkopplung sind die Kosten, die Vernetzung produziert. Mit Kosten sind nicht nur Kosten gemeint, die tatsächlich Geld kosten, sondern es meint alle Kosten: jeden zusätzlichen Aufwand, jede extra Anstrengung, jede zusätzliche Zeit, aber vor allem auch jede zusätzliche Unsicherheit, die ich in Kauf nehmen muss, um z.B. zu kommunizieren.3 Diese Kosten zur Kommunikation sind es, die die Netzwerkeffekte in ihrem Wirken bislang immer gebremst haben. Und diese Kosten brechen durch das Internet und die Digitalisierung in einem größeren Maßstab weg.

Der erste Kommunikationskostenfaktor der wegfiel, waren die Kosten für die Überwindung von Entfernung. Noch bei Telefonbedingungen spielte Entfernung eine große Rolle. Unterschiedliche regionale, später nationale Telefonnetze mussten überbrückt werden und die Telefongesellschaften ließen sich diese Überbrückung gut bezahlen. Vollkommen unterschiedliche und intransparente Tarife für Orts-, Landes- oder internationale Gespräche waren die Folge. Erst im Internet sind Entfernungen nur noch eine Frage von Latenz und unterschiedlichen Zeitzonen. Die Kosten von Kommunikation von einem Internetknoten zum anderen sind fast überall gleich und quasi bei null. Solange die Kosten für Fernkommunikation noch an die Entfernungen gekoppelt waren, bedeutete das, dass mit zunehmender Vernetzung zwar der Nutzen des Netzwerkes für die Teilnehmer stieg, aber dass dieser Nutzen durch die steigenden Kommunikationskosten mit zunehmender Entfernung wieder neutralisiert wurde.

Ein zweiter Kommunikationskostenfaktor ist der der sozialen Komplexität. Bei der Einführung der kommerziellen Telefonie um 1848 in den USA wurden alle Telefone noch zu sogenannten Party Lines zusammengeschlossen.4 Wenn man den Telefonhörer abnahm, war man mit allen Teilnehmern des Telefonnetzes gleichzeitig verbunden. Ein grandioses Chaos, das zu vielen interessanten sozialen Situationen führte, aber die Nutzer auch schnell überforderte. Erst als die Schalttafeln für Einzelverbindungen der Teilnehmer untereinander 1878 Einzug hielten, wurde diese Komplexität wieder auf ein handhabbares Maß reduziert.

Das Internet durchlief in seiner Entwicklung vom Entstehen hin zu seiner jetzigen Form eine ähnliche Entwicklung: Zunächst waren Chatrooms und Foren im Web der Ort, an dem sich Menschen austauschten. Genau wie die Partylines in der Frühzeit des Telefons spricht der Nutzer dort in einen Raum hinein und alle, die sich zu diesem Zeitpunkt virtuell in diesem Raum befinden, können mitlesen, antworten und so mit dem ursprünglichen Sender in Kontakt kommen – egal, ob dies ursprünglich von diesem antizipiert worden war oder nicht. Zwar gab es mit Angeboten wie EMail auch bereits eins-zu-eins Kommunikation, die innerhalb kürzester Entwicklungszeit mit Instant Messengern ergänzt wurden, aber nichts davon war wirklich neu: Die bidirektionale Kommunikation kennen wir bereits aus der analogen Welt, genauso wie die Kommunikation mit einer Masse von Menschen. Erstere ist denkbar einfach, letztere erreicht schnell ihren Grenznutzen, je mehr Leute am Gewimmel teilnehmen. Wer schon mal in einem Meeting mit mehr als drei Leuten saß, kennt dieses Scheitern an der Komplexität.

Doch die eigentliche Komplexitätsrevolution kam erst mit dem sogenannten Social Web. Mithilfe von gut skalierbaren relationalen Datenbanken können komplexe soziale Verhältnisse abgebildet werden.5 Relationale Datenbanken speichern Daten in voneinander unabhängigen Tabellen. Zusätzlich kann man die Beziehung der Datensätze untereinander in sogenannten Verknüpfungstabellen speichern. Erst mit der Abfrage der Datenbank – die bei relationalen Datenbanken in einer speziellen Abfragesprache (SQL) verfasst wird – können die komplexen Verknüpfungen dann mit aufgerufen werden. Die Freundschaften bei Facebook zum Beispiel oder die Abonnements bei Twitter sind eigentlich nichts anderes, als eine solche Verknüpfungstabelle, die die eigentlichen Profildaten miteinander verknüpfen. Das soziale Netzwerk ist also ein rein virtuelles Netzwerk, gespeichert in den Tiefen der Datenbanktabellen auf den Servern einer zentralen Recheneinheit. Neben dem »Raum«, in dem alle gemeinsam sprechen, und der einfachen bidirektionalen Konversation gibt es nun den Graphen, ein komplexes Geflecht aus den selbstgewählten Beziehungen, die man in einem sozialen Netzwerk knüpfen kann.

Diese beiden Entwicklungen, die die Kommunikationskosten kollabieren ließen, entfesselten die Netzwerkeffekte. Das ist der Grund, weshalb Internetplattformen ein so scheinbar unbegrenztes Wachstum feiern. Je größer sie werden, desto größer wird die Attraktion und der soziale Druck, sich ihnen anzuschließen. Man kann deswegen die Netzwerkeffekte als »soziale Gravitation« bezeichnen. Und diese Metapher trägt weiter als man denkt.

Als 2006 eine eigens dafür einberufene Kommission den Begriff »Planet« neu fasste, fiel Pluto durch das Raster. Pluto, jahrzehntelang das kleine, abseitige Nesthäkchen in unserem Sonnensystem, wurde von heute auf morgen der Planetenstatus entzogen. Der entscheidende Satz dazu in der neuen Planetendefinition lautet: »[Ein Planet ist ein Objekt, das] das dominierende Objekt seiner Umlaufbahn ist, das heißt, diese über die Zeit durch sein Gravitationsfeld von weiteren Objekten ›geräumt‹ hat.«6 Pluto wurde der Planetenstatus aberkannt, weil sich in seiner Umlaufbahn teilweise größere Gesteinsbrocken als er selbst finden. Pluto hatte im Gegensatz zu Facebook seine Umlaufbahn nicht geräumt, sein Gravitationsfeld wirkte nicht stark genug.

Und damit sind wir wieder bei Facebook. Wenn Mark Zuckerberg eskalierende Milliardensummen für Start-Ups ausgibt, dann tut er dies, um seine Umlaufbahn frei zu räumen. Facebook räumte seine Umlaufbahn frei, als es Myspace aus dem Orbit rammte. Facebook räumt seine Umlaufbahn frei, als es sich Instagram und WhatsApp einfach einverleibte. Alles, was eine hinreichend direkte Konkurrenz zu Facebooks Funktionalität bildet und eine rasant wachsende Nutzerbasis hat, kann Facebook im Handumdrehen brandgefährlich werden.

Und Facebook ist nicht alleine. Auch andere große digital agierende Unternehmen gehen diesen Weg, um ihre Marktmacht zu sichern: Ebay räumt seine Umlaufbahn von anderen Auktionsplattformen, Amazon von anderen Onlineversandhäusern etc. Die von Kommunikationskosten befreiten Netzwerkeffekte sind das eigentliche Spiel um den Thron im Internet. Es sind viele Königshäuser da draußen, die ihre Umlaufbahnen freihalten, sie gelegentlich verlassen und kollidieren. Je länger dieses Spiel geht, desto klarer wird, dass es dem Game of Thrones ähnelt: The winner takes it all.

2. An den Grenzen der Menschheit

»When you play the Game of Thrones, you either win or die, there is no middleground« heißt es bei Game of Thrones. Wir befinden uns mitten im Spiel um den eisernen Thron. Einige Königshäuser haben bereits beträchtliche Macht akkumuliert, immer wieder kommt es zu Konflikten, Kollisionen und Machtspielen. Und alle kämpfen nicht nur um den Thron, sondern auch um ihr Überleben.

Facebook hat ein Problem. Es kann nicht mehr weiter wachsen, denn es ist an die Stratosphäre der Menschheit gelangt. Hier oben ist die Luft dünn. Etwa die Hälfte der ans Internet angeschlossenen Menschheit hat bereits ein Facebook- Konto. Die andere Hälfte ist für Mark Zuckerberg nur sehr schwer zu bekommen. Es ist unwahrscheinlich, dass diese Menschen von Facebook noch nichts gehört haben und so muss es andere Gründe haben, warum sie den Dienst nicht nutzen. Entweder haben sie sich bereits bewusst gegen Facebook entschlossen oder aber sie können Facebook nicht nutzen, weil sie zum Beispiel in Ländern wohnen, wo der Dienst geblockt wird. Da dazu neben China auch viele andere sehr bevölkerungsstarke Länder gehören, sind das sehr viele Menschen.

Diese Grenze sieht man bereits im Wachstum. Zwar wächst Facebook immer noch, aber immer langsamer. Der Wachstumsgraph wird zur Asymptote, er nähert sich langsam aber sicher einem Null-Wachstum an. Die positiven Netzwerkeffekte versiegen langsam aber sicher an den Grenzen der Menschheit. In den entwickelten Ländern fallen bereits die Nutzer-Zahlen und die Nutzungsdauer stetig. Nur die Wachstumsmärkte halten den Wachstumstrend aufrecht.7 Eine Studie der Princeton Universität sieht Facebook bereits 2017 auf dem Schrumpfungskurs.8

Das ist gefährlich, denn die positive Rückkopplung, die die Netzwerkeffekte ja bewirken sollen, besagt eben nicht nur, dass ein Dienst, der im Wachstum begriffen ist, dadurch attraktiver wird. Positive Rückkopplung bedeutet auch, dass ein Dienst, der schrumpft, immer unattraktiver wird. Wenn immer weniger Menschen, mit denen ich interagiere, den Dienst nutzen, sinkt auch der Nutzen, den der Dienst mir stiftet. Die positive Rückkopplung hat auch einen Rückwärtsgang. Würde das geschehen, würde Facebook in eine sich selbst beschleunigende Schrumpfungsspirale geraten. Es würde den Berg rückwärts hinunterrollen, den es erklommen hat.

Henry Ford hatte nach dem ersten Weltkrieg ein ähnliches Problem. Er war zu erfolgreich. Mithilfe des Fließbandes, strenger Arbeitsteilung und innovativer Managementtechnik hatte er seine Konkurrenz deklassiert. Er konnte schneller, besser und billiger Autos produzieren als alle anderen. Ähnlich wie Zuckerberg ist auch Ford ein Getriebener der positiven Rückkopplung. Der sogenannte Skaleneffekt besagt, dass mit steigender Produktionsstückzahl die Grenzkosten pro produziertem Stück sinken. Mit anderen Worten: Je mehr man produziert, desto billiger kann man produzieren und damit auch verkaufen – was in der Theorie die Nachfrage verstärkt, weswegen man mehr produzieren kann.
Ford-Autos waren sehr populär und beinahe jede Familie, die es sich leisten konnte, hatte sich bereits eines gekauft. Und das war das Problem: Die vorhandene Nachfrage war erfüllt und der Markt in seiner Form gesättigt. Das Wachstum stagnierte und Ford suchte nach neuen Möglichkeiten, dieser Stagnation entgegenzuwirken, die Nachfrage wieder anzukurbeln und in der Folge wieder mehr Autos zu verkaufen. Im Zuge dieser umsatzgetriebenen Problemstellung kam dem Unternehmer die wesentliche Idee, die den Begriff des »Fordismus« erst allgemein etablieren sollte. Er zahlte seinen Arbeiter einfach Lohnzuschüsse und gab ihnen das Wochenende frei – Konzessionen, die rein betriebswirtschaftlich unsinnig waren, kosteten sie ihn doch einfach Geld. Die Kalkulation war aber eine andere: Mit dem extra Geld und den freien Wochenenden hatten die Arbeiter einen Anreiz, selbst einen Ford zu kaufen. Ford produzierte also neben Autos auch gleichzeitig seine Kunden mit.

Facebook und Google müssen sich an Henry Ford ein Beispiel nehmen und jetzt, wo der bestehende Markt gesättigt ist und die Nutzerstruktur längst nicht mehr in der Form anwächst, wie es die Unternehmen aus ihren Anfangsjahren gewöhnt sind, neue Nutzer »produzieren«. Praktisch bedeutet das, dass die Konzerne seit einiger Zeit daran arbeiten, das Gesamtvolumen des digitalen Marktes auszubauen. Facebook tut das zum Beispiel mit seinem Projekt Internet.org. Die Domainendung .ORG wird häufig von gemeinnützigen Organisationen wie NGOs benutzt. Internet.org tritt entsprechend als gemeinnützige Aktion auf und verspricht, strukturschwache Regionen an das Internet anzuschließen. Facebook hat dafür mehr als einen Weg vorgesehen, aber die spektakulärste Variante ist wohl, dass Facebook gedenkt Satelliten ins All zu schicken und mit segelfliegenden autonomen Drohnen W-Lan-Zugang anzubieten. Derzeit wird aber die größte Masse an Menschen dadurch erreicht, dass man in Zusammenarbeit mit lokalen Providern Internetzugänge subventioniert. Bereits seit langem konnte man in vielen Ländern der Welt unter der Domain 0.facebook.com Facebook aufrufen, ohne dass dafür Daten abgerechnet wurden. Diese Zusammenarbeit wird unter dem Banner der guten Sache ausgedehnt. Netzaktivisten sehen darin eine Verletzung der Netzneutralität. Spezielle Dienste wie Facebook aus den Bezahltarifen herauszunehmen, kommt einer Bevorzugung gleich. Facebook zementiert damit seine Vormachtstellung gegenüber allen anderen Netzdiensten und macht so jeden Wettbewerb zunichte.

Für Google ist so ein Vorgehen nichts wesentlich Neues. Das Motto ›Was gut für das Wachstum des Netzes ist, ist gut für uns‹ war schon ein wesentlicher Baustein von Googles Wachstumsstrategie. Schon immer bot der Konzern mit dieser Begründung Tools und Dienste kostenlos und sogar werbefrei an, nur um mehr Menschen ins Internet zu ziehen – potentielle Kunden. Auch Infrastrukturmaßnahmen stehen dabei vermehrt auf dem Programm. In der westlichen Hemisphäre versucht der Konzern mit Google Fiber Highspeed-Internet einzuführen, das den Namen verdient. In Pilotprojekten wurden Haushalte mit echter Glasfaser mit Gigabit-Anschlüssen versorgt. Zum Vergleich: Die Telekom bietet im Highprice-Segment derzeit höchstens 100 Megabit an. Ein Zehntel.

Aber auch in den strukturschwachen Regionen engagiert sich Google. Mit dem Project Loon will der Konzern Heliumballons in die Stratosphäre schicken, so hoch, dass sie aus den wetterbedingten Unkalkulierbarkeiten entfliehen und dennoch genug Auftrieb haben. Diese fliegenden Sendestationen auf halbem Weg ins All können auch große Regionen mit W-Lan oder Mobilfunk versorgen.

Die Strukturschwache Region in Game of Thrones liegt jenseits der »Wall« und wird immer nur als »the north« bezeichnet. Die »Wall« ist eine viele hundert Meter hohe Mauer aus Eis, die den gesamten Kontinent Westeros von dem Territorium im Norden abschneidet. Hier tut Jon Snow seinen Dienst, verteidigt Westeros gegen die sogenannten »Wildlinge«. Es sind »wilde« in Horden lebende Menschen, zurückgelassen jenseits der Zivilisation im ewigen Eis. Sie versuchen immer wieder, die Mauer zu überwinden und brandschatzen, plündern und morden, wenn sie es schaffen.

»You know nothing, Jon Snow« bezieht sich auch auf die Unwissenheit und den Vorurteilen gegenüber den »Wildlings«, zu denen eben auch Ygritte gehört. Jon überwindet seine Vorurteile und versucht schließlich, einen Pakt mit den Wildlings zu schließen. Er geht diesen schwierigen Schritt, denn er braucht ihre kämpferische Stärke, so wie Google und Facebook die vielen neuen Internetnutzer aus den strukturschwachen Gegenden brauchen.

3. Die Macht des Unbelebten

Jon Snow braucht die Wildlings, um die die Armee der »White Walkers« aufzuhalten. Diese Armee – bestehend aus bereits gestorbenen und zombiefiziert wieder auferstandenen Menschen – marschiert vom Norden auf die »Wall« zu. Während die mächtigen Königshäuser sich gegenseitig in Westeros bekämpfen, sind es die White Walkers, die in überwältigender Anzahl den gesamten Kontinent bedrohen. Und Ygrittes immer dringendere Ermahnung bezog sich eben auch auf diese Armee, die für Snow und seine Mitmenschen unsichtbare Gefahr aus dem Norden, die den Wildlings bereits seit langem ausgeliefert sind. »You know nothing, Jon Snow!«

Das Spiel um die Netzwerkeffekte wird in der Wirtschaftswissenschaft meist anthropozentrisch gedacht. Egal ob Telefon, Computer oder Facebook, am Ende sind es immer Menschen, die aus dem Netzwerk einen Nutzen ziehen und am Ende sind es auch immer wir Menschen, die diesen Nutzen stiften. Wer denn auch sonst? »You know nothing, Jon Snow!«

In den Sozialwissenschaften und bestimmten Richtungen der Philosophie hat sich eine solche Sichtweise längst überholt. Die Wichtigkeit von nichtmenschlichen Akteuren wird von modernen soziologischen Theorien wie der Akteur-Netzwerk-Theorie von Bruno Latour radikal einbezogen. Die Idee der ANT ist, dass soziale Situationen nicht mehr anhand von Metakonzepten wie Gruppen, Gesellschaft oder Systemen beschrieben werden sollten, sondern von den viel konkreteren Bindungen eines Netzwerkes. Dabei werden Hierarchien und Entfernungen ebenso nivelliert wie der Unterschied zwischen Makro- und Mikro-Ebene. Übrig bleiben nur die zu einem Netzwerk verwobenen Akteure. Bruno Latour erkannte früh, dass diese Akteure eben nicht nur Handelnde im klassischen Sinne sein können, sondern dass Texte, Messapparate, Graphen, Formeln und andere Artefakte einen ebenso wichtigen Einfluss auf eine Akteurskonstellation ausüben können wie Menschen. Je nach analytischer Situation lassen sich so Akteure identifizieren, die Diskurse und Erkenntnisse produzieren und sich gegenseitig Handlungsmacht (Agency) übertragen. Latour will seinen Netzwerkbegriff allerdings nicht mit technischen Netzwerkbegriffen verwechselt sehen. Und doch kann er nicht anders, als auch technische Netzwerke als Akteurs-Netzwerke zu verstehen, nur eben als verstetigte, statische Varianten.9

2012 legte Ian Bogost einen Vorschlag für eine universelle Phänomenologie der Dinge vor. In seinem Buch Alien Phenomenology, or What It’s Like to Be a Thing10 geht er über Latour hinaus, indem er den Dingen nicht nur Handlungsmacht, sondern auch Perzeptionsvermögen zuspricht. In seiner auf Graham Harmans objektorientierten Ontologie auf bauenden Phänomenologie11 entwirft er den Blick des Dings auf die Dinge, einen Blick, der vom menschlichen Blick völlig verschieden ist. Anspielend auf die bekannte philosophische Spekulation von Thomas Nagel: What It’s Like to Be a Bat von 1974 versucht er, mithilfe von Metaphorik einer Vorstellung davon nahezukommen, wie Dinge die Welt wahrnehmen.12 Sein Bezug auf technologische und gar digitale Artefakte ist weitaus stärker ausgeprägt als bei Latour. So untersucht Bogost unter anderem die Wahrnehmung von Computerspielen und des Video-Interfaces des Atari-Computers.

Auch wenn Netzwerkeffekte weder bei Latour noch bei Bogost eine Rolle spielen, so lässt sich doch die Grundannahme von rezipierenden und agierenden Netzwerkteilnehmern auf sie übertragen. Genau genommen war die Annahme, dass Netzwerkeffekte nur durch Menschen verursacht und abgeschöpft werden, schon immer abwegig. Menschen kommen ins Netz, um dort die Dienste und Werkzeuge zu nutzen. Am besten lässt sich das anhand von Apples AppStore zeigen. Ökonomen sprechen hier von einem zweiseitigen Markt, getrieben von wechselseitigen Netzwerkeffekten. Sie sehen auf der einen Seite eine große Masse von kaufbereiten Menschen, die gerne Apps nutzen wollen. Auf der anderen Seite sehen sie die programmiermächtigen Entwickler, die deren Bedürfnisse erfüllen wollen. Beide Seiten, so die Ökonomie, profitieren von dem Wachstum der jeweils anderen Seite.

Doch sind es wirklich in erster Linie die Nutzer und Entwickler, die sich hier gegenüberstehen? Sind es nicht vielmehr deren Artefakte – die Apps –, die den Nutzen stiften? Ist die Anzahl der Entwickler nicht völlig egal für den Nutzen, den diese Artefakte stiften? Wenn all die Millionen Apps von nur wenigen, oder gar nur einem einzelnen Entwickler entwickelt worden wären, würde das irgendeinen Unterschied für die Netzwerkeffekte machen? Und sind es nicht auch die verbauten Sensoren, die von der sie benutzenden App-Vielfalt profitieren? Wie sehen die wechselseitigen Netzwerkeffekte von Hardware- und Software-Features bei Smartphones aus? Wie die zwischen den Plattformen iOS (mobile Geräte) und denen von OSX (Desktop Betriebssystem)?
Weiter gedacht: Wieso soll der Markt nur zwei Seiten haben? Sind es denn nicht auch die vielen Newsangebote, speziellen Blogs, Podcasts und Nutzer-Foren zu Geräten mit Apples iOS, die das Betriebssystem attraktiver machen und somit auch den Nutzen einer Plattform erhöhen? Sind es nicht die vielen Zusatzgeräte, spezialisiert auf deren Schnittstellen, die ebenfalls ihren Teil hinzufügen? Ist ein Betriebssystem nicht weniger ein zweiseitiger Markt als vielmehr ein komplexes, weit verzweigtes Ökosystem? Ein Ökosystem der Dinge?
Ausgestattet mit all diesem theoretischen Rüstzeug stehen wir nun an der nächsten Zündstufe der digitalen Evolution: dem Internet of Things. Das Internet der Dinge (oder auch Ubiquitus Computing) ist ein Sammelbegriff für die Tatsache, dass wir nach und nach anfangen, alle möglichen Dinge mit Mikrochips und Sensoren auszustatten, und diese mit einer Anbindung an lokale Netzwerke oder eben dem Internet versehen. Die Dinge werden ihrer Umwelt gewahr und beginnen miteinander zu kommunizieren.

Dabei deckt der Begriff Internet of Things (IoT) bereits sehr viele unterschiedliche Entwicklungen ab: Smart Homes bezeichnet die fortschreitende Entwicklung, Haushaltsgeräte mit intelligenten Chips auszustatten, damit sie fernsteuerbar werden und auf ihre jeweilige Situation halbautomatisch reagieren. Intelligente Stromzähler, Mediacenter und mit dem Handy bedienbare Türschlösser gehören dazu. Wearables sind dagegen intelligente Accessoires, die man am Körper trägt. FitBit-Armbänder, die die Schritte zählen, SmartWatches, die den Puls und andere Körperdaten messen und eine Ergänzung zum Smartphone sein sollen. In der Industrie 4.0 interagieren mit Intelligenz ausgestattete Maschinen miteinander und organisieren dynamische Produktionsprozesse. Dadurch sollen Kosten gespart, die Produktion agiler gemacht und dadurch mehr Individualisierung für die Kunden geboten werden. Bei den Smart Cities geht es darum, den städtischen Raum mit Sensoren auszustatten. Der Mülleimer, der weiß, wann er voll ist, die Ampelanlage, die auf ihre Umwelt reagiert. Demnächst werden autonome Flug-Drohnen und selbstfahrende Autos auf den Markt kommen – auch sie sind Teil des IoT.

Der Treiber hinter dem IoT sind die immer kleiner und billiger werdenden Computerchips. Ein Trend, der im Sinne von Moores Law weiterhin anhalten wird. Das Internet of Things ist daher ein Begriff für eine Übergangszeit. Dass jedes Ding auch ein Computer sein wird, der mit Sensoren und Intelligenz ausgestattet ist, das wird in zehn Jahren so selbstverständlich sein, dass es dafür dann keinen Begriff mehr braucht.

Als Henry Ford damals begann, seine eigene Nachfrage zu produzieren, indem er seine eigenen Arbeitnehmer zu Kunden machte, musste er noch auf Menschen als Akteure zurückgreifen. Apple, Google und vielleicht bald auch Facebook werden bald nicht mehr auf Menschen angewiesen sein, wenn es darum geht, die Netzwerkeffekte am Laufen zu halten. Der Kampf wird nicht mehr um die Vormachtstellung bei menschlichen Akteuren gehen, sondern um die Frage, wer die Armee der Leblosen befehligt, die viel, viel größer sein wird als die kleine Gruppe von Menschen und ihren Geräten, die das heutige Internet ausmachen.

4. Das Babel der Dinge

Wir sind bei der Entwicklung des Internets der Dinge derzeit noch in der Phase, in der das Web Mitte der 1990er Jahre war. Es gibt nur wenige sinnvolle Anwendungszwecke und eine Plattform wie Facebook ist noch nicht vorstellbar. Es wird viel experimentiert und der Markt ist noch nicht groß, aber die Potentiale sind riesig. Der Netzwerkausstatter CISCO errechnete, dass bis 2020 etwa 75 Milliarden Sensoren ans Internet angeschlossen sein werden.13 IBM geht für das Jahr 2030 sogar von circa 100 Trillionen aus.

Wenn das Internet der Menschen der Gravitation des Sonnensystems entspricht, wird das Internet der Dinge eher einer Galaxie gleichen. Die Netzwerkeffekte werden um das schwarze Loch im Zentrum kreisen, das alles in sich hineinzieht und seine Gravitation damit nur noch weiter steigert.

Für die Netzwerkeffekte kommt es weniger darauf an, ob Akteure menschlich oder nichtmenschlich sind, sondern ob sie miteinander interagieren können. Um das zu gewährleisten, müssen sie eine gemeinsame Sprache sprechen. Facebook war Mitte der 1990er Jahre noch nicht denkbar. Es gab zwar eine gemeinsame Plattform – das Web – aber dieses war so generisch, dass es zunächst viele miteinander inkompatible Systeme (Websites) schuf. Aber so wie Facebooknutzer nur kommunizieren können, weil sie eine einheitliche Infrastruktur dafür zur Verfügung haben, werden auch die Dinge als Ganzes nur interagieren können, wenn sie eine gemeinsame Plattform haben.

Plattformen können verstanden werden als homogene Schnittstellen, die als Infrastruktur allerlei Interaktionsmöglichkeiten unter den Teilnehmer eines Netzwerkes ermöglichen. Sie sind die Bedingung der Möglichkeit von Vernetzung und deswegen selbst oft unsichtbar. Aber gerade dort, wo die Vernetzung im Entstehen ist, es also noch keine solche allgemeine Plattform gibt, wird das Spiel um die Definitionsmacht der Vernetzung gespielt. Das Game of Things ist der Kampf um die Sprache der Dinge. Wer die Schnittstellen kontrolliert, wird die Netzwerkeffekte ernten.

Die derzeitig wichtigsten Anwärter in diesem Spiel sind Apple und Google. Google verfolgt einen Cloud-zentrierten Ansatz. Sein Handy-Betriebssystem Android ist jetzt schon in vielen Dingen verbaut: Autos, Fernseher, Kühlschränke. Sie alle sollen über das Internet mit Googles zentralen Servern reden, wo die Daten zusammengeführt werden und die Geräte zentral einsehbar und steuerbar sind. Der Nutzer greift mit einer Smartphone-App darauf zu. Auch bei Apple wird das Smartphone die Schaltzentrale des Internet of Things sein. Im Gegensatz zu der Lösung, die Google auf seiner Entwicklerkonferenz I/O vorgestellt hat,14 sollen die Daten bei Apple aber nicht über zentrale Server zusammenkommen, sondern die Geräte sollen sich untereinander direkt austauschen. Das Thermostat spricht mit der Heizung, beide sprechen wiederum mit dem Smartphone, und vielleicht synchronisieren sie sich noch mit dem Homeserver.

Man wird sich also für Apples Lösung entscheiden können – die durch den Verzicht auf einen zentralen Server etwas schonender für die Privatsphäre ausfällt, aber dafür beschränkter im Funktionsumfang ist – oder für Googles Ansatz – der über die Auswertung des Gesamtnutzerverhaltens wahrscheinlich hilfreiche Tipps, aber auch lästige Werbung generieren kann.

Neben den beiden Großen gibt es bei dem Game of Things noch viele weitere Anwärter. Von vielen haben wir wahrscheinlich noch nicht einmal gehört. Derzeit findet die meiste Entwicklung von IoT-Geräten im kleinen Rahmen von Crowdfundingplattformen wie Kickstarter und Indiegogo statt. Kleine Start-ups oder Privatpersonen stellen ihre Vision eines vernetzten Haushaltsgegenstandes vor und lassen sich die Entwicklung von Enthusiasten vorfinanzieren. Dabei kommen mal mehr mal weniger nützliche Gegenstände heraus. Hinzu kommen die vielen Bastler und Tüftler, die mithilfe von günstigen Chipsätzen wie Arduino oder Raspberry Pi selbstgebaute Home-Automation-Projekte durchführen, sich in Blogs und Foren über die besten Setups austauschen und die Steuerungssoftware Open Source stellen. Etwas größere Anbieter wie Smartthings gehen einen Schritt weiter und bieten ganze Sets von Sensoren, Kameras und zum Beispiel Lampensteuerung und Heizungsregulierern an, die sich über eine zentrale Schaltstelle steuern lassen. Natürlich wollen auch die großen, etablierten Hersteller wie Siemens, Miele und Grundig den Trend nicht verschlafen und bieten vernetzte Kühlschränke, Waschmaschinen, Fernseher und sogar Rasierapparate an.

Und all diese Ansätze, Konzepte und Projekte agieren oft mit dem heimischen W-Lan oder per Bluetooth, und meist sind die dabei entwickelten Protokolle spezialisierte Entwicklungen, inkompatibel mit dem Rest. Sie sprechen Privatsprachen, einen ganzen Zoo an spezialisierten, proprietären Eigenentwicklungen, das Babel der Dinge. Deswegen können sie nur das, was sie können sollen. Doch der eigentliche Wert liegt in der Vernetzung all der Geräte und der muss noch gehoben werden.

Die Netzwerkeffekte besagen, dass die Heizung besser funktioniert, wenn sie mit dem Thermostat spricht und weiß, ob das Fenster offen ist. Die Netzwerkeffekte gebieten, dass das Kraftwerk besser funktioniert, wenn es mit allen Thermostaten auf Du ist und Sensoren entlang der Stromtrassen hat. Das Kraftwerk will über die Lieferketten seines Treibstoffs bescheid wissen, genauso wie der Techniker, der das Stromnetz kontrolliert. Das Stromnetz braucht Informationen darüber wie der Verkehr in der Innenstadt fließt, die Autoindustrie ebenfalls, um ihre Produktionsstraßen anzupassen. Die Solarzelle will mit den Wetterstationen sprechen, die Wetterstation mit der Klimaanlage, die Klimaanlage mit dem Türschloss, das Türschloss mit dem Auto, das Auto mit allen anderen Autos und der Straßenverkehrsleitstelle. Der Kühlschrank braucht eine Idee davon, was in ihm steht und alle, alle, alle wollen mit der Smartwatch reden – vor allem, sobald das Garagentor aufgeht. Die Netzwerkeffekte werden eine ungeahnte Traktion erfahren, denn am Ende muss alles mit allem interoperabel sein.

Am Ende muss eine Sprache all die Dinge sinnvoll verbinden. Apple, Google und die vielen anderen Adelshäuser werden alles dafür tun, diejenigen zu sein, die diese Sprache vorgeben. Es ist dann am Ende egal, wer die Geräte herstellt und verkauft. Das Facebook of Things zu sein, das ist der Eiserne Thron der Dinge.
Doch es gibt eine Alternative. Es muss kein einzelnes Unternehmen sein, dass die Protokollebene kontrolliert. Das Internet selbst wird von keiner zentralen Instanz kontrolliert und doch bietet es die Grundlage der meisten Kommunikation, die wir in der digitalen Welt tun. Das Netz der Netze steht auch bereit, Grundlage für das IoT sein zu können. Heute schon enthält es den Kern für ein allgemeines Protokoll der Dinge, dezentral organisiert, weltweit erreichbar, offen für alle, die auf dieser Grundlage entwickeln wollen.
Dass das Internet mehr Adressen braucht, als die ursprünglichen im Protokollstandard vorgesehenen, wussten die Netzingenieure bereits seit 1998. Damals haben sie schon einen neuen Internetstandard verabschiedet. Das dem Internet zugrundeliegende Netzwerk-Protokoll »IP«, also »Internet Protokoll« ist dafür zuständig, dass die Daten von A ihren Weg nach B finden. Die dafür vorgesehene Adressierung nennt man deswegen IP-Adressen. Sie sind diese in vier voneinander mit Punkten getrennten Nummernblöcke, etwa 233.154.98.67. Jede der durch einen Punkt getrennten Stellen entspricht ein Byte (8 Bit). Mit einem Byte lassen sich 256 Zustände darstellen, weswegen jede der Stellen eine Zahl zwischen 0 und 255 annehmen kann. Das ergibt also etwas über vier Milliarden mögliche IP Adressen, die zu verteilen sind. Jedes Gerät, das im Internet kommunizieren will, braucht eine solche Adresse, und diese Adressen werden knapp. Eigentlich gibt es kaum noch freie. Natürlich sind viele unbenutzt. In der Frühphase wurden sie zu großzügig vergeben. Apple beispielsweise besitzt alleine ein Class-A Netz, also ein Netz, dessen erste Stelle fix ist und alle anderen frei definieren kann, was immerhin 16,7 Millionen IP-Adressen entspricht.

Doch Rettung naht. Das bisherige Internet Protokoll (Version 4) soll durch ein neues ersetzt werden (Version 6). Technisch ist es beinahe auf allen Geräten bislang vorinstalliert. Alleine die Internetprovider zieren sich noch bei der Umstellung. IPv6 hat eine 128 Bit-Adressierung, im Gegensatz zur 32 Bit- Adressierung von IPv4. Das erhöht die Möglichkeiten dramatisch. 340 Sextillionen IP-Adressen werden damit möglich. Eine Sextillionen ist eine 1 gefolgt von 36 Nullen. Damit könnte jedem Sandkorn auf der Erde eine IP-Adresse zugewiesen werden. Wir können aber derzeit auch nicht ausschließen, dass Sandkörner nicht dereinst beim Internet of Things eingemeindet werden.
Für das Internet der Dinge ist IPv6 derzeit die größte Chance, sich nicht auf Dauer von einem Unternehmen dominieren zu lassen, und dennoch die Netzwerkeffekte für alle abschöpfen zu können. Natürlich kann IPv6 nur die Grundlage liefern, auf der weitere Protokolle aufsetzen müssen. Wie diese aussehen müssen, ist heute noch schwer zu sagen, denn wir sind noch mitten drin, in der Experimentierphase. Es muss gewährleistet sein, dass die Dinge sich gegenseitig sehen und erkennen, dass sie Messtandards verstehen, Daten austauschen können, sich vielleicht auf Dialekte einigen können. Auf die Frage: »How it’s like to be a thing?« müssen jetzt die Entwickler eine weniger spekulative, sondern eine normative Antwort geben. Dabei ist es wohl unvermeidlich, dass einzelne Unternehmen erstmal mit eigenen Standards vorpreschen und am besten mit anderen Standards konkurrieren. Auf lange Frist wollen sich aber weder die Menschen noch die Dinge um Protokollstandards und unterschiedliche Plattformkonzepte die Köpfe zerbrechen.

Die Game of Thrones-Saga ist bekanntlich noch nicht fertig geschrieben. Dessen Autor George R. R. Martin arbeitet zur Zeit der Entstehung dieses Textes an dem sechsten Band. Wir wissen noch nicht, wie die Schlacht zwischen White Walkers und Menschheit ausgehen wird. Ein ebenfalls immer wiederkehrendes Sprichwort aus der Saga ist »Winter is coming«. Der große Winter ist die Ankündigung der mythischen Ära der Kälte, eine Zeit, in der die White Walkers durch Westeros marschieren werden. Wahrscheinlich wird es noch fünf bis zehn Jahre dauern, bis wir die großen Schlachten um das Game of Things erleben werden. Vielleicht werden sie dann von völlig anderen Akteuren geführt werden, als die, die wir heute für die wichtigsten Anwärter halten. Die Unvorhersehbarkeit der Ereignisse im volativen Plattformmarkt könnte der Feder von George R. R. Martin entsprungen sein. Sicher ist nur eines: »Winter is Coming«.

  1. Vgl. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Berlin: iRights Media 2014, S. 8.
  2. Tatsächlich wurden die Netzwerkeffekte zuerst 1908 vom legendären ersten AT&T-Geschätfsführer Theodor Vail festgestellt, als er für die Überführung von AT&T zum staatlich kontrollierten Monopol argumentierte (vgl. Wu, Tim: The Master Switch – The Rise and Fall of Information Empires, New York: Knopf 2010, S. 124, S. 6 ff). Wissenschaftlich wurden die Netzwerkeffekte erst viel später bearbeitet. Bekannt ist die Formel von Robert Metcalfe: n (n − 1)/2. Sie besagt, dass der Nutzen des Netzwerks pro- portional zur Anzahl der Teilnehmer des Netzwerks im Quadrat ist. Die Stichhaltigkeit von Metcalfes Law wird aber auch angezweifelt (Bob Briscoe, »Metcalfes Law is Wrong«, www.cse.unr.edu/~yuksem/teaching/nae/reading/2006-briscoe-metcalfes.pdf, vom 30. Juli 2006). Ich schlage vor, solchen Quantifizierungsversuchen skeptisch gegen- überzutreten. Um den Zusammenhang zwischen Netzwerkteilnehmer und Attraktivität des Netzwerks plausibel zu machen, sind Formeln meines Erachtens auch nicht nötig.
  3. Dass die Kosten von Interaktion eine wesentliche Rolle beim (wirtschaftlichen) Handeln spielen, entdeckte zuerst Ronald Coase. Er zeigte, dass die neoklassische Vorstellung vom Funktionieren des Marktes außer Acht lässt, dass das Teilnehmen an einem Markt Kosten verursacht. Die sogenannten »Transaktionskosten« sind die Kosten, um Information zu sammeln, Aufwand zu verhandeln und vor allem die Risiken, die ich eingehen muss. Coase, Ronald: »The Nature of the Firm«, in: Economia 4/16 (1937), S. 386-405.
  4. Vgl. Wu, Tim: The Master Switch – The Rise and Fall of Information Empires, P. 103,8.
  5. Vgl. Burkhardt, Marcus: Digitale Datenbanken – Eine Medientheorie im Zeitalter von Big Data, S. 288.
  6. International Astronomical Union: »iau0603 – News Release« www.iau.org/news/ pressreleases/detail/iau0603/, vom 24. August 2006.
  7. Garside, Juliette: Facebook loses millions of users as biggest markets peak, www.theguardian.com/technology/2013/apr/28/facebook-loses-users-biggest-markets, vom 29. April 2013.
  8. Cannarella1, John/Spechler, Joshua A.: Epidemiological modeling of online social network dynamics, http://arxiv.org/pdf/1401.4208v1.pdf vom 17. Januar 2014.
  9. »A technical network in the engineer’s sense is only one of the possible final and stabilized state of an actor-network.« Latour, Bruno: On Actor Network Theory: A few clarifications 1/2, on nettime, www.nettime.org/Lists-Archives/nettime-l-9801/msg0 0019.html, vom 11.01.1998.
  10. Bogost, Ian: Alien Phenomenology, or What It’s Like to Be a Thing, Minneapolis u. London: University of Minnesota Press 2012.
  11. Harman, Graham: Tool-Being: Heidegger and the Metaphysics of Objects, Chicago: Open Court 2002.
  12. Ian Bogost: Alien Phenomenology, or What It’s Like to Be a Thing, S. 65.
  13. CISCO, http://newsroom.cisco.com/feature-content?type=webcontent&articleId= 1208342, vom 29.Juli 2013.
  14. Ball, Benjamin, »Google I/O 2014: Android Meets the Internet of Things with An- droid Wear, Android Auto, and Google Fit«, http://java.dzone.com/articles/google-io-2014-and-internet, vom 26. Juni


Veröffentlicht unter extern Kontrollverlust Plattformpolitik Queryology
Verschlagwortet mit
1 Kommentar

open!: The Kontrollverlust of the Nation-State and the Rise of the Platforms

/****
In letzter Zeit bekomme ich vermehrt Anfragen für Texte auf Englisch. Das macht mir zwar mehr Mühe, da ich nicht so erfahren bin, in dieser Sprache zu schreiben. Aber ich denke, es lohnt sich allein des anderen Leserkreises wegen. Hier ein Text, den ich für die Plattform „open!“ geschrieben habe. Es geht nur am Anfang einführend um den Kontrollverlust, der Hauptteil des Textes setzt sich mit der Politik von Plattformen auseinander. Eine kürzere Version einiger der Gedanken und Beispielen aus dem Text kann man auch auf Deutsch bei der Zeitschrift „Kunst und Kommerz“ des deutschen Kulturrates nachlesen. (Hier das PDF)
****/

The Kontrollverlust of the Nation-State and the Rise of the Platforms

Since Wikileaks revealed large amounts of US intelligence to the public in 2010, most people are now more aware of the vulnerability of the nation-state: that it must keep it’s secrets safe in order to function. (At least, this is what the nation-state believes.) But as technology evolves, it seems less and less able to do so.

[Weiterlesen >>>]


Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Plattformprivacy

Es wird immer offenbarer, dass die Antwort der Gesellschaft auf den Kontrollverlust die zentral gesteuerten Plattformen sind. Auffällig wurde dies spätestens seit Apple der Musikindustrie mit iTunes den Allerwertesten rettete und es wurde am deutlichsten, als Google mit ContentID einen Weg für Verwerter anbot, wie sie die unkontrollierbaren User-Uploads für sich vergolden konnten. Aber auch bei der Privatsphäre hat sich ähnliches ereignet. Aller Unkenrufe zum Trotz hat Facebook die Privatsphäre einfach als Privacy-Setting neu erfunden und in den geschlossenen Welten von WhatsApp und Snapchat werden ebenfalls ganz neue Formen von Privatheit erprobt.

Die alte Vorstellung von Privatsphäre wird dabei natürlich ebenso über Bord geworfen („Informationelle Selbstbestimmung“, haha!), wie die alte Vertriebskanäle von Radio bis Plattenladen. Auf den Plattformen rüttelt sich etwas zurecht, das auf einer anderen Komplexitätsstufe dem Alten (Privatsphäre, Erlösmodelle) nah genug kommt, damit sich die Leute damit zufrieden geben.

Eine besonders aufschlussreiche Blüte dieser Kontroll-Transition hin zu den Plattformen treibt derzeit im Journalismus. Facebook hat den Verlagen ein Angebot gemacht und viele springen auf. Sie sollen ihre Artikel im Volltext bei Facebook zum syndizieren abliefern und können dann an der Werbung mitverdienen und bekommen detaillierte Daten über ihre Leser.

Auf ein solches Angebot einzugehen könnte direkt aus den Strategien entlehnt sein, die ich in meinem Buch vorstelle. Die Kontrolle über die Inhalte auszuüben ist eh viel zu aufwändig und in letzter Konsequenz quasi unmöglich, also lieber auf antifragile Strategien setzen und den Content möglichst breit streuen und daraus den Nutzen ziehen.

Ich hätte allerdings argumentiert, dass das doch schon längst per RSS machbar ist und von den Verlagen nur schon seit langer Zeit boykottiert wird (zumindest Fullfeeds). Und hier ist der Punkt: Wir waren doch schon mal viel weiter. Mit RSS und co. hatten wir einen Standard, der es erlaubte Artikelinhalte in einem generischen Format in alle möglichen Veröffentlichungssitationen zu integrieren. Ich schreibe in Vergangenheitsform. Natürlich gibt es RSS noch, aber es hat sich nicht breit durchgesetzt und Facebook und andere Plattformen treten nun mit ihren eigenen Tools an diese Stelle.

Statt dass Inhalte frei und für jeden syndizierbar und weiterverwertbar angeboten werden, werden sie lieber den proprietären (und undurchschaubaren) Anzeigetechnologien der geschlossenen Datensilos in den Rachen geworfen.

Und hier drängt sich ein Vergleich mit der Post-Privacy auf: RSS entspricht so ziemlich dem, was Christian Heller (und in Folge auch ich und einige andere) sich als Post-Privacy vorgestellt haben. Gibt die Daten frei, dann können alle partizipieren. Datenmonopole zu beseitigen wäre ein wichtiger Schritt hin zu einer egalitäreren Machtverteilung in der Gesellschaft. Bekommen haben wir aber stattdessen Plattformprivacy.

Plattformprivacy ist nach oben offen (Facebook, Staat, Geheimdienste) und zu den Seiten geschlossen (Privacysettings). Das reicht den meisten Menschen, denn im Gegensatz zur Datenschützer-Szene war für sie Privacy nie ein Selbstzweck, sondern immer Tool zur alltäglichen Lebensführung. Deswegen war die Privatsphäre gegenüber der eigenen Mutter schon immer wesentlich wichtiger, als die gegenüber der NSA. Plattformprivacy ist die Zukunft der Privatsphäre und gleichzeitig eine Datenmonopolisierung weit größeren Ausmaßes, als wir es uns haben vorstellen können.

Das kann man enttäuschend finden und zwar auf allen Seiten: der Datenschützer/innen-Seite genauso wie auf der Post-Privacy-Seite. Aber es ist nun mal die Realität. Zumindest vorerst.

Das ist auch das Fazit meines Buches: Wir sind noch nicht so weit. Unser Wunsch nach Kontrolle verhindert eine freie Gesellschaft und einen emanzipativen Umgang mit den digitalen Technologien. Stattdessen haben wir uns neue Regime geschaffen, die uns vermutlich noch eine ganze weile voreinander „beschützen“ werden.

Ich kann bei all den aufkommenden strukturellen Problemen der Netzgesellschaft kaum etwas dagegen sagen. Kontrolle wird gebraucht. Doch wo Kontrolle herrscht, braucht es Politik. Und das ist jetzt unsere Aufgabe: Plattformpolitik.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Postprivacy
7 Kommentare

Was ist eine Plattform? – Ein Neuanfang

Vor ein paar Tagen habe ich zusammen mit Sebastian Gießmann auf der re:publica einen Talk gehalten. Der Titel war „Von der Netzwerk- zur PLattformgesellschaft„. Neben vielen neuen Gedanken zu Plattformen und ihrer Rolle in unserer Gesellschaft habe ich mich auch an einer neuen Plattformdefinition versucht, die aber in der Kürze der Zeit etwas unterbelichtet blieb. Eine genauere Definition plus Erklärung will ich hier nachliefern. Aber ersteinmal der Talk:

Selektion(-Entscheidung/-Option/-Prozess)
Selektion bedeutet schlicht: so und nicht anders. Aus einem Raum an Möglichkeiten (Kontingenz) wird sich auf eine der Möglichkeiten (Selektionsoption) festgelegt (Selektionsentscheidung). Akkumulierte Selektionsentscheidungen können die anschließenden Selektionsoptionen so weit eingrenzen, dass wir von einem definierten Selektionsprozess (oder Schnittstelle) sprechen können.

Plattformen
Plattformen sind solche akkumulierten Selektionsentscheidungen, die für viele Interaktionsteilnemer/innen kohärente Selektionsprozesse bereitstellen (entweder durch zentrale Steuerung oder protokollarische Festlegung), um die Anschlussfähigkeit weiterer Selektionen zu ermöglichen.

Netzwerkeffekte
Die Plattform generiert Netzwerkeffekte in dem Maße, wie die vorgegebenen, kohärenten Sekektionsprozesse für möglichst viele Interaktionsteilnehmer/innen Selektionsoptionen eröffnet.

Netzwerk und Plattform
Netzwerk und Plattform sind keine sich ausschließenden Konzepte. Im Gegenteil. Plattformen ermöglichen Netzwerke, indem sie die Interoperabilität der Teilnehmer erst bewerkstelligen. Das gilt für das Internet genauso, wie für Facebook.

Spielen wir das mal anhand der Vortragsbeispiele durch:

Schon das Telefon, indem es seriell baugleich hergestellt wird, bildet eine Plattform. Die Art es zu benutzen und die Möglichkeiten es anzuschließen sind durch Selektionsentscheidungen festgelegte Selektionsprozesse. Auch die Leitungen und der Betrieb gehören dazu: Welches Material darf für den Draht verwendet werden, welche Spannung wird angelegt, in welcher Frequenz wird moduliert, etc. All diese Dinge sind Selektionsentscheidungen, die einmal getroffen wurden und kohärent im „System Telefon“ eingearbeitet sind und so enggefasste Prozesse vorgeben. Innerhalb dieser enggefassten Prozesse entstehen aber neue Selektionsoptionen, die ohne Plattform nicht existieren würden: z.B. Telefone zu verschalten.

Diese neuen Selektionsoptionen sind: Welches Telefon wird mit welchem Telefon verbunden? Oder: An welches Netz schließe ich das Telefon an? Oder tue ich das überhaupt? Wichtig: diese Selektionsoptionen werden durch die vorherigen Selektionsentscheidungen erst ermöglicht. Genau das meinen wir mit Plattform.

Und wenn wir ein verknüpftes Telefonnetz haben, dann haben wir – klar ein Netzwerk. Dieses Netzwerk steht aber nicht für sich, sondern hat seine Plattform in den bereits besprochenen Selektionsentscheidungen und jede/r, der/die die Selektionsprozesse der Plattform erfüllt, kann Teil des Netzwerkes werden. Die Plattform wird zur Zugangsberechtigung des Netzwerkes.

Und jetzt machen wir eine Iteration: Denn das fertige Telefonnetzwerk ist nicht nur ein Netzwerk, sondern bildet mit seinen immanenten Selektionsentscheidungen wiederum die Plattform für weitere Selektionsentscheidungen.

Bleiben wir vorerst bei den Partylines (also alle Telefone sind direkt miteinander verschaltet). Dann ergibt sich für mich die Selektionoption, mich durch das Aufnehmen des Hörers in die Leitung zu begeben, oder eben nicht. Bei der zweiteren Selektion bleibt das Netzwerk latent, also eine reine Selektionsoption. Das Netzwerk wird erst aktuell, wenn ich tatsächlich mich mit den anderen Teilnehmer/innen in der Partyline verschalte.

Komplizierter wird das noch mit den Einszueins-Verbindungen, die dann über die Switchboards und den Telefonistinnen organisiert wird. Diese Verschaltung (also die Selektionsleistung) bedarf einer vergleichsweise komplizierten Logik. Sie wird zentral organisiert, weswegen wir es hier (lange vor Facebook) mit einer zentral gesteuerten Plattform zu tun haben. Zunächst bleiben die Selektionsprozesse physisch erlebbar, weil sie offen prozessiert werden.

Die Legende geht, dass die Nichtneutralität dieser Selektionsprozesse durch die Telefonistinnen zur Entwicklung der mechanischen Hebdrehschaltung geführt hat. Dessen Erfinder, der Bestattungsunternehmer Almon Brown Strowger aus Kansas City, wurde bei der Verbindung in Todesfällen gegenüber einem anderen Bestattungsunternehmer, der Verbindungen in die Telefonzentrale hatte angeblich systematisch diskriminiert. (die Anekdote ist aber fraglich.)

Zusammenfassend: Die Plattform besteht nun aus einem ganzen Zoo von Selektionsentscheidungen, die jeweils aufeinander beruhen. Von der Bauart des Telefons, über die Beschaffenheit und Betrieb des Netzes, über Verschaltung der physischen Leitungen, bishin zur verschaltenden zentralintelligenz der Telefonistinnen an ihren Switchboards (und später ihrer mechanischen Substitution).

Machen wir zum Gegencheck einen kurzen Sprung ins Internet. Hier haben wir ebenfalls auf einander aufbauende Selektionsentscheidungen, die in ihrer Komplexität und Reichhaltigkeit allerdings die Telefonnetze weit in den Schatten stellen. So kann man jeden einzelnen Layer im Netzwerkmodell (wir nehmen hier nicht OSI, sondern orientieren uns am viertstufigen Aufbau) als Plattform verstehen. Wir haben da den physischen Layer, der das basale Funktionieren der Datenverbindung bereitstellt. Die dort getroffenen Selektionsentscheidungen geben die Prozesse vor, auf denen das Internet Protokoll (IP) seine eigenen Selektionsprozesse fahren kann. Und so geht das weiter. TCP arbeitet auf den von IP bereitgestellten Prozessen, um die Paketdistribution und Logistik zu organisieren und die Applikationen arbeiten wiederum auf den Prozessen die TCP ihnen zur Verfügung stellt und machen, was sie eben machen. Jeder Layer wird durch den vorherigen ermöglicht, bildet also dessen Plattform. Und das geht weit über die Protokollebene hinaus. Das WWW hat das Internet zur Plattform und Facebook hat das WWW zur Plattform.

Bleiben wir kurz bei Facebook, denn Facebook ist natürlich Prototyp eines bestimmten, (scheinbar) neuen Paradigmas der Plattform. Es stellt nämlich die Kohärenz seiner Selektionsprozesse nicht durch verabredete Standards fest, sondern organisiert sie über eine zentrale Datenbank. All ihre Selektionsentscheidungen werden in Datentabellen gespeichert und bei Bedarf durch komplexe Querystatements reaktualisiert. Ich nenne solche Plattformen deswegen auch querybasierte Plattformen. Wenn wir genauer hinschauen, ist die querybasierte Plattform aber überhaupt nichts Neues, sondern in ihrer basalen Form bereits durch die Telefonistinnen an den Switchboards gegeben (es wird wirklich Zeit den Begriff der Query neu auszuarbeiten). Warum diese Form der Plattform sehr erfolgreich ist, hat viele Gründe, auf die ich jetzt aber nicht eingehen will.

Wir haben gesehen, dass die Plattformdefinition sowohl auf das Telefonnetz, das Internet und seinen Protokollschichten, als auch auf Facebook & co anwendbar sind. Testen wir zum Schluss noch einmal unseren Plattformbegriff auf ihre ursprüngliche Definition (jedenfalls eine davon):

„Plattform f. begrenzte, erhöhte Fläche, Fundament, Aussichtsterrasse, Plateau, vom gleichbedeutend französisch plate-forme, […] in der Sprache der zivilen und militärischen Baukunst. Die Bezeichnung wird besonders im Festungsbau für flaches Bollwerk, starkes Fundament für Wurfgeschütze gebräuchlich (17. Jahr.), […]“

(Etymologisches Wörterbuch des Deutschen. Erarbeitet unter der Leitung von Wolfgang Pfeifer, S. 1018)

Das hört sich erstmal sehr fern unserer Definition an, ist es aber nicht. All die genannten Eigenschaften treffen zu. Jede zu Grunde liegende Selektionsentscheidung „erhöht“ die Plattform und hebt sie heraus aus der Kontingenz. Die Plattform ist hier wie dort „begrenzt“ und vor allem ist sie „flach“. Flach ist unserer Plattformbegriff dort, wo wir von Kohärenz sprechen. Die Fläche ist eine in sich kohärente (wenn auch basale) Selektionsentscheidung. Und hier können wir ein wenig spekulieren: Wie in unserer Definition hat die Pattform im Original zur Folge, dass die dort plazierten Wurfgeschosse schnell austauschbar sind, sowohl untereinander als auch generell. Weil sie alle auf derselben Höhe operieren, können sie – jedenfalls wenn sie baugleich sind – auch gleichförmig eingestellt und ausgerichtet werden. Schon die frühste Idee von Plattform sollte also Interoperabilität bewerkstelligen.

Aber wenn denn nun Plattformen gar kein neues Ding sind, warum sollen wir dann jetzt von der Plattformgesellschaft reden?

Die Plattform war immer die implizite Grundlage – weil organisatorische Bedingung – des Netzwerkes und damit der Netzwerkgesellschaft. So lange diese Grundlagen (und ihre bürokratische Arbeit, wie wir im Vortrag sagen) einfach still vorsichhin-funktionieren, sind sie für unsere Wahrnehmung quasi unsichtbar. Jetzt aber, da die Kohärenz ihrer Selektionsprozesse in Gefahr ist (Netzneutralität), sich bestimmte Plattformverschiebungen ereignen (Appstore vs. Open Web) und auf der anderen Seite die mächtigen zentralistischen Query-Plattformplayer empor steigen, werden diese Grundlagen sichtbar und (teils) bedrohlich.

Was mich zu einer letzten These verleitet: Während Netzwerke durch ihr Funktionieren beobachtbar sind, sind Plattformen nur in ihrem Nichtfunktionieren beobachtbar; also z.B. dort, wo die Kohärenz gebrochen wird.


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik Queryology
7 Kommentare

Warum wir eine Netzinnenpolitik brauchen

Gestern saß ich bei der Friedrich-Ebert-Stiftung auf einem Panel über Hate Speech und was wir dagegen unternehmen können. Ich hatte mir einige Vorschläge und Argumentationen zurechtgelegt, dabei aber nicht so recht bedacht, dass meine Mitdiskutant/innen ja vor allem SPD-Politiker/innen sein werden. Dass also erst einmal die Grundbegriffe geklärt werden müssen und worüber wir überhaupt reden.

Ich habe dennoch meine Forderung nach einer Netzinnenpolitik anbringen können. Was meine ich damit?

Die deutsche Netzszene hat sich formiert als zivilgesellschaftliche Verteidigung der Netzfreiheit gegenüber den Regulierungsbestrebungen der Politik. Überspitzt kann man formulieren, dass Netzpolitik die Selbstverteidiung des Netzes gegenüber seinen äußeren Feinden ist. Das war und ist eine wichtiger Kampf und er muss auch weiterhin gefochten werden. Doch wir haben nicht mehr 2009 und dieser Kampf wird zunehmend überschattet von internen Effekten und Phänomenen eines in der Zwischenzeit enorm gewachsenen Netzes.

Das Netz ist jetzt überall und kennt kein richtiges Außen mehr (gut, bis auf SPD-Politiker/innen …) und immer größere und wichtigere Kämpfe finden bereits intern statt. Dort geht es aber nicht mehr um SPD gegen CDU (haha!), sondern zum Beispiel um die Maskulinistische/Antifeministische Szene gegen Feminist/innen. Um Mißverständnisse von Nichtkennern zu vermeiden: dieser Kampf geht weit über die alltäglichen Twitterscharmützel hinaus, sondern hat mit #Gamergate globale Ausmaße angenommen. Es ist ein weltweiter Kulturkampf und er findet mittlerweile in allen möglichen kulturellen und diskursiven Teilbereichen statt, z.b. auch in der Science Fiction Szene. Aber auch dieser antifeministische Backlash ist nur ein Beispiel von vielen. Die Debattenfrontstellungen im Netz zu Ukraine vs. Russland stehen in ihrer Größe und Heftigkeit diesem Konflikt zumindest hierzulande kaum nach. Auch weil sie teils mit viel Geld gestützt, bzw. gesteuert werden. Wir haben die Pegida/Legidia/Hogesa/Dinsgadabumsda-Rassisten, die sich auf Facebook und Blogs mit allerlei Verschwörungstheorien ihre Rassistische Weltsicht zurecht spinnern. Dazu die Reichsbürger/innen und Verschwörungstheoretiker/innen und Antisemit/innen der Mahnwichtel. All diese Gruppen überschneiden sich vielfältig, sind aber nicht identisch. Und es werden immer mehr und sie werden immer schlagkräftiger.

Da von dem weiteren Wachstum des Netzes und der Vielfältigkeit seiner Verbindungen (und damit seiner Konflikte) auszugehen ist, traue ich mir hier ein paar Prognosen zu: die Konflikte der Zukunft finden nicht mehr zwischen Staaten statt, sondern zwischen Weltanschauungen. Aber anders als bei der Blockkonfrontation des kalten Krieges werden die Weltanschauungen nicht mehr durch geographische Grenzen beschreibbar, sondern die Fronten ziehen sich global durch alle Gesellschaften. Es werden sich nicht mehr zwei Weltanschauungen gegenüberstehen, sondern hunderte, vielleicht tausende parallel. Sie werden nicht in einem Wettrüsten der Systeme, sondern in kleinen Scharmützel nebenher oder großen Shitstorms zwischendurch ausgetragen werden. Und sie werden nicht befriedet werden können, weil keine Seite der anderen ihren Willen aufzwingen kann und weil die Konfliktparteien einander immer referenzierbar bleiben werden.

All das zeigt, dass dass wir die Probleme um Hate-Speech um ca. 100 Größenordnungen zu klein denken. Es sind keine Probleme die irgendein Staat mit irgendeiner Verschärfung irgendeines Gesetzes in den Griff bekommt. Es sind interne Probleme eines globalen und zu den Individuen hinunterdiffundierten Netzdiskurses und sie können somit auch nur mit den Mitteln des Netzes adressieret werden.

Was wir brauchen ist eine Netzinnenpolitik.

Eine Schlüsselstellung nehmen dabei die Plattformbetreiber ein. Die Forderungen, Twitter möge doch bitte deutlicher und schneller eingreifen bei Belästigung und Angriffen, ihre Tools zum Blocken und Muten doch bitte den Wünschen potentieller Opfern entsprechend anpassen und verbessern sind nicht neu und sie sind der richtige Weg. Aber ich glaube, das reicht nicht.

Es kann auf Dauer nicht funktionieren, die Plattform sowohl der maskulinistischen Szene, als auch die der Feminist/innen zu sein. Ja, ich zweifele hier das Konzept der Neutralität der Plattform an. Ich glaube, das ist auf Dauer nicht machbar.

Die Probleme, die diese Konflikte aufzeigen – das merkte man auch deutlich auf der Tagung gestern – sind eben nicht in erster Linie normative. Natürlich sind Vergewaltigungs- und Morddrohungen sowie Beleidigungen ein großes Problem. Aber dagegen gibt es bereits nationalstaatliche Gesetze. Und auch wenn man die Rechtsdurchsetzung hier sicher verbessern kann, machen wir uns selbst etwas vor, wenn wir glauben, dass alles gut würde, wenn die Maskus anfangen, ihre Handlungen im Rahmen des Strafgesetzbuches organisieren (was sie größtenteils eh schon tun). Die Maskus sind nicht nur als Harasser ein Problem, sondern als politische Gruppe, als giftige Ideologie.

Deswegen glaube ich, dass man diese Probleme nicht normativ (im Sinne von gewünschtem und nicht gewünschten Verhalten, egal ob im Strafgesetzbuch oder in den Terms of Service) lösen kann, sondern dass man sie politisch beantworten muss. Politisch, im Sinne von „eine Haltung zeigen“ und sie durchsetzen.

Facebook und Twitter könnten sich zum Beispiel zu einem emanzipatorischen Menschenbild bekennen und sagen, dass bestimmte Ideologien dort keinen Platz haben. Das ist auch gar nicht so neu. Gegen Sites des Islamischen Staats und anderen militant islamistischen Gruppen geht Facebook bereits gezielt vor. Klar, auch auf Druck der US-Regierung, aber auch darüber hinaus. Warum nicht auch mit dem selben Eifer gegen Nazi-sites? Warum nicht gegen Pegida? Warum nicht auch Maskulinistengruppen?

Jetzt kommen wieder die Leute, die rufen, dass das ja eine Beschneidung der Meinungsfreiheit bedeutet. Dem will ich nicht völlig widersprechen, denn natürlich ist Facebook ein mächtiges Instrument der Reichweite. Dennoch halte ich einen solchen Schritt für vertretbar. Das Internet ist groß und es gibt noch viele andere Plattformen, auf denen der Content solcher Leute geduldet wird. Und ich bin mir sicher, wenn Pegida Facebook verlassen muss, ziehen ihre Anhänger hinterher. Warum nicht das russische V-Kontakte? Das ist sowieso schon ein wichtiges Vernetzungsinstrument der rechten Szene geworden. Auch Homophobie und sonstige Menschenfeindlichkeit sind dort immer gerne gesehen.

Wofür ich also plädiere ist nicht eine Abschaffung bestimmter Meinungen, sondern eine Ausdifferenzierung der Plattformen nach politischer, weltanschaulicher Haltung. Ich halte eine solche Ausdifferenzierung auf Dauer eh für unumgänglich. Einer der wichtigsten Aspekte eines netzinnenpolitischen Aktivismus wird sein, die strategisch wichtigen Plattformen auf die richtige Seite zu ziehen.

Bis es aber so weit ist, gilt es, soziale Sanktionsmechanismen zu finden, um auf den Plattformen selbst gegen die entsprechenden Auswüchse vorzugehen. Dafür habe ich unlängst die Filtersouveränität als Politik vorgeschlagen.

Netzinnenpolitik muss also auf zwei Ebenen stattfinden: der längst im Gange befindliche zivilgesellschaftliche Kampf um Deutungshoheit und gegen Menschenfeindlichkeit und der langfristig wichtige, strategische Kampf um die Positionierung der Plattformen.

Und dann muss das noch irgendjemand für die SPD-Politiker/innen erklären. Obwohl … Wozu?


Veröffentlicht unter Das Neue Spiel Kontrollverlust Weltkontrollverlust
18 Kommentare

Die Impfgegner und die Krise der Institutionen

Vier Jahre ist das jetzt her, dass Gunter Dueck auf der re:publica 2011 seinen viel gefeierten Talk „Das Internet als Gesellschaftsbetriebssystem“ hielt. Höhepunkt seines Vortrags („So jetzt kommt das schwere Geschütz“) war die Frage:

„Glauben Sie nicht, dass wenn jemand eine Krankheit hat, dass er dann nach 2 Stunden surfen 10 mal mehr weiß, als sein Arzt?“

Ich aber saß in meinem Sitz und ich konnte mich der schlichten wie unaufdringlichen Logik dieser Frage nicht entziehen. Wir kennen das alle: 10 Ärzt/innen 12 Diagnosen. Jeder kennt Fälle, in dem eine Patient/in tatsächlich die Diagnose richtiger einschätzte als der/die Arzt/in. Und hier nun stand Gunter Dueck und gab eine einfache Erklärung. Das Internet enthält doch bereits alles Wissen. Wer genügend Motivation mitbringt, (und die fehlt Betroffenen selten), kann sich (zumindest in vielen Fällen) selbst besser diagnostizieren, als ein Allgemeinarzt, der im Zweifelsfall vor vielen Jahren mal irgendwo eine Vorlesung zum Thema wieder vergessen hat.

Ich sehe Duecks Argument heute nicht widerlegt, aber es wird immer offenbarer, dass es mehr braucht, als nur Internet und Motivation. Etwas, was Dueck und auch ich damals implizit vorausgesetzt gesetzt haben: das Vorhandensein von kritischem Denken, eine gewisse wissenschaftsmethodische Bildung. Damit meine ich die Fähigkeit, kritisch mit Quellen umzugehen und auch seinem eigenen Urteil zu mißtrauen (das ist – nebenbei – der Hauptunterschied zu den Verschwörungstheoretikern: ihr kritisches Denken zieht alles in Zweifel außer dem eigenen Urteil).

Was nämlich passiert, wenn unter sonst gleichen Bedingungen das kritische Denken fehlt, kann man derzeit in Berlin und schon länger in den USA beobachten. Impfgegner machen mit Verschwörungstheorien, Selbstdiagnosen und anekdotischer Evidenz gegen das Impfen mobil. Längst ausgestorben gedachte Krankheiten brechen wieder aus, in Berlin gibt es jetzt den ersten Masern-Todesfall.
(Nachtrag: Anne Roth macht mich per Facebook gerade darauf aufmerksam, dass es Impfgegner natürlich bereits viel länger gibt und wirft richtig ein, dass mir jegliche Evidenz fehlt, dass das Thema in letzter Zeit größer geworden ist. Das ist richtig. Dieser Text basiert auf meiner subjektiven Beobachtung und stellt implizit die These auf, dass Impfgegnerschaft durch das Netz zugenommen hat.)

Das Internet hat sich während meiner Beschäftigung damit wahnsinnig verändert. Die Hauptveränderung ist aber mit Sicherheit seine Skalierung. Waren wir von 2007 bis 2011 noch eine sehr kleine, spezielle Gruppe von Menschen, die das Internet publizistisch nutzten und auf den re:publicas als zukünftigen und utopischen Raum des Denkens feierten, hat sich das Internet inzwischen als Medium der Massen durchgesetzt. Die Durchdringung einzelner Seiten wie z.B. Facebook hat längst alle Zeitungen und Fernsehsender zusammengenommen überflügelt. Letzteren wird immer weniger Vertrauen geschenkt, man findet sich zusammen um gemeinsam am Mainstream zu zweifeln. Wir bekommen das nicht so mit, weil unsere Queryöffentlichkeiten uns von dem meisten abschirmen – und deren Queryöffentlichkeiten schirmen sie von uns ab. Ich habe das letztens bereits anhand von Pegida beschrieben:

„Doch die Resonanzräume ermöglichen sowohl Vernetzung als auch Abschottung. Hermetische Weltbilder, die Evidenz durch zirkuläres zitieren und den ausschließlich negativen Bezug auf die mediale Außenwelt bezieht: “Sie wollen uns als Verschwörungstheoretiker verunglimpfen, also muss es wahr sein!” Wissen ist nichts anderes als ein hinreichend dichtes Netz aus Informationen, schreibe ich in meinem Buch. Unter guten Vernetzungsvoraussetzung kann also alles zum Wissen werden – zur Wahrheit – zumindest aus einer bestimmten Query heraus gesehen.“

Der Vertrauensverlust gilt nicht nur gegenüber den Massenmedien und den „Politikern da oben“, sondern eben auch gegenüber den Ärzt/innen. Wie das, was Gunter Dueck damals beschrieb, heute in der Realität aussieht, kann man aktuell studieren, wenn man Stephan von Schockfaktor in die Facebookgruppen der Impfgegner folgt. Minutiös beschreibt er die Diskussionen, die er dort führte und mit welchen „Argumenten“ er konfrontiert wurde. (Ich werde im Folgenden ein wenig daraus zitieren.)

Politik, Medien, Gesundheitssystem. Alle haben sich verschworen gegen die kleinen Leute. Was wir erleben nenne ich in meinem Buch „die Krise der Institutionen“ und widme ihr ein Kapitel. Durch die Selbstorganisationsmächtigkeit der neuen Medien verlieren die zentralistisch und hierarchisch organisierten Institutionen an Macht:

„Institutionen verlieren an Macht, da sie besser kontrolliert werden können, Konkurrenz bekommen und an Vertrauen verlieren. Wir dagegen gewinnen an Macht. Wenn wir einander über die Query suchen und finden, brauchen wir keine externen Instanzen mehr, die Komplexität reduzieren und Transaktionskosten gering halten.“

Gehen wir die genannten drei angesprochenen Angriffsvektoren Kontrolliert werden, Konkurrenz bekommen und an Vertrauen verlieren mal anhand der Impfdebatte durch:

Durch die allgemeine Zugänglichkeit von Informationen, lassen sich Ärzt/innen besser kontrollieren. Man muss ihrer Diagnosen nicht mehr blind vertrauen. Mit ein wenig Googlerecherche und Wikipediagewühle lassen sich meistens Diagnosen und Ratschläge verifizieren – oder auch nicht. Vielleicht findet man überzeugende Argumente und Belege seinem Arzt/Ärztin das Vertrauen zu entziehen. Oder man findet Ci Ci, die sagt: „Weil Fakt ist: Impfungen sind Gesundheitsschädlich. Ich kenne in meinem Umfeld mind. 3 Kinder mit impfschaden!

Das heißt, implizit, dass die Ärzte Konkurrenz bekommen. Nicht im kommerziellen Sinne, sondern, dass ihr Urteil Konkurrenz bekommt. Mal von einer informierten Betroffenen, die die Wikipedia leergelesen, sich durch Bücher gewühlt und die neusten Paper zur Krankheit in Fachmagazinen gelesen hat, oder das andere Mal durch Marion K, die sagt:

„Mal zu den Büchern und Wikipedia. Egal was ihr lesen werdet. In den wenigsten Fällen IST es die Wahrheit. Wer liest, liest das was der Staat will das ihr es lest. Das nicht impfen lernt man nicht in einem Buch. Das sollte ein Urinstinkt sein. Und bei den meisten ist das auch so. Und überzeugen könnt ihr eh kein. Entweder man ist bereit den Weg zu gehen oder nicht.“

So oder so, der Arzt als Institution erleidet durch die Queryöffentlichkeit der Menschen einen Vertrauensverlust. Sei es, dass die informierte Betroffene mit Grund das Urteil ihrer Ärzt/in anzweifelt und lieber eine andere Spezialist/in aufsucht. Oder eben wie Corinna H., die statt anderer Spezialist/innen sich in der erwähnten Facebookgruppe rückversichert als ihr Arzt riet, ihr Kind gegen Tetanus zu impfen, als es sich beim Spielen mit vielen Splittern übersäht hatte. „Ich habe abgelehnt – aber dennoch hat er mich verunsichert.

Funktional betrachtet ist das alles dasselbe. „Mißtraut Autoritäten!“ ist eine richtige Forderung, die aber gefährlich ist, weil sie von Privilegienblindheit geschlagen ist. Sie funktioniert nur für Menschen die gar nicht wissen, dass sie mehr wissen als die meisten – und deswegen vielleicht tatsächlich keine Autoritäten brauchen. Andere verlieren durch den Machtverlust der Autoritäten die Orientierung und und suchen sich einfach Neue, die sehr viel fragwürdiger sind, als die offiziellen. Die blühenden Verschwörungstheorien, die Männerrechtler, die Impfgegner und Pegida und co sind (auch) Phänomene dieser Krise der Institutionen.

Versteht mich nicht falsch: Ich bin immer noch ein großer Fan des Internets und seiner immanenten Eigenschaft, Gatekeeper zu entmachten und die regulative Rolle der Institutionen abzubauen. Aber wir sollten uns klar darüber sein, dass manche Wände, die wir gerade einreißen, tragend waren. Wir müssen damit rechnen, dass durch den Machtverlust der Institutionen erst einmal eine Menge Unordnung freigesetzt wird und bestimmte Errungenschaften zurück in einen chaotischen Zustand entgleiten, der längst überwunden geglaubt war. Das gilt nicht nur für Uber und AirBnB, sondern auch für die Diskurse ansich. Das Internet ist für die einen das perfekte Tool der Aufklärung, für die anderen der perfekte Ort, sich ungestört in einem faktenbefreiten Diskurs über die eigenen Glaubenssätze zurückzuziehen. Und es gibt niemanden mehr, der sie dafür sanktionieren könnte.

Ich will das alles aber auch nicht allzu zu schwarz malen. Es werden sich jenseits der kriselnden Institutionen neue Kontrollmechanismen entwickeln (müssen). Mein derzeitiger best Guess sind derzeit die Plattformen. Sie entwickeln sich immer weiter in Richtung Nutzer- und Diskurskontrolle. Auch das kann man ebenso gefährlich finden, wie notwendig. Vielleicht wird es aber auch ganz andere Mechanismen geben. Die Frage ist nur – und die stellt sich angesichts solcher Phänomene wie der Impfgegner immer drängender – wird das Kontrolldefizit durch den Kontrollverlust zwischenzeitlich in einer allgemeinen Katastrophe ausarten, oder werden neue Kontrollmechanismen früh genug greifen und das Schlimmste verhindern?


Veröffentlicht unter Das Neue Spiel Kontrollverlust Queryology Weltkontrollverlust
Verschlagwortet mit
4 Kommentare