WasWäreWenn-Mag: Gestapelte Demokratie

/***** Für das WasWäreWenn-Magazin habe ich mich mal wieder in konstruktiven Vorschlägen geübt und eine Idee unterbreitet, wie man Plattformen sinnvoll demokratisieren kann. Das ist schwerer als zu kritisieren und auch undankbarer, denn man macht sich angreifbar. Aber nach so vielen Jahren, in denen ich Demokratsierungsversuche von Plattformen kommen und gehen habe sehen, weiß ich zumindest, wo einige der Fallstricke liegen. Das Thema ist kompliziert und verlangt nach einer komplexen Lösung und ich habe zumindest eine Möglichkeit gefunden, bei der ich gerade keinen Grund finde, warum sie scheitern sollte. Was natürlich nicht bedeutet, dass sie nicht scheitern würde, denn noch hat sie niemand ausprobiert. Kritik ist sehr willkommen. ****/

Es ist eine Hass­lie­be, die die Gesell­schaft mit den Platt­for­men wie Face­book und You­tubepflegt. Auf der einen Sei­te geben sie vie­len Men­schen das ers­te Mal eine Stim­me, mit der sie sich in der Öffent­lich­keit arti­ku­lie­ren kön­nen, oft sogar poli­tisch (es gab zumin­dest mal eine Zeit, als das als etwas Gutes galt). Auf der ande­ren Sei­te han­delt es sich um Wirt­schafts­un­ter­neh­men, die jeden Cent aus unse­rer Auf­merk­sam­keit und unse­ren per­sön­li­chen Daten pres­sen wol­len. Zudem ähneln die­se Orte weni­ger öffent­li­chen Plät­zen, als viel­mehr pri­va­ten Ein­kaufs­zen­tren, in denen man nur wenig bis kei­ne Rech­te und Mit­be­stim­mungs­mög­lich­kei­ten hat.

Es ist des­we­gen nahe­lie­gend, eine Demo­kra­ti­sie­rung die­ser Platt­for­men zu for­dern, wenn wir sol­che Infra­struk­tu­ren schon mit unse­ren Mei­nun­gen und Daten füt­tern. Was das heißt oder hei­ßen kann, ist ein wei­tes Feld und im Detail eine schwie­ri­ge Dis­kus­si­on. Daher ori­en­tie­ren sich hier mei­ne For­de­run­gen nach Demo­kra­ti­sie­rung an den Model­len und Kon­zep­ten, die wir aus den west­li­chen Indus­trie­na­tio­nen ken­nen: Wir wol­len gewis­se Rech­te haben, wir wol­len mit­be­stim­men, wo die Rei­se hin­geht, wir wol­len Min­dest­stan­dards der Mode­ra­ti­on, Trans­pa­renz sowie nach­voll­zieh­ba­re Pro­zes­se. Und wir wol­len, dass die enor­me Macht die­ser Platt­for­men nicht miss­braucht wird.

Doch wie genau soll das pas­sie­ren? Platt­for­men sind kei­ne Staa­ten, wir kön­nen deren Kon­zep­te nicht eins zu eins über­tra­gen. Zunächst möch­te ich vier Mög­lich­kei­ten der Demo­kra­ti­sie­rung von Platt­for­men vor­stel­len, ihre Vor- und Nach­tei­le dis­ku­tie­ren und am Ende einen Lösungs­vor­schlag unterbreiten.

WEITERLESEN BEI WWW-MAG >>>>

Eine Sache noch. An einer Stelle musste der Text gekürzt werden und da es für die Argumentation nicht ausschlaggebend war, musste der Teil über Finanzen weichen. Leider sind Finanzen aber sehr, sehr wichtig, wenn wir über die Unabhängigkeit von Strukturen nachdenken. Deswegen hier noch mal als Ergänzung, meine Gedanken zu Finanzen:

Finanzen

Ein Thema, das extra Bearbeitungen verdient, ist das liebe Geld. Denn Geld bedeutet immer auch Abhängigkeit, weshalb die Finanzierungsstruktur des Modells eine wichtige Frage ist, die gesondert behandelt werden muss. An dieser Stelle tue ich einfach so, als gäbe es das Modell bereits und beschreibe eine fiktive Zukunft, auch damit man sich eine Vorstellung vom real existierenden Modell machen kann.

Am einfachsten ist die Geldfrage bei den Clients zu beantworten, für die sich einfach ein freier Markt auftut und bei denen alle möglichen Geschäftsmodelle zum Tragen kommen. Die drei populärsten Clients sind der mit personalisierter Werbung von Google, der auf iOS vorinstallierte Client von Apple und der Client des größten Hubs „Hub-Verse“, der umsonst an seine Mitglieder verteilt wird. Es gibt aber noch viele weitere, auch nicht-kommerzielle Opensource-Projekte mit unterschiedlichen Feature-Schwerpunkten.

Hubs sind sehr unterschiedlich finanziert. Staaten betreiben oft eigene öffentlich-rechtliche Hubs, die kostenfrei für ihre Bürger/innen nutzbar sind. Allerdings kann man sich dort nur mittels der staatlichen Identität registrieren, was aber auch einige Vorteile für die Nutzer/innen mit sich bringt (Beispielsweise rechtsverbindliche Kommunikation). Meist haben die Leute aber noch Zweit- oder gar Drittidentitäten auf anderen Hubs. Ansonsten kann jeder einen Hub betreiben und ein Geschäftsmodell daraus machen, allerdings ist es schwierig angesichts der öffentlich-rechtlichen Konkurrenz damit Geld zu verdienen. Wirtschaftlich erfolgreich sind zum Beispiel Hubs, die speziell für Firmenaccounts kostenpflichtige Services anbieten, oder Fanpage-Accounts für Prominente. Es gibt auch einen erfolgreichen Hub, der mit Werbung Geld verdient und einen Hub, der zu einem günstigen Preis einen werbefreien Premiumdienst anbietet. Es gibt aber auch viele genossenschaftliche Hubs, die den Mitgliedern gehören und durch Beiträge finanziert werden. Die zwei größten genossenschaftlichen Hubs haben dezidiert weltanschauliche Einschläge: es gibt einen großen eher konservativen und einen nicht ganz so großen eher progressiven Hub (und viele, viele kleine, linke Subkultur-Hubs) und sie unterscheiden sich vor allem auch hinsichtlich ihrer Moderationsstatute und Mitbestimmungsregeln. Große Firmen betreiben oft eigene Hubs, in denen ihre Mitarbeiter zwecks interner Kommunikation eine zweite Identität pflegen. Diese sind aber oft nicht Mitglied im Modell und wenn, dann nur zu Außendarstellungszwecken.

Die Metagovernance-Struktur wird aus zwei Töpfen gespeist: Auf der einen Seite gibt es ein spezielles Konsortium der UN, dass ein jährliches Budget bereitstellt. Nicht alle Länder, die Teil der UN sind, sind Mitglieder in dem Konsortium, aber durchaus einige der größten. Die UN hat keinerlei Einflussmöglichkeit auf die Strukturen der Metagovernance, sondern muss nur einmal jährlich deren Etat beschließen. Den Haushalt und die Etatbeantragung macht das Metagovernance selbst. Die UN darf nur mit guter Begründung einen abweichenden Etat beschließen. Im Budget des Metagovernance enthalten sind auch Hosting- und Versionierung der Hub-Codebasis.

Ein zweiter Topf speist sich aus Abgaben der Clients und Hubs. Es gibt sowohl für Client- als auch Hub-Anbieter eine verpflichtende Gebührenordnung mit einem geringen Mindestbetrag, der an das Metagovernance abgeführt werden muss. Kommerzielle Anbieter zahlen zusätzlich einen geringen Prozentsatz ihrer Einnahmen. Aus diesem zweiten Topf werden vor allem Codebasis-Entwicker/innen, als auch Moderator/innen des Metagovernance bezahlt.

Am teuersten war die Entwicklung der Code-Basis natürlich am Anfang. In einer ersten Phase wurden die Grundstrukturen von einem temporären Konsortium aus verschiedenen Firmen im Auftrag und mit Mitteln der EU entwickelt. In einer zweiten Phase wurden erste Testinstallationen aufgesetzt und der Code unter einer Opensource-Lizenz veröffentlicht. Es bildeten sich sodann Startups, die unter anderem mit öffentlicher Anschubförderung eigene Distributionen aus der Code-Basis entwickelten. In der dritten Phase waren Staaten (fast alle EU-Staaten sowie Kanada, Brasilien und Indien) die ersten Betreiber von Hubs und sorgten für die nötigen Netzwerkeffekte, um das Modell für weitere Entwickler/innen attraktiv zu machen.


Veröffentlicht unter Das Neue Spiel extern Plattformpolitik Queryology
1 Kommentar

Fünf beunruhigende Fragen an den digitalen Kapitalismus (Directors Cut)

/*****
Für die Zeitschrift der Bundeszentrale für politische Bildung „Zu Politik und Zeitgeschichte“ (APuZ) habe ich meinen Vortrag über den digitalen Kapitalismus vom vom letzten Herbst verschriftlicht. Aus Platzmangel wurde er rund um die Hälfte zusammengekürzt, auch wenn die Grundaussage gut erhalten blieb. Dennoch erlaube ich mir hier nun die Directors Cut Version zu posten, für alle, die gerne noch ein paar mehr Argumente hören möchten, warum der digitale Kapitalismus vielleicht not so much ein Kapitalismus ist. Die APuZ kann man hier runterladen oder bestellen.
*****/

[PDF Download]

Ein Gespenst geht um in Europa, es ist das Gespenst des digitalen Kapitalismus. Und wie es sich im konsumgeilen Kapitalismus ziemt, kommt er in vielen Formen und Farben: Informationskapitalismus, Daten-Kapitalismus, Plattform-Kapitalismus, Surveillance Capitalism und kognitiver Kapitalismus. Der digitalen Kapitalismen gibt es mittlerweile so viele, dass man sich wie bei Rossmann vor dem Shampoo-Regal fühlt.

Ich habe mir einen Großteil der Literatur angeschaut und ich habe Fragen. Genauer gesagt habe ich fünf beunruhigende Fragen an den Kapitalismus.

Mit „beunruhigend“ meine ich im übrigen nicht dieselbe Unruhe, in die sich die Autor/innen der unterschiedlichen Digital-Kapitalismus-Beschreibungen hineinsteigern. Es geht mir nicht darum, zu zeigen wie nun diese neue, die digitale Spielart des Kapitalismus schlimmer ist als alle vorhergehenden. Meine Beunruhigung gilt vielmehr dem Kapitalismus selbst. Ich lege ihm gewisser Weise meine Hand auf die Schulter und frage leise: „Alles OK mit dir, Kapitalismus“?

Denn während die meisten Autor/innen in der Digitalversion des Kapitalismus eine weitere Radikalisierung des Kapitalismus ausmachen, habe ich eher das gegenteilige Gefühl. Ich glaube, dem Kapitalismus geht es nicht gut im Digitalen. Ich will deswegen grundsätzlicher fragen, ob der Kapitalismus in seiner digitalen Spielweise wirklich noch die Kriterien erfüllt, mit denen wir dieses System des Wirtschaftens und der Organisation der Gesellschaft beschreiben.

Ich habe mir also verschiedene Kapitalismus-Definitionen angeschaut und versucht den Kern daraus zu extrahieren. Darunter war natürlich Marx’ einflussreiche Analyse des Kapitalismus, aber auch die Definition in der Wikipedia, als auch des Gabler Wirtschaftslexikons, sowie weitere aus spezifischen Sachbüchern.1 Diese Definitionen weichen hier und da von einander ab aber haben dann doch einen kleinsten gemeinsamen Nenner, eine Art übereinstimmenden Kern, weswegen es mir gelang, die fünf wichtigsten Kriterien herauszuziehen, von denen ich glaube, dass sie als allgemein Zustimmungsfähig gelten können:

Kapitalismus erfüllt folgende fünf Kriterien:

  1. Privateigentum an den Produktionsmitteln (Namensgebend: Kapital)
  2. Der Widerspruch zwischen Kapital und Arbeit (Zumindest bei Marx)
  3. Die Steuerung der Wirtschaft durch den Markt (Neoklassische Definition)
  4. Das Vorherrschen einer Eigentumsordnung (Heinsohn/Steiger)
  5. Das Prinzip der Akkumulation. (oder auch: Wachstum)
  6. Fazit

Ich möchte mir also im Folgenden genauer anschauen, wie diese fünf Kriterien auf den digitalisierten Kapitalismus passen.

 

Das Kapital

Fangen wir mit dem Offensichtlichsten – dem Privateigentum an den Produktionsmitteln, dem “Kapital” – an. Wir bewegen uns hier sofort in marxistischer Terminologie, aber auch in den übrigen Wirtschaftswissenschaften dürfte unstrittig sein, dass dies einer der wesentlichen Grundpfeiler des Kapitalismus ist.

Doch hat sich gerade hier durch die Digitalisierung viel getan. Zu Marx’ Zeiten waren die Produktionsmittel in erster Linie Land, Gebäude, Maschinen und vielleicht noch Fahrzeuge. Um sich zu veranschaulichen, wie krass sich die Essenz des Kapitals durch die Digitalisierung geändert hat, braucht man sich nur folgende, mittlerweile sprichwörtliche Aufzählung, vor Augen zu führen:

  • Uber, das größte Taxiunternehmen der Welt, besitzt keine Fahrzeuge.
  • Alibaba, der wertvollste Einzelhändler der Welt, hat kein eigenes Inventar.
  • Airbnb, der weltweit größte Übernachtungs-Dienstleister besitzt keine Immobilien.

Das klingt erstaunlich, aber doch nach anekdotischer Evidenz. Systematischer haben diesen Zusammenhang Jonathan Haskel und Stian Westlake in ihrem Buch „Capitalism without Capital“ untersucht. Der Untertitel – „The Rise of the Intangible Economy2 – zeigt auch schon an, dass natürlich das Kapital nicht wirklich verschwunden ist. Es hat sich nur dematerialisiert. Zu den materiellen Investitionsgütern die bereits Marx kannte, traten irgendwann Software, Datenbanken, Design, Marken, Fortbildungen und sonstige nicht-anfassbare, immaterielle Werte hinzu.

Und sie kamen nicht nur hinzu. In den USA, Großbritannien und Schweden hat der Anteil an immateriellen Investitionen die in materiellen Werte längst überflügelt. Bei den „Standard & Poors“ Top 500 Unternehmen nach Marktwert sind bereits 84% der Werte immateriell.3
ABB. 1 Aus Capitalism without Capital

Und die Digitalbranche ist hier Vorreiter und Treiber der Entwicklung. Die Tech-Unternehmen führen die Liste der Unternehmen mit den meisten “Intangible Assets” bis zum Platz 8 an, mit Amazon an der Spitze ($827 Mrd., 96% iA) gefolgt von Microsoft ($ 686 Mrd., 95 % iA).4

Nagut, materiell, immateriell, was macht das für einen Unterschied?“ kann man jetzt fragen. Es sind genau vier systemische Unterschiede, die Westlake und Haskel herausarbeiten.

Immaterielle Investitionen …

  1. sind “versunkene Kosten” (sunk cost). Man kann einmal in immaterielle Werte investiertes Kapital oft schlecht weiterveräußern.
  2. schwappen über (spill over). Man kann Informationen – und das sind immaterielle Güter immer – schlecht für sich allein behalten.
  3. skalieren (scalable). Einmal hergestellt kann ein immaterielles Gut unbegrenzt und ohne Zusatzkosten überall eingesetzt werden.
  4. sind synergetisch (synergy). Immaterielle Güter ergeben oft erst in der Kombination mit anderen immateriellen Gütern neue Produkte, bzw. führen immer wieder zu neuen Anwendungsfällen.

Zusammengenommen hinterlassen diese Unterschiede und damit einhergehende Effekte wiederum riesige Furchen im Kapitalismus selbst. Die beiden Autoren zeigen zum Beispiel, wie die Verschiebung hin zu immateriellen Kapital eine Rolle bei der zunehmenden ökonomischen Ungleichheit in der Gesellschaft oder dem vergleichsweise geringen Wirtschaftswachstum spielen.

Am spannendsten ist jedoch der Spill-Over-Effekt. Wir kennen den Effekt überall dort, wo gerade im urheberrechtlich geschützte Werke in Internet getauscht werden. Für industrielle Produzenten kann es aber auch einfach heißen, dass sich der Konkurrent die „Best Practice“ zur Herstellung von einem Produkt abschaut, oder eine von ihm eingesetzte Software nachbaut.

Einige – aber lange nicht alle – immaterielle Investitionen kann man deswegen rechtlich schützen lassen. Und hier kommen wir überhaupt erst wieder ins Fahrwasser unseres Kapitalismus-Kriteriums. Nur immaterielle Investitionen, die man über Urheberrechte, Patente oder Markeneintragung schützen kann, können überhaupt als „Privateigentum“ gelten und tauchen als “Assets” in den Bilanzen auf.

Aber selbst diese Formen von „Privateigentum“, also „Geistigem Eigentum“ sind in ihrer Eigentumsstruktur höchst fragwürdig, die bemessung ihres Wertes ist an der Grenze zur Beliebigkeit. Im Grunde handelt es sich um reine Monopolverwertungsrechte. Es sind also Behauptungen derart: „Der Staat sagt, dass nur ich diese Idee/Information/Marke/Logo nutzen darf.5

Und das führt mich zu meiner ersten beunruhigenden Frage:

„Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital überhaupt noch Kapitalismus?“

 

Arbeit

Ein wesentlicher Bestandteil jeglicher Kapitalismus-Definition und insbesondere bei Marx ist die Funktion von Arbeit, bzw. die Gegenüberstellung von Arbeit und Kapital als Teile des Produktionsvorgangs. Der marx’schen These nach ist menschliche Arbeit (genauer: gesellschaftlich notwendige Arbeit) dasjenige, was überhaupt den „Wert“ (als Tauschwert einer Ware innerhalb der Ökonomie) erschafft. Da der Arbeiter aber nicht in der vollen Höhe seiner Wertschöpfung entlohnt wird, sondern nur in etwa in der Höhe, die notwendig ist, um seine Arbeitskraft zu wieder herzustellen (Reproduktion), streicht der Kapitalist diese Differenz (Mehrwert) als Profit ein.

Auch in den herkömmlichen Wirtschaftswissenschaften sind sowohl Arbeit als auch Kapital die wesentlichen Produktivkräfte, jedoch wird dort ein anderer Werttheorie-Ansatz verfolgt. Wir kommen noch dazu.

Doch wenn wir uns zum Beispiel den Einsatz von Arbeit und erzieltem Wert in der Digitalwirtschaft anschauen, springen uns einige Dinge sofort ins Auge. Am besten vielleicht verdeutlicht, wenn wir die amerikanische Videothekskette Blockbuster mit dem Videostreamingdienst Netflix vergleichen.

Netflix machte im Jahr 2018 mit 5400 Mitarbeiter/innen $15,7 Milliarden Dollar Umsatz6, während der mittlerweile pleite gegangene Videoverleih-Riese Blockbuster in seinem letzten Jahr (2010) mit 25.000 Mitarbeiter/innen nur 3.24 Milliarden Dollar umsetzte. Das bedeutet, dass Blockbuster mit 5 mal so vielen Mitarbeiter/innen gerade mal 20% des Umsatzes von Netflix machte, obwohl beide in einem ähnlichen Business sind.7
Pro Angestellte/r scheint die Digitalwirtschaft viel mehr Wertschöpfung zu produzieren, als die alte, analoge Wirtschaft. Gemessen wird dieser Zusammenhang in der Wirtschaftswissenschaft als Arbeitsproduktivität und wenn wir die Zahlen für die Gesamtwirtschaft (zum Beispiel für die G20 Staaten) anschauen, sehen wir in der Tat ein enormes Wachstum der Arbeitsproduktivität aber nur ein geringes Wachstum der Löhne.
ABB 2. Aus International Labour Organization Organisation for Economic Co-operation and Development, The Labour Share in G20 Economies

Dass diese Differenz bei den Kapitalisten landet ist also folgerichtig und bereits bei Piketty untersucht, der zeigte, wie sich das Wachstum der Anlagevermögen entsprechend von dem Wachstum der Löhne entkoppelt hat. r > g bringt die wachsende Ungleichheit auf den Punkt.8

Diese Entwicklung zeigt sich auch in einem weiteren Phänomen, der heutigen Weltwirtschaft: dem stetigen Sinken der Lohnquote. Über viele Jahrzehnte lag der Anteil des Volkseinkommens (Bruttoinlandsprodukt/GDP), der in Form von Löhnen ausgezahlt wurde, sehr stabil bei etwa zwei Drittel. Seit den letzten 30 Jahren scheint sich das zu ändern. In der ganzen Welt sinkt die Lohnquote. In den USA um 6%, in Deutschland 7%, in Frankreich sogar um 14%.9 Es gibt verschiedene Erklärungsmuster, bei denen meist Globalisierung und Automatisierung im Mittelpunkt stehen. In ihrer Studie „The Fall of Labor Share and the Rise of Superstar Firms“ machen die Autor/innen einen anderen Grund aus: Superstar Firms.10 Konkret: Die Wirtschaft hat sich immer mehr konzentriert und wird in immer mehr Branchen von übermächtigen Playern dominiert. Diese sind enorm wirtschaftlich, verbuchen ein Großteil der Innovationen und nehmen den Wettbewerbern die Luft zum Atmen. Vor allem erwirtschaften sie mit erstaunlich wenigen Mitarbeiter/innen enorme Umsätze.

Ein großteil dieser Superstar Firms sind natürlich wiederum unsere Tech-Giganten. Unter den arbeitsproduktivsten Firmen der Welt, finden wir viele IT-Konzerne. Apple macht fast zwei Millionen Dollar Umsatz pro Mitarbeiter.11 Im Durchschnitt. Auch Facebook und Google verdienen auf Platz zwei und drei weit mehr als eine Millionen Dollar pro Mitarbeiter. Aber alle diese Firmen sind nicht dafür bekannt, dass sie ihre Mitarbeiter/innen schlecht bezahlen – im Gegenteil. In Bezug auf Marktpreise verdienen vor allem die Entwickler/innen und IT-Spezialist/innen Löhne weit über dem Durchschnitt. Aber gemessen am erzielten Umsatz verdienen sie nur “Penuts” und aus einer marx’schen Ausbeutungs-Logik heraus betrachtet, sind sie die vielleicht ausgebeutetsten Menschen der Welt, da der extrahierte Mehrwert so enorm ist.

Dabei ist unklar, inwieweit Automatisierung oder gar “Künstliche Intelligenz” bereits in diese Entwicklung mit reinspielt. Die sinkende Lohnquote scheint jedenfalls nicht stark an die Arbeitslosenquote gekoppelt zu sein – derzeit verzeichnen sowohl Deutschland als auch die USA eine historisch geringe Arbeitslosigkeit. Und doch erschienen in den letzten Jahre viele Studien, die einen enormen Jobverlust durch Künstliche Intelligenz prophezeiten: Die Spannen der Prognosen gehen allerdings weit auseinander und nicht alle Experten sind sich darüber Einig, ob wir überhaupt weniger Arbeitsplätze verzeichnen werden.12 Ein paar einschlägige Beispiele:

2013 warnte die Oxford University in einer vielbeachteten Studie, dass bis zu 47% aller Jobs in den USA bis 2033 in Gefahr seien.13 2017 sprach McKinsey von 400 bis 800 Millionen Jobs weltweit bis 2030 14 und letztes Jahr prognostizierte die OECD gerade noch 9% Jobverlust in ihren Mitgliederstaaten.15

Dass wir noch keine Ausläufer dieser Umwälzungen spüren, könnte auch damit zu tun haben, dass die Digitalisierung neue Jobs – allerdings im Niedriglohnsektor – schafft. Man denke an das wachsende unterbezahlte Heer der Paketbot/innen oder an die Essenslieferant/innen und Uberfahrer/innen der digitalen Gig-Economy (die aber mit nur 1% einen überraschend kleineren Anteil haben.16). Aber es ist auch nicht überall KI drin, wo KI draufsteht. Oft wird sie nur simuliert oder zumindest flankiert von im Hintergrund arbeitenden Click-Worker/innen in Niedriglohnländern.17 Der wachsende Anteil Niedriglohnbeschäftigter dürfte als Faktor auch in die sinkende Lohnquote reinspielen.

Doch wenn sich durch Digitalisierung einerseits die Produktivität auf immer weniger Firmen konzentriert, eine unbekannte aber doch vorhandene Menge an Jobs durch Automatisierung wegfällt, dazu immer mehr immer mehr Geringverdienerjobs entstehen, stellt sich die Frage ob das nicht auf Kosten der Mittelschicht-Jobs geht.

Sicher, ein Großteil der Leute arbeitet noch in herkömmlichen, sehr analogen Berufen. Für den Rest könnte David Graebers These von den „Bullshit Jobs“ eine gute Erklärung bieten.18 Graeber schätzt bis zu 40% der Jobs in der aktuellen Ökonomie seien Jobs, bei denen die Angestellten selbst nicht mehr nachvollziehen können, auf welche Weise er überhaupt produktiv ist. Bullshit-Jobs fehlt meist jeglicher „Sinn“ im gesellschaftlichen Kontext – zumindest wird er so empfunden. In ihrer Studie, „Socially Useless Jobs“ werteten Robert Dur, Max van Lent Umfragen von 100.000 Teilnehmern aus, die aus verschiedenen Zeiträumen und unterschiedlichen Ländern stammen und kommen zu dem Ergebnis, dass es zwar eine Menge der „Bullshit-Jobs“ gibt, sie aber nicht ganz so dominant sind, wie Graeber vermutet.19 Gerade mal 8% gehen davon aus, dass ihr Job keine gesellschaftlichen Nutzen stiftet. Weitere 17% sind sich des gesellschaftlichen Mehrwerts ihrer Arbeit aber zumindest nicht sicher.

Wie der gefühlte gesellschaftliche Mehrwert mit dem ökonomischen Mehrwert zusammenhängt, ist allerdings nur schwierig bis unmöglich zu messen. Vor allem, da die Art der Wertschöpfung heute ganz und gar anders von statten geht, als Marx es damals beobachtete. Wie hängen also Daten, Arbeit und Wert zusammen? Wo kommt der enorme Reichtum der Tech-Giganten her?

In dem Buch „Das Kapital sind wir“ hat Timo Daum nicht nur eine interessante Beschreibung der digitalen Ökonomie abgeliefert, sondern eine ganz eigene These zur Wertschöpfung im Digitalen aufgestellt.20 Diese geschehe nicht bei der Produktion von Waren, sondern in Form von Innovation. Und wir alle Arbeiten daran mit, denn wir werden jederzeit vermessen, während wir die digitalen Tools verwenden. Die gesammelten Daten werden dann für die Entwicklung neuer Innovation und Verbesserung der Produkte genutzt. Eine Interessante digitale Variante von Marx’ Arbeitswert-Theorie.

Shoshana Zuboff schlägt in eine ganz ähnliche Kerbe, allerdings klingt bei ihr die Wertschöpfung wesentlich perfider.21 Auch bei ihr steht die Überwachung der Nutzer/innen im Mittelpunkt, doch statt um Innovation geht es bei ihr um Manipulation. Dabei ist sozusagen das Delta von vorhergesagtem Verhalten zu manipuliertem Verhalten der Punkt, an dem Wert geschöpft wird. Dieser „Verhaltens-Mehrwert“ (behavioral surplus) würde dann als „Surveillance Capital“ abgeschöpft.

In dem Buch „Platform Capitalism“ von Nick Srnicek sind Daten hingegen eine Art Rohstoff, der erst in der Verarbeitung/Verfeinerung (zum Beispiel mittels Big Data) wirklich an Wert gewinnt.22 Hier wären es die Programmierer der Auswertungsalgorithmen und vor allem Data Scientists, deren Arbeit den Wert schöpft.

Paul Mason kam in seinem Buch „Post-Capitalism“ sogar zum Schluss, dass wenn Information statt Arbeit zum zentralen Bestandteil der Wertschöpfung wird, sich die kapitalistischen Ökonomien nicht werden halten können.23

Um ehrlich zu sein, lässt mich die Frage nach Rolle der Arbeit im Digitalen mit vielen unterschiedlichen, einander widersprechenden Theorien und Beobachtungen zurück. Einigkeit scheint allein darüber zu bestehen, dass Arbeit im klassischen Sinn zumindest nicht mehr der wesentliche Ort der Wertschöpfung zu sein scheint.

Ich frage also mit genauso viel Ratlosigkeit wie Beunruhigung:

„Ist ein digitaler Kapitalismus mit nur noch behauptetem Kapital und überflüssiger Arbeit überhaupt noch Kapitalismus?“

 

Markt

Seit Marx „Das Kapital“ schrieb ist allerdings auch in den Wirtschaftswissenschaften viel passiert. Die heute etablierte Ökonomie hat eine ganz andere Sicht auf den Kapitalismus. Für sie steht nicht der Produktionsprozess im Mittelpunkt des Geschehens, sondern der Markt. Und so findet sich kaum eine zeitgenössische Kapitalismus-Definition, die nicht auch auf den Markt rekurrieren würde. Markt – so die Wirtschaftswissenschaftler – sei das wesentliche Steuerungsinstrument des Kapitalismus. Indem der Markt das Angebot (Produktion) und die Nachfrage (Konsumtion) über das Instrument des Preises im Gleichgewicht hält, sorgt er dafür, dass zu jederzeit immer ungefähr genauso viel von einer Ware produziert wird, wie auch gebraucht wird und sich dieses Angebot auch im Rahmen bezahlbaren bewegt. So jedenfalls die Theorie, die oft und gerne kritisiert wird, da sie eine ganze Reihe von Annahmen voraussetzt, die in der Realität kaum zu erfüllen sind: Völlige Markttransparenz, Menschen als rationale Wirtschaftssubjekte (Homo Oeconomicus), die Nichtexistenz von Transaktionskosten, das Ausblendung von nicht im Markt abgebildeten Einflüssen und Kosten (Externalitäten), etc.

Doch blendet man diese Ungenauigkeiten gutwillig aus, wie das in theoretischen Versuchsanordnung in der Physik ja auch Standard ist, kann man den Markt als „Informationssystem24 verstehen, der als Input die Signale von Anbietern und Nachfragern koordiniert.

Wenn man den Markt als Informationssystem begreift, muss man annehmen, dass er inhärent anschlussfähig an die Digitalsphäre sein sollte. Und Tatsächlich. Es stellt sich heraus, dass sich Marktmechanismen leicht in Algorithmen nachbauen lassen. Genau das hat zum Beispiel Uber mit seinem „Surge Pricing“ gemacht. Je nach Tages- und Nachtzeit sind unterschiedlich viele Uber-Fahrer/innen unterwegs und es gibt unterschiedlich hohe Nachfrage nach Uber-Fahrten. Ubers Surge-Pricing versucht darauf eine Markt-adäquate Antwort zu finden, indem es dem Kunden neben dem Standard-Preis auch noch den Surge-Preis anzeigt. Der Surge-Preis ist im Zweifelsfall höher als der Standard-Preis, aber dafür kommt das Auto sofort. Der Surge-Preis ist also eine Art Marktpreis – mit dem Unterschied, dass er von einem Algorithmus berechnet wurde.

In gewisser Weise führt es die Idee des Marktes ad absurdum, einen Marktmechanismus als datenbankgestützen Algorithmus nachzubauen, bietet aber auch ganz neue Möglichkeiten. So kamen Wirtschaftswissenschaftler um den Ökonom Steven Levitt auf Uber zu und fragten, ob sie denn mal einen Blick in die dabei generierten Daten werfen dürften. In ihrem Paper „Using Big Data to Estimate Consumer Surplus – The Case of Uber“ wurde dann auch etwas revolutionäres gezeigt: nämlich die Nachfragekurve – Beziehungsweise die Konsumentenrente.25

Um zu erklären, was es damit auf sich hat, müssen wir kurz zurück zur neoklassischen Vorstellung vom Markt. Während die Angebotskurve eine empirisch vergleichsweise leicht nachzuvollziehende Tatsache ist (man zähle die Hersteller eines Produkts sowie deren Output bei unterschiedlichen Absatzpreisen) war die Nachfragekurve immer nur eine lauwarme Behauptung der Ökonomen. Weder kann man wirklich messen, wieviele Leute bereit wären, ein Produkt zu kaufen, noch, wieviel sie zu welchem Preis bereit wären, davon zu kaufen. Was man machen kann ist, tatsächliche Kunden zählen und alle anderen Leute in Marktforschungsanaylsen zu befragen, aber all das gibt höchstens vage Anhaltspunkte für die Nachfragekurve. Kurz: um die Nachfragekurve zu kennen, müsste man in die Köpfe der Leute schauen.

Mit den Uber-Daten konnten die Wissenschaftler nun genau das tun. In den vielen Millionen Entscheidungen für und gegen den Surge-Preis bei Uber steckt die Nachfragekurve quasi drin – sowie eine ganze Menge andere Erkenntnisse. Beispielsweise sind Leute mit niedrigem Smartphone-Akku in der Regel bereit einen sehr viel höheren Preis für eine sofortige Uber-Fahrt zu bezahlen. Wer hätte das gedacht?

Aber die Beschreibung der Nachfragekurve beinhaltet noch etwas anderes: das, was Ökonomen „Konsumentenrente“ nennen. Die Konsumentenrente ist kurzgesagt die Preisdifferenz zwischen dem Preis, den ich für ein Produkt tatsächlich zahle und dem, den ich zu bezahle bereit wäre, wenn der Preis höher wäre. Diese nichtgezahlte Differenz nehme ich als Konsument sozusagen als Bonus mit. Da jeder Konsument eine unterschiedliche Bereitschaft hat, einen höheren Preis zu zahlen, erhält jeder Konsument somit auch eine individuelle Konsumentenrente. Die allgemeine Konsumentenrente errechnet sich somit, wenn man all diese individuellen Differenzen zusammenrechnet.
ABB 3. Nachfragekurve und Konsumentenrente

Die Untersuchung der Ökonomen ergab, dass Uber im Jahr 2015 eine allgemeine Konsumentenrente in Höhe von 2,9 Milliarden Dollar erwirtschaftet hat. Nochmal: Das ist kein Geld, das irgendwo in irgendeiner Statistik auftaucht. Es ist Geld, dass nicht ausgegeben wurde, aber ausgegeben worden wäre, wenn … ja, das ist eine spannende Frage. Im Grunde, wenn jeder einen personalisierten Preis angezeigt bekommen hätte.

Denn wenn man die Konsumentenrente ausrechnen kann, dann kann man sie auch abschöpfen. Wenn man weiß, dass eine Person mehr Geld zu bezahlen bereit wäre, warum ihm dann nicht auch diesen Preis anzeigen?

So ganz neu ist das allerdings nicht. Die Abschöpfung der Konsumentenrente ist schon lange ein Ziel sehr vieler digitaler Bemühungen. Im öffentlichen Diskurs firmiert das Thema unter „Preisdiskrimierung“.26 IBM hat dafür extra das Startup „Demand Tech“ gegründet und in Deutschland hat sich „Segment of One“ die Abschöpfung der Konsumentenrente auf die Fahnen geschrieben.

Es ist wichtig sich zu vergegenwärtigen, was hier passiert: Wenn der Marktpreis ein Informationssystem ist und Computer, Internet und Shopsysteme ebenfalls Informationssysteme sind, dann wurde das Erstere durch das Zweitere quasi gehackt. Die IT-Systeme der Anbieter sind einfach intelligenter als der Markt und haben ihn “outgesmarted”.

Das alles hört sich recht dystopisch an, doch kann man den Blick von hier aus auch utopisch wenden: wenn Computersysteme heute intelligenter sind als der Markt, wozu brauchen wir den überhaupt noch? Genau das fragt Stefan Heidenreich in seinem Buch: „Geld Für eine non-monetäre Ökonomie“.27 Dort stellt er mit einem kühlen, medientheoretischen Blick fest, dass es Geld (und damit Preise und Markt) gar nicht mehr braucht. Stattdessen schlägt er vor, Algorithmen das Angebot mit der Nachfrage matchen zu lassen. Das hat zum einen den Vorteil, dass Menschen durch Akkumulation von Vermögen nicht unfassbar reich werden können, aber auch, dass wir die Machting-Kriterien politisch aushandeln können.

Doch egal, ob Utopie oder Dystopie, wenn Algorithmen den Markt tatsächlich outgesmartet haben, so dass wir über seine Abschaffung diskutieren können, stellt sich die dritte beunruhigende Frage an den digitalen Kapitalismus:

„Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital und überflüssiger Arbeit, der nicht mehr durch den Markt gesteuert wird, noch Kapitalismus?“

 

Eigentum

Eine Kapitalismus-Definition, die mir besonders gefällt, da sie schlicht und elegant ist, die sich dabei sowohl von der marxistischen wie auch der neoklassischen Definition absetzt, ohne mit ihnen inkompatibel zu werden, ist diejenige, die Gunnar Heinsohn und Otto Steiger in ihrem Buch: „Eigentum, Zins und Geld“ vorgeschlagen haben.28 Sie definieren den Kapitalismus schlicht als „Eigentumsordnung“, also eine Gesellschaft die durch das Konzept Eigentum strukturiert ist. Das hört sich zunächst banal, offensichtlich und wenig ertragreich an, wird aber spannend, wenn sie sich die Implikationen des Begriffes „Eigentum“ genauer anschaut.

Während Marx die Ursituation des Kapitalismus in der Produktion verortet und die Neoklassiker dafür den Markttausch heranziehen, sehen Heinsohn und Steiger sie in der Unterscheidung von „Besitz“ und „Eigentum“. Diese Unterscheidung ist selbst keine ökonomische, sondern vor allem eine rechtliche. „Besitz“ ist dabei alles, worüber ich direkte Verfügungsgewalt ausübe. Wenn man mir meinen Besitz nehmen will, muss man ihn mir physisch wegnehmen. Besitzen kann ich daher alles, was ich zu verteidigen imstande bin. Darin unterscheidet es sich vom Eigentum. Ich kann Gegenstände, die mein Eigentum sind, einfach aus der Hand geben, also in den Besitz anderer Menschen geben, ohne dass es aufhört, mein Eigentum zu sein. Das funktioniert, da ich nicht selbst dafür sorgen muss, es wieder zurückzubekommen, sondern der momentane Besitzer verpflichtet ist, es mir zurückzugeben. Eigentum ist ein Rechtstitel, es ist abstrakte Behauptung. Und wenn man genauer hinschaut, merkt man, dass „Eigentum“ nur dann funktionieren kann, wenn eine externe Macht dafür sorgt, dass der Rechtstitel im Zweifelsfall auch durchgesetzt wird. Für Eigentum braucht es also einen Staat mit Gewaltmonopol.

ABB 4. Besitz vs. Eigentum

Wenn wir uns mit dieser Definition im Kopf wieder dem Digitalen zuwenden, kommt als erstes der Dienst Napster in den Sinn. 1999 gestartet, machte der Dienst schlicht alle Musikdateien auf dem eigenen Computer für alle anderen Napster-User zugänglich. Das Programm hatte eine Suchmaske, mit der man nach jedem beliebigen Song suchen konnte und die daraufhin eine Liste mit Napster-Usern ausspuckte, die ihn besaßen. Ein Klick auf einen der User und der Download startete. Das Prinzip nennt sich Peer-to-Peer (p2p) und wir machten wochenlang nichts anderes mehr; es war das reinste Eldorado.

Die Musikindustrie hatte jedoch Einwände. Für sie war das Eldorado ein „Major Spill-Over“, der totale Kontrollverlust und das plötzliche Ende ihres Geschäftsmodells.

Mit Heinsohn/Steigers Kapitalismus-Definition könnte man sagen, dass die Musikindustrie aus der Eigentumsordnung in eine Download-Besitz-Ordnung zurückfiel. Zwar hat die Musikindustrie (und andere Rechteverwerter) mit viel Lobbyismus dafür gekämpft, das Urheberrecht zu verschärfen und die Rechtsdurchsetzung zu totalisieren, aber trotz allem konnte sie die P2P-Tauschbörsen nicht loswerden. Napster wurde aus dem Netz geklagt, doch nach Napster kam Kazaa, dann eDonkey und schließlich Bittorrent und viele andere Technologien und Kanäle, über die bis heute allerlei Kram getauscht wird.

Hier nun das Spannende: Dass die Musikindustrie heute wieder ein Geschäftsmodell hat, liegt nicht an der Eigentumsordnung, also nicht am Staat, sondern weil eine ganz eigene, neue Ordnung im Internet entstand. Die Ordnung der Plattformen.

Als Apple 2002 auf die Musikverlage zukam und ihnen iTunes zeigte, standen sie gerade mit dem Rücken zur Wand. Sie hatten es nicht geschafft, den P2P-Tauschbörsen ein populäres und legales Angebot im Internet entgegenzustellen. Nun stand Steve Jobs vor ihnen. Er hatte zuvor mit dem iPod den ersten populären, tragbaren MP3-Player auf den Markt gebracht und erzählte ihnen nun von iTunes, einer digitalen Verkaufsplattform für Musik. Die Konditionen, die Jobs ihnen für ihre Rettung diktierte, erzürnten sie jedoch. Musikdateien sollten alle einzeln verkaufbar sein, egal, ob sie teil eines Albums waren oder nicht. Und jeder Song sollte nur 99 Cent kosten.29

Jobs konnte den Verlagen die Bedingungen diktieren, weil er etwas hatte, was sie nicht hatten. Und dieses Etwas ist die Grundvoraussetzung für jede Ökonomische Transaktion: Ich nenne es „marktfähige Verfügungsgewalt“. Besitz reicht dafür nicht aus, denn marktfähige Verfügungsgewalt muss es erlauben, eine Sache anzubieten und gleichzeitig vorzuenthalten. Eigentum erschafft diese marktfähige Verfügungsgewalt, denn das Vorenthalten-können wird staatlich garantiert. Marktfähige Verfügungsgewalt wird uns gegenüber überall ausgeübt, am Kiosk, beim Autohändler, im Supermarkt, etc. Im Internet ist marktfähige Verfügungsgewalt jedoch durch die leichte Kopierbarkeit der Daten kaum zu bewerkstelligen und der Staat ist da auch keine Hilfe.

Der Napster-Schock und der Eintritt Apples in das Musikbusiness ist ein historisches Ereignis, das weit über sich selbst hinausreicht. Heute streiten sich Apple, Google und Spotify über die Musikstreaming-Vorherrschaft, aber damals war es Apple, die zeigten wie „marktfähige Verfügungsgewalt“ im Internet funktionieren kann. Plattformen wie iTunes sind in erster Linie Kontroll-Infrastrukturen und sind damit in der Lage Verfügungsgewalt durchzusetzen. Es ist kein Zufall, dass sich Rechteinhaber heute in erster Linie an Plattformen wenden, wenn es darum geht, ihre Rechte durchzusetzen. Vom DMCA-Act in den USA, Youtubes Content-Id an deren Vorbild sich nun die in Europa gesetzlich eingeführten Uploadfilter orientierten – sie alle sollen die Plattformen zu noch effektiveren Instrumenten der Verfügungsgewalt machen, weil der Staat diese nicht mehr garantieren kann.

Doch die marktfähige Verfügungsgewalt der Plattformen sind schon lange nicht mehr auf tatsächliche Rechtstitel beschränkt. Facebook hat keinerlei Eigentumsrechte an unseren persönlichen Daten und dennoch basiert ihr Geschäftsmodell auf der Ausübung einer marktfähige Verfügungsgewalt über sie. Die Plattformen setzen bereits eine Form der Kontrolle durch, die die Eigentumsordnung gar nicht braucht, sondern diese lediglich stellenweise abbildet. Das aber bedeutet nichts Geringeres, als dass das ganze Rechtskonzept des Eigentums und damit die Kapitalistische Ordnung im Sinne von Heinsohn und Steiger im Digitalen obsolet sind.

Was zu der beunruhigenden Frage führt:

„Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital und überflüssiger Arbeit, der nicht mehr durch den Markt gesteuert wird und die Eigentumsordnung hinter sich gelassen hat, noch Kapitalismus?“

 

Wachstum

Ein Kriterium kommt bei Kapitalismus-Definitionen sowohl aus der marxistischen, wie auch aus der neoklassischen Schule immer wieder auf und das ist das Wachstum. Bei Marx ist der Kapitalismus auf „Akkumulation“, das heißt ständigem Wertzuwachs ausgelegt. Das ergibt sich einerseits aus der Tatsache, dass der Kapitalist die Bedingungen der Möglichkeit der Produktion jederzeit wiederherstellen (reproduzieren) muss, aber andererseits darüber hinaus auch Profit erwirtschaften will.

Auch in der klassischen Wirtschaftstheorie spielt Wachstum eine zentrale Rolle, sowohl auf der mikroökonomischen Ebene (der Konsument strebt jederzeit danach seinen Nutzen zu maximieren und der Unternehmer will den Gewinn seiner Unternehmung maximieren), als auch auf der makroökonomischen Ebene (die Ökonomie ist auf ständiges Wachstum aus, welches sich im Zins abbildet).

Seit geraumer Zeit haben wir es vor allem in den westlichen Industrienationen auf dieser Ebene mit einem mysteriösen Phänomen zu tun, das Ökonomen die „Säkulare Stagnation“ nennen. Sie nennen sie so, weil das geringe Wachstum seit der Finanzkrise 2007 eigentlich mit herkömmlichen Theorien nicht erklärbar ist. So sind die Leitzinsen der Währungsbanken zwar so niedrig, dass wir bereits seit vielen Jahren einen negativen Realzins (also Zins minus Inflation) haben, doch obwohl Geld noch nie so billig war, bleibt die Sparquote hoch und die Investitionen bleiben spärlich. All das deutet eigentlich auf eine Rezession hin, doch gleichzeitig haben wir es mit einer vergleichsweise niedrigen Arbeitslosenquote zu tun, was bedeutet, dass die Wirtschaft gut ausgelastet ist.

Es gibt eine vielschichtige Diskussion in der Ökonomie über die Ursachen der säkularen Stagnation. Schon Maynard Keynes hat die Möglichkeit vorhergesehen, dass die Sparquote die Investitionsquote übersteigt und auch zu Marx’ These von dem tendenziellen Fall der Profitrate böte sich als Erklärung für unseren Zustand an.

Aber ich möchte hier zunächst eine historische und sehr gründliche Beschäftigung mit dem Thema Wachstum und dessen Ausbleiben anführen, das in den letzten Jahren Furore gemacht hat: Robert J. Gordons „The Rise and Fall of American Growth“.30 In dieser umfangreichen, wie detaillierten wirtschaftshistorischen Studie weist Gorden nach, dass die goldenen Jahre des großen Wirtschaftswachstums in den USA lediglich eine Anomalie in der Geschichte war. Es waren wirklich nur die 100 Jahre vom Ende des Bürgerkriegs bis etwa 1970, in denen die Wirtschaft zweistellig wuchs und sich das Leben der Amerikaner gleichzeitig sichtbar und radikal zum besseren veränderte. Letzteres zeigt er nicht nur anhand der Wirtschaftsdaten, sondern steigt herab in die Haushalte und Betriebe jener Zeit und führt anschaulich auf, wie grundlegend sich das das Leben und Arbeiten in diesen hundert Jahren verändert hat: Elektrizität, künstliches Licht, der Telegraf, die Automobilität, die Waschmaschine – all diese Technologien haben das Leben der Menschen radikal auf den Kopf gestellt und Werte geschaffen, die auf einer breiten Front bei den Leuten ankamen.

Gordons These ist nun, dass dieser breite Wohlstandszuwachs von tatsächlicher Innovation angetrieben war und folglich unsere heutige Zeit – trotz all ihrer digitalen Zukunftsversprechungen – auf der Stelle tritt. Wirtschafts-theoretisch untermauert er diesen Befund, indem er sich eine Ableitung des Wirtschaftswachstums anschaut: die „Total Factor Productivity“. Diese Kennzahl normalisiert das Wachstum entlang der in ihr eingeflossenen Faktoren, nämlich Kapital und Arbeit. Rechnet man also den Mehreinsatz von Kapital und Arbeit aus dem Wachstum heraus, bekommt man den Anteil der Wertschöpfung, der weder durch Kapital noch Arbeit erklärbar ist: Diese Total Factor Productivity (TFP) sei laut Gordon eben der messbare Effekt von Innovation im Wachstum.

ABB 5. Aus The Rise and Fall of American Growth

Da diese TFP über zwischen 1930 und 1970 stetig weit über einem Prozent war, davor oder danach aber wesentlich darunter, schließ Gordon daraus, dass trotz der großen Verwerfungen der Digitalisierung, diese kaum zu Innovation geführt habe. Gordon greift damit eine Beobachtung auf, die bereits Robert Solow 1987 gemacht hat: „You can see the computer age everywhere but in the productivity statistics.“31 Auch der bekannte Silicon Valley Investor Peter Thiel beklagt in seinem Buch „Zero to One“, dass das Problem unserer Zeit sei, dass wir keine wirkliche Innovation mehr produzieren.32 Er unterscheidet zwischen Erfindungen, die aus dem Nichts zu etwas ganz Neuem führen (zero to one) und jenen, die eine vorhandene Erfindung lediglich weiteren Nutzer/innen zugänglich machen (One to N). Unsere heutige Zeit sei vor allem durch letzteres geprägt, lamentiert Thiel.

Ich möchte diesen Thesen widersprechen und eine gegenteilige These aufstellen: Ich glaube, dass es digitale Innovation gibt, dass sie real ist und tatsächlich unser aller Leben verändert, aber dass diese Innovation und Veränderung unseres Lebens mit herkömmlichen Maßstäben kaum zu messen ist. Um das zu erklären müssen wir schauen, wie solche Messungen, also solche Kennzahlen wie das Bruttoinlandsprodukt (im englischen GDP) und alle davon abgeleiteten Werte wie Wachstum, Produktivität oder eben TFP herkommen: Es wird geschaut, was in den unterschiedlichen Branchen an Geld umgesetzt wird, wie viel von was gekauft wird und am ende wird all das schlicht in eine Zahl zusammengerechnet. Kurz: Beim GDP handelt es sich um aufaddierte Transaktionen, was heißt: alles, was keine Transaktion verursacht, fließt nicht in die Rechnung ein.

Nun gibt es aber viele Gründe, warum sich gerade digitale Innovation oft transaktionsneutral oder gar transaktionsmindernd in den Zahlen niederschlägt:

  • Durch das Internet wird die Markttransparenz erhöht. Wer kauft noch Dinge zu denen er/sie nicht vorher Produktreviews gelesen hat, dessen Händler keine gute Bewertung hat oder isst in einem Restaurant, das nicht irgendwo empfohlen wurde? Unsere Konsumentscheidungen sind heute viel fundierter als vor dem Internet, was aber auch bedeutet, dass wir weniger Fehlinvestitionen tätigen. Fehlinvestitionen sind aber oft zusätzliche Investitionen, die heute schlicht nicht mehr stattfinden.
  • Der bereits anfangs erwähnte Spill-Over-Effekt hat dazu geführt, dass wir heute ein weitaus größeres kulturelles Angebot zur Verfügung haben, ohne wesentlich mehr Geld auszugeben. Dafür müssen wir nicht alle bei Bittorrent unsere Serien laden, aber allein, dass wir es könnten, zwingt die Anbieter attraktive Bezahlangebote zu schaffen. Verwertungs-Lobbyisten sprechen hier von einem „Value-Gap“, also dass es eine Lücke gibt, zwischen dem, was ein Kulturprodukt „wert“ wäre und dem, was tatsächlich dafür verlangt werden kann, ohne dass Leute zur illegalen Alternative greifen.33 Dieser Value-Gap ist ebenfalls ein Minus in der Wachstumsbilanz – allerdings in Form einer Konsumentenrente.
  • Natürlich darf man nicht vergessen, auf wieviel kostenloses Wissen wir heute Zugriff haben. Allein die Wikipedia hat unsere ganze Art zu leben und zu arbeiten revolutioniert. Ich persönlich wüsste nicht mehr, wie ich mir sonst einen Einstieg in ein Thema verschaffen sollte. Die Wikipedia ist – bis auf ein paar wenige Spendenzahlungen – komplett kostenlos. Netto geht sie sogar mit einem satten Minus in die volkswirtschaftliche Gesamtrechnung ein, wenn man die vielen wegen ihr eingestampften Lexikonverlage gegenrechnet. Obwohl es vielfach versucht wurde, gibt keine sinnvolle Art den Wert der Wikipedia zu messen.34
  • Einen ähnlichen Effekt haben wir durch die Verwendung von Open Source Software in der Wirtschaft. Obwohl auf den meisten Büroschreibtischen nachwievor ein Microsoft Windowsrechner steht, läuft im Hintergrund der Großteil der weltweiten Serverinfrastruktur auf Linux und anderen Open Source Systemen. Diese Systeme kosten meistens keine Lizenzgebühren und werden kostenlos aus dem Netz kopiert. Es gibt natürlich kommerzielle Anbieter, die Softwarepakete schnüren und Support leisten, aber ihre Wirtschaftsleistung fällt gegenüber der substituierten Software kaum ins Gewicht. Natürlich hat auch das einen Value Gap Effekt auf den Windowspreis und unter anderem deswegen kann Apple seinen Nutzer/innen kein Geld mehr für neue Betriebssysteme oder Updates aus der Tasche pressen.
  • Insgesamt werden alle möglichen Prozesse innerhalb der Wirtschaft durch Technologie immer effizienter gestaltet. Der Einzug von KI und und Big-Data wird immer wieder mit erheblichen Einsparungen beworben. Einsparungen sind aber nicht getätigte Transaktionen. Es sind Verschlankungen der Bilanz, denen zumindest nicht zwingend eine zusätzliche Investition gegenübersteht.

Zusammengefasst lautet die These: Digitale Innovationen spart mehr Transaktionen ein, als sie zusätzlich erschafft und das ist gut so. Oder radikaler: Wirtschaftswachstum und Nutzen verhalten sich in der digitalen Wirtschaft negativ proportional zueinander.

Angesichts dieser doch sehr radikal anderen Lage, stellt sich die Frage nach der säkularen Stagnation ganz anders: Warum haben wir überhaupt noch Wachstum?

Meine These dazu: Wir befinden uns in einer Blase, ähnlich wie 2007, aber mit immateriellen Werten. Ich nenne sie die „Intangible Bubble“. Ich glaube, Immaterialgüter sind massiv überbewertet. Sie sind überbewertet, weil sie künstlich am Spill-Over gehindert werden, der im Digitalen eigentlich der Naturzustand jeder Information ist. Plattform-Kontrolle, drakonische Urheberrechts-Gesetzgebung und -Durchsetzung haben zu einer künstlichen Verknappung von Ideen, Gedanken und kreativen Leistungen geführt, die auf der einen Seite unser aller Leben verarmt, um es uns auf der anderen wieder teuer verkaufen zu können.

Nimmt man diese These zur Grundlage, dann ist ein wesentlicher Teil des digitalen Wachstums der letzten Jahre einzig und allein durch das Aufbauen von größeren und besseren Kontrollstrukturen erwirtschaftet worden. Der Wertschöpfungsprozess ist unter den digitalen Bedingungen zum toxischischen “Rent Seeking” qua monopolartiger Kontrollstrukturen geworden.35 Jeder zusätzlich ausgegebene Euro stiftet keinen Nutzen mehr, sondern ist Ergebnis einer Nutzenseinschränkung und Minderung Wohlfahrt der Gesellschaft.

Das wäre die fünfte und letzte Frage an den digitalen Kapitalismus:

“Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital und überflüssiger Arbeit, der nicht mehr durch den Markt gesteuert wird, die Eigentumsordnung hinter sich gelassen hat und dessen kaum noch vorhandenes Wachstum aus der künstlichen Verknappung von Immaterialgütern resultiert, noch Kapitalismus?”

 

Fazit

Um das hier umstandslos zu formulieren: Nein, nein, das ist nicht mehr der Kapitalismus. Alle definitorischen Kriterien des Kapitalismus werden durch die digitale Wirtschaft ad absurdum geführt. Doch es bleiben Fragen:

Schock, schwere Not! Haben wir dann jetzt den Kommunismus oder was?

Natürlich ist das ebenfalls nicht der Fall. Zunächst stehen wir mit mindestens einem Bein ja noch voll und ganz im guten, alten analogen Kapitalismus. Und was das digitale Bein betrifft: Wir haben Kapitalismus immer nur in Abgrenzung zu Kommunismus oder Sozialismus – bestenfalls noch Anarchismus oder Feudalismus zu verstehen gelernt. Das, was die Digitalwirtschaft dort tut, ist keines von dem. Nicht alles, was nicht Kapitalismus ist, fällt automatisch in eine der anderen Kategorien.

Wir müssen an dieser Stelle der Neuheit der Situation gerecht werden. Dies ist unser aller erste Digitalisierung und somit sollten wir der Möglichkeit Rechnung tragen, dass es sich hier auch um eine komplett neue Form der Ökonomie handelt. Eine, für die wir noch keinen Namen haben und noch gar nicht wissen, wie sie funktioniert. Etwas, das noch im Werden ist. Dieses Etwas ist nicht automatisch besser oder schlechter, als der Kapitalismus, nur eben hinreichend anders. „Die alte Welt liegt im Sterben, die neue ist noch nicht geboren: Es ist die Zeit der Monster.“ soll Gramsci einmal gesagt haben.36 Wir haben es hier mit einem Monster zu tun, einem (noch) namenlosen Wesen. Monster sind nicht automatisch böse, aber sie machen uns Angst, weil wir sie nicht verstehen.

Doch warum riecht dieses Monster so sehr nach Kapitalismus, schmeckt wie Kapitalismus und sieht zumindest mit zugekniffenen Augen aus wie Kapitalismus?

Auch wenn unter der Haube kein kapitalistischer Motor mehr seine Arbeit verrichtet, ahmt seine Hülle den Kapitalismus doch irgendwie nach. Nicht in Täuschungsabsicht, sondern weil es nichts anderes kennt. Es ist derselbe Grund, wieso das Fernsehen zuerst Theaterstücke zeigte und wieso das erste Automobil zunächst nicht aussah wie ein Automobil, sondern wie eine Kutsche. Woher sollte Karl Benz schließlich wissen, wie ein Automobil aussieht? Er hatte noch keines gesehen.
ABB 6. Der erste Benz

Gut. Und was tun wir jetzt mit dieser Erkenntnis?

Wir wissen an dieser Stelle schon genug, um ein paar Dinge festzuhalten: Der Kapitalismus und die digitale Ökonomie unterscheiden sich ganz wesentlich und zwar vor allem auch darin, was Wachstum in beiden Systemen bedeutet.

Wachstum bedeutete einst, dass mehr Menschen, mehr Dinge tun können. Dass Produkte billiger wurden, mehr Menschen Zugang zu fließend Wasser, Strom, ein Auto, ein Eigenheim bekamen. Sie konsumierten mehr und es ging vielen Leuten deutlich besser. Wachstum war etwas gutes.

In der digitalen Ökonomie bedeutet Wachstum, dass die Kosumentenrente erfolgreicher abgeschöpft wird, dass also mehr Menschen unnötigerweise mehr bezahlt haben, als sie unter normalen Marktbedingungen müssten. Wachstum bedeutet, dass immaterielle Güter erfolgreicher verknappt wurden, dass also Menschen erfolgreich davon abgehalten wurden, an Ideen und Erfindungen zu partizipieren, obwohl es niemanden etwas kosten würde, wenn sie es täten. Wachstum bedeutet außerdem, dass noch mehr Bullshitjobs geschaffen werden, um die Leute ruhig zu halten. Es bedeutet die Ausweitung von Kontroll- und Überwachungsstrukturen und natürlich bedeutet es heute auch den unnötigen Verbrauch von Ressourcen in Zeiten des Klimawandels.

Kurz: Wachstum bedeutet nichts gutes in der digitalen Ökonomie. Der Nutzen von Wachstum ist negativ und mindert die Wohlfahrt der Gesellschaft. Diese Erkenntnis sollte unser ganzes politisch-ökonomisches Denken umstellen. Wir sollten also aufhören, Wachstum als Ziel zu setzen und wir sollten Politiker/innen ausbuhen, die uns Wachstum versprechen.

Digital Degrowth” wäre nicht wie die ökologische Degrowth-Bewegung eine Verzichts- und Selbstgeißelungs-Religion oder eine aus der Not heraus geforderte Zurückhaltung, sondern ein Programm von dem alle profitieren. „Lasst uns das Bruttoinlandsprodukt senken und so die Konsumentenrente hochdrehen, damit alle was davon haben!

Konkreter: Die Netz-Bewegung hat die Frage nach den Immaterialgüterrechten über Jahre sträflich vernachlässigt. Obwohl die Reform der Immaterialgüter für die digitale Welt gewissermaßen die Gründungsidee des Netzaktivismus war, kämpfte er die letzten Jahre nur mehr Rückzugskämpfe bei dem Thema. Wir haben uns einreden lassen, dass es bei Urheberrechtsdiskussionen ja nur um die Beschaffungskriminalität von jugendlichen Musik- und Film-Konsument/innen ging. Doch Immaterialgüter sind die neuen Produktionsmittel und ihre Ungleichverteilung wird heute nur durch enormen Kontrollaufwand bewerkstelligt. Die Vergesellschaftung der Produktionsmittel, wie Marx sie gefordert hat, ist angesichts dieser Situation die selbstverständliche Folgerung.

Netzaktivist/innen streiten reflexhaft ab, wenn Rechteverwerter ihnen vorwerfen, sie wollten das Urheberrecht abschaffen. Warum eigentlich? Ja, wir sollten noch viel entschiedener und radikaler kämpfen, für Open Data, Open Access, Open Source, aber auch für Plattformen wie Sci-Hub, Bittorrent sowie für eine radikale Patentreform und die letztendliche Abschaffung des Urheberrechts.

Happy Spill Over!


  1. Zum Einen die Wikipedia-Definition, (abgerufen am 25.04.2019), https://de.wikipedia.org/wiki/Kapitalismus; diejenige im Gabler Wirtschaftslexikon (abgerufen am 25.04.2019), https://wirtschaftslexikon.gabler.de/definition/kapitalismus-37009; diejenige der Bundeszentrale für Politische Bildung, (abgerufen am 25.04.2019), https://www.bpb.de/nachschlagen/lexika/lexikon-der-wirtschaft/19938/kapitalismus, sowie diejenige nach Gunnar Heinsohn, Otto Steiger: Eigentum, Zins und Geld – ungelöste Rätsel der Wirtschaftswissenschaft, Marburg 2002.
  2. Vgl. Jonathan Haskel; Stian Westlake, Capitalism without Capital. The Rise of the Intangible Economy, Oxfordshire 2017.
  3. Vgl. Saltaresolutions.com, The Value of Intangible Assets, 10.04.2019., https://www.saltaresolutions.com/2018/10/17/the-value-of-intangible-assets/.
  4. Vgl. Trevor Little in Worldtrademarkreview.com: Amazon overtakes Microsoft to top intangible value ranking; research calls for “revolution” in accounting, 17.10.2018, https://www.worldtrademarkreview.com/brand-management/amazon-overtakes-microsoft-top-intangible-value-ranking-research-calls.
  5. Vgl. Marcel Weiß, Kann es ein Eigentum an Geistigem geben? Nein., 23.02.2012, https://neunetz.com/2012/02/23/kann-es-ein-eigentum-an-geistigem-geben-nein-kann-es-ein-eigentum-an-geistigem-geben/.
  6. Wikipedia, Netflix, (abgerufen am 23.04.2019) https://en.wikipedia.org/wiki/Netflix.
  7. Wikipedia, Blockbuster LLC, (abgerufen am 23.04.2019), https://en.wikipedia.org/wiki/Blockbuster_LLC.
  8. Vgl. Thomas Piketty: Das Kapital im 21. Jahrhundert, München 2014.
  9. Vgl. International Labour Organization Organisation for Economic Co-operation and Development, The Labour Share in G20 Economies, 27.02.2015, https://www.oecd.org/g20/topics/employment-and-social-policy/The-Labour-Share-in-G20-Economies.pdf.
  10. David Autor; David Dorn; Lawrence F. Katz; Christina Patterson; John Van Reenen, The Fall of the Labor Share and the Rise of Superstar Firms, 01.05.2017, https://economics.mit.edu/files/12979.
  11. Vgl. Anaele Pelisson; Dave Smith in Business Insider, These tech companies make the most revenue per employee, 06.09.2017, https://www.businessinsider.de/tech-companies-revenue-employee-2017-8.
  12. Vgl. Erin Winick, Every study we could find on what automation will do to jobs, in one chart, 25.01.2018, https://www.technologyreview.com/s/610005/every-study-we-could-find-on-what-automation-will-do-to-jobs-in-one-chart/.
  13. Vgl. Carl Benedikt Frey; Michael A. Osborne, The Future of Employment. How Susceptible are Jobs to Computerisation?, 17.09.2013, https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf.
  14. Vgl. James Manyika; Susan Lund; Michael Chui; Jacques Bughin; Jonathan Woetzel; Parul Batra; Ryan Ko; and Saurabh Sanghvi, Jobs lost, jobs gained. What the future of work will mean for jobs, skills, and wages, November 2017, https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages#part%201.
  15. Vgl. OECD Social, Employment and Migration Working Paper. The Risk of Automation for Jobs in OECD Countries, 14.05.2016, https://www.oecd-ilibrary.org/social-issues-migration-health/the-risk-of-automation-for-jobs-in-oecd-countries_5jlz9h56dvq7-en.
  16. Vgl. Gig Economy Data Hub, How many gig workers are there?, (abgerufen 25.05.2019), https://www.gigeconomydata.org/basics/how-many-gig-workers-are-there.
  17. Vgl. Olivia Solon, The rise of ‚pseudo-AI‘. How tech firms quietly use humans to do bots‘ work, 06.07.2018, https://www.theguardian.com/technology/2018/jul/06/artificial-intelligence-ai-humans-bots-tech-companies.
  18. Vgl. David Graeber: Bullshit Jobs, London 2015.
  19. Vgl. Robert Dur; Max van Lent, Socially Useless Jobs, 02.05.2018, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3162569.
  20. Vgl. Timo Daum, Das Kapital sind wir: Zur Kritik der digitalen Ökonomie, Hamburg 2017.
  21. Vgl. Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for the Future at the New Frontier of Power, New York City 2018.
  22. Vgl. Nick Srnicek, Platform Capitalism, London 2016.
  23. Vgl. Paul Mason, PostCapitalism. A Guide to Our Future, London 2015.
  24. So zum Beispiel Friedrich August von Hayek, Der Wettbewerb als Entdeckungsverfahren, in Freiburger Studien, Tübingen 1969, S. 249.
  25. Vgl. Peter Cohen; Robert Hahn; Jonathan Hall; Steven Levitt; Robert Metcalfe, Using Big Data to Estimate Consumer Surplus. The Case of Uber, September 2016, https://www.nber.org/papers/w22627.
  26. Vgl. z.B. Hannes Grassegger, Jeder hat seinen Preis, 27.10.2014, https://www.zeit.de/wirtschaft/2014-10/absolute-preisdiskriminierung.
  27. Vgl. Stefan Heidenreich, Geld. Für eine non-monetäre Ökonomie, Berlin 2017.
  28. Vgl. Gunnar Heinsohn; Otto Steiger, Eigentum, Zins und Geld. Ungelöste Rätsel der Wirtschaftswissenschaft, Marburg 2002.
  29. Vgl.: Steve Knopper, iTunes’ 10th Anniversary. How Steve Jobs Turned the Industry Upside Down, 26.04.2013, https://www.rollingstone.com/culture/culture-news/itunes-10th-anniversary-how-steve-jobs-turned-the-industry-upside-down-68985/.
  30. Vgl. Robert J. Gordon, Rise and Fall of American Growth. The U.S. Standard of Living since the Civil War. The Princeton Economic History of the Western World, New Jersey 2016.
  31. Vgl. Simon Dudley, The Internet Just Isn’t That Big a Deal Yet. A Hard Look at Solow’s Paradox, 12.11.2014, https://www.wired.com/insights/2014/11/solows-paradox/.
  32. Vgl. Peter Thiel, Zero to One. Wie Innovation unsere Gesellschaft rettet, Frankfurt am Main 2014.
  33. Vgl. GEMA, Value Gap, (Aufgerufen am 27.04.2019), https://www.gema.de/aktuelles/value-gap/
  34. Siehe zum Beispiel: Leonhard Dobusch, Wert der Wikipedia. Zwischen 3,6 und 80 Milliarden Dollar?, in Netzpolitik, 05.10.2013, https://netzpolitik.org/2013/wert-der-wikipedia-zwischen-36-und-80-milliarden-dollar/.
  35. Man kann die Wertschöpfung gut und gerne als “Rent Seeking” bezeichnen. So unter anderem Kean Birch, Technoscience Rent. Toward a Theory of Rentiership for Technoscientific Capitalism, 06.02.2019, https://journals.sagepub.com/doi/full/10.1177/0162243919829567.
  36. Zitat nach Slavoy Žižek, in: Slavoy Žižek, A PERMANENT ECONOMIC EMERGENCY, Juli/August 2010, https://newleftreview.org/issues/II64/articles/slavoj-zizek-a-permanent-economic-emergency. Das Zitat ist aber umstritten. Vermutlich hat Žižek folgende Zeilen etwas frei paraphrasiert: „The crisis consists precisely in the fact that the old is dying and the new cannot be born, in this interregnum a great variety of morbid symptoms appear.“ aus: Antonio Gramsci: ’“WAVE OF MATERIALISM” AND “CRISIS OF AUTHORITY”’, The Prison Notebooks, New York City, S. 275-6. Ich mag das Zitat trotzdem.

Veröffentlicht unter Algorithmenkritik Das Neue Spiel extern Plattformpolitik
19 Kommentare

The History of Digitalisation in Five Phases

/**This is a shortened translation of my text „Die Geschichte der Digitalisierung in fünf Phasen“ by Julian Rybarsky for a hand-out publication of the FFT-Festival „Claiming Common Spaces II“ where I had the honor to speak. **/

There is no English word for “Digitalisierung”. Instead, one speaks of “technology”, “artificial intelligence” or “innovation”, also addressing different topics and various debates each time. In Germany, the term embraces all those processes of structural adaptation that the introduction of digital technology into our everyday lives entails. It allows us to perceive heterogenous processes as one whole, but it also makes the conspicuous vastness of the phenomenon seem intimidating. I subdivide the history of “Digitalisierung” into four phases that successively lead from the 1980s to our present day. The idea is to generate enough acceleration in the narration of the four phases to use them as a platform for the future – that is, the fifth phase – and to dare a related speculation.

Phase One: Early Networking Utopias (1985 – 1995)

Computers already existed in the 1970s, although they were very large, and mainly installed at universities, in military compounds or at big corporations. Most people knew of them only by way of second-hand accounts. With the advent of the personal computer, the PC, during the early and mid 80s, the time for a departure, for the democratisation of computing came. A sinister war technology became a tool of emancipation to the modern citizen, as far as the self-conception then went. Also, in the 80s, early online providers started linking up PCs. Early net communities such as “The WELL” became meeting points for early adopters, where they developed bold theories about the future’s networked society. In the mid 90s, the internet enters many households, while the world wide web is invented at the same time.

This moment of departure is emblematically crystallised not only in the hacker scene that grew around the PC’s origin, but also in numerous other social discourses who gratefully adopted the “network” as a new structural metaphor. It was a time when the thought prevailed that the internet, this “new space of the mind”, was a utopian space. Anonymity, decentralisation, freedom from hierarchy, openness/connectivity and total freedom of communication were the ideological foundations on which to build a new, a better society.

Of course, everything was not as bright as the net utopians envisioned it at the time. The counter-movement formed the internet, not as a post-identity space, but mainly as a new marketplace. And so, the “New Economy” also grew in the shadows of net discourse, forcing a reconnection of cyberspace into the physical realm and to (civic) identities.

Phase Two: Remediation (1005 – 2005)

At first, the internet dabbled in imitating conventional media or even in making them obsolete. The first thing to undergo “Digitalisierung” was mailed correspondence. When the New Economy bubble burst around the turn of the millenium, YouTube and iTunes followed in its wake, digitising television and the record collection. Skype took over from the telephone, and Amazon claimed retail. But there were also new media who did not attempt to replace their analogue counterparts, but who were only possible through the structural make-up of the internet. The rise of the search engines, of social bookmarking services and photo platforms offered a completely new way of working with digital objects, of sharing them, of transferring them and of communicating about them. And, of course, this birthed social networks. “web 2.0” was the catchphrase proclaiming a social net in 2005.

Phase Three: Loss of Control (2005 – 2015)

To be exact, the loss-of-control paradigm had been introduced way before 2005. What the music industry had to face since 1999, with the advent of filesharing and Napster, soon rang on the doors of the film industry, then the national states, and subsequently on our collective doors. Yet, loss of control concerning data and information streams really gained momentum starting in the middle 2000s. One of its catalysts, of course, is social media, the designation soon applied to the “web 2.0”. All of a sudden, people started uploading all kinds of data to the internet, even the most private snippets. Starting in 2007, smartphones, pocket-sized and equipped with sensors and connectivity, tied us to the internet.

The Internet of Things began connecting living space and urban space. All this data went into the “cloud”. Nothing stood in the way of ubiquitous loss of control any longer.

It was the era of the Wikileaks disclosures, concerning financial institutions, governments, parties and other instances of power, and it was the era of Big Data, of the exploitation of large amounts of data, from which previously undreamt-of information could be unearthed. And, eventually, it was the era of Edward Snowden, who made secret services come undone, yet only to show that all of us had been naked all along.

Simultaneously, there were occurrences of second-order loss of control. Occupy Wall Street protests, the Arab Spring uprisings, protests in Spain and Tel Aviv. The world seemed to go to pieces, and “Digitalisierung” played no small part in this. People organised eruptive “smart mobs” by means of digital tools, threatening and often even toppling government.

Still, new controlling structures were superimposed on the internet. The Napster shock was fenced in by new, manageable distribution such as iTunes or, later, Spotify. Google brought order to the web’s chaos, growing into a global firm. Facebook – please don’t laugh – brought privacy to the internet with its correspondent setting. The likeable “web 2.0” services evolved into giant platforms. They serve as a new apparatus of control and of uncanny power.

Phase Four: The New Game (2015 – 2025)

The platforms’ success is based on “control as a product” on the one hand as well as on an effect that renders the networks ever more useful, the more people participate, on the other hand. Google, Apple, Facebook and Amazon are, without a doubt, the dominating players in our time, but the platform principle shapes the world as a whole by now, with entities such as Airbnb, Uber, Foodora, Deliveroo and others. This has very little to do with the decentralised, anti-hierarchical net utopias of the first phase.

During fourth phase, some individuals and institutions see through the dynamics of this loss of control, and they develop new strategies – a new game to compensate for lack of data stream control, to reach their goals.

The United States presidential election as well as the Brexit referendum in the United Kingdom point to developments similar to a “second-order loss of control”. But the uproar has stabilised. While the loss of control phase was marked by “smart mobs” shaking up world history, but also quickly vanishing in all directions afterwards, new lines of demarcation break up in this new game, running against all of the traditional political spectrum. Donald Trump is no typical Republican, and the Brexit problem cannot be solved along the lines of established party politics. The AfD is fishing for votes from all of Germany’s parties. Effectively, new tribes with irreconcilable views were formed, viewing each other not as political opponents, but rather as enemies of one’s own identity. This digital tribalism fuels fake news and online trolling campaigns. It may be used to study the powerlessness of the platforms, heretofore thought of as omnipotent, now standing before this phenomenon as helpless sorcerer’s apprentices. Tribalism as “second-order loss of control” cannot be fenced in with controlling strategies already in existence. It will ring in the new paradigm of the next phase of digitisation.

Phase Five: Restructuring (2025 – 3035)

Our idea of community and of social discourse, representative democracy and much more were conceived in a time when a small number of people were able to transmit small amounts of information over short distances. This system now collides with overwhelming amounts of data, spun out of control globally, and with a hitherto unknown faculty for the organisation of people and information. It is only consistent that this radically questions power structures without prior knowledge of the structures replacing them. History has produced analogous phenomena in comparable situations.

Like the Internet today, letterpress printing changed society profoundly. If there is one cultural historic event we associate with the accomplishment of letterpress printing, it is the Age of Enlightenment. This may not be wrong, but it suppresses the fact that there is a 250-year period of chaos, war and destruction between the advent of letterpress printing and the Age of Enlightenment. The chaos wrought by the invention of letterpress printing mainly questioned the reign of the Roman Catholic church. With Reformation and over the course of bloody strife, the new sovereign, bureaucratic and secular state as a new ruling body emerged, providing in itself the condition for the possibilities for enlightenment and democracy.

A new institution, at once wielding enough power to channel the numerous losses of control brought up by the new medium onto a peaceful path, but also a legitimisation akin to that of the nation state, could also be at the end of our own phase of restructuring. I can only guess at the form of this construct.

But I would advise looking at the development of the Chinese model of state closely. The EU could also provide interesting impulse, if it wakes from its nation state-induced numbness. Perhaps we have to think much smaller again and focus on the civic grassroots organisations in Athens, Barcelona or the Kurdish-controlled territories in Iraq or Syria.

I, for one, am sure that somewhere out there, the foundations of the great restructuring have already been laid, because I have been told by William Gibson: The future is already here, it’s just not very evenly distributed.


Veröffentlicht unter Das Neue Spiel Digital Tribalism english extern Kontrollverlust Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar

Wikimedia: Ist die digitale Gesellschaft noch zu retten?

/** Beim Wikimedia-Salon saß ich zu dem Buchstaben „V“ wie Vertrauen auf einem Panel. Zudem habe ich die letzte Zeit viel zu der Wikipedia und ihrer Krise geschrieben, als auch über die Geschichte und Zukunft der Digitalisierung. All das fließt in diese längere Reflexion zur Zukunft der digitalen Gesellschaft ein, in der ich auch versuche Hoffnung zu schöpfen. Ich hoffe, das ist gelungen. **/

Wir sprechen über die digitale Gesellschaft, als ob wir wüssten, was das ist. Oder als wäre die digitale Gesellschaft einfach der Nachfolger der analogen Gesellschaft. Also dieselbe Gesellschaft, nur mit Online-Banking, Amazon statt Einkaufszentrum und Facebook-Gruppe statt Stammtisch.
Ich empfinde es als Vorteil, dass wir in Deutschland die „Digitalisierung“ auch als gesellschaftlichen Prozess diskutieren. Leider läuft man dabei schnell in die Gefahr zu glauben, es reiche, die vorhandenen Strukturen zu nehmen und einfach digital neu zu denken. Die Rede von „Digitaler Gesellschaft“ scheint mir genau in diese Falle zu laufen, denn sie übersieht, dass Gesellschaft – egal ob als abstraktes Gebilde oder konkrete Struktur – immer auch ein Produkt medialer Bedingungen ist. Das hat bereits der Lehrer und Mentor von Marshall McLuhan – Harold Innes – verstanden. In seinem Buch „Empire and Communications“ von 1950 zeigt er, wie schon die Imperien und antiken Hochkulturen von der Erfindung der Schrift ermöglicht und strukturiert wurden. Dass die Gesellschaften der Sprachkultur, der Schriftkultur und der Buchkultur sich fundamental unterscheiden, ist seit Jahren der Ausgangspunkt von Dirk Baeckers Überlegungen zu der „nächsten Gesellschaft“, wie er die „digitale Gesellschaft“ auch nennt.

[Weiterlesen bei Wikimedia >>]


Veröffentlicht unter Das Neue Spiel Digital Tribalism extern Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar

Die Geschichte der Digitalisierung in fünf Phasen

Es gibt kein englisches Wort für “Digitalisierung”. Dort spricht man je nachdem von „Technology“, “Internet”, “Artificial Intelligence” oder „Innovation“ und adressiert damit auch jeweils andere Dinge und unterschiedliche Debatten. In Deutschland hat sich der Begriff hingegen vor allem in der Politik durchgesetzt und bildet eine Klammer für all die strukturellen Anpassungsprozesse – politische, wirtschaftliche, kulturelle – die die Gesellschaft durch den fortschreitende Einzug der digitalen Technologie in unseren Alltag nach sich zieht.

Es ist ein Vorteil der deutschen Sprache, diese doch sehr heterogenen Prozesse als ein großes Ganzes betrachten zu können. Es hat aber auch Nachteile, da die schier unübersehbare Größe des Phänomens einschüchternd, gar erdrückend wirken kann.

Klar ist, die Digitalisierung wälzt die gesellschaftlichen Strukturen um. Aber um zu klären, wie das geschieht – um sich einen Überblick zu verschaffen – muss man den Monolithen „Digitalisierung“ zunächst wieder aufsprengen. Nicht in seine vielfältigen Bestandteile (dann würde es wieder unübersichtlich), sondern systematischer. Zum Beispiel historisch.

Was ich hier versuchen möchte, ist eine “narratologische Rampe” zu bauen. Ich teile die Geschichte der Digitalisierung in vier Phasen ein, die nacheinander von den 80er Jahren bis heute reichen. Die Idee ist, bei der Narration der vier Phasen genügend Beschleunigung generieren, um über die Rampe ein Stück weit in die Zukunft – also die fünfte Phase – zu schießen, das heißt: eine anschlussfähige Spekulation zu wagen.

Die Phasen wären folgende:

  1. Die frühen Netzwerk-Utopien (1985 – 1995)
  2. Remediation (1995 – 2005)
  3. Kontrollverlust (2005 – 2015)
  4. Das Neue Spiel (2015 – 2025)
  5. Restrukturierung (2025 – 2035)

Wir haben also die Rampe, brauchen wir noch die Beschleunigung. Der Antrieb ist die “historische Dialektik” die den Phasen zugrunde liegt. Die Annahme hierbei ist, dass jede Bewegung im Kern ihre Gegenbewegung immer schon mit hervorbringt. Jede neue Phase ist somit immer die Synthese aus der Bewegung (These) und Gegenbewegung (Antithese) der vorherigen Phase.

Erste Phase: Frühe Netzwerk-Utopien (1985 – 1995)

Natürlich lässt sich auch die erste Phase, mit der ich hier beginnen möchte, auf eine solche historische Dialektik zurückbeziehen, auch wenn ich diese Vor-Phase hier nur kurz anreißen möchte: Die 70er Jahre waren in Sachen Digitalisierung geprägt von … eigentlich waren sie noch gar nicht von Digitalisierung geprägt. Aber Computer gab es immerhin schon, allerdings waren sie noch so groß wie überdimensionierte Kühlschränke und standen vornehmlich in Universitäten, militärischen Einrichtungen und Großkonzernen. IBM hatte sowas wie ein Monopol auf Computing und ihre Mitarbeiter liefen in Schlips und Anzug herum, denn sie hatten es nur mit Business- oder Regierungs-Kundschaft zu tun. Mit Computern kamen in dieser Zeit nur Leute in dafür spezialisierten Berufen in Berührung, die meisten Menschen kannten sie nur aus Erzählungen.

Die erste Phase war also insofern eine Gegenbewegung zu diesem Zustand, als die Revolution des Personal-Computers (PC), die sich Anfang/Mitte der 80er Jahre Bahn brach, explizit als Angriff auf die Vorherrschaft der grauen Männer mit ihren Großcomputern verstanden wurde. In der Tat erzählt die Legende von Steve Jobs, Steve Wozniak und der Gründung von Apple genau dies als Heldenreise zweier Underdogs, die dem großen, bösen IBM das Fürchten lehren. Es war die Zeit des Aufbruchs, der Demokratisierung des Computing. Mit dem Apple Macintosh Computer sollte laut Werbung „1984 nicht wie 1984 werden“1. Mit dem Personal-Computing wurde aus der unheimlichen, unzugänglichen Kriegstechnologie Computer das Emanzipations-Werkzeug des modernen Bürgers. So jedenfalls war das Selbstverständnis des damaligen Aufbruchs.

In den 80er Jahren fingen außerdem die frühe Onlinedienste wie das Usenet, AOL und Compuserve an, die PCs miteinander zu vernetzen. In diesen frühen Netzcommunities wie “The WELL” trafen sich die „Early Adopter“ und entwickelten kühne Thesen über die vernetzte Zukunft der Gesellschaft.2 Mitte der 90er, also am Ende dieser Ära kommt schließlich das Internet selbst in viele Haushalte, während zeitgleich das World Wide Web erfunden wird.

Für diesen Aufbruchsmoment steht nicht nur die Hackerszene, die sich entlang der Entstehung des PCs kristallisierte, sondern auch die vielen anderen gesellschaftlichen Diskurse, die das „Netzwerk“ als neue Strukturmetapher dankbar aufnahmen. Gille Deleuze und Felix Guttari zeigten, dass Kultur anhand des netzwerkartigen Wurzelwerks „Rhizome“ auch dezentral und nicht-hierarchisch gedacht werden kann.3 Am Centre de Sociologie de l’Innovation in Paris arbeiteten Bruno Latour und andere an einer wissenschaftstheoretischen Beschreibungsmethode, um Interaktions-Zusammenhänge darstellbar zu machen, bei denen der Mensch nur noch eine agierende Instanz unter vielen ist. Die sogenannte „Akteur Netzwerk Theorie“ erlaubte, Makroperspektive und Mikroperspektive im Netzwerkschema zu transzendieren und so komplexe Zusammenhänge abzubilden und zu untersuchen.4 Schließlich brachte Manuel Castells die sich unter dem Einfluss vernetzter Kommunikation verändernde Gesellschaft auf den Punkt, indem er ihr als „Network Society“ attestierte, Hierarchien zu verflachen und (Unternehmens- und Institutions-)grenzen operativ überschreitbar zu machen.5

Aus dem Soziotop um The WELL entwickelte sich derweil nicht nur das einflussreiche Wired-Magazin, sondern auch die „Electronic Frontier Foundation“, dessen Mitgründer John Perry Barlow 1996 den versammelten Staatschefs Davos zurief, dass ihre „Giganten aus Fleisch und Stahl“ im „Cyberspace“ nichts zu sagen hätten.6

Es war die Zeit, als man dachte, dass dieser „neue Ort des Geistes“ ein Ort mit eigenem Recht sei, ein utopischer Raum, in dem die weltliche Identität keine Rolle mehr spielte. In der Anonymität des Netzes würden akademische Grade, Herkunft, Hautfarbe, Religion, Geschlecht und Sexualität keine Rolle mehr spielen und stattdessen Wort gegen Wort abgewogen werden.7 Dezentralität, Hierarchiefreiheit, Offenheit/Konnektivität und totale Kommunikationsfreiheit waren die ideologischen Grundsteine auf denen eine neue, bessere Gesellschaft gebaut werden sollte.

Natürlich war längst nicht alles so rosig, wie sich die Netz-Utopisten das damals ausmalten. Die Gegenbewegung formte sich aus den Leuten, die im Internet nicht einen post-identitären, utopischen Raum, sondern vor allem einen neuen Markt sahen. Und so wuchs – zunächst langsam, aber gegen Ende immer deutlicher – auch die „New Economy“ im Schatten der Netzdiskurse heran. Die Kommerzialisierung erzwang eine Rückbindung des Cyberspace an die physische Welt. Um E-Commerce zu machen, braucht es dann eben doch wieder (bürgerliche) Identitäten und alles, was sich daran knüpft. Im Zuge der Kommerzialisierung passte sich das Netz den Erfordernissen der realen Welt immer weiter an, womit das nächste Paradigma eingeläutet wurde.

Zweite Phase: Remediation (1995 – 2005)

Remediation bezeichnet die Abbildung eines Mediums durch ein anderes Medium. Dass das Medium die Botschaft sei hatte Marshall McLuhan bereits anhand der ersten elektronischen Medien wie Radio und Fernsehen festgestellt.8 Doch auch das Internet würde sich zunächst daran machen, die bisherigen Medien zu imitieren und bereits hier und da obsolet zu machen.

Während die New Economy noch in den Kinderschuhen steckte, digitalisierte sich zunächst der Briefverkehr. 1995 bekam man noch deutlich mehr physische Post als E-Mails aber das drehte sich sehr schnell um. Das Web wuchs und wuchs und wurde immer unübersichtlicher. Yahoo! beanspruchte daher der digitale Katalog des neuen Mediums zu werden und etwa um 2000 herum wurden Websites zu Blogs – eine Art persönliche Zeitungen im Internet.

Als sich um die Jahrtausendwende die Träume der New Economy fürs erste zerschlugen und die vielen tausend Startups, die sich aufgemacht hatten, das neue, gelobte Land ökonomisch urbar zu machen, verschluckt wurden, überlebten vor allem Services, die mit der analogen Welt im direkten Konkurrenzverhältnis standen. Vielleicht wirkte die Tatsache, dass sie eine Entsprechung in der realen Welt hatten als Legitimation ihrer Bemühungen.

Doch nach dem Crash ging es weiter mit der Remediation: Mit Youtube und iTunes digitalisierten sich das Fernsehen und die Plattensammlung, mit Skype die Telefonie und mit Amazon sogar der Einzelhandel.

Gegen Ende der Remediations-Phase wurde auch die Gegenbewegung sichtbar. Es entstanden neue Medien, die diesen Namen auch verdienen. Medien, die nicht versuchten, ihre analoge Pendants zu ersetzen, sondern die in ihrer Struktur erst durch das Internet möglich wurden. Der Aufstieg der Suchmaschinen und insbesondere Google, soziale Booksmarkingdienste wie del.ico.us und Fotoplattformen mit Tagging- und Sharingfunktion wie Flickr boten eine völlig neue Form an, mit digitalen Objekten zu arbeiten, sie zu teilen, weiterzuleiten und darüber zu kommunizieren. Und natürlich entstanden hier die sozialen Netzwerke wie Friendster, Myspace und schließlich Facebook und eroberten die Onlinezeit der Nutzer/innen. „Web 2.0“ war das Schlagwort, das 2005 die Remediation-Phase des Internets für beendet erklärte und ein neues, ein soziales Netz ausrief. Die Digitalisierung findet gewissermaßen zu sich selbst – und verliert damit auch ihre Harmlosigkeit.9

Dritte Phase: Kontrollverlust (2005 – 2015)

Genau genommen ist das Paradigma des Kontrollverlusts10 sehr viel früher eingeläutet worden, als 2005, aber als Napster 1999 das Licht der Welt erblickte, war noch nicht klar, wie prophetisch es den Fortgang des Netzes vorwegnehmen sollte.11 Das, was die Musikindustrie damals mit dem Filesharing durchmachte, stand bald schon der Filmbranche bevor, dann den Nationalstaaten und schließlich uns allen. Doch der Verlust über die Kontrolle von Daten- und Informationsströme nimmt erst ab Mitte der Nullerjahre wirklich Fahrt auf. Einer der Katalysatoren ist natürlich Social Media, wie das Web 2.0 alsbald genannt wurde. Auf einmal fingen die Leute an, alle möglichen Daten in das Internet zu laden, selbst die privatesten. Als uns ab 2007 dann mit dem Smartphone ein mit allerlei Sensoren und ständiger Internetverbindung ausgestatteter Hosentaschen-Computer an das Internet bindet, das „Internet of Things“ unsere Wohnräume und Städte vernetzt und all dieser Daten in „der Cloud“ – also auf irgendwelchen Rechnern im Internet – landeten, stand dem allgegenwärtigen Kontrollverlust nichts mehr im Weg.

Die Kontrollverlust-Phase ist die Zeit der Wikileaks-Enthüllungen, die Banken, Regierungen, Parteien und sonstige Machtapparate nackt hat stehen lassen. Es ist die Zeit von Big Data, der Auswertung von großen Datenmengen, aus denen ungeahnte Informationen aus vorhandenen Datenmassen destilliert werden. Es ist schließlich auch die Zeit von Edward Snowden, der zwar die Geheimdienste nackt machte, aber nur um zu zeigen, dass wir alle längst nackt sind. Nach Snowden folgten die Shadow Brokers, eine Hackergruppe, die die geheimsten Hackingtools der NSA offenlegten während Wikileaks dasselbe mit denen der CIA machte. Doch es traf nicht nur die Geheimdienste. Pentagon Papers, Cable Leaks, Strafor Leaks, Panama Papers, Swiss Leaks, Luxemburg Leaks, Syria Files, Offshore Leaks, Football Leaks … Leaken ist zum Volkssport geworden und dabei sind die zahllosen Hacks noch nicht mal mit aufgezählt.

Es wurde klar, dass niemand verschont bleibt, dass wir alle – Menschen, Unternehmen, Regierungen und Institutionen – die Kontrolle verloren haben.

Zugleich finden sich schon in dieser Phase Kontrollverlust-Phänomene zweiter Ordnung. Die Occupy-wallstreet-Proteste, der arabische Frühling, Proteste in Spanien und Tel Aviv. Die Welt schien aus den Fugen und die Digitalisierung hatte einen nicht geringen Anteil daran. So wie Daten außer Kontrolle geraten, so haben die digitalen Werkzeuge eine neue Form der Spontan-Organisation von Menschen und Informationen ermöglicht, die sich wiederum in eruptiven „Smartmobs“ weltweit Bahn brachen und Regierungen in Bedrängnis und oft sogar zu Fall brachten.

Doch auch die Gegenbewegung wird deutlich. Neue Kontrollstrukturen haben sich über das Internet gelegt. Der Napster-Schock, der die Phase des Kontrollverlusts einleitete, wurde schließlich durch neue, kontrollierbare Vertriebsstrukturen wie denen von iTunes und später Spotify eingehegt. Google schaffte derweil Ordnung im Chaos im Web und wuchs zum globalen Konzern heran. Facebook – jetzt bitte nicht lachen – brachte die Privatsphäre als „Privacy-Einstellung“ ins Internet.12 Aus den sympathischen, kleinen Web2.0-Diensten sind mächtige Plattformen geworden, die mit ordnender Hand Inseln der Kontrolle im Meer des Kontrollverlusts schaffen. Der Aufstieg der Plattformen als neue Kontroll- aber auch als unheimliche Machtapparate leitet die nächste Phase der Digitalisierung ein.

Vierte Phase: Das Neue Spiel (2015 – 2025)

Ich habe die aktuelle Phase nach meinem Buch, „das Neue Spiel“13 benannt, denn schon beim Schreiben 2014 hatte ich das Gefühl, dass gerade etwas neues beginnt, das bereits nicht mehr (nur) durch das Kontrollverlust-Paradigma bestimmt ist. Das liegt daran, dass bereits bestimmte Individuen, Unternehmen und Institutionen Strukturanpassungen für die neue Situation vorgenommen hatten und die Macht der Plattformen ist nur ihre plakativste Ausformung.

Der Erfolg des Plattform-Paradigmas basiert einerseits auf „Kontrolle als Produkt“ und andererseits auf dem Netzwerkeffekt, der die Netzwerke immer nützlicher macht, je mehr Leute daran teilnehmen.14 GAFA (Google, Apple Facebook und Amazon) sind ohne Zweifel die dominierenden Player unserer Zeit aber mit Airbnb, Uber, Foodora, Deliveroo und co. hat sich das Plattform-Prinzip längst aus den Grenzen der reinen Onlinewelt befreit und gestaltet die Welt im Ganzen um. Mit den dezentralen und anti-hierarchischen Netz-Utopien der ersten Phase hat das alles nur noch wenig zu tun.

Aber es geht nicht nur um die Plattformen. Diese Phase ist grundsätzlich davon geprägt, dass einzelne Menschen und Institutionen die Dynamiken des Kontrollverlusts durchschaut haben und neue Strategien entwickelt haben, in dieser Welt ihre Ziele zu erreichen.15 Wer keine Kontrolle über die Datenströme hat, kann zum Beispiel nicht mehr verhindern, dass Informationen an die Öffentlichkeit kommen. Zensur ist somit nur mit sehr viel Aufwand überhaupt durchzuführen. Man kann aber die Institutionen der Informationsverbreitung wie die Massenmedien diskreditieren, indem man ständig Falschnachrichten streut und echte Nachrichten als Fake News bezeichnet, bis niemand mehr weiß, was wahr und was falsch ist. Niemand hat das besser verstanden als Wladimir Putin, der mittels massenhafter Desinformations-kampagnen eine ganz neue Form der informationellen Kriegsführung ins Werk setzt. In einer Zeit, in der es keine Privatsphäre mehr gibt, ist es eben nicht der tadellose Politiker, der sich durchsetzt, sondern der, dessen Ruf so ruiniert ist, dass Skandale ihm nichts mehr anhaben können. Donald Trump ist “antifragil” gegenüber der Öffentlichkeit. Je mehr Skandale und Kritik er auf sich vereint, desto stärker wird er.16

Die Strategien im Neuen Spiel sind andere, als die des alten und wer sie anwendet, kann unerwartete Gewinne erzielen. Der Kontrollverlust ist somit nicht mehr ganz ein Kontrollverlust – jedenfalls nicht mehr für alle. Doch je mehr Leute an den neuen Hebeln reißen, desto größer wird das Chaos, das sie anrichten.

Hier sehe ich auch schon die Gegenbewegung zum vorherrschenden Paradigma. Wie das Jahr 2016 gezeigt hat, hat die Digitalisierung noch ganz andere Effekte auf die Gesellschaft. Sowohl die Präsidentschaftswahl in den USA, als auch die Brexit-Volksabstimmung im Vereinigten Königreich verweisen auf Entwicklungen, die dem „Kontrollverlust zweiter Ordnung“, den wir bereits bei der Occupy-Bewegung und im arabischen Frühling am Werk sahen, sehr ähneln, allerdings eine deutlicher zu erkennende Struktur aufweisen. Der Aufruhr hat sich stabilisiert. Während in der Phase des Kontrollverlusts die “Smart Mobs” die Weltgeschichte aufwirbelten, aber auch schnell wieder in alle Richtungen verwehten, brechen im Neuen Spiel deutlich zu erkennende Demarkationslinien hervor, die quer zu allen bisherigen politischen Spektren verlaufen. Genausowenig wie Trump ein typischer Republikaner ist, lässt sich die Brexitfrage entlang der etablierten politischen Parteien klären. Und während die AfD Stimmen bei allen deutschen Parteien fischt haben diese Probleme, sich klar in der Flüchtlingsfrage zu positionieren. Diese neuen Demarkationslinien wirken zudem unüberwindbar und unversöhnlich. Quer zu den etablierten Parteien haben sich gewissermaßen politische Stämme gebildet, die sich gegenseitig nicht mehr als Interessenvertreter unterschiedlicher Milieus und somit als politische Gegner sehen, sondern als Feinde der eigenen Identität.

Dieser „digitale Tribalismus“ ist auch der Treiber hinter Fake News und Online-Belästigungs-Kampagnen, er wird gefüttert aus einer neu erwachten psychologischen Prädisposition des Menschen, die sich im Internet ungehindert entfalten kann.17 Der Tribalismus ist nebenbei auch der Hebelpunkt für russische Hacker und andere Manipulationsversuche. Am digitalen Tribalismus lässt sich zudem die Ohnmacht der eben noch allmächtig gewähnten Plattformen studieren, die ihm wie hilflose Zauberlehrlinge gegenüberstehen. Der Tribalismus ist der Gegentrend zum Neuen Spiel und und ist als “Kontrollverlust zweiter Ordnung” mit den entwickelten Kontroll-Strategien nicht einhegbar. Er wird das neue Paradigma der nächsten Phase der Digitalisierung einläuten.

Fünfte Phase: Restrukturierung (2025 – 2035)

An dieser Stelle verlassen wir die Rampe und schießen in einer ballistischen Bahn in die Spekulation. Wir wissen nicht, wie der Kampf Plattformisierung vs. Tribalisierung ausgehen wird, welche Volten er noch schlagen wird und welche Institutionen dabei noch in Mitleidenschaft gezogen werden. Aber ich gehe davon aus, dass die Tribalisierung vorerst nicht eingehegt werden kann und somit das folgende Paradigma wesentlich mitbestimmen wird. Dass es also einen Kontrollverlust zweiter Ordnung geben wird, der die Gesellschaft noch deutlicher durchrütteln wird, als der der ersten Ordnung. Dieses Szenario drängt sich auch deswegen auf, weil die Historie analoge Phänomene in vergleichbaren Situationen hervorgebracht hat. Vereinfacht zusammengefasst: Ein neues Medium tritt auf den Plan und verschiebt die Grenze des praktisch Kommunizierbaren, was so lange zu gesellschaftlicher Unruhe führt, bis neue Institutionen, Denk- und Verhaltensweisen etabliert sind, die einen neuen Modus des Zusammenlebens ermöglichen.18 Es ist eine Restrukturierung von Gesellschaft. Eine solche Restrukturierung sage ich für die Zeit von 2025 bis 2035 voraus.

Man kann das gut am Buchdruck zeigen: Wie das Internet heute, hat auch der Buchdruck die Gesellschaft grundlegend verändert. Heute schauen wir darauf zurück und bewerten diese Veränderung zumeist positiv. Der Buchdruck brachte allgemeine Lesekompetenz, eine Demokratisierung und Mehrung des Wissens. Wenn wir ein kulturgeschichtliches Phänomen mit dem Buchdruck verbinden, dann ist es die Aufklärung. Das ist zwar nicht falsch, aber unterschlägt den Fakt, dass zwischen der Erfindung des Buchdruck und Aufklärung rund 250 Jahre Chaos, Krieg und Zerstörung lagen. Etwas vereinfacht lässt sich vom Buchdruck zur Reformation über die Bauernkriege direkt zum 30jährigen Krieg eine lineare Wirkungskette ziehen, die aus der Distanz wie die gerade skizzierte Restrukturierung von Gesellschaft aussieht und die erst im Nachgang die Aufklärung möglich machte.19

Nimmt man den Buchdruck als Analogie und bettet die bisherigen Überlegungen zur Digitalisierung in den Prozess ein, ergibt sich folgendes Bild: Das alte Mediensystem, unsere Ideen von Öffentlichkeit und gesellschaftlichen Diskurs, die repräsentative Demokratie und vieles mehr wurde in einer Zeit konzipiert, in der nur eine geringe Zahl an Menschen eine geringe Menge an Informationen über eine geringe Distanz verbreiten konnte. Dieses System trifft nun auf überwältigende Mengen weltweit außer Kontrolle geratener Datenströme und auf eine ungekannte Organisationsfähigkeit von Menschen und Informationen. Es ist nur folgerichtig, dass dadurch Machtstrukturen radikal in Frage gestellt werden, ohne dass bereits klar wäre, was sie ersetzen wird. An diesem Punkt sind wir.

Das Chaos, das durch die Erfindung des Buchdrucks ausgelöst wurde, stellte vor allem die Herrschaft der katholischen Kirche in Frage. Mit der Reformation wurden ihr plötzlich mehrere Gegenkonzepte zur Seite gestellt und in der blutigen Auseinandersetzung, die das provozierte, wurde ein neues Paradigma des Zusammenlebens geschaffen. Der souveräne und bürokratische Staat hatte sich bereits in Frankreich unter Ludwig dem XIV entwickelt und wurde nach dem Westphälischen Frieden zum Vorbild europäischer Staatlichkeit. Aber Frieden wurde möglich, da dieses neue Herrschaftsinstrument säkularisiert werden konnte, also nicht einseitig an eine bestimmte Form des Glaubens gekoppelt werden musste. Der souveräne, säkulare und bürokratische Staat erlaubte einen neuen Versuch des friedlichen Zusammenlebens und wurde schließlich zur Bedingung der Möglichkeit von Aufklärung und Demokratie.

Eine neue Institution, die einerseits machtvoll genug ist, die diversen Kontrollverluste des neuen Mediums wieder in friedliche Bahnen zu lenken, aber gleichzeitig eine Legitimation, ähnlich der des Nationalstaats hat, könnte auch am Ende unserer Restrukturierungs-Phase stehen. Wie dieses Konstrukt aussehen wird, kann ich nur raten. Aber mein Tipp wäre, die Entwicklung des chinesischen Staatsmodells genau im Auge zu behalten, das die staatliche Souveränität versucht mit dem neuen Plattform-Paradigma in einklang zu bringen.20 Aber auch die EU könnte hier interessante Impulse liefern, falls sie aus ihrer Nationalstaatserstarrung einmal aufwacht. Vielleicht müssen wir auch wieder viel kleiner denken und die zivilen Grassroots-Organisationen in Athen, Barcelona oder in den kurdisch kontrollierten Gebieten Iraks und Syriens in den Blick nehmen.21 Ich bin mir jedenfalls sicher, dass irgendwo da draußen bereits die Grundsteine der großen Restrukturierung gelegt werden, denn seit William Gibson weiß ich: die Zukunft ist längst da, sie ist nur ungleich verteilt.

  1. Der ikonische Apple Werbespot, der zum Super Bowl 1984 ausgestrahlt wurde, gehört ohne Frage zum popkulturellen Erbe der Digitalisierung. https://www.youtube.com/watch?v=_VvW_uWSbX0
  2. Vgl. Fred Turner: From Counterculture to Cyberculture.
  3. Félix Guattari, Gilles Deleuze: A Thousand Plateaus – Capitalism and Schizophrenia.
  4. Bruno Latour: Reassembling the Social: An Introduction to Actor-Network-Theory, Oxford.
  5. Manuel Castells: The Information Age: Economy, Society and Culture.
  6. John Perry Barlow: A Declaration of the Independence of Cyberspace, https://www.eff.org/cyberspace-independence
  7. Donna Haraway: A Cyborg Manifesto, https://web.archive.org/web/20120214194015/http://www.stanford.edu/dept/HPS/Haraway/CyborgManifesto.html.
  8. Marshall McLuhan: Understanding Media: The Extensions of Man.
  9. Tim O’Reilly: What Is Web 2.0 – Design Patterns and Business Models for the Next Generation of Software, https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html.
  10. Den Begriff “Kontrollverlust” habe ich 2010 in die Debatte um die Digitalisierung eingebracht. Ich halte ihn immer für eine gültige Beschreibungsebene unserer Gegenwart, aber als Paradigma war er nur bis ca. 2015 tatsächlich hegemonial. Vgl. Michael Seemann: Glossar – Kontrollverlust, http://www.ctrl-verlust.net/glossar/kontrollverlust/.
  11. Tom Barnes: 16 Years Ago Today, Napster Changed Music as We Knew It, https://mic.com/articles/119734/16-years-ago-today-napster-changed-music-as-we-knew-it#.zhSidyIr4.
  12. Allen Unkenrufen zum trotz muss man festhalten, dass Privatsphäre vor Facebook im Internet nicht extsitent war. Es gab nur die globale Öffentlichkeit oder (unverschlüsselte) 1zu1 Kommunikation. Eine pragmatische und beliebig granulare Eingrenzung der Öffentlichkeit war eine der Innovationen von Facebook und teil seines Erfolgskonzeptes. Vgl. Michael Seemann: Plattformprivacy, http://www.ctrl-verlust.net/plattformprivacy.
  13. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust.
  14. Vgl. Wikipedia: Netzwerkeffekt, https://de.wikipedia.org/wiki/Netzwerkeffekt.
  15. Eine 10Punkteliste mit Strategien hatte ich in meinem Buch vorgestellt. Vgl. Das Neue Spiel, S. 153ff.
  16. Vgl. zum Begriff der “Antifragilität” einerseits Nicholas Taleb: Antifragile: Things that Gain from Disorder, und die Anwendung seiner Theorie auf den Kontrollverlust, Das Neue Spiel S. 162.
  17. Vgl. Michael Seemann: Digitaler Tribalismus und Fake News, http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/. Zu einer allgemeinen Analyse des politischen Tribalismus – allerdings mit starker US-Perspektive – siehe: Amy Chua: Political Tribes: Group Instinct and the Fate of Nations.
  18. Dirk Bäcker spricht in diesem Zusammenhang davon, dass neue Medien als “Katastrophe” auf die Gesellschaft wirken. Vgl. Dirk Baecker: Studien zur nächsten Gesellschaft.
  19. Clay Shirky macht diesen Vergleich in seinem Ted Talks auf und prophezeit bereit 2005, dass das Internet ca. 50 Jahre Chaos in die Welt bringen wird, bevor es besser wird. Sie Clay Shirky:Instituions and Collaboration, https://www.ted.com/talks/clay_shirky_on_institutions_versus_collaboration?language=en.
  20. Von der totalitären Kontrollgier des chinesischen Konstruktes muss man sich dabei nicht abschrecken lassen. Die moderne Republik wurde – wie gesagt – auch nur von der absolutistischen Kontrollgier eines Sonnenkönigs ermöglicht, dessen bürokratischer Staatsapparat 150 Jahre später durch die Bürger übernommen werden konnte.
  21. Siehe zum Beispiel Joanna Theodorou: What Grassroots Groups Can Teach Us About Smart Aid, https://www.newsdeeply.com/refugees/community/2018/02/21/what-grassroots-groups-can-teach-us-about-smart-aid oder
    Owen Jones: Kurdish Afrin is democratic and LGBT-friendly. Turkey is crushing it with Britain’s help, https://www.theguardian.com/commentisfree/2018/mar/16/turkey-democracy-kurdish-afrin-britain-syria-arming oder
    Barcelona, the capital of a new state, https://ajuntament.barcelona.cat/barcelonallibres/sites/default/files/publicacions_fitxers/llibreblancang-2150.pdf.

Veröffentlicht unter Das Neue Spiel Digital Tribalism extern Kontrollverlust Plattformpolitik
12 Kommentare

Fünf beunruigende Fragen an den digitalen Kapitalismus

Tatsächlich denke ich seit Jahren über das Thema nach. Mein Buch hatte damals die wesentlichen ökonomischen Zusammenhänge rund um Kontrollverlust und Plattformkapitalismus weitestgehend ausgeklammert. Das kam mir damals bereits als Mangel vor aber … ich war noch nicht so weit.

Die Theoriebildung zu diesem Vortrag hat sich vor allem entlang meiner Beschäftigung mit Marx, Wert und Preis entwickelt, einiges hatte ich hier auch schon verbloggt. Zum Nachlesen:

1. Alles begann mit der Wert-Theorie von Marx. Die ich ablehne und hier begründe warum.
2. Da ich aber auch das Gegenmodell der klassischen Wirtschaftswissenschaften (die Grenznutzentheorie) nicht überzeugend fand, habe ich mich weiter damit befasst und darüber nachgedacht, wie Wertschöpfung in Zeiten des Kontrollverlusts mittels Plattformen bewerkstelligt wird. Daraus ergab sich die Frage nach der Überkommenheit der Eigentumsordnung im digitalen. Nachzulesen hier: Die Gewalt der Plattform und der Preis des Postkapitalismus.
3. Ein dritter Stein zum Puzzel kam mit der im Vortrag genannten Uber-Studie und der Erkenntnis, dass Preisdiskriminierung eigentlich eine radikale Abkehr vom Marktprimzip bedeutet: Das Ende der Konsumentenrente oder Wert und Preis III.

Weitere Anstöße waren dann noch vor allem das Buch „Capitalism without Capital“ von Jonathan Haskel und Stian Westlake, sowie meine kritische Beschäftigung mit Robert J Gordons „Rise and Fall of American Growth“ sowie Stefan Heidenreichs: Geld. (Und natürlich alle anderen im Vortrag genannten Bücher.)

Ich werde den Vortrag sicher auch noch mal richtig verschriftlichen. Vielleicht findet sich ja ein Abnehmer?


Veröffentlicht unter Das Neue Spiel Kontrollverlust Plattformpolitik
2 Kommentare

The Central Fate of the Blockchain (In Case There is a Future at All)

/********
Recently an essay of mine has been published in the German issue of Technology Review (TR 10/2018), in which I examine the history of the internet in order to predict the fate of the blockchain technology, especially regarding to it’s promise of decentralization. This is a translated and also extended version of the German text.
********/

The internet interprets censorship as damage and routes around it.“ The sentence became the battle cry of the early internet activists in the 1990s. It was coined by John Gilmore, co-founder of the digital civil rights organization Electronic Frontier Foundation (EFF) in a 1993 interview with Time Magazine.1 It summed up the internet’s promise of technological freedom in a nutshell: „If you put the scissors in one place on the internet, the flow of information will simply bypass that place and still arrive unhindered at the recipient.“ This uncensoredness has always been an essential part of the Internet’s promise of freedom and is based on its „decentralization“.

Looking back, one can argue whether the internet has ever delivered on this promise. Today, Google, Amazon and Facebook laugh at the dreams of a hierarchy-free internet. The Internet has certainly shifted the balance of power here and there, but it has also concentrated and monopolized it in ways unimaginable at the time. And while some Chinese people still manage to smuggle some unauthorized bits into the country, the government’s censorship efforts through the „Chinese firewall“ can certainly be regarded as successful.

But the same promise of freedom of decentralization is now part of the blockchain discourse. Like the internet back then, the blockchain is now supposed to make censorship efforts and state influence impossible. Like the internet then, the blockchain today is supposed to dismantle hierarchies, strengthen the periphery, give a voice to the weak and give us all our freedom; unregulated, wild and at a level playing field. With the blockchain it should be possible to operate online services „serverless“ – i.e. without a centralized computer infrastructure – because the data is distributed on all the computers of the participants. This would make it possible – blockchain enthusiasts believe – to place the digital infrastructure and its control in the hands of the users. With the decentralizing power of the blockchain, the original promise of the Internet would be finally within reach. But it is precisely the history of the internet that offers some objections to these myths.

The Birth of the Internet from the Hardware that was Available

However, the origin of the decentralization of the internet had nothing to do with any idea of freedom in the first place, but resulted from plain necessities. Paul Baran, who is regarded as one of the first pioneers of today’s internet, was a member of the RAND Corporation, a think tank close to the Pentagon. In his collection of essays „On Distributed Communications“2 of the early 1960s, he mentions two major reasons why a decentralized computer network should be built: The first was a military necessity: at the height of the Cold War, the Pentagon was interested in transferring data from the numerous radar stations for airspace surveillance (SAGE Project) quickly and securely to the command center. The network was supposed to function even when individual nodes were destroyed. The second reason was economic in nature. At a time when computers were as rare as wonders of the world and almost as expensive, a decentralized computer network offered the opportunity to utilize the existing, extremely expensive computer hardware available.

Baran’s central idea for solving these problems was packet switching, the concept of splitting data into individual packets and sending them individually from station to station until they arrived at their destination. Instead of building a large supercomputer to control all connections, many less powerful computers could be utilized to establish the data transmission.

When the ARPANET, the first precursor of the internet, was put into operation in 1969, the decentralized approach actually allowed the processing load and the costs of communication to be distributed among many computers and institutions, which in turn were distributed over the entire territory of the USA. In addition, the network was easy to expand.

Ten years later, when Robert Kahn and Vint Cerf laid the cornerstone of today’s internet with the development of the TCP/IP protocol suite, they took over packet switching and also introduced the end-to-end paradigm. The intelligence of the transmission – the splitting and sending of the data packets as well as the control over incoming packets – should lie solely at the ends of the transmission, i.e. at the sender and receiver. All intermediate stations should only be „stupid“ routers, which just threw the data packets to the next node without getting an overview of what was actually happening within the network. This design element, which was also transfigured as a particularly liberating element because it left the control of communication to the user’s computers, also had a concrete, technical purpose. In the course of the 70s a zoo of different network protocols had evolved. Cerf and Kahn therefore developed a standard that could act as an intermediary between different protocols. As long as the ends spoke TCP/IP, the transmission could run over all possible network standards in between. This way, TCP/IP could actually connect heterogeneous networks with each other. The result was a network between networks, an INTER-NET.

Free as in Free Scale

In 1982, just before ARPANET was connected to the internet, it had about 100 nodes and the number of connections per node already varied greatly. As more and more universities and institutions connected to the network, individual nodes became too much frequented hubs and some data lines became the early backbones. Over time, the network looked less like a fishing net, where all nodes had more or less the same number of connections, but the „nodes to edges (connections) ratio“ approached the Power Law Distribution. Roughly speaking, the top 20% of the nodes had 80% of the connections and the remaining 20% of the connections were distributed in a „long tail“ to 80% of the nodes. The Arpanet resembled more or less a network of roads, with its highways and main roads and smaller secondary roads, or like a tree branching out in ever finer branches. Network topographically one also speaks of a „scale free network“, a network in which the node-edge ratio always remains the same as with a Mandelbrot set, no matter from which zoom level one views the network.

Scale freedom very often occurs with organically grown networks, because as a new participant in a network it makes sense to connect to the largest node possible. Behind this is a hidden economy: one needs less „hops“ to reach one node from any other. Clumps, it turns out, are abbreviations. It became apparent that even a distributed approach to data transmission brings its own centralization tendencies. Finally in 1986, NSFNET (National Science Foundation Network)3, the first backbone – a kind of main artery – between individual research institutions in the USA, was built into the still young internet and formally introduced a hierarchy of data lines.

Scaleless networks are both centralized and decentralized, because instead of one center, there are many large and small centers. It helps to imagine decentralization as a spectrum. On the one end, we’ve got a network with a central hub that regulates everything and is therefore incredibly efficient, because every connection from one point to the other requires exactly one hop. On the other end of the spectrum would be the mesh network, where all nodes have the same number of connections, but a communication between two nodes must, in doubt, hop through hundreds of nodes in between. So the scale free network is a kind of compromise between decentralization and efficiency.

Such concentrations and clusters by large internet providers such as AT&T, Telekom and international consortia such as Level 3 also exist on the internet and Google has already put its private second internet next to the public one, but even today hundreds of thousands of small and large internet providers worldwide still serve billions of people on the basis of the common protocol basis, thus keeping the promise of decentralization at least at this level.

However, the first reason Paul Baran cites for decentralisation – stability against failures due to military or other attacks – is only conditionally valid due to the internets freedom of scale. In any case, this is the result of theoretical studies conducted by network researchers such as Albert László Barabási and others in Nature.4. According to the study, a random collapse of up to 80 percent of the nodes would keep the network stable. But if an „informed attacker“ were to attack the central nodes in a targeted manner, Barabási wrote, it would be relatively easy to switch off the entire internet. A prediction that has become considerably more explosive due to the major DDoS attacks of 2016, which paralyzed Twitter, PayPal, Netflix and Spotify over several hours.5 Although the number of such attacks has fallen in the meantime, security experts are by no means giving the all-clear.

The Hidden Costs of Decentralization

So the internet has actually become much more central. But not at all levels equally. While a largely decentralized approach still prevails on the lower layers, the most concerning signs of concentration have taken place above them. To visualize this, one has to imagine the internet as a stack where the protocols layer on top of each other. At the lowest level there are protocols providing WiFi, Ethernet or DSL and back in the days the ARPANET, which has been switched off in the meantime. These are the protocols that TCP and IP have been able to connect with each other by putting themselves on top as a general standard. On top of TCP/IP there is the so-called application layer. This is where our everyday internet usage actually happens. E-mail, WWW, but also the apps on our smartphones are part of this layer. And while decentralized approaches such as e-mail and the World Wide Web initially flourished on the application layer, it is precisely this layer that is dominated today by Google, Facebook, Amazon and other monopolistic, centralized platforms.

This concentration in the application layer is inevitable because innovation can hardly take place on the underlying layers. Decentrally implemented protocols such as TCP/IP have the major disadvantage of being immune to any form of further development due to their „path dependency“. Once a path has been followed, it can no longer be changed significantly and any further development must be based on the previous design decisions. You can see that effect by looking at the transition of internet addresses from IP Version 4 to IP Version 6, which has been underway for 20 years now and still isn’t finished yet. Once a distributed approach has been poured into a protocol, it develops a unruly structural conservatism. You can’t just flip a switch somewhere to update the system. No, billions of people have to flip billions of switches. And in case of doubt they say: why should we? Why change a running system? As a result, the actual innovation has been pushed upwards. Instead of equipping the network protocol with new features, the services were developed on top. That was certainly the idea, but it opened up a whole new space that, although based on decentralized structures, made new centralized services possible, and – in a sense – inevitable.

But why is the application layer dominated by large corporations today, when in the 1990s decentralized approaches like the WWW, e-mail and other protocols were initially predominant?

An answer to this is provided by the “economies of scale”. In the industrial society it meant that enormous cost reduction effects would occur if a product was manufactured 100,000 times instead of 1000 times. The same applies to the digital world. Amazon needs considerably fewer employees and consumes less power to operate a data center with 100,000 servers than 100 hosting-providers need to keep their 1000 servers running. Add this to the fact that server-based services such as Facebook and Google can roll out innovations easily, while protocol-based platforms are always stuck in their current state due to their path dependency, and the dominance of centralized services is virtually self-evident.

Related to the scale effect is the network effect – a scale effect on the demand side – also known as Metcalfe’s Law6 in the networking world since the 90s. Robert Metcalf, one of the engineers of the Ethernet standard, formulated that the value of a network increase proportionally to the square of its participants. The more participants a network has, the greater the benefit for each individual. A growing network thus becomes more and more attractive and develops a pull effect on potential network participants through this positive feedback loop. In the end, everyone is on Facebook because everyone is on Facebook. However, everyone has e-mail because everyone has e-mail and Facebook and e-mail are based on TCP/IP because almost all internet services are based on TCP/IP. In other words: Network effects work for decentralized platforms as for centralized ones.

However, this effect has a negative effect on many decentralized platforms via detours. In the early 2000s, Google had shown how a central search index could render a decentralized network like the millions of websites on the WWW actually useful. This was shortly before Facebook showed that it was possible to do without decentralized elements by simply letting users create the content directly on the platform. Both Google and Facebook show that central data storage has a special advantage: it can be searched. And it’s the searchability that often makes the network effects really come to the fore. What good is it to have your friends communicate on the same standard as yourself when you can’t find them anyway?

While the internet protocol works fine without central searchability, because it only has to know it’s routing table to find the next router, non-searchability, combined with the existence of a disproportionately large competitor, is the main obstacle to the growth of alternative, decentralized social networks. That’s why Diaspora, Status.net, Mastodon and all other alternatives to Facebook and Twitter never really took off.

The lack of searchability is indeed one of the problems that blockchain technology has addressed with some success. Because all participants of the network can view and search all interactions in the network, network effects can unfold unhindered despite a lack of central data storage.

But this generates costs elsewhere. Not only is there a need for millions of parallel data stores instead of one data store for each process, but there is also the problem that these millions of data records have to align each other to a common state again and again. This alignment problem is essential, because otherwise every participant could spend his or her Bitcoin or Ether several times, the so-called „double spending“. This problem alone devours the annual energy budget of Austria only for the Bitcoin network.7 And even if less energy-hungry agreement procedures are already being applied to other crypto currencies, any solution, no matter how sophisticated, will always be thousands of times more complex than a simple „write“ into a conventional, central database.

Meanwhile, the scale effects of clumping undermine the blockchain promise. Bitcoin Gold – a Bitcoin variant – has already experienced a 51% attack.8 This is an attack, in which an attacker brings 51% of the computing power of the network under his oder her control, in order to write on the blockchain on his own authority; for example stealing money by doublespending. Back, when Bitcoin started, this was a purely theoretical possibility, today – where mining has professionalized and computing power has concentrated on a few players, it has become a real possibility that some miners could join forces or rent additional computing capacity to carry out such an attack.

The structural conservatism of path dependency also makes the blockchains difficult to develop further. A recent attempt to change Bitcoin in order to increase the block size from currently 1 megabyte to 1.8 megabyte, failed.9 This would have dramatically increased the speed of transactions, which had been down to several days in the meantime. But for a hard cut (fork) you have to have the majority of the community (at least 51% of the computing power) on board, but they often have their own agenda to protect their possessions. Just like in the analogous capitalism, the established forces profit from the status quo and for that reason oppose change.

For Bitcoin, Ethereum and many other crypto-currencies, additional external services to enrich the protocols with extra services are already in development. Wallet service for example have adopted the attitude of storing the huge blockchain data on central servers. The coin-exchanges, where you can buy and trade Bitcoin, Ether and co., are popular, and therefor central points of attack – for hackers as well as for law enforcement. Ethereum applications (dApps) are distributed by design but are often managed through centralized Web sites. In other words: it is already happening what has happened to all decentralized approaches: new services move to higher layers and establish new centralities there.

The Historical Dialectic of Decentrality

It is far from obvious whether or when blockchain-based technologies will really have the disruptive impact on our centralized internet that it’s said to have.10 Currently, most blockchains are still solutions looking for a problem. Their only unique selling point – decentralization – has a torrent of hidden costs attached to it, which already proofed prohibitive for similar approaches in the past.

However, important insights can be drawn from the history of the successful and less successful decentralized architectures of the internet. Decentralized approaches seem to work when infrastructure is geographically distributed anyway, as it is the case with regional and national internet service providers. They work when the decentralized infrastructure doesn’t need to be significantly further developed because innovation can move to higher layers. They also flourish when you can manage to make them searchable, as Google did for the WWW and Thepiratebay for Bittorrent. When you can reduce the extra costs of decentralization enormously, or justify them with a huge extra benefit, as in the early days of thei. It also helps immensely if what you build in a decentralized manner does not already exist as a centralized service. This is the only explanation a standard as inadequate as e-mail could still prevail – and last so long.

So let’s imagine that enough of these criteria have been met for a new, decentralized, protocol-based infrastructure based on blockchains to raise its head. Are we finally free then?

I doubt so. A historical dialectic can be observed in the history of decentralized architectures. Due to the inherently structure-conservative path dependency of decentralized architectures, innovation shifts to higher layers, in which new players can play out their strengths given by centrality.

Let’s imagine the following scenario. The Ethereum network produces its first truly meaningful and widespread killer app, the VisiCalc11 of the blockchain age. Let’s call it Woolit. Woolit is a dApp – a decentralized app – for buying, exchanging, managing and storing the 100 most important crypto-currencies. It’s not just a wallet, but it is connected to its own coin exchange, which makes dealing with all kinds of crypto-currencies super easy.

Now this dApp needs a website for advertising and in order to administrate your account and operate the coin-exchange. The Woolit website is conventionally stored on a web-server. The interface does no longer write to a database, but to the Ethereum blockchain, which doesn’t make a visible difference in user experience. The company also publishes apps for iPhone and Android, which can also be downloaded from the website. The blockchains of the respective cryptocoins are also stored on the central server for the sake of simplicity and efficiency.

However, the popularity of the app only really gets through the roof when it introduces a feature that processes transactions among its users in milliseconds and makes them completely free of charge. This works via an internal escrow system that executes the transactions in parallel on the server-side database and guarantees the value transfer until the actual blockchain transfer is completed. The fiduciary system can suddenly also be used to limit fraud as transactions can be recalled automatically. The Woolit-Wallet automatically instructs the fraudulent party to return the money. If such an intervention does not suit you, you can give up your Woolit and switch to another Wallet. The Lightning Network12, which has been under construction for several years and is supposed to provide similar functionality via a decentralized architecture, is still not finished at this point and therefore has nothing to oppose Woolit’s fast and technically pragmatic solution. But Woolit is now as simple, convenient and secure as any other payment app on the market and makes handling all major crypto-currencies a mass-market for the first time.

Woolit is such a great success that it initially drives most other wallet systems off the market, then gradually many coin exchanges. The Woolit exchange begins to differ from its competitors, offering features and conditions that the others cannot keep up with. Woolit starts taking fees from other exchanges when they want to transfer money to Woolit customer IDs. Retail stores now all have a Wooli logo on their checkout systems that indicates that customers can pay conveniently with the Woolit app. Soon Woolit makes its customers a special offer: if they only transfer money within Woolit and pay things, they get their fees waived every twelfth month. Most Woolit customers join in.

One day Woolit receives an official request from the American State Department. They are asked to freeze and block all accounts of the Swedish carpet trading company Carpet.io because it is guilty of doing business in Iran contrary to the sanctions. Of course Woolit complies since it is based in the US. Woolit can’t delete or freeze accounts on any blockchain systems, but it can block access to them via its woolit-interface. Of course Carpet.io can now use another wallet – there are still a few open source projects on Github – but these are slow and usually don’t support all features or all coins that Carpet.io got. In addition, Carpet.io has lost access to the Woolit exchange and has to go through other exchanges that have worse prices and features. Most importantly, they lost access to most other coin-owners, because most of them are Woolit-customers and – in order to save the fees – only exchange coins exclusively there. That’s faster, safer and more convenient anyway. Carpet.io gives up and files for bankruptcy.

Today Woolit has 50,000 employees, data centers worldwide and is the third most valuable company in the world. It also has the most mining capacity and could easily launch a 51% attack on the majority of its hosted crypto currencies. But that would only crash the value of these crypto-currencies and why would it hurt itself with such nonsense? Woolit customers also understand this and therefore trust the company. Just like most governments with which Woolit has a trustful relationship since it, together with some authorities, has dried up most of the organized crime. Money laundering has become difficult since Woolit dominated the crypto-market. Who needs decentralisation anyways?

  1. Philip Elmer-Dewitt: First Nation in Cyberspace, http://kirste.userpage.fu-berlin.de/outerspace/internet-article.html
  2. Paul Baran: On Distributed Computing, https://www.rand.org/content/dam/rand/pubs/research_memoranda/2006/RM3420.pdf
  3. Wikipedia: https://en.wikipedia.org/wiki/National_Science_Foundation_Network
  4. Albert László Barabási, Reka Albert, Hawoong Jeong: Error and attack tolerance of complex networks, https://www.researchgate.net/publication/1821778_Error_and_attack_tolerance_of_complex_networks
  5. Nickey Woolf: DoS attack that disrupted internet was largest of its kind in history, experts say, https://www.theguardian.com/technology/2016/oct/26/ddos-attack-dyn-mirai-botnet
  6. Wikipedia: https://en.wikipedia.org/wiki/Metcalfe%27s_law
  7. This obviously is changing constantly. https://digiconomist.net/bitcoin-energy-consumption
  8. OSATO AVAN-NOMAYO: 51 PERCENT ATTACK: HACKERS STEALS $18 MILLION IN BITCOIN GOLD (BTG) TOKENS, https://bitcoinist.com/51-percent-attack-hackers-steals-18-million-bitcoin-gold-btg-tokens/
  9. Kyle Torpey: The Failure of SegWit2x Shows Bitcoin is Digital Gold, Not Just a Better PayPal, https://www.forbes.com/sites/ktorpey/2017/11/09/failure-segwit2x-shows-bitcoin-digital-gold-not-paypal/
  10. Michael Seemann: Blockchain for Dummies, http://www.ctrl-verlust.net/blockchain-for-dummies/
  11. VisiCalc of Dan Bricklin and Bob Frankston, http://history-computer.com/ModernComputer/Software/Visicalc.html
  12. Wikipedia https://en.wikipedia.org/wiki/Lightning_Network

Veröffentlicht unter english extern Plattformpolitik
Verschlagwortet mit
1 Kommentar

Cambridge Analytica, the Kontrollverlust and the Post-Privacy Approach to Data-Regulation

There is a heated debate going on about Facebook and privacy since the revelations about Cambridge Analytica surfaced. The reaction is a cry for more privacy regulation. The European approach of the General Data Protection Regulation (GDPR), which will come into effect by late May this year, is seen by many as a role model for a much needed privacy regulation in the US.

But they are wrong. I feel that there are a lot of misconceptions about the effectiveness of data protection in general. This is not surprising since there are few similar rules in the US and so the debate is based more on projections than on actual experiences.

I want to add the perspective of someone who has lived long enough within a strict privacy regime in Germany to know the pitfalls of this approach. From this angle I want to reflect the Cambridge Analytica case regarding of how effective EU style privacy regulation would have been to prevent this event from happening. Jürgen Geuter has already published a very readworthy and detailed critic of the GDPR, but my angle will be more conceptual and theory driven.

I will apply the theory of ‘Kontrollverlust’ to this case to come to a deeper understanding of the underlying problems of data control. You can read a much more detailed examination of the theory in my book ‘Digital Tailspin – Ten Rules for the Internet after Snowden’ from 2014.

In short: the notion of Kontrollverlust is basically the idea that we already lost control over our data, and every strategy should acknowledge that in the first place. There are three distinct drivers that fuels this loss of control and they are all closely entangled with the advancements of digital technology.

The first driver of Kontrollverlust reads:

„Every last corner of the world is being equipped with sensors. Surveillance cameras, mobile phones, sensors in vehicles, smart meters, and the upcoming ‘Internet of Things’ – tiny computers are sitting in all these objects, datafying the world around us. We can no longer control which information is recorded about us and where.“

This holds certainly true and you can watch an instance of this ever unraveling enlightenment in the outrage about the related issue of how the facebook android app has been gathering all your cellphone data. But it is the remaining two drivers of Kontrollverlust that are at the heart of the Facebook scandal.

1. The „Data Breach“

The second driver of Kontrollverlust is:

„A computer will make copies of all the data it operates with, and so the internet is basically a huge assemblage of copying machines. In the digital world, practically everything we come into contact with is a copy. This huge copying apparatus is growing more powerful every year, and will keep on replicating more and more data everywhere. We can no longer control where our data travels.“

Regardless if you like to call the events around Cambridge Analytica a „data breach“ or not, we can agree on the fact that data has fallen into the wrong hands. Dr Alexandr Kogan, the scientist who first gathered the data with his Facebook app, illegally sold it to Cambridge Analytica. While this was certainly a breach of his agreement with Facebook, I’m not entirely sure if it was also a breach of the law at that time. I’ve come to understand that the British data protection agency is already investigating the case so I guess we will find out at some point.

However, what becomes obvious is – regardless of which kind of privacy regulation would have been in effect – it wouldn’t have prevented this from happening. The criminal intent with which all parties were acting suggests that they would have done it one way or the other.

Furthermore, Christopher Wylie – the main whistleblower in this case – revealed that an ever growing circle of people also got their hands on this data. Including himself and even black market sites on the internet.

The second driver of Kontrollverlust suggests that we already live in a world where copying even huge amounts of data has become so convenient and easy to do that it is almost impossible to control the flow of information. Regardless of the privacy regulation in place we should consider our data being out there and with anybody who has an interest in knowing about it.

Sure, you may trust big corporations in trying to prevent this from happening, since their reputation is on the line and with the GDPR there may also be huges fines to be paid. But even if they try very hard, there will always be a hack, a leak, or just the need for third parties to access the data and thus the necessity to also trust them. ‘Breach’ won’t be an event anymore but the default setting of the internet.

This certainly doesn’t mean that corporations should cease trying to protect your data since it’s hopeless anyways and this is also not an argument against holding these companies accountable by the means of the GDPR – please do! Let’s prevent every data breach we can from happening. But nevertheless you shouldn’t consider your data safe, regardless of what the law or the corporations will tell you.

2. The Profiling

But much more essential in this case is what I call the third driver of Kontrollverlust:

„Some say that these huge quantities of data spinning around have become far too vast for anyone to evaluate any more. That is not true. Thanks to Big Data and machine learning algorithms, even the most mundane data can be turned into useful information. In this way, conclusions can be drawn from data that we never would have guessed it contained. We can no longer anticipate how our data is interpreted.“

There is also a debate about how realistic the allegations concerning the methods of Cambridge Analytica are and how effective this kind of approach would be (I consider myself on the rather sceptical side of this debate). But for this article and the sake of argument let’s assume that CA has been able to provide their magical big data psycho weapon and that it has been indeed pivotal in both the Brexit referendum and the Trump election.

Summing it up, the method works as follows: By letting people do psychological tests via Mechanical Turk and also gaining access to their facebook profiles, researchers are able to correlate their Facebook likes with their psychological traits from the test. CA was allegedly using the OCEAN model (Big Five Personality Traits). So the results would assumingly read somewhat like this: if you like x, y and z you are 75% likely to be open to new experiences and 67% likely to be agreeable.

In the next step you can produce advertising content that is psychologically optimized for some or for all of the different traits in the model. For instance they could have created a specific ad for people who are open but not neurotic and one for people who also match high on the extraversion scale and so on.

In the last step you isolate the likes that correlate with the psychological traits and use them to steer your ad campaign. Facebook gives you the ability to target people by using their likes, so you can use the infrastructure to match your particularly optimized advertisement content to people who are probably most prone to it.

(Again: I’m deeply sceptical about the feasibility of such an approach and I even doubt that it came into play at all. For some compelling arguments against this possibility read this and this and this article. But I will continue to assume it’s effectiveness for the duration of this article.)

You think the GDPR would prevent such profiling from happening? Think again. Since Cambridge Analytica only needs the correlation between likes and traits, it could have completely anonymized the data an be fine fine with GDPR. They totally can afford to lose every bit of identifiable information within the data and still be able to extract the correlation at hand, without any loss of quality. Because identity does’t matter for these procedures and this is the Achilles‘ heel of the whole data protection approach. It only applies to where the individual is concerned. (We’ll discuss this in detail in a minute.) And since you already agreed to the Facebook TOS which allows Facebook to use your data to target ads towards you, the GDPR – relying heavily on ‘informed consent’ – wouldn’t prohibit targeting you based on this knowledge.

So let’s imagine a data protection law that addresses the dangers of such psychological profiling.

First we need to ask ourselves what we learned from the case in prospect of data regulation? We learned that likes are a dangerous thing, because they can reveal our psychological structure and by doing that, also our vulnerabilities.

So, an effective privacy regulation should keep Facebook and other entities from gathering data about the things we like, right?

Wrong. Although there are certainly differences in how significant different kinds of data may correlate to certain statements about a person, we need to acknowledge the fact that likes are nothing special at all. They are more or less arbitrary signals about a person and there are thousands of other signals you could match against OCEAN or similar profiling models. You can match login times, or the amount of tweets per day, browser and screen size, the way someone reacts to people or all of the above to match it against any profiling model. You could even take a body of text from a person and match the usage of words against any model and chances are that you get usable results.

The third driver of the Kontrollverlust basically says that you cannot consider any information about you innocent, because there can always appear a new statistical model, a new data resource to correlate your data with or a new kind of algorithmic approach to render any kind of seemingly harmless data into a revelation machine. This is what Cambridge Analytica allegedly did and what will continue to happen in the future, since all these data analysis methods will continue to evolve.

This means that there is no such thing as harmless information. Thus, every privacy regulation that reflects this danger should prevent every seemingly arbitrary bit of information about you from being accessible by anyone. Public information – including public speech – has to be considered dangerous. And indeed the GDPR is trying to do just that. This has the potential to turn into a threat to the public, to democracy and to the freedom of the individual.

Privacy and Freedom in the Age of Kontrollverlust

When you look back to the origins of (German) data protection laws you will find that the people involved have been concerned about the freedom of the individual being threatened by the government. Since state authority has the monopoly on force – e.g. through police and jails – it is understandable that there should be limits for it to gather knowledge on citizens and non-citizens. „Informational self determination“ has been recognized by the Federal Supreme Court as a basic civil right back in 1983. The judges wanted to enable the individual to secure a sphere of personal privacy from the government’s gaze. Data protection was really a protection of the individual against the government and as such it has proven to be somewhat effective.

The irony is that data protection was supposed to increase individual freedom. But a society where every bit of information is considered harmful wouldn’t be free at all. This is also true on the individual level: Living in constant fear about how your personal data may fall into someones hands is the opposite of freedom.

I do know people – especially within the data protectionist scene – who promote this view and even live that lifestyle. They spend their time hiding from the public and using the internet in an antiseptically manner. They won’t use most of the services, only some fringe and encrypted ones, they never post anything private anywhere and go constantly after people who could reveal anything about them on the internet. They are not dissidents, but they chose to live like ones. They would happily sacrifice every inch of public sphere to get to the point of total privacy.

But the truth is: With or without GDPR; those of us who wouldn’t devote their lives to that kind of self restrictive lifestyle, already lost control of their data and even the ones who do will make mistakes at some point and reveal themselves. This is a very fragile strategy.

The attempt to regain the control won’t increase our liberties but already does the opposite. This is one of the central insight that brought me to advocate against the idea of privacy for privacy’s sake, which is still the basis of every data protection law and also of the GDPR.

The other insight is the conclusion that privacy regulation doesn’t solve much of the problems that we currently deal with, but is making it much harder to tackle them properly. But this needs a different explanation.

The Dividualistic Approach to Social Control

I’m not saying that we do not need regulation. I do think that there are harmful ways to use profiling and targeting practices to manipulate significant chunks of the population. We do need regulation to address those. But data protection is no sufficient remedy to the problem at hand, because it was designed/conceived for a completely different purpose – remember: the nation state with its monopoly on force.

In 1997 Gilles Deleuze made the point that next to the disciplinary regimes like the state and its institutions that we know since the seventeenth century, there has been a new approach of social control coming up, which he called the “Societies of Control”. I won’t get into the details here but you can pretty much apply the concept on Facebook and other advertisement infrastructures. The main difference between disciplinary regimes like, say, the nation state and regimes of control like, say, Facebook is the role of the individual.

The state always refers to the individual, mostly as a citizen, that has to play by the rules. As soon as the citizen oversteps the state uses force to discipline him back to being a good citizen. This concept also applies down to all the states institutions: The school disciplines the student, the barrack the soldier, the prison the prisoner. The relation is always institution vs individual and it is alway a disciplinary relation.

The first difference is that Facebook doesn’t have a monopoly on force. I doesn’t even use force. It doesn’t need to.

Because second, it doesn’t want to discipline anyone. (although you can argue that enforcing community standards needs some form of disciplinary regime, it is not Facebook’s primary objective to do so.) The main objective Facebook is really thriving for has …

… Third nothing to do with the individual at all. What it cares for is statistics. The goal is to drive the conversion rate for an advertisement campaign from 1.2% to 1.3% for instance.

Getting this difference wrong is one of the major misconceptions about our time. We are used to think of ourselves as individuals. But that’s increasingly not the way the world looks back at us. Instead of the individual (which means the un-dividable) it sees the dividual (the dividable): our economic, socio-demographic and biological characteristics, our interests, our behaviors and yes, at some point probably our OCEAN rating is what counts for these Institutions of control. We may think of these characteristics as part of our individual selves but they are everything but unique. And Facebook cares for them precisely because they are not unique, so they can put us into a target group and address this group instead of us personally.

For instance: Facebook doesn’t care if an ad really matches your interest or your taste as a person. It is not you, Facebook cares about, but people like you. It’s not you, but people like you that are now 0.1% more likely to click on the ad, that makes all difference and thus all the millions for Facebook.

People who are afraid of targeted advertisement because they think of it as exceptionally manipulative as well as people who laugh off targeted ads as a poor approach because the ad they were seeing the other day didn’t match their interest – both get this new way of social control wrong. They get it wrong because they can’t help thinking individually instead of dividualistic.

And this is why the data protection approach of giving you individual rights doesn’t provide the means to regulate a dividualistic social control regime. It’s just a mismatch of tools.

Post-Privacy Policy Proposal

Although the argument provided here may seem quite complicated, the solution doesn’t need to be. In terms of policy I mostly propose a much more straightforward approach of regulation. We need to identify the dangers and the harmful practices of targeted advertisement and we need to find rules to address them specifically.

  1. For starters we need more transparency for political advertisement. We need to know which political ads are out there, who is paying for them, how much money has been paid, and how these ads are being targeted. This information has to be accessible for everyone.
  2. Another angle would be to regulate targeting on psychological traits. I feel psychological ads aren’t necessarily harmful but it is also not difficult to imagine harmful applications, like finding psychological vulnerable people and exploit their vulnerabilities to sell them things they neither need nor can afford. There are already examples for this. It won’t be easy to prohibit such practices, but it will be a more effective approach on the long run than trying to hide these vulnerabilities from potential perpetrators.
  3. There is also a need to break the power of the monopolistic data regimes like Facebook, Google and Amazon. But contrary to the public opinion their power is actually not a function of their ability to gather and process data, but to be in the unique position to do so. It’s because they mopolized the data and are able to exclude everybody else from using it, what makes them invincible. Ironically it was one of the few attempts of Mark Zuckerberg to open up his data silo by giving developers access through their API, which caused the Cambridge Analytica trouble in the first place. Not just ironically but also unfortunately, because there is already a crackdown going on against open APIs and that is a bad thing. Open APIs are exactly what we need the data monopolists to implement. We need them to open up their silos to more and more people; scientists, developers, third party service providers, etc. in order to tackle their powers, by seizing the exclusiveness of their data usage.
  4. On a broader level we need to set up society to be less harmful for personal data being out there. I know this is far reaching but here are some examples: Instead of hiding genetic traits from your health insurance provider, we need a health care system that doesn’t punish you for having them. Instead of trying to hide some of your characteristics from your employer, we need to make sure everybody has a basic income and is not existencial threatened to reveal information about themselves. We need much more policies like this to pad out society against the revealing nature of our digital media.

Conclusion

“Privacy” in terms of „informational self determination“ is not only a lost cause to begin with, but it doesn’t even help regulating dividualistic forces like Facebook. Every effective policy should consider the Kontrollverlust, that is to assume the data to be already out there and used in ways beyond our imagination. Instead of trying to capture and lock up that data we need ways to lessen the harm such data could possibly cause.

Or as Deleuze puts it in his text about societies of control: “There is no need to fear or hope, but only to look for new weapons.”


Veröffentlicht unter Algorithmenkritik Das Neue Spiel english Kontrollverlust Plattformpolitik Postprivacy Queryology
2 Kommentare

Vorschlag: Open Source als Plattformpolitik

Sei doch nicht immer so negativ!“ wird mir manchmal vorgeworfen. „Immer bist du gegen alle möglichen politischen Maßnahmen, immer haben alle unrecht, aber was wäre denn nun die richtige Politik?

Ich gebe zu, dass ich mich gerade bei (netz-)politischen Themen in einer gewissen Meckerposition eingerichtet habe – zumindest überwiegt sie unschön.

Oft habe ich zum Beispiel festgestellt, dass Plattformen eine enorme Macht haben, aber sobald die Politik Maßnahmen vorschlägt, Plattformen zu regulieren, finde ich das auch wieder doof. Ja, was denn nun?

Ja, ich habe in verschiedenen Texten (und auch schon in meinem Buch) gezeigt, dass staatliche Plattformregulierung sehr häufig gegenteilige Effekte als die Angestrebten produziert. Genauer: sie zwingen Plattformen politische Macht und Legitimation auf, die diese gar nicht haben wollen und machen Staaten im Gegenzug abhängig von der Regulierungsmacht der Plattformen.

Aber als ich vorletztes Jahr als Sachverständiger im Bundestag war (schriftliche Stellungnahme als PDF, Video der Anhörung) habe ich auch einen konkreten Vorschlag gemacht, wie die Macht der Plattformen durch Staaten effektiv einzuhegen wäre, der damals meines Erachtens zu wenig Aufmerksamkeit bekommen hat. Deswegen will ich ihn hier etwas ausführlicher Ausbreiten:

Der Staat muss sich mit der Open Source Bewegung kurzschließen, um selber Plattformanbieter zu werden.

Nun gehöre ich nicht zu den typischen Open Source-Apologeten, die sich aus Überzeugung mit Linux rumschlagen und zur Not auf Geräte verzichten, weil es dafür keine Open Source-Treiber gibt. Im Gegenteil. Ich bin weitestgehend zufriedener Bewohner des Apple-Ökosystems und halte die meiste Open Source Software für eine Zumutung.

Auf der anderen Seite glaube ich aber auch, dass Open Source, offene Standards und dezentrale/distributed Service Ansätze das Einzige sind, was die Macht kommerzieller Plattformen – wenn nicht bedrohen, aber immerhin in Schach halten können. Oder könnten.

Leider tun sie das bislang nur sehr begrenzt. Das liegt zum einen daran, dass diese Ansätze allesamt noch zu schlecht, zu langsam in der Innovation, zu frickelig und so weiter sind. Das ist ein Problem, dass man mit Geld und Manpower gelöst bekommt. Das andere Problem ist ein Henne-Ei-Problem: die Systeme sind nicht attraktiv, weil sie zu wenig genutzt werden. Das leidige Thema Netzwerkeffekte.

Und hier die gute Nachricht: der Staat ist genau der richtige Akteur, beide Probleme zu lösen.

Kommen wir zum ersten Problem: Klar, wenn ein Unternehmen die Wahl hat, Geld in eine propietäre Technologie zu stecken, von der nur es selnst profitiert, wird es das lieber tun, als in Open Source zu investieren, wo im Zweifel auch die Konkurrenz noch von profitiert. Investition ist hier – zumindest zum Teil – ein Nullsummenspiel, was die vergelichsweise mickrige Finanzierung von Open Source erklärt.

Aber Staaten sind da anders. Sie könnten Geld in Open Source stecken und es kann ihnen egal sein, ob andere Staaten oder Unternehmen oder gar Privatpersonen davon profitieren. Je nach politischer Gesinnung könnte man das sogar als etwas positives sehen. (Ich zum Beispiel sehe das so)

Hinzu kommen die Standardargumente: Staaten könnten, wenn sie in Open Source investieren, eine größere Kontrolle über ihre Systeme bekommen. Sie könnten den Code für ihre Bedürfnisse anpassen, den Source Code auf Sicherheitslücken überprüfen und eigene Kompetenzen in Wartung und Weiterentwicklung aufbaue und so die direkte Abhängigkeit von Plattformanbietern (zum Beispiel Microsoft) reduzieren.

Aber so richtig spannend wird es, wenn man mit dem Staat das zweite Problem adressiert, das offene Ansätze haben: fehlende Netzwerkeffekte. Denn was oft vergessen wird, ist, dass der Staat eben auch ein riesiger Konsument von Software ist und sein Benutzen oder Nichtbenutzen von Systemen ein enormes Gewicht in die Waagschale wirft.

Konkret: Je mehr Behörden Linux und LibreOffice und co. installieren, desto mehr Kompatibilitäten werden über die Ämter und Behörden hinweg hergestellt. Ab zwei Städten mit kompatiblen Systemen würde es sich lohnen eigene Softwarelösungen zu entwicken. Partnerprojekte würden aus dem Boden schießen, denn sie könnten sich die Entwicklungskosten teilen und voll profitieren. Nach und nach würden aber immer mehr auf den Zug aufspringen, weil die Plattform durch neue Software immer attraktiver würde. Wir haben es mit dem Ins-Werk-Setzen von positiven Feedbackloops zu tun, die sich immer weiter verstärken und beschleunigen.

Und jetzt stellen wir uns vor, der ganze deutsche Staat, bis runter zur die letzten Landes- und Regionalbehörde würde auf Open Source setzen, zig Millionen von Installationen, dann hätte das einen globalen Impact auf die Open Source Welt als solche und darüber hinaus. Unternehmen würden vermehrt auf Open Source umsatteln, weil man nur so an lukrative Staatsaufträge kommt. Millionen Angestellte in den Behörden würden vielleicht auch privat anfangen Open Source-Syteme zu nutzen, einfach weil sie sich damit gut auskennen. Immer mehr Leute würden partizipieren, Bugs fixen, Software weiterentwickeln, forken, etc. Die Software würde immer vielfältiger, benutzbarer und sicherer.

Auf einmal würde es wirtschaftlich Sinn machen eine Bundes-Distribution für Linux herauszugeben, mit speziell entwickelter Behördensoftware, standardisiert und garantiert kompatibel über das gesamte Bundesgebiet. Es wäre wirtschaftlich eigene Spezialist/innen in großen Mengen auszubilden, Systemadins, Entwickler/innen, Secrurityexpert/innen. Projekte würden sich auf Projekte setzen, es würden eigene Infrastrukturen geschaffen, eigene Clouds, eigene Hardware, eigene Services, etc. Es würde ein lebendiges Ökosystem entstehen, dass Möglichkeiten an Möglichkeiten knüpfen würde.

Aber warum in Deutschland halt machen? Wenn einmal diese Softwarepakete in der Welt sind, würden schnell auch europäische Partner auf die Idee kommen, die Software einzusetzen. Sie müssten gar nicht mal die initialen Kosten investieren, weswegen die Schwelle für ihren Einstieg noch geringer ist. Die Netzwerkeffekte würden international abheben und Deutschland würde im Umkehrschluss davon profitieren. Je mehr Länder mitmachen, desto besser und vielfältiger wird die Software, desto größer wird der Pool an Experten, desto mächtiger wird das Ökosystem.

Man könnte per EU auch eine koordinierte Anstrengung machen, die gesamte EU auf die neue Open Source Strategie zu migrieren. Man stelle sich vor, wie die Netzwerkeffekte dann reinkicken würden. Spätestens dann wären Projekte möglich, mit denen man Facebook, Google und Amazon tatsächlich gefährlich werden könnte.

Linux und Co. wären sehr bald nicht mehr die Nerdsoftware, die wir heute kennen, sondern der gut benutzbare, besonders sichere Gold-Standard, mit dem jedes Kind umgehen kann.

Fazit

Staaten und Open Source sind sowas wie natürliche Partner, denn für Staaten ist Investition in Software kein Nullsummenspiel und er kann deswegen die Netzwerkeffekte freier Software sehr viel sorgloser einstreichen, als Unternehmen das können. Das Open Source Prinzip stellt auf der anderen Seite sicher, dass Staaten hier keine Tricks und Kniffe für heimliche Überwachung oder Zensurmaßnahmen in die Systeme schmuggeln. Am Ende gewinnt der Staat allgemeine Interoperabilität, bessere Software, die Macht der Netzwerkeffekte und sowas wie „Cyber-Souveränität“, weil er eigene Ressourcen zur Verteidigung seiner Infrastruktur aufbauen kann.

Die großen, kommerziellen Plattformen wird das nicht zerstören, aber es wird ihnen ein Gegengewicht entgegengestellt und die allgemeine Abhängigkeit der Staaten von ihnen wird enorm reduziert.

Zu guter Letzt gewinnen Staaten nun neue Möglichkeiten steuernd in die Plattformwelt einzugreifen: indem sie Standards durch ihre eigenen Netzwerkeffekte pushen oder verhindern.

Der Staat würde also ein relevanter Akteur im Spiel der Plattformen, indem er selbst Plattformbetreiber wird. Er könnte zwar nicht die Spielregeln bestimmen, aber sie relevant mitgestalten. Das ist weit mehr, als zu was er derzeit im Stande ist.

Ich bin überzeugt: die Zukunft der Staaten liegt im Open Source.


Veröffentlicht unter Das Neue Spiel Plattformpolitik
13 Kommentare

Blockchain For Dummies

[German Version]

The ‚blockchain‘ is currently being praised as a new miracle technology. The word appears six times in the German coalition agreement for the new government – and always in the context of new and promising digital technologies.

But what is behind all this?

Blockchain technology was born with its first popular application: Bitcoin. Bitcoin is based on the fact that all transactions made with the digital currency are recorded in a kind of ledger. However, this ledger is not located in a central registry, but on the computers of all Bitcoin users. Everyone has an identical copy. And whenever a transaction happens, it is recorded more or less simultaneously in all these copies. It is only when most of the ledgers have written down the transaction that it is considered completed. Each transaction is cryptographically linked to the preceding transactions so that their validity is verifiable for all. For instance, if someone inserts a fake transaction in between, the calculations are no longer valid and the system raises an alarm. What we’ve got, is a storage technology that no individual can control or manipulate.

Early on, even bitcoin skeptics admitted that besides the digital currency itself, it is the blockchain technology behind it that holds the real future potential. Since then, many people have been wondering where else it could be applied.

The Internet has always been regarded as a particularly decentralized technology, but this holds no longer true for most services today: All of us use one search engine (Google), one social network (Facebook) and one messenger (WhatsApp). And all these services are based on centralized data storage and data processing. Blockchain technology seems to offer a way out–all services that previously operated via central databases could now be organized with a distributed ledger.

The ideas go so far as to depict complex business processes within blockchains. For example, automated payouts to an account when a stock reaches a certain value. That’s called „Smart Contract.“

The hype about blockchain is almost as old as the one around Bitcoin, so we are talking about the inevitability of this technology for like six to seven years now. Hundreds, if not thousands of start-ups have been established since then, and just as many applications of the blockchain have been claimed.

As an interested observer one asks himself, why there is yet no other popular application besides cryptocurrencies (which themselves are more or less speculation bubbles without any real world application)? Why hasn’t a blockchain-based search engine threatened Google, or a blockchain-based social network Facebook? Why don’t we see a blockchain-based drive mediation app, and no accommodation agency–although these purposes have been praised so often? Why do all blockchain technologies remain in the project phase and none of them finds a market?

The answer is that Blockchain is more an ideology than a technology. Ideology means, that it is backed by an idea of how society works and how it should work.

One of the oldest problems in social sciences is the question of how to establish trust between strangers. Society will only exist if this problem is adequately resolved. Our modern society’s approach is to establish institutions as trustful third parties that secure interactions. Think of banks, the legal system, parties, media, etc. All these institutions bundle trust and thus secure social actions between strangers.

However, these institutions gain a certain social power through their central role. This power has always caused a headache to a certain school of thinking: the Libertarians, or anarcho-capitalists. They believe that there should not be a state that interferes in people’s affairs. The market – as the sum of all individuals trading with each other – should regulate everything by its own. Accordingly, they are also very critical of institutions such as central banks that issue currencies. The basic idea behind Bitcoin is to eliminate the central banks – and indeed banks in general – from the equation.

Blockchain is the libertarian utopia of a society without institutions. Instead of trusting institutions, we should have confidence in cryptography. Instead of our bank, we should trust in the unbreakability of algorithms. Instead of trusting in Uber or any other taxi app, we should trust a protocol to find us a driver.

That’s why Bitcoin and blockchain technology is so popular with the American right, which has a long libertarian tradition and rejects the state as such. That’s why it is also very popular with German rights, for example with Alice Weidel from the AfD, who will now hold the keynote at a big German Bitcoin conference and is founding her own blockchain startup. Those who are opposed to the „lying media“ and the „old parties“ are also critical of all other institutions, it seems.

So when you invest in Blockchain, you make a bet against trust in institutions. And that’s also the reason why this bet hasn’t been won once, yet. It’s because the ideology of anarcho capitalism is naive.

Technically speaking, a blockchain can do the same things any database has long been able to do–with a tendency to less. The only feature that distinguishes blockchain here is, that no one has ever to trust a central party. But this generates also costs. It takes millions of databases instead of one. Instead of writing down a transaction once, it has to be written down millions of times. All this costs time, computing power and resources.

So if we do not share the libertarian basic assumption that people should mistrust institutions, the blockchain is just the most inefficient database in the world.


Veröffentlicht unter Algorithmenkritik english extern Plattformpolitik Weltkontrollverlust
3 Kommentare