Managing CTRL-Verlust II – Plattformneutralität als Politik

Dies ist der zweite Teil der Reihe über das, was man wohl unvorsichtiger Weise „Politik“ nennen könnte, ich mich aber entschlossen habe, „managing CTRL-Verlust“ zu nennen. Warum das ich das tat, ist vielleicht im letzten Teil schon etwas aufgeblitzt, wird aber hoffentlich hier noch klarer. Es wird nämlich nicht darum gehen können, politische Handlungsspielräume zu erweitern oder gar zurückzuerobern, sondern im Gegenteil, den vorgefundenen Kontrollverlust als solchen zu sichern, überall dort, wo er bedroht wird – und das wird er. Denn es gibt nur eines, wovor wir uns fürchten sollten: den Kontrollverlustverlust.

Im letzten Teil habe ich versucht, das Thema, was uns hier immer wieder beschäftigt – den Kontrollverlust durch die Verschiebung der Medienmacht – analytisch auf die Netzsperrendebatte vom letzten Jahr zu übertragen und erste allgemeine Schlussfolgerungen für eine Politik im Netz daraus zu ziehen. Das Ergebnis war, dass ein politischer Rückbau des Kontrollverlustes die so vehement vorgetragenen Probleme nicht lösen würde, aber gleichzeitig dazu beitragen würde, ausschließlich unbescholtenen und unversierten Nutzern, das Internet durch zu regulieren. Wir konnten zeigen, dass diese Diskrepanz systemimmanent ist und durch keine je denkbare Technik beseitigt werden kann. Die einzig vernünftige Schlussfolgerung aus dem drohenden und vollkommen absehbaren Debakel einer Internetzugangsregulation ist nicht nur die volle Anerkennung des Kontrollverlusts, sondern vor allem, so paradox es klingen mag, die gesetzliche Festschreibung dessen.

Netzneutralität und Kontrollverlust

Ich rede hier von der Netzneutralität, ein Diskurs, der in den USA bereits seit einiger Zeit geführt wird und mittlerweile auch hierzulande im Mittelpunkt vieler netzpolitischer Forderungen steht. Obwohl der Staat in den USA bislang weniger Regulierungsbegehrlichkeiten gezeigt hat, hat dort der Netzneutralitätsdiskurs seinen Ausgang genommen. Dort nämlich waren es die Provider und großen Telefonkonzerne, die das Thema Internetregulierung auf den Tisch brachten. Der Streit, der dort immer noch schwelt, hat es auch nach Europa geschafft. Jetzt sind es bereits zwei, die sich um die Regulation des Internets bemühen: die Politik und die Provider. Angestachelt auch von der Rechteindustrie, die meint, mit Internetregulation ließen sich auch ihre Geschäftsmodelle für die Zukunft sichern.

Holger Schmidt hat unlängst ein düsteres Zukunftsszenario gezeichnet:
 

„Wer im Internet ausschließlich Seiten wie Amazon und Ebay aufsucht, zahlt 20 Euro im Monat. Für Facebook-Besuche verlangt der DSL-Anbieter 5 Euro extra. Der Besuch von Youtube ist untersagt, weil das Datenvolumen zu hoch ist. Die Apple-Nutzung ist ebenfalls verboten, da der Netzbetreiber einen eigenen Musikdienst betreibt, ebenso wie die Nutzung von Skype, weil damit das Telefongeschäft des Netzbetreibers kannibalisiert wird. Auf die Seiten der „New York Times“ kann nicht zugegriffen werden, da der Verlag keinen Vertrag mit dem Netzbetreiber abgeschlossen hat. Und als Suchmaschine wird Microsoft empfohlen. Dessen Trefferlisten werden tatsächlich viel schneller als die Resultate der Konkurrenz angezeigt, weil Microsoft für einen besonders schnellen Datentransport an den Netzbetreiber Geld zahlt.“

 
Im weiteren setzt sich der Artikel für die politische Implementierung der Netzneutralität ein. Netzneutralität ist die Forderung, dass die Provider und alle zuständigen Institutionen die Daten, die sie transportieren vollkommen unabhängig von ihrer Art, ihrer Herkunft und ihrer Verwendung – sozusagen blind – durch das Netz leiten sollen. Holger Schmidt schließt mit den Worten:

„Auf keinen Fall darf es aber dazu kommen, dass die Netzbetreiber zu Türwächtern des Internet werden. Das Internet würde einem unkalkulierbaren Risiko ausgesetzt.“

Ich finde das hinreichend paradox, um dort direkt einzusteigen: die Forderung nach Netzneutralität bedeutet immerhin, der Staat solle also regulieren, dass das Internet nicht reguliert werden soll. Es geht darum, dass der hier und anderswo immer wieder besprochene Kontrollverlust gesetzlich festgeschrieben wird. Die Politiker sollen sich selbst entmachten (oder ihre bisherige Entmachtung hinnehmen) und die Provider – und alle Interessenvertreter, die nach Regulation rufen – gleich mit. Ein kühnes Unterfangen und – wenn man sich die Funktionsweise des politischen Systems einmal genauer betrachtet – bereits jenseits des Politischen.

Und doch ist genau das die einzig richtige Forderung: das Internet ist die Plattform, auf der derzeit ein großer Teil, bald aber der Abstand größte Teil von Gesellschaft stattfinden wird. Das Internet muss ein öffentlicher Raum bleiben, der nicht den willkürlichen Interessen eines einzelnen, nicht mal denen einer Gesellschaft, unterzuordnen ist. Ja, der Kontrollverlust ist unumgänglich, Freiheiten kann man nur den Unbescholtenen und den Unbedarften einschränken und auch das nur temporär. Jede sinnvolle Politik müsste also mit dieser Kapitualtionserklärung vor dem Kontrollverlust beginnen. Aber auch und vor allem dann warten einige Aufgaben, die man vorläufig politisch nennen kann. Das einzige, was wir zu befürchten haben, ist der Kontrollverlustverlust.

Vom Dienst zur Plattform

Aber wie ich im vorherigen Blogpost angedeutet habe, sind die Provider nicht die einzigen Gefahren für den Kontrollverlust und Netzneutralität kann somit nur ein Teil der Lösung sein. Nachdem wir also den Korridor der Politik abgestekt haben, müssen wir beginnen ihn auszugestalten. Wir können es vorsichtig erst mal bei folgendem belassen: Die Politik kümmert sich um die Sicherung und Wahrung des Kontrollverlustes. Und zwar nicht nur bei den Providern – das auch, sondern überall, wo es im Internet Zentralisierungstendenzen gibt.

Sebastian Deterding vom Hans-Bredow-Institut für Medienforschung hat auf der re:publica einen vielbeachteten Vortrag über diese Zentralisierung des Internet gehalten, den ich leider verpasst habe. In “Das Internet ist dezentral. Und andere gefährliche Mythen” (hier die Slides, sogar mit Vortragstext) bricht er den – auch von mir behaupteten – Mythos der Unkontrollierbarkeit des Internets auf, oder schränkt ihn zumindest ein.

Er zeigt, wie die großen Player der Internet- und Technologiebranche – Google, Microsoft, Facebook, Apple etc. – in ihren Segmenten eine so zentrale Stellung einnehmen dass sie die Internetnutzung durch die Hintertür wieder zentralisieren. Einige tun das nicht nur in ihrem Segment, sondern auch vertikal. Apple, Google und Microsoft zum Beispiel schaffen es, alle Schichten der Internetnutzung (Hardware, OS, Browser, Identitätsmanagement, Internetdienst) aus einer Hand anzubieten. Die Abhängigkeit der User von diesen Anbietern sei gefährlich, so Deterding.

Warum es überhaupt so kommt, erklärt sich anhand einiger Besonderheiten des Internetmarktes: Je größer zum Beispiel der Masse an Nutzern einer Technologie wird, desto attraktiver wird sie für alle anderen Nutzer. Diese so genannten „Netzwerkeffekte“ weisen immer in die Richtung Monopol, zumindest Marktbeherrschende Stellung. Ähnlich wie ein schwarzes Loch entwickeln diese Plattformen eine soziale Gravitation, die es den einzelnen Nutzern immer schwerer macht, eine andere Plattform zu benutzen. E-Bay und Amazon haben gezeigt, wie wichtig es ist, als die einzig relevante Plattform für bestimmte Tätigkeiten (Shoppen, Dinge versteigern) bekannt zu werden und die Massen an sich zu binden.

Die ökonomische Theorie hinter diesen Mechanismen solcher Netzwerkeffekte, hat unlängst Marcel Weiß aufgearbeitet. „Zweiseitige Märkte“ sind Plattformen, die die Interessen zweier heterogener Gruppen zusammenbringen. Derzeitiges Paradebeispiel ist Apples Appstore und die iPhone-Plattform, die einerseits ein attraktiver Marktplatz für Softwareentwickler ist, weil er gleichzeitig ein attraktiver Markt für zahlungskräftige Endkunden ist, weil wiederum anderseits die Auswahl der Apps so groß ist, und so weiter. Die Netzwerkeffekte der einen Marktteilnehmer beeinflussen also den Erfolg des Marktes für die anderen Marktteilnehmer.

Ein ganz anderes Feld ist Facebook. Kürzlich hat der Social Network-Marktführer seinen für Statusupdates und andere in Facebook eingestellten Inhalten eigenen „Like“-Button als Lösung für das gesamte Web vorgestellt. Jede Website kann sich nun einen solchen Button anheften und so seinen bei Facebook eingeloggten Usern die Möglichkeit geben, den gerade besuchten Link mit den Freunden zu teilen. Diese durchaus sinnvolle Innovation macht Facebook aber nun vermutlich langfristig zu einem wichtigen Teil der Infrastruktur des Webs.

Christoph Kappes hat das in seiner langen aber lesenswerten Analyse zum Phänomen Facebook so ausgedrückt:

„Zusamenfassend und pointiert formuliert: Facebook wächst nicht nur rasant, sondern dehnt sich funktional in alle Richtungen aus und besetzt dabei mit dem sozialen Graphen und semantischen Daten einen zentralen Platz des künftigen Internets. Das ist das gute Recht von Facebook. Ob es aber den Beteiligten des Ökosystems nützt, ist eher fraglich – und im Ergebnis kann genau dies eines Tages das Blatt gegen Facebook wenden, wenn Facebook sein Ökosystem nicht nachhaltig behandelt.“

 
Plattformneutralität und Vergesellschaftung

All diese Beispiele zeigen, dass der Kontrollverlust auf Ebene des unbedarften Nutzers durchaus ein fragiles Konstrukt ist und er derzeit auf ganz verschiedenen Ebenen angegriffen wird. Überall bilden sich neue infrastrukturelle Layer, die jedes mal neu umkämpft werden und die sich irgendwann als neue Plattform über das eigentliche Internet legen. Meist als interne Monopole, also Monopole, die ihren eigenen Markt selbst erschaffen haben, auf denen sie nun unumschränkt herrschen.

Dass es zu Problemen bei solcherlei Machtakkumulationen kommt, zeigt nicht nur die immer wieder kritisierte willkürliche Zensur, die Apple in seinem Appstore durchsetzt. Erst gerade traf es ein Musikvideo der Gruppe M.I.A. in dem mit einem drastischen aber durchaus sehr politischen Video, dass nun auf Youtube gelöscht worden ist  – (anscheinend wurde das Video nur auf eine höhere Altersfreigabe gesetzt, so dass nur noch eingeloggte Nutzer das Video sehen können. Danke für den Hinweis, Marc B.)  Auf diesen Plattformen herrscht zuweilen eine Willkür und eine Zensur, wie sie auch staatlicherseits kaum schlimmer sein könnte. Es zeigt sich, dass Neutralität nicht nur eine Forderung an die Netzbetreiber sein kann, sondern sich auf alle andere Schichten der Internetnutzung ebenso beziehen muss.

Wann ist Facebook ein öffentlicher Ort, dass es dort sowas wie Versammlungsfreiheit geben muss?“ fragte Sebastian Deterding in seinem Vortrag. Das ist die Frage, die genau in den Korridor einer Porlitik im Internet fällt, wie ich sie skizzieren möchte. Wie können wir die Freiheit des Nutzers erhalten? Wie können wir dauerhaft dafür sorgen, dass der Nutzer nicht von immer anderen, immer neuen Layern, bevormundet wird? Wie können wir auch in Zukunft eine Plattformneutralität gewährleisten?

Im letzten Teil der Reihe habe ich gezeigt, wie sich aus einer Lücke in der Zensurinfrastruktur ein ganz neuer Layer im Internet entfalten kann und so das Internet auf Dauer befreit. Das selbe gilt umgekehrt. Über dem eigentlich offenen und dezentralen Web können sich wiederum jederzeit zentralistische und geschlossene neue Layer auftürmen und die gerade gewonnene Freiheit wieder einschränken. Das Web ist offen, auch für geschlossene Systeme.

Das auszudrücken versucht diese Slide von Deterding:

Auf den verschiedenen Eben des Internets ergeben sich immer neue „Orte“ an denen sich der Zugang zum System verengt, wo die von Holger Schmidt befürchteten Türwächter zuschlagen können und meist auch tun. Doch was genau bedeutet auf dieser Slide das Wort „Plattform“? Ist denn nicht jeder Layer des gezeigten Modells eine Plattform?

Ich würde für eine offenere Definition des Begriffes Plattform plädieren: Plattform ist eine grundlegende Infrastruktur, auf der sich Dienste und weitere Infrastrukturen bilden können. Das Web ist eine riesige Erfolgsgeschichte. Es ist – ähnlich wie TCP/IP, auf dem es selbst basiert – zu einer Plattform mutiert, die eine wichtige Infrastruktur des Internets ist. Sowohl TCP/IP als auch alle Protokolle und Standards des Web sind offen und patentfrei.

Das Web entwickelt sich aber nicht nur in der breite, sondern vor allem auch vertikal. Neue Dienste öffnen ihre Pforten und locken die Nutzer mit Gratisangeboten und ausgefeilten Features. Sie stellen Dienste zur Verfügung mit denen wir im Web einkaufen, unsere Freundschaften pflegen, unseren Urlaub planen können. Durch die vorher angesprochenen Netzwerkeffekte bilden sich aber nach und nach zentrale Player heraus, die das Internet sodann in diesem Bereich dominieren. Ab einer bestimmten kritischen Masse übernehmen diese Dienste selber infrastrukturelle Aufgaben und werden eben so wie TCP/IP und das Web zu Plattformen.

Und hier kommt die Politik in’s Spiel: Wenn eine solche Plattform entsteht, muss es möglich sein, die gesellschaftlichen Ansprüche auf Gerechtigkeit, Teilhabe und Transparenz an diese Infrastruktur heranzutragen. Die Leute, die diese Plattform nutzen und mehr oder minder auch von ihr abhängig sind, müssen sich darauf verlassen können, dass ihre wirtschaftliche und soziale Existenz nicht am Goodwill einer einsamen Managemententscheidung hängt. Ein Layer, der über das freie Internet gelegt wird, muss selber Ansprüchen an die Freiheit genügen, auf denen es basiert: dem TCP/IP Protokoll, den Webstandards und dem großen Haufen an Open Source Software auf dem es läuft.

Ja, ich plädiere dafür, dass Infrastruktur- und damit Machtkolosse wie Facebook, Apple und Google auf die eine oder andere Weise vergesellschaftet werden. Wichtig: mit „Vergesellschaftung“ meine ich nicht Verstaatlichung! Ich meine damit: unter die hoheitliche Macht und Kontrolle der zivilen Gesellschaft gestellt. Bei Algorithmen ist die beste Vergesellschaftung die Überführung in Open Source. Quelloffene Programme sind vergesellschaftlicht insofern, dass jeder die Möglichkeit hat, ihre Funktionsweise zu überprüfen, sie zu ändern und weiterzuentwickeln und dass sie für jeden kostenfrei einsetzbar sind.

Freiheit durch Multihoming

Bei Plattformen, die eine gewisse soziale Gravitation entwickelt haben, hilft das Öffnen des Quellcodes herzlich wenig. Hier muss versucht werden, die Plattform zu zwingen, offene Schnittstellen für alle seine Funktionen nach außen hin anzubieten, so dass man die Plattform mit eigenen Mitteln und ohne sich den Fängen eines einzelnen Anbieters auszuliefern, daran teilhaben kann. Offene Protokolle zum Datenaustausch, so dass ich von Xing oder StudiVZ Nachrichten an Freunde auf Facebook schicken kann und ich mein Freundesnetzwerk (Social Graph) von einer auf eine andere Plattform portieren kann.

Marcel Weiß nennt diese Option im Bezug auf zweiseitige Märkte „Multihoming„. Sofern die Leute die Möglichkeit haben, ihren Angelegenheiten, für die sie eine Plattform nutzen auch auf einer anderen Plattform nachzugehen, sinkt die individuelle Abhängingkeit zu der Plattform. Wenn ich als Spieleentwickler ein Spiel zum Beispiel für Nintendo und für die Xbox entwickeln kann, bin ich nicht mehr vom Goodwill einer Plattform abhängig und ein echter Konkurrenzdruck zwischen den Plattformen kann entstehen. Natürlich nimmt bei der Möglichkeit des Multihoming auch die relative Attraktivität einer Plattform ab. Marktführer versuchen deswegen immer Multihoming zu unterbinden, während neue Marktteilnehmer darauf drängen.

(In einem offenen Brief hat Steve Jobs gestern erklärt, warum er Adobe Flash nicht auf der iPad- und iPhoneplattform haben möchte. Der wahre Grund wird eher das Multihoming sein: mit Flash könnten viele Entwickler Plattformunabhängig Apps und Spiele entwickeln, die sowohl für Android als auch für das iPhone funktionieren. Die exklusive Bindung der Entwickler an die Appleplattform würde gelindert. Apple hätte zwar dadurch mehr Entwickler und mehr Apps im Store, aber die relative Attraktivität der iPhoneplattform zur Androidplattform würde schrumpfen.)

Eine konkrete Aufgabe der Politik könnte also sein, solche Abschottungen der Marktführer gegen das Multihoming effektiv zu unterbinden und ihn im Gegenteil dazu zu zwingen, alles für das Multihoming erforderliche zu tun.

Im Detail ließen sich noch weitere Forderungen ableiten. Wichtig ist aber vor allem, dass die Zwänge auf Individuen, die von solchen Plattformen ausgehen, beseitigt werden. Es muss ein Recht auf die freie Nutzung von Plattformen geben, das nicht vom Anbieter eingeschränkt werden darf. Dafür braucht es gesellschaftlichen Druck und vor allem Multihoming. Teilhabe, Transparenz und Entscheidungsfreiheit müssen im Netz politisch durchgesetzt werden. Erst dann kann echter Wettbewerb und damit die Freiheit des einzelnen erhöht werden.

[Es müsste an dieser Stelle sowas wie eine Liste mit Forderungen stehen, die man politisch nennen könnte. Aber da ich glaube, dass die hier aufgestellten Forderungen wiederum nur Teilforderungen eines größeren Katalogs zur Sicherungen von Plattformen und der Erhöhung der Freiheit des Einzelnen sein können, belasse ich es dabei und verweise stattdessen auf den dritten Teil der Reihe, in dem ich die allgemeinen Züge einer solchen Politik ausführlicher aufzeichnen möchte.]

(Original erschienen auf der Website von FAZ.net)

Dieser Beitrag wurde unter FAZ-Import, Kontrollverlust, Plattformpolitik abgelegt und mit , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

3 Kommentare zu Managing CTRL-Verlust II – Plattformneutralität als Politik

  1. Pingback: Die Welt ist gar nicht so. » Podcast mit mspro

  2. Pingback: Managing CTRL-Verlust III – Vorschläge zu einer Politik der herrschaftsfreien Kommunikation | ctrl+verlust

  3. Pingback: Asyl, Lügen und Hetzkampagnen « Beiträge aus dem beschädigten Leben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.