Gestern war ich bei einem Treffen der OHU Öffentlichkeit und Privatheit des von Google betriebenen Collaboratorys. Das erste Thema, über das wir sprachen, war das aus der Initiative heraus entstandene Projekt der Offline-Tags. Die Idee ist denkbar einfach: Man klebt sich einen Button sichtbar auf die Kleidung und kann so für Mensch und Maschine sein Bedürfnis nach öffentlicher Privatsphäre ausdrücken, d.h. unter welchen Umständen man mit den allgegenwärtigen Fotokameras und ihrem Internetzugang konfrontiert werden möchte. Eines der Tags steht für „keine Fotos“, eines für „Bitte vorher fragen“, eines für „Fotos gerne, aber kein Personen-Tagging“. Ein einziges steht für „Fotografieren und Taggen: bitte gerne!“. Die Tags sollen auch maschinell ausgelesen werden; eine entsprechende App ist bereits in der Mache.
Ich bin nicht ganz unschuldig an dieser Idee. Ich hatte allerdings ein einziges Zeichen vorgeschlagen, um meinem Recht am eigenen Bild zu widersprechen. Eine Art Post-Privacy-CC-Linzenz schwebte mir vor. Die Idee sollte eigentlich der „Recht am eigenen Bild“-Überregulation entgegentreten, ähnlich wie die CC-Lizenz das einst mit dem Urheberrecht machen sollte. Natürlich hätte ich mir denken können, dass – ebenfalls wie bei CC – die Regulation und Kompliziertheit eher zunimmt, als abnimmt, wenn man versucht, einen solchen Weg einzuschlagen. Alle wollen dann darin ihre Bedürfnisse formulieren können und man läuft schnell in die Falle, das auch noch zu bedienen.
Die Offline-Tags wurden auch auf der diesjährigen re:publica vorgestellt. Laut einem der Beteiligten war die häufigste Frage aus dem Publikum, ob man das automatisierte Auswerten der Tags nicht gleich in die Firmware sämtlicher Kamerahersteller integrieren sollte. Die Kameras sollten einfach den Dienst versagen, oder das Gesicht ausgrauen, wenn sie auf ein entsprechend getaggten Menschen gerichtet werden.
In irgendeinem „Wir müssen Reden„-Podcast bemerkte Max einmal am Rande, dass eigentlich die Möglichkeiten für die Durchsetzung der eigenen Privatsphäre durch die digitalen Technologien ja auch gewachsen seien. Es ging wie so oft um den Verpixelungsstreit bezüglich Google Streetview. Und in der Tat: In welchem Medium hatten die Menschen je die Möglichkeit gehabt, der Abbildung ihrer Hausfassade zu widersprechen? Google richtete diese Möglichkeit ein. Nicht nur aufgrund des öffentlichen Drucks, sondern vor allem auch: weil es ging.
Peter Glaser beschreibt, wie das weitergehen könnte. In Singapur gibt es die Bukit-Panjang-LRT-Bahn, die mit sogenanntem „Privacy-Glass“ ausgestattet ist. Weil Anwohner sich beschwerten, dass die Fahrgäste ihnen in die Wohnungen gucken können, färbt sich das „Privacy-Glass“ beim Vorbeifahren opak und bietet so einen effektiven, automatischen Sichtschutz.
Werden die Google-Streetview-Autos demnächst schon bei der Vorbeifahrt vorfiltern und verpixeln, anhand von Streetview-Verweigerer-Datenbanken oder Privacy-Tags, die an Hauswänden angebracht sind? Werden unsere Brillen einst Menschen ausblenden, wenn diese bei einem zentralen Anbieter ihre Erscheinung ausgeoptet haben?
Im Jahre 1990 schrieb Gilles Deleuze einen kurzen aber zukunftsweisenden Text. Im „Postskriptum über die Kontrollgesellschaften“ beschreibt er den Übergang von den noch durch Foucault beschriebenen Disziplinargesellschaften hin zu den Kontrollgesellschaften. Die Kontrollgesellschaften zeichnen sich dadurch aus, dass das Regime seine Macht in Entscheidungspotente Maschinen ausgelagert hat. In einer durchcomputerierten Welt werden Maschinen nach den jeweiligen Entscheidungskriterien unhintergehbar die Handlungs-Möglichkeiten der Menschen bestimmen. Eine Welt der automatisierten Schranken, ein Kafka 2.0 sozusagen. Lorenz Lessig beschrieb 10 Jahre später mit dem Satz „Code is Law“ diesen Paradigmenwechsel und seitdem wird allüberall – vor allem in deutschen Feuilletons – auf „die Algorithmen“ eingedroschen, die unser Leben zunehmend fremdbestimmen.
Miriam Meckel hielt dazu 2010 auf der re:publica einen vielbeachteten Votrag, der in diese Richtung wies. Der Titel ihres Talks „This Object cannot be liked“ referenzierte auf eine von ihr erlebte Geschichte. Eine Freundin hatte Geburtstag und bekam von jemanden eine virtuelle Torte auf ihre Pinnwand gepostet. Als Frau Meckel den Eintrag „liken“ wollte, versagte ihr Facebook dies mit oben stehender Fehlermeldung. Ich kann dieses Verhalten nicht reproduzieren, aber ich bin mir sicher, dass dieser Zwischenfall nichts mit bösartigen Algorithmen eines despotischen Mark Zuckerberg zu tun hat, wie Meckel es suggerierte, sondern vielmehr mit dem komplexen Zusammenspiel der jeweiligen Privacyeinstellungen aller Beteiligten. Facebook wird zu einem unüberschaubaren Labyrinth der selbsterstellten Privacyschranken. Kaum einer blickt noch durch, warum was wann nicht funktioniert.
Miriam Meckel wollte es wohl nicht sehen, Deleuze konnte es noch nicht sehen, Max aber ahnte es: nicht eine ominöse Macht ist es, die die digitale Technologie in Richtung Kontrollgesellschaft weitertreibt, sondern wir sind es. Wir einzelne Menschen, einfachen Nutzer, mit unserem kleinlichen Bedürfnis nach Privacy, legitimieren die Kontrollregime, fordern sie sogar ein. Es sind nicht Google und Facebook, es sind nicht die Regierungen oder Eliten, die diese Entwicklung befeuern, sondern solche Institutionen wie Privatsphäre und Urheberrecht, die wir umbedingt in das Internet einprügeln wollen, weil uns die Fantasie fehlt, wie wir auch ohne sie auskommen.
Christian Stöcker hat völlig recht, dass ein Regulierungsanspruch, der sich der digitalen Kontrollgesellschafts-Techniken bedient, total sein kann, vielleicht sogar total sein muss. Denn wenn die totale Kontrolle möglich ist, wird man sich dann trotzdem mit Ausnahmen begnügen? Und wenn ja, wer entscheidet welche?
Der Kontrollverlust und die Kontrollgesellschaft. Zwei sich widersprechende aber beides valide Diagnosen der Zukunft der Internet-Gesellschaft. Sie stehen nicht als gegenüberstehende Extreme einer kontinuierlichen Skala, sondern als binäre Pole einer Entscheidung. Weil in der „Code is Law“-Welt das Recht gar nicht oder nur total durchsetzbar ist, wird die Gesellschaft sich entscheiden müssen. Nach wie vor aber gilt: Ich bin davon überzeugt, dass wir uns für das Richtige entscheiden werden. Wir müssen nur noch die Urheber und Aluhüte davon überzeugen.
Bis dahin kann man sich dieses hübsche Video ansehen:
Pingback: WMR43 – Diaspora in doppeldoof | Wir. Müssen Reden