Die Filterbubblebubble

Eli Pariser hat einen der gefühlt erfolgreichsten TED-Talks ever abgeliefert. Jedenfalls kommt es mir so vor, weil ich andauernd darauf stoße. Oft auch von Leuten gestoßen werde. Von Leuten, die meine Thesen zur Queryology kennen und eine starke Wesensverwandtschaft feststellen. Vielleicht kommt mir der Vortrag also nur so unglaublich erfolgreich vor, weil ich eine thematische Prädisposition mitbringe und deswegen mit dem ganzen Related-Stuff dazu konfrontiert werde.

Kurz: Ich lebe in der Filterbubble. Aber selbst wenn dem so wäre, fühle ich mich spätestens nach meinem arroganten Twitterpostulat in Richtung Anne Roth doch dazu genötigt, diesen Talk endlich zu besprechen. Hier also erstmal das Video:


In der Tat, hat Pariser einen Punkt. Keinen neuen, wie ich finde, aber immerhin sieht er die Relevanz des Themas. Leider bringt er dabei eine ganze Menge durcheinander.

Er kritisiert zunächst die algorithmische Filterung bei Facebook und Google, die – ohne dass der Betroffene es merkt – die Statusnachrichten von Leuten oder Suchergebnisse ausblendet, von denen der Algorithmus glaubt, dass sie einen nicht interessieren.

Keine Frage, das ist ein Kritikpunkt, bei dem ich ganz bei ihm bin. Ich fühle mich in meinem Informationsfluss manipuliert, wenn Facebook entscheidet, wessen Stream für mich wichtig ist. Die Autonomie in der Filterung meiner Nachrichten, wird mir in diesem Punkt genommen. (Facebook ist eh ein schlechtes Werkzeug zur Nachrichtenfilterung, weil die Beschränkung oder zumindest Konzentration auf den Freundeskreis schon eine unfreie Vorselektierung der Filterauswahl darstellt.)

Dann aber – und eigentlich hauptsächlich – kritisert Pariser das Filtern ansich, im allgemeinen und grundsätzlich, auch das, wo es selbstbestimmt geschieht (wie gesagt, er differenziert diese Fälle nicht mal hinreichend). Er fürchtet, dass aus ethisch-moralischem und politischem Verständnis heraus als „relevant“ betrachteten Inhalte verschwinden und wir nur noch den Fastfood der Infos bekommen.

Die neugewonnene Freiheit durch das Internet wird wieder einschränkt. Die Algorithmen sind es, die einfach die Gatekeeper von damals (Journalisten) ablösen. Und hier verpasst Pariser das Problem des Filterns bei seiner Logik: Denn natürlich ist es etwas anderes, wenn die Filterung anhand meiner eigenen Interaktion konfiguriert wird, statt wenn dies nach universellen Kriterien oder eine Ethik oder einer Agenda von aussen passiert. Pariser hat natürlich recht, dass es ein Problem ist, dass wir die Funktionsweise der Filterung zum großen Teil nicht verstehen und ihren Einsatz vielleicht gar nicht merken. Und er hat sogar recht, dass die Filter insgesamt nicht besonders gut funktionieren und die Algorithmen verbessert gehören. Das Personalisieren und Filtern ansich, kann man allerdings nur unter der Maßgabe eines zurückkehrenden allgemeinen Gatekeepers verurteilen. Zurück zu dem, der weiß, was wir wissen sollten.

Diesen Schritt aber scheut Pariser. Er wendet sich stattdessen an Google und Facebook und co und fordert (richtiger Weise) mehr Einstellmöglichkeiten. Aber das ist nicht alles: er fordert gleichzeitig eine gewisse Verantwortlichkeit der Filterung von Google und Facebook. Er will also einerseits, dass wir selbstbestimmter filtern und er will andererseits, dass Google und Facebook in der Rolle des verantwortlichen Gatekeepers. Ja was denn nun?

Pariser hat sein Problem nicht durchdacht. Deswegen wirft er schlechte, unsichtbare, algorithmische Filterung und selbstbestimmte Filterung durcheinander. Er weiß gar nicht wirklich, was er will. Will er mehr Fremdbestimmung durch allgemeines Gatekeeping (jetzt also von Google und Facebook) oder will er mehr Autonomie für den Nutzer? Und will er wirklich, dass Google statt nur mit algorithmischer nun auch mit eigener politischen Agenda entscheidet, was wir gefälligst wahrzunehmen haben? Hat er sich das gut überlegt?

Die Frage, die sich Pariser nicht stellte ist: welche Form der Informationsdistribution konkurriert hier eigentlich mit welcher anderen und was sind ihre Eigenschaften, Vorteile und Ethiken? Meines Erachtens ist hier der Begriff der Filtersouveränität unerlässlich. Es geht um eine neue Form der Selbstbestimmung. Eine Emanzipation von einer anderen Ethik, einer Fremdbestimmten: der Ethik der Allgemeinrelevanz, die für uns bestimmen will, was wir zu beachten haben.

Man kann diese Form der Emanzipation immer noch kritisch sehen, keine Frage. Aber Pariser fordert die Filtersouveränität (ohne sie so zu nennen) und fordert gleichzeitig ihre Beschneidung und sieht den Widerspruch nicht.

Die Filterbubble (oder wie ich sie nenne: die Distributed Reality) ist ein Thema, das diskutiert gehört. Es schließen sich hier viele Fragen (und viele Vorurteile) an und es ist eine Menge Forschung zu leisten. Das Problem oder Nicht-Problem der Serendipity beispielsweise, dass Pariser auch nur unzureichend analysiert. Leider hilft Pariser dabei nicht besonders weiter, weil er die Personalisierung und Filterung von Inhalten völlig indifferent mit seinem Filterbubble-Wort diskreditiert.

Es wird aber in Zukunft nicht um Filterbubble oder Nicht-Filterbubble gehen, sondern darum, wie wir diese Filterbubbles einrichten können und wollen. Es wird um Selbstbestimmung gehen und natürlich auch um die Probleme und Veränderung, die daraus erwachsen. Das alles zu adressieren, funktioniert nicht, wenn man die „Filterbubble“ nur als Problem begreift ohne sich die Chancen zu Gemüte zu führen.

Dieser Beitrag wurde unter Kontrollverlust, Queryology, reloaded abgelegt und mit , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

10 Kommentare zu Die Filterbubblebubble

  1. Pingback: Breivik, Queryology und der Weltkontrollverlust | ctrl+verlust

  2. Pingback: Die transprivate Filterbubble generiert ‘Private Stars und Public Loser’ | hello internet!

  3. Pingback: Über das Gesetz der Affinität… – Herr Krueger

  4. Pingback: Über das Gesetz der Affinität… – Herr Krueger

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.