Die Filterbubblebubble

Eli Pariser hat einen der gefühlt erfolgreichsten TED-Talks ever abgeliefert. Jedenfalls kommt es mir so vor, weil ich andauernd darauf stoße. Oft auch von Leuten gestoßen werde. Von Leuten, die meine Thesen zur Queryology kennen und eine starke Wesensverwandtschaft feststellen. Vielleicht kommt mir der Vortrag also nur so unglaublich erfolgreich vor, weil ich eine thematische Prädisposition mitbringe und deswegen mit dem ganzen Related-Stuff dazu konfrontiert werde.

Kurz: Ich lebe in der Filterbubble. Aber selbst wenn dem so wäre, fühle ich mich spätestens nach meinem arroganten Twitterpostulat in Richtung Anne Roth doch dazu genötigt, diesen Talk endlich zu besprechen. Hier also erstmal das Video:


In der Tat, hat Pariser einen Punkt. Keinen neuen, wie ich finde, aber immerhin sieht er die Relevanz des Themas. Leider bringt er dabei eine ganze Menge durcheinander.

Er kritisiert zunächst die algorithmische Filterung bei Facebook und Google, die – ohne dass der Betroffene es merkt – die Statusnachrichten von Leuten oder Suchergebnisse ausblendet, von denen der Algorithmus glaubt, dass sie einen nicht interessieren.

Keine Frage, das ist ein Kritikpunkt, bei dem ich ganz bei ihm bin. Ich fühle mich in meinem Informationsfluss manipuliert, wenn Facebook entscheidet, wessen Stream für mich wichtig ist. Die Autonomie in der Filterung meiner Nachrichten, wird mir in diesem Punkt genommen. (Facebook ist eh ein schlechtes Werkzeug zur Nachrichtenfilterung, weil die Beschränkung oder zumindest Konzentration auf den Freundeskreis schon eine unfreie Vorselektierung der Filterauswahl darstellt.)

Dann aber – und eigentlich hauptsächlich – kritisert Pariser das Filtern ansich, im allgemeinen und grundsätzlich, auch das, wo es selbstbestimmt geschieht (wie gesagt, er differenziert diese Fälle nicht mal hinreichend). Er fürchtet, dass aus ethisch-moralischem und politischem Verständnis heraus als “relevant” betrachteten Inhalte verschwinden und wir nur noch den Fastfood der Infos bekommen.

Die neugewonnene Freiheit durch das Internet wird wieder einschränkt. Die Algorithmen sind es, die einfach die Gatekeeper von damals (Journalisten) ablösen. Und hier verpasst Pariser das Problem des Filterns bei seiner Logik: Denn natürlich ist es etwas anderes, wenn die Filterung anhand meiner eigenen Interaktion konfiguriert wird, statt wenn dies nach universellen Kriterien oder eine Ethik oder einer Agenda von aussen passiert. Pariser hat natürlich recht, dass es ein Problem ist, dass wir die Funktionsweise der Filterung zum großen Teil nicht verstehen und ihren Einsatz vielleicht gar nicht merken. Und er hat sogar recht, dass die Filter insgesamt nicht besonders gut funktionieren und die Algorithmen verbessert gehören. Das Personalisieren und Filtern ansich, kann man allerdings nur unter der Maßgabe eines zurückkehrenden allgemeinen Gatekeepers verurteilen. Zurück zu dem, der weiß, was wir wissen sollten.

Diesen Schritt aber scheut Pariser. Er wendet sich stattdessen an Google und Facebook und co und fordert (richtiger Weise) mehr Einstellmöglichkeiten. Aber das ist nicht alles: er fordert gleichzeitig eine gewisse Verantwortlichkeit der Filterung von Google und Facebook. Er will also einerseits, dass wir selbstbestimmter filtern und er will andererseits, dass Google und Facebook in der Rolle des verantwortlichen Gatekeepers. Ja was denn nun?

Pariser hat sein Problem nicht durchdacht. Deswegen wirft er schlechte, unsichtbare, algorithmische Filterung und selbstbestimmte Filterung durcheinander. Er weiß gar nicht wirklich, was er will. Will er mehr Fremdbestimmung durch allgemeines Gatekeeping (jetzt also von Google und Facebook) oder will er mehr Autonomie für den Nutzer? Und will er wirklich, dass Google statt nur mit algorithmischer nun auch mit eigener politischen Agenda entscheidet, was wir gefälligst wahrzunehmen haben? Hat er sich das gut überlegt?

Die Frage, die sich Pariser nicht stellte ist: welche Form der Informationsdistribution konkurriert hier eigentlich mit welcher anderen und was sind ihre Eigenschaften, Vorteile und Ethiken? Meines Erachtens ist hier der Begriff der Filtersouveränität unerlässlich. Es geht um eine neue Form der Selbstbestimmung. Eine Emanzipation von einer anderen Ethik, einer Fremdbestimmten: der Ethik der Allgemeinrelevanz, die für uns bestimmen will, was wir zu beachten haben.

Man kann diese Form der Emanzipation immer noch kritisch sehen, keine Frage. Aber Pariser fordert die Filtersouveränität (ohne sie so zu nennen) und fordert gleichzeitig ihre Beschneidung und sieht den Widerspruch nicht.

Die Filterbubble (oder wie ich sie nenne: die Distributed Reality) ist ein Thema, das diskutiert gehört. Es schließen sich hier viele Fragen (und viele Vorurteile) an und es ist eine Menge Forschung zu leisten. Das Problem oder Nicht-Problem der Serendipity beispielsweise, dass Pariser auch nur unzureichend analysiert. Leider hilft Pariser dabei nicht besonders weiter, weil er die Personalisierung und Filterung von Inhalten völlig indifferent mit seinem Filterbubble-Wort diskreditiert.

Es wird aber in Zukunft nicht um Filterbubble oder Nicht-Filterbubble gehen, sondern darum, wie wir diese Filterbubbles einrichten können und wollen. Es wird um Selbstbestimmung gehen und natürlich auch um die Probleme und Veränderung, die daraus erwachsen. Das alles zu adressieren, funktioniert nicht, wenn man die “Filterbubble” nur als Problem begreift ohne sich die Chancen zu Gemüte zu führen.

Dieser Beitrag wurde unter Kontrollverlust, Queryology, reloaded abgelegt und mit , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

9 Antworten auf Die Filterbubblebubble

  1. Wenn Firmen oder Regierungen den Informationsfluß mit einer Ethik, Agenda, Ideologie für die Allgemeinheit der Nutzer zu bestimmen versuchen, ist das eigentlich immer als problematisch für Individuum und Gesellschaft anzusehen.
    Was die Algorithmen betrifft: versuchen diese nicht einfach neutral dein vergangenes Nutzerverhalten abzubilden, um dir die gegenwärtig relevanten Themen zuzuführen? Scheint mir weniger bedenklich.
    Und natürlich ist die Filtersouveränität des Einzelnen begrüßens- und wünschenswert. Klar wird es immer Leute geben, die sich in ihren Echokammern einschließen und nur das an sich heran lassen, was ihnen bereits bekannt und vertraut ist. Aber im Internet ist es schwierig sich komplett abzuschotten, weil viele Systeme einfach zu offen und durchlässig sind. Fortschrittlichstes Beispiel dafür dürfte momentan Twitter sein. Die Personen denen man folgt können eigentlich nie 100%ig mit den eigenen Interessen übereinstimmen.
    In den vier Jahren, die ich nun selbst bereits im Cyberspace verbringe, bin ich mit unzähligen Themen, Informationen, Ideen in Berührung gekommen, die zuvor eindeutig außerhalb meines Wahrnehmungshorizontes lagen.
    Scheiße, ich interessiere mich inzwischen sogar für Politik. =)
    Letztlich folgt jeder nach wie vor seinen eigenen Neigungen.

    • emkaa21 sagt:

      Im Netz ist nahezu jede Filtermöglichkeit eine Prognose, also eine Erwartung zukünftiger Ereignisse basierend auf in der Vergangenheit geschehenem. Die große Veränderung ist die Auswahl dieser Filter. Anstatt beispielsweise einer Tageszeitung die Funktion des Gatekeepers zu überlassen, filtert nun eine Vielzahl an Twitter-Followings, Blogs, Facebook-Freunde, klassischen Medien,Aggregator-Plattformen etc. Schwierig ist bei letzteren nur, dass die Filterkriterien nur schwer nachvollziehbar sind und vermutlich die meisten Menschen noch nie darüber nachgedacht haben, wie die Ergebnisse einer Google-Suche zustande kommen.
      Der Unterschied zur analogen Welt ist hier übrigens nicht besonders groß. Auch dort wähle ich bestimmte Nachrichtenmedien, Experten und Freunde aus, denen ich eher zuhöre als anderen, sodass diese das Weltgeschehen für mich filtern. Wie so viele Entwicklungen macht das Internet dieses Grundprinzip nur in konsequenterer Weise und größerem Rahmen deutlich (vgl. Prinzip öffentlicher Raum / Geodatendienste).

  2. Pariser fordert schon Filtersouveränität. Obschon er sich formal an die Anbieter wendet, so steht doch immer YOU in seiner Blase; er spricht zum Kreis der Entwickler als gleichzeitige Nutzer. Und wo er ihnen Kriterien ans Herz legt, erhebt er im Namen der Nutzerschaft Ansprüche:
    Wir sollen Filtertransparenz von unseren Anbietern einfordern und nur die sauberen Anbieter in unser Kontenprofil aufnehmen.
    Also diejenigen, die den Algorithmus neutral instanzieren. Wir sollen zB. seine 57 Parameter kritisieren, weil solche Schubladen immer klemmen. Wir sollen uns da nicht ohne Murren reinstecken lassen. Wir müssen unsere Filter trainieren, und sie begleiten uns wie unsere Klamotten. Der eine trägt wenige, wählt aber jedes Jahr frische, der andere pflegt einen großen Fundus.
    Doch Pariser wird diese Schlacht alleine nicht schlagen, und es ist eine Schlacht. Es ist dieselbe alte Leier: die fortlaufend zu verteidigende Freiheit. Ein humanistisches Thema übrigens.
    Mein Credo in der Sache lautet daher: Filtern lernen gehört in die Grundschule. Auf den SchulranzenTabletrückseiten muss stehen:
    “Ich bin hier der Trainer.”

  3. Michael Tüller sagt:

    Das Hauptproblem ist IMO ökonomischer Natur, d.h. was ist die Haupttriebfeder hinter der Filterei. Und da ist m.M. schon das meiste in die falsche Richtung gelaufen, wegen dem Riesenerfolg des Geschäftsmodells von Google, das immer noch als das offenbar allein gültige für grössere Sachen angesehen wird.
    Das muss sich von mir aus gesehen ändern, wir brauchen dringend eine direkteres Entschädigungsmodell, in dieser Beziehung ist good ol’ economy immer noch viel besser.
    Ich will nicht gewungen sein mich zum Produkt zu machen um gratis services zu benutzen, man kann ja nicht einmal optional Google für ihre Produkte bezahlen um nicht getrackt zu werden, das ist doch krank.

    Hast Du das Buch von Lanier gelesen?

  4. mspro sagt:

    @Michael Tüller – ich finde das geschäftsmodell ganz und gar großartig! ich wäre für die meisten dienste nicht bereit geld zu bezahlen. und die meisten noch weniger als ich. am ende würden die dienste weniger genutzt und somit die netzwerkeffekte viel kleiner und damit auch der mehrwert für mich.

    das hat schon alles seine richtigkeit so. und mit tracking habe ich überhaupt gar kein problem.

    lanier halte ich für eine flachpfeiffe.

  5. Michael Tüller sagt:

    Naja, nur weil er Deinen Ansichten eher widerspricht ist er noch keine Flachpfeiffe, wenn schon eher (um Deine Ansicht wiederzugeben) ein WarmluftBubble (sieh DIr mal sein Äusseres an;-)).
    Egal, ich finde sein Buch sehr anregend (aber nur auf Englisch), aber ich bin auch eher old-fartig und mag v.a. seine Musikbeispiele.

  6. Pingback: Breivik, Queryology und der Weltkontrollverlust | ctrl+verlust

  7. Pingback: Die transprivate Filterbubble generiert ‘Private Stars und Public Loser’ | hello internet!

  8. Pingback: Über das Gesetz der Affinität… – Herr Krueger

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>