Cambridge Analytica, the Kontrollverlust and the Post-Privacy Approach to Data-Regulation

There is a heated debate going on about Facebook and privacy since the revelations about Cambridge Analytica surfaced. The reaction is a cry for more privacy regulation. The European approach of the General Data Protection Regulation (GDPR), which will come into effect by late May this year, is seen by many as a role model for a much needed privacy regulation in the US.

But they are wrong. I feel that there are a lot of misconceptions about the effectiveness of data protection in general. This is not surprising since there are few similar rules in the US and so the debate is based more on projections than on actual experiences.

I want to add the perspective of someone who has lived long enough within a strict privacy regime in Germany to know the pitfalls of this approach. From this angle I want to reflect the Cambridge Analytica case regarding of how effective EU style privacy regulation would have been to prevent this event from happening. Jürgen Geuter has already published a very readworthy and detailed critic of the GDPR, but my angle will be more conceptual and theory driven.

I will apply the theory of ‘Kontrollverlust’ to this case to come to a deeper understanding of the underlying problems of data control. You can read a much more detailed examination of the theory in my book ‘Digital Tailspin – Ten Rules for the Internet after Snowden’ from 2014.

In short: the notion of Kontrollverlust is basically the idea that we already lost control over our data, and every strategy should acknowledge that in the first place. There are three distinct drivers that fuels this loss of control and they are all closely entangled with the advancements of digital technology.

The first driver of Kontrollverlust reads:

„Every last corner of the world is being equipped with sensors. Surveillance cameras, mobile phones, sensors in vehicles, smart meters, and the upcoming ‘Internet of Things’ – tiny computers are sitting in all these objects, datafying the world around us. We can no longer control which information is recorded about us and where.“

This holds certainly true and you can watch an instance of this ever unraveling enlightenment in the outrage about the related issue of how the facebook android app has been gathering all your cellphone data. But it is the remaining two drivers of Kontrollverlust that are at the heart of the Facebook scandal.

1. The „Data Breach“

The second driver of Kontrollverlust is:

„A computer will make copies of all the data it operates with, and so the internet is basically a huge assemblage of copying machines. In the digital world, practically everything we come into contact with is a copy. This huge copying apparatus is growing more powerful every year, and will keep on replicating more and more data everywhere. We can no longer control where our data travels.“

Regardless if you like to call the events around Cambridge Analytica a „data breach“ or not, we can agree on the fact that data has fallen into the wrong hands. Dr Alexandr Kogan, the scientist who first gathered the data with his Facebook app, illegally sold it to Cambridge Analytica. While this was certainly a breach of his agreement with Facebook, I’m not entirely sure if it was also a breach of the law at that time. I’ve come to understand that the British data protection agency is already investigating the case so I guess we will find out at some point.

However, what becomes obvious is – regardless of which kind of privacy regulation would have been in effect – it wouldn’t have prevented this from happening. The criminal intent with which all parties were acting suggests that they would have done it one way or the other.

Furthermore, Christopher Wylie – the main whistleblower in this case – revealed that an ever growing circle of people also got their hands on this data. Including himself and even black market sites on the internet.

The second driver of Kontrollverlust suggests that we already live in a world where copying even huge amounts of data has become so convenient and easy to do that it is almost impossible to control the flow of information. Regardless of the privacy regulation in place we should consider our data being out there and with anybody who has an interest in knowing about it.

Sure, you may trust big corporations in trying to prevent this from happening, since their reputation is on the line and with the GDPR there may also be huges fines to be paid. But even if they try very hard, there will always be a hack, a leak, or just the need for third parties to access the data and thus the necessity to also trust them. ‘Breach’ won’t be an event anymore but the default setting of the internet.

This certainly doesn’t mean that corporations should cease trying to protect your data since it’s hopeless anyways and this is also not an argument against holding these companies accountable by the means of the GDPR – please do! Let’s prevent every data breach we can from happening. But nevertheless you shouldn’t consider your data safe, regardless of what the law or the corporations will tell you.

2. The Profiling

But much more essential in this case is what I call the third driver of Kontrollverlust:

„Some say that these huge quantities of data spinning around have become far too vast for anyone to evaluate any more. That is not true. Thanks to Big Data and machine learning algorithms, even the most mundane data can be turned into useful information. In this way, conclusions can be drawn from data that we never would have guessed it contained. We can no longer anticipate how our data is interpreted.“

There is also a debate about how realistic the allegations concerning the methods of Cambridge Analytica are and how effective this kind of approach would be (I consider myself on the rather sceptical side of this debate). But for this article and the sake of argument let’s assume that CA has been able to provide their magical big data psycho weapon and that it has been indeed pivotal in both the Brexit referendum and the Trump election.

Summing it up, the method works as follows: By letting people do psychological tests via Mechanical Turk and also gaining access to their facebook profiles, researchers are able to correlate their Facebook likes with their psychological traits from the test. CA was allegedly using the OCEAN model (Big Five Personality Traits). So the results would assumingly read somewhat like this: if you like x, y and z you are 75% likely to be open to new experiences and 67% likely to be agreeable.

In the next step you can produce advertising content that is psychologically optimized for some or for all of the different traits in the model. For instance they could have created a specific ad for people who are open but not neurotic and one for people who also match high on the extraversion scale and so on.

In the last step you isolate the likes that correlate with the psychological traits and use them to steer your ad campaign. Facebook gives you the ability to target people by using their likes, so you can use the infrastructure to match your particularly optimized advertisement content to people who are probably most prone to it.

(Again: I’m deeply sceptical about the feasibility of such an approach and I even doubt that it came into play at all. For some compelling arguments against this possibility read this and this and this article. But I will continue to assume it’s effectiveness for the duration of this article.)

You think the GDPR would prevent such profiling from happening? Think again. Since Cambridge Analytica only needs the correlation between likes and traits, it could have completely anonymized the data an be fine fine with GDPR. They totally can afford to lose every bit of identifiable information within the data and still be able to extract the correlation at hand, without any loss of quality. Because identity does’t matter for these procedures and this is the Achilles‘ heel of the whole data protection approach. It only applies to where the individual is concerned. (We’ll discuss this in detail in a minute.) And since you already agreed to the Facebook TOS which allows Facebook to use your data to target ads towards you, the GDPR – relying heavily on ‘informed consent’ – wouldn’t prohibit targeting you based on this knowledge.

So let’s imagine a data protection law that addresses the dangers of such psychological profiling.

First we need to ask ourselves what we learned from the case in prospect of data regulation? We learned that likes are a dangerous thing, because they can reveal our psychological structure and by doing that, also our vulnerabilities.

So, an effective privacy regulation should keep Facebook and other entities from gathering data about the things we like, right?

Wrong. Although there are certainly differences in how significant different kinds of data may correlate to certain statements about a person, we need to acknowledge the fact that likes are nothing special at all. They are more or less arbitrary signals about a person and there are thousands of other signals you could match against OCEAN or similar profiling models. You can match login times, or the amount of tweets per day, browser and screen size, the way someone reacts to people or all of the above to match it against any profiling model. You could even take a body of text from a person and match the usage of words against any model and chances are that you get usable results.

The third driver of the Kontrollverlust basically says that you cannot consider any information about you innocent, because there can always appear a new statistical model, a new data resource to correlate your data with or a new kind of algorithmic approach to render any kind of seemingly harmless data into a revelation machine. This is what Cambridge Analytica allegedly did and what will continue to happen in the future, since all these data analysis methods will continue to evolve.

This means that there is no such thing as harmless information. Thus, every privacy regulation that reflects this danger should prevent every seemingly arbitrary bit of information about you from being accessible by anyone. Public information – including public speech – has to be considered dangerous. And indeed the GDPR is trying to do just that. This has the potential to turn into a threat to the public, to democracy and to the freedom of the individual.

Privacy and Freedom in the Age of Kontrollverlust

When you look back to the origins of (German) data protection laws you will find that the people involved have been concerned about the freedom of the individual being threatened by the government. Since state authority has the monopoly on force – e.g. through police and jails – it is understandable that there should be limits for it to gather knowledge on citizens and non-citizens. „Informational self determination“ has been recognized by the Federal Supreme Court as a basic civil right back in 1983. The judges wanted to enable the individual to secure a sphere of personal privacy from the government’s gaze. Data protection was really a protection of the individual against the government and as such it has proven to be somewhat effective.

The irony is that data protection was supposed to increase individual freedom. But a society where every bit of information is considered harmful wouldn’t be free at all. This is also true on the individual level: Living in constant fear about how your personal data may fall into someones hands is the opposite of freedom.

I do know people – especially within the data protectionist scene – who promote this view and even live that lifestyle. They spend their time hiding from the public and using the internet in an antiseptically manner. They won’t use most of the services, only some fringe and encrypted ones, they never post anything private anywhere and go constantly after people who could reveal anything about them on the internet. They are not dissidents, but they chose to live like ones. They would happily sacrifice every inch of public sphere to get to the point of total privacy.

But the truth is: With or without GDPR; those of us who wouldn’t devote their lives to that kind of self restrictive lifestyle, already lost control of their data and even the ones who do will make mistakes at some point and reveal themselves. This is a very fragile strategy.

The attempt to regain the control won’t increase our liberties but already does the opposite. This is one of the central insight that brought me to advocate against the idea of privacy for privacy’s sake, which is still the basis of every data protection law and also of the GDPR.

The other insight is the conclusion that privacy regulation doesn’t solve much of the problems that we currently deal with, but is making it much harder to tackle them properly. But this needs a different explanation.

The Dividualistic Approach to Social Control

I’m not saying that we do not need regulation. I do think that there are harmful ways to use profiling and targeting practices to manipulate significant chunks of the population. We do need regulation to address those. But data protection is no sufficient remedy to the problem at hand, because it was designed/conceived for a completely different purpose – remember: the nation state with its monopoly on force.

In 1997 Gilles Deleuze made the point that next to the disciplinary regimes like the state and its institutions that we know since the seventeenth century, there has been a new approach of social control coming up, which he called the “Societies of Control”. I won’t get into the details here but you can pretty much apply the concept on Facebook and other advertisement infrastructures. The main difference between disciplinary regimes like, say, the nation state and regimes of control like, say, Facebook is the role of the individual.

The state always refers to the individual, mostly as a citizen, that has to play by the rules. As soon as the citizen oversteps the state uses force to discipline him back to being a good citizen. This concept also applies down to all the states institutions: The school disciplines the student, the barrack the soldier, the prison the prisoner. The relation is always institution vs individual and it is alway a disciplinary relation.

The first difference is that Facebook doesn’t have a monopoly on force. I doesn’t even use force. It doesn’t need to.

Because second, it doesn’t want to discipline anyone. (although you can argue that enforcing community standards needs some form of disciplinary regime, it is not Facebook’s primary objective to do so.) The main objective Facebook is really thriving for has …

… Third nothing to do with the individual at all. What it cares for is statistics. The goal is to drive the conversion rate for an advertisement campaign from 1.2% to 1.3% for instance.

Getting this difference wrong is one of the major misconceptions about our time. We are used to think of ourselves as individuals. But that’s increasingly not the way the world looks back at us. Instead of the individual (which means the un-dividable) it sees the dividual (the dividable): our economic, socio-demographic and biological characteristics, our interests, our behaviors and yes, at some point probably our OCEAN rating is what counts for these Institutions of control. We may think of these characteristics as part of our individual selves but they are everything but unique. And Facebook cares for them precisely because they are not unique, so they can put us into a target group and address this group instead of us personally.

For instance: Facebook doesn’t care if an ad really matches your interest or your taste as a person. It is not you, Facebook cares about, but people like you. It’s not you, but people like you that are now 0.1% more likely to click on the ad, that makes all difference and thus all the millions for Facebook.

People who are afraid of targeted advertisement because they think of it as exceptionally manipulative as well as people who laugh off targeted ads as a poor approach because the ad they were seeing the other day didn’t match their interest – both get this new way of social control wrong. They get it wrong because they can’t help thinking individually instead of dividualistic.

And this is why the data protection approach of giving you individual rights doesn’t provide the means to regulate a dividualistic social control regime. It’s just a mismatch of tools.

Post-Privacy Policy Proposal

Although the argument provided here may seem quite complicated, the solution doesn’t need to be. In terms of policy I mostly propose a much more straightforward approach of regulation. We need to identify the dangers and the harmful practices of targeted advertisement and we need to find rules to address them specifically.

  1. For starters we need more transparency for political advertisement. We need to know which political ads are out there, who is paying for them, how much money has been paid, and how these ads are being targeted. This information has to be accessible for everyone.
  2. Another angle would be to regulate targeting on psychological traits. I feel psychological ads aren’t necessarily harmful but it is also not difficult to imagine harmful applications, like finding psychological vulnerable people and exploit their vulnerabilities to sell them things they neither need nor can afford. There are already examples for this. It won’t be easy to prohibit such practices, but it will be a more effective approach on the long run than trying to hide these vulnerabilities from potential perpetrators.
  3. There is also a need to break the power of the monopolistic data regimes like Facebook, Google and Amazon. But contrary to the public opinion their power is actually not a function of their ability to gather and process data, but to be in the unique position to do so. It’s because they mopolized the data and are able to exclude everybody else from using it, what makes them invincible. Ironically it was one of the few attempts of Mark Zuckerberg to open up his data silo by giving developers access through their API, which caused the Cambridge Analytica trouble in the first place. Not just ironically but also unfortunately, because there is already a crackdown going on against open APIs and that is a bad thing. Open APIs are exactly what we need the data monopolists to implement. We need them to open up their silos to more and more people; scientists, developers, third party service providers, etc. in order to tackle their powers, by seizing the exclusiveness of their data usage.
  4. On a broader level we need to set up society to be less harmful for personal data being out there. I know this is far reaching but here are some examples: Instead of hiding genetic traits from your health insurance provider, we need a health care system that doesn’t punish you for having them. Instead of trying to hide some of your characteristics from your employer, we need to make sure everybody has a basic income and is not existencial threatened to reveal information about themselves. We need much more policies like this to pad out society against the revealing nature of our digital media.

Conclusion

“Privacy” in terms of „informational self determination“ is not only a lost cause to begin with, but it doesn’t even help regulating dividualistic forces like Facebook. Every effective policy should consider the Kontrollverlust, that is to assume the data to be already out there and used in ways beyond our imagination. Instead of trying to capture and lock up that data we need ways to lessen the harm such data could possibly cause.

Or as Deleuze puts it in his text about societies of control: “There is no need to fear or hope, but only to look for new weapons.”


Veröffentlicht unter Algorithmenkritik Das Neue Spiel english Kontrollverlust Plattformpolitik Postprivacy Queryology
1 Kommentar

Vorschlag: Open Source als Plattformpolitik

Sei doch nicht immer so negativ!“ wird mir manchmal vorgeworfen. „Immer bist du gegen alle möglichen politischen Maßnahmen, immer haben alle unrecht, aber was wäre denn nun die richtige Politik?

Ich gebe zu, dass ich mich gerade bei (netz-)politischen Themen in einer gewissen Meckerposition eingerichtet habe – zumindest überwiegt sie unschön.

Oft habe ich zum Beispiel festgestellt, dass Plattformen eine enorme Macht haben, aber sobald die Politik Maßnahmen vorschlägt, Plattformen zu regulieren, finde ich das auch wieder doof. Ja, was denn nun?

Ja, ich habe in verschiedenen Texten (und auch schon in meinem Buch) gezeigt, dass staatliche Plattformregulierung sehr häufig gegenteilige Effekte als die Angestrebten produziert. Genauer: sie zwingen Plattformen politische Macht und Legitimation auf, die diese gar nicht haben wollen und machen Staaten im Gegenzug abhängig von der Regulierungsmacht der Plattformen.

Aber als ich vorletztes Jahr als Sachverständiger im Bundestag war (schriftliche Stellungnahme als PDF, Video der Anhörung) habe ich auch einen konkreten Vorschlag gemacht, wie die Macht der Plattformen durch Staaten effektiv einzuhegen wäre, der damals meines Erachtens zu wenig Aufmerksamkeit bekommen hat. Deswegen will ich ihn hier etwas ausführlicher Ausbreiten:

Der Staat muss sich mit der Open Source Bewegung kurzschließen, um selber Plattformanbieter zu werden.

Nun gehöre ich nicht zu den typischen Open Source-Apologeten, die sich aus Überzeugung mit Linux rumschlagen und zur Not auf Geräte verzichten, weil es dafür keine Open Source-Treiber gibt. Im Gegenteil. Ich bin weitestgehend zufriedener Bewohner des Apple-Ökosystems und halte die meiste Open Source Software für eine Zumutung.

Auf der anderen Seite glaube ich aber auch, dass Open Source, offene Standards und dezentrale/distributed Service Ansätze das Einzige sind, was die Macht kommerzieller Plattformen – wenn nicht bedrohen, aber immerhin in Schach halten können. Oder könnten.

Leider tun sie das bislang nur sehr begrenzt. Das liegt zum einen daran, dass diese Ansätze allesamt noch zu schlecht, zu langsam in der Innovation, zu frickelig und so weiter sind. Das ist ein Problem, dass man mit Geld und Manpower gelöst bekommt. Das andere Problem ist ein Henne-Ei-Problem: die Systeme sind nicht attraktiv, weil sie zu wenig genutzt werden. Das leidige Thema Netzwerkeffekte.

Und hier die gute Nachricht: der Staat ist genau der richtige Akteur, beide Probleme zu lösen.

Kommen wir zum ersten Problem: Klar, wenn ein Unternehmen die Wahl hat, Geld in eine propietäre Technologie zu stecken, von der nur es selnst profitiert, wird es das lieber tun, als in Open Source zu investieren, wo im Zweifel auch die Konkurrenz noch von profitiert. Investition ist hier – zumindest zum Teil – ein Nullsummenspiel, was die vergelichsweise mickrige Finanzierung von Open Source erklärt.

Aber Staaten sind da anders. Sie könnten Geld in Open Source stecken und es kann ihnen egal sein, ob andere Staaten oder Unternehmen oder gar Privatpersonen davon profitieren. Je nach politischer Gesinnung könnte man das sogar als etwas positives sehen. (Ich zum Beispiel sehe das so)

Hinzu kommen die Standardargumente: Staaten könnten, wenn sie in Open Source investieren, eine größere Kontrolle über ihre Systeme bekommen. Sie könnten den Code für ihre Bedürfnisse anpassen, den Source Code auf Sicherheitslücken überprüfen und eigene Kompetenzen in Wartung und Weiterentwicklung aufbaue und so die direkte Abhängigkeit von Plattformanbietern (zum Beispiel Microsoft) reduzieren.

Aber so richtig spannend wird es, wenn man mit dem Staat das zweite Problem adressiert, das offene Ansätze haben: fehlende Netzwerkeffekte. Denn was oft vergessen wird, ist, dass der Staat eben auch ein riesiger Konsument von Software ist und sein Benutzen oder Nichtbenutzen von Systemen ein enormes Gewicht in die Waagschale wirft.

Konkret: Je mehr Behörden Linux und LibreOffice und co. installieren, desto mehr Kompatibilitäten werden über die Ämter und Behörden hinweg hergestellt. Ab zwei Städten mit kompatiblen Systemen würde es sich lohnen eigene Softwarelösungen zu entwicken. Partnerprojekte würden aus dem Boden schießen, denn sie könnten sich die Entwicklungskosten teilen und voll profitieren. Nach und nach würden aber immer mehr auf den Zug aufspringen, weil die Plattform durch neue Software immer attraktiver würde. Wir haben es mit dem Ins-Werk-Setzen von positiven Feedbackloops zu tun, die sich immer weiter verstärken und beschleunigen.

Und jetzt stellen wir uns vor, der ganze deutsche Staat, bis runter zur die letzten Landes- und Regionalbehörde würde auf Open Source setzen, zig Millionen von Installationen, dann hätte das einen globalen Impact auf die Open Source Welt als solche und darüber hinaus. Unternehmen würden vermehrt auf Open Source umsatteln, weil man nur so an lukrative Staatsaufträge kommt. Millionen Angestellte in den Behörden würden vielleicht auch privat anfangen Open Source-Syteme zu nutzen, einfach weil sie sich damit gut auskennen. Immer mehr Leute würden partizipieren, Bugs fixen, Software weiterentwickeln, forken, etc. Die Software würde immer vielfältiger, benutzbarer und sicherer.

Auf einmal würde es wirtschaftlich Sinn machen eine Bundes-Distribution für Linux herauszugeben, mit speziell entwickelter Behördensoftware, standardisiert und garantiert kompatibel über das gesamte Bundesgebiet. Es wäre wirtschaftlich eigene Spezialist/innen in großen Mengen auszubilden, Systemadins, Entwickler/innen, Secrurityexpert/innen. Projekte würden sich auf Projekte setzen, es würden eigene Infrastrukturen geschaffen, eigene Clouds, eigene Hardware, eigene Services, etc. Es würde ein lebendiges Ökosystem entstehen, dass Möglichkeiten an Möglichkeiten knüpfen würde.

Aber warum in Deutschland halt machen? Wenn einmal diese Softwarepakete in der Welt sind, würden schnell auch europäische Partner auf die Idee kommen, die Software einzusetzen. Sie müssten gar nicht mal die initialen Kosten investieren, weswegen die Schwelle für ihren Einstieg noch geringer ist. Die Netzwerkeffekte würden international abheben und Deutschland würde im Umkehrschluss davon profitieren. Je mehr Länder mitmachen, desto besser und vielfältiger wird die Software, desto größer wird der Pool an Experten, desto mächtiger wird das Ökosystem.

Man könnte per EU auch eine koordinierte Anstrengung machen, die gesamte EU auf die neue Open Source Strategie zu migrieren. Man stelle sich vor, wie die Netzwerkeffekte dann reinkicken würden. Spätestens dann wären Projekte möglich, mit denen man Facebook, Google und Amazon tatsächlich gefährlich werden könnte.

Linux und Co. wären sehr bald nicht mehr die Nerdsoftware, die wir heute kennen, sondern der gut benutzbare, besonders sichere Gold-Standard, mit dem jedes Kind umgehen kann.

Fazit

Staaten und Open Source sind sowas wie natürliche Partner, denn für Staaten ist Investition in Software kein Nullsummenspiel und er kann deswegen die Netzwerkeffekte freier Software sehr viel sorgloser einstreichen, als Unternehmen das können. Das Open Source Prinzip stellt auf der anderen Seite sicher, dass Staaten hier keine Tricks und Kniffe für heimliche Überwachung oder Zensurmaßnahmen in die Systeme schmuggeln. Am Ende gewinnt der Staat allgemeine Interoperabilität, bessere Software, die Macht der Netzwerkeffekte und sowas wie „Cyber-Souveränität“, weil er eigene Ressourcen zur Verteidigung seiner Infrastruktur aufbauen kann.

Die großen, kommerziellen Plattformen wird das nicht zerstören, aber es wird ihnen ein Gegengewicht entgegengestellt und die allgemeine Abhängigkeit der Staaten von ihnen wird enorm reduziert.

Zu guter Letzt gewinnen Staaten nun neue Möglichkeiten steuernd in die Plattformwelt einzugreifen: indem sie Standards durch ihre eigenen Netzwerkeffekte pushen oder verhindern.

Der Staat würde also ein relevanter Akteur im Spiel der Plattformen, indem er selbst Plattformbetreiber wird. Er könnte zwar nicht die Spielregeln bestimmen, aber sie relevant mitgestalten. Das ist weit mehr, als zu was er derzeit im Stande ist.

Ich bin überzeugt: die Zukunft der Staaten liegt im Open Source.


Veröffentlicht unter Das Neue Spiel Plattformpolitik
5 Kommentare

Blockchain For Dummies

[German Version]

The ‚blockchain‘ is currently being praised as a new miracle technology. The word appears six times in the German coalition agreement for the new government – and always in the context of new and promising digital technologies.

But what is behind all this?

Blockchain technology was born with its first popular application: Bitcoin. Bitcoin is based on the fact that all transactions made with the digital currency are recorded in a kind of ledger. However, this ledger is not located in a central registry, but on the computers of all Bitcoin users. Everyone has an identical copy. And whenever a transaction happens, it is recorded more or less simultaneously in all these copies. It is only when most of the ledgers have written down the transaction that it is considered completed. Each transaction is cryptographically linked to the preceding transactions so that their validity is verifiable for all. For instance, if someone inserts a fake transaction in between, the calculations are no longer valid and the system raises an alarm. What we’ve got, is a storage technology that no individual can control or manipulate.

Early on, even bitcoin skeptics admitted that besides the digital currency itself, it is the blockchain technology behind it that holds the real future potential. Since then, many people have been wondering where else it could be applied.

The Internet has always been regarded as a particularly decentralized technology, but this holds no longer true for most services today: All of us use one search engine (Google), one social network (Facebook) and one messenger (WhatsApp). And all these services are based on centralized data storage and data processing. Blockchain technology seems to offer a way out–all services that previously operated via central databases could now be organized with a distributed ledger.

The ideas go so far as to depict complex business processes within blockchains. For example, automated payouts to an account when a stock reaches a certain value. That’s called „Smart Contract.“

The hype about blockchain is almost as old as the one around Bitcoin, so we are talking about the inevitability of this technology for like six to seven years now. Hundreds, if not thousands of start-ups have been established since then, and just as many applications of the blockchain have been claimed.

As an interested observer one asks himself, why there is yet no other popular application besides cryptocurrencies (which themselves are more or less speculation bubbles without any real world application)? Why hasn’t a blockchain-based search engine threatened Google, or a blockchain-based social network Facebook? Why don’t we see a blockchain-based drive mediation app, and no accommodation agency–although these purposes have been praised so often? Why do all blockchain technologies remain in the project phase and none of them finds a market?

The answer is that Blockchain is more an ideology than a technology. Ideology means, that it is backed by an idea of how society works and how it should work.

One of the oldest problems in social sciences is the question of how to establish trust between strangers. Society will only exist if this problem is adequately resolved. Our modern society’s approach is to establish institutions as trustful third parties that secure interactions. Think of banks, the legal system, parties, media, etc. All these institutions bundle trust and thus secure social actions between strangers.

However, these institutions gain a certain social power through their central role. This power has always caused a headache to a certain school of thinking: the Libertarians, or anarcho-capitalists. They believe that there should not be a state that interferes in people’s affairs. The market – as the sum of all individuals trading with each other – should regulate everything by its own. Accordingly, they are also very critical of institutions such as central banks that issue currencies. The basic idea behind Bitcoin is to eliminate the central banks – and indeed banks in general – from the equation.

Blockchain is the libertarian utopia of a society without institutions. Instead of trusting institutions, we should have confidence in cryptography. Instead of our bank, we should trust in the unbreakability of algorithms. Instead of trusting in Uber or any other taxi app, we should trust a protocol to find us a driver.

That’s why Bitcoin and blockchain technology is so popular with the American right, which has a long libertarian tradition and rejects the state as such. That’s why it is also very popular with German rights, for example with Alice Weidel from the AfD, who will now hold the keynote at a big German Bitcoin conference and is founding her own blockchain startup. Those who are opposed to the „lying media“ and the „old parties“ are also critical of all other institutions, it seems.

So when you invest in Blockchain, you make a bet against trust in institutions. And that’s also the reason why this bet hasn’t been won once, yet. It’s because the ideology of anarcho capitalism is naive.

Technically speaking, a blockchain can do the same things any database has long been able to do–with a tendency to less. The only feature that distinguishes blockchain here is, that no one has ever to trust a central party. But this generates also costs. It takes millions of databases instead of one. Instead of writing down a transaction once, it has to be written down millions of times. All this costs time, computing power and resources.

So if we do not share the libertarian basic assumption that people should mistrust institutions, the blockchain is just the most inefficient database in the world.


Veröffentlicht unter Algorithmenkritik english extern Plattformpolitik Weltkontrollverlust
1 Kommentar

What Is Platform Politics? Foundations of a New Form of Political Power

/**** First published in ‘Zeitschrift für sozialistische Politik und Wirtschaft’ (SPW), S. 44 – 49. in December 2017. ****/

[PDF]
[German Original]

In early 2017, shortly after the inauguration of Donald Trump, the rumor began to spread that Facebook founder Mark Zuckerberg himself was planning to enter the presidential race in 2020.
Following Trump’s victory, everything may seem possible, but this speculation was based solely on the so-called “Listening Tour”, Zuckerberg’s trip through the US, where he wanted to meet Facebook users in person.1

This rumor is only a symptom of the general lack of understanding of our times. For Mark Zuckerberg has long been a politician. He has an enormous impact on the daily lives of two billion people. He makes decisions that affect how these people get together, how they interact, even how they see the world. So Zuckerberg is already perhaps the most powerful politician in the world. Any job in traditional politics, including the office of US president, would be a step down.

In this text, I will try to determine and analyze the ways in which platforms act politically, examining how they organize their power base and in which fields their policies are already changing the world. But first we should eliminate three fundamental misconceptions about platform politics.

Three Misconceptions About Platform Politics

1. Platforms are not (only) the objects of politics, but also powerful political subjects

When we talk about “platform politics” or platform regulation, we tend to think of platforms as the subjects of regulation and policymaking. That isn’t wrong as such, but it conceals the far more important point that today, the platforms themselves have become influential regulators and political actors.

Platforms provide the infrastructure for our digital coexistence – with an emphasis on “structure”. For this structure is neither arbitrary nor neutral: Defining the structure of communication is a political act in and of itself, one that enables certain interactions and reduces the likelihood of other kinds of communication. This is a profound intervention into our social lives, and therefore in itself political.

So it makes sense to think about platforms not merely as companies that provide Internet services, but as political entities or even institutions.2 Their impact on the political debate, on our society and coexistence, and therefore on all kinds of political decisions, is nothing short of the influence of traditional media. Platforms can be regarded as the Fifth Estate. But unlike the other four estates, platforms are not limited by the boundaries of the nation state; they act and think globally by design. And in contrast to other institutions, they don’t try to overemphasize their socio-political significance; after all, political responsibility is bad for business. Platforms rather tend to downplay their political power and refuse to take responsibility. They are political actors in spite of themselves.

2. Platforms exercise a different form of power

One reason why platforms are still not taken seriously as political actors is the general lack of understanding of their power dynamics.

When politicians come up against platforms, they like to throw the weight of their political legitimation around. They talk about the “primacy of politics”, as if to convince themselves and others of their agency. This primacy is derived from the fact that the politician came into office by way of a sovereign, collective decision. But platforms, too, generate a kind of legitimation through collective decision-making, even though this works slightly differently.

In his book Network Power, David Singh Grewal argues that the adoption of standards can be understood as a collective decision.3 And standards are but the conditions of possible interactions, which is why the social relevance of every decision for or against a standard is inherent political. The mere fact that these decisions are not all taken simultaneously as they would be in an election, but rather in staggered intervals (“aggregated”), does not diminish their social impact.

The power of these aggregated, collective decisions is nothing new. It relates to the languages we speak, the manners we cultivate or accept, and of course, to the choice of network service we choose to use. In the end, we join Facebook not because of its great product quality, but because all our friends are on Facebook.

In economics, this phenomenon is called the “network effect”, but Grewal is quite right to view it as a political power factor in its own right. Once a certain standard is widely established, the pressure on the individual becomes so great that there is little choice but to adopt that standard as well – the alternative often being social ostracism.

We accept the “network power” that these standards wield, because ultimately they can never be enforced by individuals. At least that applies to open standards. No one can prevent me from learning Russian, or from making a server available on the Internet with open protocols like TCP/IP. Social pressure always comes from the community as a whole, so it can never instrumentalized individually.

Network power, however, becomes “platform power” when the standards adapted contain key mechanisms of exclusion. Facebook could withhold access to my friends at any time, or place temporal or local restrictions on it. On the one hand, access control of the standard is at the heart of the platform’s business model, on the other hand, it is the basis of its political power.

To sum up: Platform Power = Network Power + Access Control.

3. Regulation of platforms increases their power

Of course, even in conventional politics it has become clear that platforms have this uncanny power, but since politicians don’t understand that power, they are simply making matters worse. They are under the misconception that dealing with Google, Facebook, Apple and Co is much the same thing as the corporate power structures they might have encountered at Siemens or at Deutsche Bank. And so they resort to the playbook of political regulation to match these powers.

But platform providers are not just large enterprises; their power is based on more than just money and global expansion. Rather, the platform is facing down the nation state itself, as a systemic competitor – even if neither side is prepared to admit it yet.

This is why all efforts in conventional politics to regulate platforms must lead to a paradox. Even while politicians are shaking their fists at Google and Facebook, they are granting these platforms more sovereignty by the minute. Any new constraints devised by policymakers just serve to strengthen the political power and legitimacy of the platform. One example is the European Court of Justice ruling on the so-called “right to be forgotten”, which forces Google to redact search results following a very vague list of criteria.4 Another example is the notorious Network Enforcement Act, recently introduced by the German Federal Minister of Justice Heiko Maas, which obliges Facebook and other platforms to delete what is deemed “obvious unlawful content”.5 In both cases, the state has relinquished its powers of jurisdiction and law enforcement to the platform in question. At first sight, this makes perfect sense, because platforms are the logical point of contact for regulating the digital world, thanks to their platform power and deep, data-driven insights. At the same time, this is fatal, because the state further increases the power of the platforms in this way, making itself dependent on its very competitors.

The Three Spheres of Platform Politics

The political influence of platforms takes many forms. I would like to examine three departments more closely where platforms are already very influential today and will gain even more influence in future (without this claiming to be an exhaustive list): domestic net policy, foreign net policy, and security net policy.

Domestic Net Policy

The term “net politics” (Netzpolitik) has become widespread, in the German-speaking net in particular, since it originated here with the popular political blog of the same name.6 The Netzpolitik site addresses topics like data protection, net neutrality, censorship and many other Internet-related areas of politics. It is important to regard the network as the subject of net politics in this case.

For now, the term “domestic net policy” is merely intended to highlight the concession that these internal/external or object/subject relationships no longer exist – political issues pertaining to the net increasingly arise from within the net. Which implies that these issues can only be solved from within. This is not only pertinent to those problems with hate speech, trolling and fake news we are currently discussing, but also to older issues such as identity theft or doxxing (publishing personal information with malicious intent).

Since these problems mostly arise on platforms, it is logical to expect the according countermeasures to come from the platforms themselves. While this does indeed happen occasionally, overall these interventions are still seen as insufficient. In fact, platforms display a lot of reluctance towards regulations in general. They are hesitant to make use of the political power they already wield, for instance by establishing and enforcing stricter community rules.7
Still, the awareness of the problem seems to have sharpened. Facebook’s new mission statement in February 2017 already indicated as much8, and Twitter9 and Google10 have been giving similar indications. After the Nazi march that escalated in Charlottesville, many platform providers were pushed to action and subsequently banned right-wing accounts and websites from their services. Twitter and LinkedIn suspended a range of “White Supremacist” accounts, while Facebook, Google and GoDaddy, a popular domain registry, blocked domains and groups that were spreading hate. Most notably, the Nazi website Daily Stormer was blocked, and even kicked out of the content delivery network Cloudflare.11 It is still not clear, however, whether these measures are really the most suited to address the aforementioned problems. The results so far give little cause for hope.12

Foreign Net Policy

While Facebook’s handling of hate speech and fake news can be relegated to the domestic net policy department, Heiko Maas‘ aforementioned Network Enforcement Act would be the subject of the foreign net policy department. “foreign net policy” mostly (but not exclusively) references the way in which platforms encounter the state, and how these parties meet and negotiate their mutual interests. Of course, the standard case is a state attempting to regulate a platform, as we have seen above. The EU, for example, has several lawsuits pending against Facebook and Google, and the conflicts between the US government and platform providers are becoming increasingly apparent as well.13

Relations between platforms and states have not always been this bad in the past. Notably, the US State Department under Hillary Clinton made use of various platforms for foreign policy purposes. In her influential speech on Internet and Freedom in 2010, Clinton described the platform providers as important partners in terms of global spreading of democracy and human rights.14

Jared Cohen played a particularly pivotal role here.15 Cohen had joined the State Department while still under Condoleezza Rice, but rose to prominence during Clinton’s office. When in 2009, a revolution was threatening to break out in Iran, Cohen called Twitter and convinced them to postpone their scheduled maintenance downtime.16 Twitter played an important part in the coordination of the upheaval.

When the Arab Spring finally broke out in early 2011, Cohen was already working at Google, where he helped coordinate various inter-platform projects. Facebook, Twitter and Google in their own ways all tried to support the uprisings in the Arab World, and even cooperated with one another to do so. One example is the case of the service speak2tweet: Google provided a telephone number which people from Egypt could call to record a message. These messages were then published on Twitter, thus bypassing the Egyptian Internet shutdown.17

Since the Snowden revelations of 2013 at the latest, relations between Silicon Valley and Washington have cooled down significantly. Platforms have since been trying to protect and distance themselves from state interference. This is mostly achieved through the increasing use of encrypted connections, and through elevated technical and legal security.18 In the US, this development in general, and the move towards more cryptographically secure systems in particular, is viewed with a mounting sense of discomfort.

The conflict than escalated in spring 2016, due to the iPhone that FBI investigators found with the perpetrator of the San Bernardino attacks. The phone was locked and encrypted, and so the investigators ordered Apple to assist with the decryption. Apple refused – in order to unlock the phone, Apple would have had to introduce a security vulnerability in its security software. A dangerous endeavor, from Apple’s perspective, that would have reduced the security of all other Apple devices and therefore, consumer confidence. In the end, the FBI had to work with a third-party security company to unlock the iPhone.19

Beside these varied forms of cooperation and conflict between platforms and states, platform-platform relations should also be taken into account, of course.20 One politically tangible example is the fact that Facebook is increasingly losing users from the extreme right and right-wing spectrum to its competitor, VKontakte.21 VKontakte is the equivalent of Facebook in Russia, albeit with a completely different set of guidelines. For instance, while you might get into trouble for posting homophobic contents on Facebook, you might get into trouble on VKontakte for posting the Rainbow Flag.

A segregation of society along the boundaries of different platforms and their according policies seems to be a plausible scenario, and may well provide a lot more material for foreign net policy in future.

Security Net Policy

For some time now, there has been growing debate on issues like “cyberwar” and “cyber security” in political circles. The expression simply references a new form of war, conducted with digital means. The United States and Israel were the vanguard here, and in 2010 managed to destroy a uranium enrichment facility in Iran, using a highly rigged and upgraded “cyber weapon”, in this case the custom-designed computer worm Stuxnet.22 The so-called Stuxnet shock marked the beginning of a global arms race in terms of hacking capacity in general. Cyber-attacks have since become more and more commonplace, be it China’s attacks on Google23, North Korea’s attack on Sony Pictures24, or Russia’s attack on the US elections. The “cyber” terminology is frequently explained by the fact that the military has different areas of operation: ground forces (army), water (navy) and air (air force) – and now, “cyber” opens up a whole new area of operations, complete with the demand that specific capacities be strengthened accordingly.25

That said, the core misunderstanding here is the assumption that cyber-wars primarily take place between nation states. Even today, that is hardly the case. On the one hand, almost every “cyberattack” is an assault on a platform at the same time. The attack might pertain to the Microsoft operating system (as in the case of Stuxnet and many others), or to specific services (the attack on Google was directed at Gmail mailboxes, as was the Russian hack of John Podesta’s emails). Almost without exception, a software or service provided by a specific platform is involved.

Further, many attacks are directed at platforms as their primary target. Perhaps the most prominent case is the 2015 attack from China on the GitHub developer platform. GitHub is a popular website where software developers can store and synchronize versions of their code and share with other users. Nearly all popular open source projects can be found there – including one called “The Great Fire”. The “Great Firewall” is what China’s powerful Internet censorship architecture is usually referred to, and accordingly, “The Great Fire” is a special toolkit designed to circumvent the Chinese firewall. Of course, the Chinese government didn’t find this at all agreeable.
While it is not unheard of that China simply shuts off services it objects to by activating the Great Firewall, GitHub was a notable exception. Blocking local developers‘ access to Github would have been tantamount to shutting down the Chinese software industry altogether, something not even China could afford. But with a censorship infrastructure that lets millions of requests per second come to nothing, the Chinese came up with another idea: redirecting the censored requests from China to one single destination on the net instead. This is the core idea behind “The Great Cannon”.26

GitHub was hit by millions and millions of requests from all over China, pushing the website to its utmost limits. In IT security terms, this is called a DDoS attack, or “distributed denial of service”.27

Finally, platforms are not only the target of cyber attacks, but more and more frequently the last line of defense for other targets. In 2016, a DDoS attack came down on the blog of security researcher Brian Krebs. His analysis of the attack revealed that the attack had been carried out mainly by Internet routers and security cameras. The underlying explanation was that a vulnerability in the operating system “Mirai”, commonly used in such devices, had allowed hackers to take over millions of these devices. It was the largest bot army the world had ever seen.

And so Krebs had no choice but to look for cover with Google’s proprietary server infrastructure, designed for precisely that purpose, and commonly known as “Project Shield”. A platform operated, incidentally, by Jigsaw, the Google spin-off think tank founded by Jared Cohen.28

So the inconvenient truth behind “cyber” is that it is not at all the state that is at the center of events, but the platforms. The platforms provide the infrastructure that comes under attack, and more importantly, they are increasingly becoming targets themselves. Most importantly, the platforms are the only players with sufficient technical capacity and human resources to fend off these kinds of attacks, or prevent them to save the day.29 Either way – if the worst comes to the worst, the state might have no choice but to slip under the umbrella of a welcoming platform, just like Brian Krebs did. “Cyber Sovereignty” on a state level still remains a pipe dream at present.

Conclusion

Platforms are already holding a prominent position within the social order, which in itself is becoming more and more digitalized. Platforms regulate critical infrastructure for the whole of society, and provide protection and order on the Internet. Increasingly the platform is in direct competition with the state, which generates dependencies that could turn out to be a threat for nation states.

Whether the state will maintain its independence and sovereignty in the long term or not, will depend on its ability to operate and maintain digital infrastructure on its own. In the long run, the state needs to become a platform provider itself.30

Platforms, on the other hand, would be well advised to look at the democratic institutions of states that have evolved over time, to address their own domestic net policy issues. Even a rudimentary rule of law instead of generic “Terms of Service”, even the most tentative embrace of transparency, checks and balances, and the possibility of appeal in all actions, would make the platforms‘ fight against hate speech and fake news more credible and fair, and most certainly more successful.31

In short: platforms need to become more like nation states, and states need to become more like platforms.

In the meantime both sides, the state and the platform, don’t have much choice but to cultivate their mutually critical-cooperative relationships and collaborate in all three departments – domestic net policy, foreign net policy, and security net policy. It should be noted that competition between the two might even be advantageous for the citizen (or user) in the long run. While the state is trying to protect me from the overbearing access of the platforms, platform providers are trying to protect me from the excessive data collection of the state.

  1. Alex Heath: Speculation is mounting that Mark Zuckerberg wants to serve in government, in Business Insider, http://www.businessinsider.de/speculation-mounting-that-mark-zuckerberg-wants-work-government-2017-1?r=US&IR=T, 01/05/2017.
  2. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Freiburg 2014, p. 204 ff.
  3. Grewal, David Singh: Network Power – The Social Dynamics of Globalization, p. 9.
  4. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Freiburg 2014, p. 223.
  5. Markus Beckedahl: NetzDG: Fake-Law gegen Hate-Speech, in Netzpolitik https://netzpolitik.org/2017/netzdg-fake-law-gegen-hate-speech/, 06/30/2017.
  6. See: http://netzpolitik.org.
  7. On the one hand, this is due to the fact that these are still profit-oriented companies, and this kind of regulation doesn’t generate any more turnover, but a lot of additional costs instead. On the other hand, most company founders and employees in Silicon Valley hail from the startup culture largely dominated by libertarian thought – a context in which any intervention into current debates is interpreted as an assault against freedom of speech.
  8. Mark Zuckerberg: Building Global Community, https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634, 02/16/2017.
  9. Kerry Flynn: Twitter just took its biggest stance yet on hate speech, http://mashable.com/2017/10/17/twitter-hate-speech-abuse-new-rules-women-boycott/#vfo7gOJrokqD, 10/17/2017.
  10. Dan Seitz: Google Is Cracking Down On Fake News In Search Results, http://uproxx.com/technology/google-search-results-fake-news/, 03/13/2017.
  11. David Ingram, Joseph Menn: Internet firms shift stance, move to exile white supremacists, https://www.reuters.com/article/us-virginia-protests-tech/internet-firms-shift-stance-move-to-exile-white-supremacists-idUSKCN1AW2L5, 08/16/2016.
  12. Kerry Flynn: Facebook’s ‘Trust Indicators’ is apparently a gift to select media partners, http://mashable.com/2017/11/16/facebook-trust-indicators-fake-news-problem/, 11/16/2017.
  13. Julia Fioretti: EU increases pressure on Facebook, Google and Twitter over user terms, https://www.reuters.com/article/us-socialmedia-eu-consumers/eu-increases-pressure-on-facebook-google-and-twitter-over-user-terms-idUSKBN1A92D4, 07/24/2017.
  14. Hillary Clinton: Statement: Hillary Clinton on internet freedom, https://www.ft.com/content/f0c3bf8c-06bd-11df-b426-00144feabdc0, 01/21/2010.
  15. Wikipedia: Jared Cohen, https://en.wikipedia.org/wiki/Jared_Cohen.
  16. Ewen MacAskill: US confirms it asked Twitter to stay open to help Iran protesters, https://www.theguardian.com/world/2009/jun/17/obama-iran-twitter, 06/17/2009.
  17. Charles Arthur: Google and Twitter launch service enabling Egyptians to tweet by phone, https://www.theguardian.com/technology/2011/feb/01/google-twitter-egypt, 02/01/2011.
  18. Since 2013 Google and Twitter, for instance, have been contesting a number of secret court orders on the highest levels of jurisdiction. See for example: Sam Byford: Google challenges US government’s private data demand in court, https://www.theverge.com/2013/4/5/4185732/google-fights-national-security-letter, 04/05/2013.
  19. Wikipedia: FBI-Apple encryption dispute, https://en.wikipedia.org/wiki/FBI–Apple_encryption_dispute.
  20. Not to mention the constant conflicts regarding interfaces, standards and market shares, even though these also have political weight, of course.
  21. Katie Zawadski: American Alt-Right Leaves Facebook for Russian Site VKontakte, https://www.thedailybeast.com/american-alt-right-leaves-facebook-for-russian-site-vkontakte, 03/11/2017.
  22. Wikipedia: Stuxnet, https://en.wikipedia.org/wiki/Stuxnet.
  23. The attacks went down in history as “Operation Aurora”. Wikipedia: Operation Aurora: https://en.wikipedia.org/wiki/Operation_Aurora.
  24. Axel Kannenberg: USA: Nordkorea steckt hinter Hackerangriff auf Sony Pictures, https://www.heise.de/newsticker/meldung/USA-Nordkorea-steckt-hinter-Hackerangriff-auf-Sony-Pictures-2504888.html, 12/19/2014.
  25. Handelsblatt: Zu Land, zu Wasser, in der Luft – und im Internet, http://www.handelsblatt.com/politik/deutschland/bundeswehr-erhaelt-cyber-truppe-zu-land-zu-wasser-in-der-luft-und-im-internet/13505076.html, 04/24/2016.
  26. Lead investigator of this incident was the Citizen Lab, which also published a detailed report on their findings. Citizen Lab: China’s Great Cannon: https://citizenlab.ca/2015/04/chinas-great-cannon/, 04/10/2015.
  27. Wikipedia: DDoS: https://en.wikipedia.org/wiki/Denial-of-service_attack#Distributed_attack.
  28. Brian Krebs: How Google Took on Mirai, KrebsOnSecurity, https://krebsonsecurity.com/2017/02/how-google-took-on-mirai-krebsonsecurity/, 02/03/2017.
  29. The main problem of states in this area is actually finding suitable staff. IT security experts are what might be called a rarity in human resources, and so the industry tempts them with exorbitant fees and career options. The state, and the military in particular, can hardly keep up with either of these.
  30. How that might work out was the topic of an opinion I presented the context of an expert hearing in the German Bundestag. See Michael Seemann: Stellungnahme: Fragenkatalog für das Fachgespräch zum Thema „Interoperabilität und Neutralität von Plattformen“ des Ausschusses Digitale Agenda am 14.12.2016, https://www.bundestag.de/blob/484608/b1dc578c0fdd28b4e53815cda384335b/stellungnahme-seemann-data.pdf, 12/12/2016.
  31. This suggestion of mine was first presented in my re:publica talk in 2016. See Michael Seemann: Netzinnenpolitik – Grundzüge einer Politik der Plattformgesellschaft, https://www.youtube.com/watch?v=eQ-a13ZL33g, 03/11/2016.


Veröffentlicht unter Das Neue Spiel english extern Kontrollverlust Plattformpolitik
Hinterlasse einen Kommentar

Was ist Plattformpolitik? Grundzüge einer neuen Form der politischen Macht

/***** Für die Zeitschrift für sozialistische Politik und Wirtschaft (SPW) habe ich einen Artikel über Plattformpolitik geschrieben. Man kann ihn auch hier als PDF abrufen. *****/

Anfang des Jahres, kurz nach der Inauguration Donald Trumps, verbreitete sich das Gerücht, der Facebook-Gründer Mark Zuckerberg plane seinerseits, 2020 als Präsidentschaftskandidat ins Rennen zu gehen. Nun ist es nachvollziehbar, dass man nach Trumps Sieg alles für möglich halten kann, jedoch beruhte die Spekulation lediglich auf der sogenannten „listening tour“, Zuckerbergs Reise durch die USA, bei der er „Facebook-User“ persönlich treffen wollte.1

Das Gerücht ist nur Anzeichen des allgemeinen Nichtverstehens unserer Zeit. Denn Zuckerberg ist längst ein Politiker. Er hat enormen Einfluss auf das tägliche Leben von zwei Milliarden Menschen. Er trifft Entscheidungen, die beeinflussen, wie diese Menschen sich zusammenschließen, wie sie miteinander umgehen, sogar wie sie die Welt sehen. Zuckerberg ist der vielleicht mächtigste Politiker der Welt. Jeder Job in der klassischen Politik – inklusive dem des US-Präsidenten – wäre eine Degradierung.

In diesem Text möchte ich versuchen zu benennen und zu analysieren, wie Plattformen Politik machen, wie sie ihre Machtbasis organisieren und in welchen Feldern ihre Politik heute bereits die Welt verändert. Doch zunächst müssen wir drei Mißverständnisse über Plattformpolitik ausräumen.

Drei Mißverständnisse zur Plattformpolitik

1. Plattformen sind nicht (nur) Objekte der Politik, sondern auch mächtige politische Subjekte.

Wenn wir von “Plattformpolitik” oder Plattformregulierung sprechen, dann denken wir uns Plattformen meist als Gegenstand von Regulierung und von Politik. Das ist soweit auch nicht falsch, aber es verdeckt den viel wesentlicheren Punkt, dass Plattformen heute selber mächtige Regulierer und politische Akteure sind.

Plattformen sind die Infrastrukturen unseres digitalen Zusammenlebens – wobei die Betonung auf „Struktur“ liegt. Denn diese Struktur ist weder beliebig noch neutral. Die Struktur von Kommunikation vorzugeben ist bereits eine politische Tat, sie ermöglicht bestimmte Interaktionen und verringert die Wahrscheinlichkeit von anderen Arten der Kommunikation; sie ist bereits ein tiefer Eingriff ins Zusammenleben und damit politisch.

Es macht also Sinn, über Plattformen nicht nur als Firmen nachzudenken, die im Internet Services anbieten, sondern sie als politische Entitäten, gar Institutionen zu betrachten.2 Ihr Einfluss auf die politische Debatte, auf unser Zusammenleben und somit auf politische Entscheidungen steht dem der klassischen Medien in nichts nach. Plattformen können als die 5. Gewalt verstanden werden. Allerdings sind sie im Gegensatz zu den anderen vier Gewalten nicht national organisiert, sondern denken und agieren per se global. Und im Gegensatz zu den anderen Institutionen versuchen sie ihre gesellschaftspolitische Rolle nicht überzubetonen, im Gegenteil; politische Verantwortung zu haben ist schließlich schlecht fürs Geschäft. Vielmehr neigen Plattformen dazu, ihre eigene politische Macht herunterzuspielen und die Verantwortung nicht anzunehmen zu wollen. Sie sind politische Akteure wider Willen.

2. Plattform üben eine andere Form von Macht aus.

Einer der Gründe, warum Plattformen als politische Akteure immer noch nicht ernst genommen werden, ist das allgemeine Unverständnis für die Mechanik ihrer Macht.

Wenn Politiker gegenüber Plattformen auftreten, legen sie gern das Gewicht ihrer politischen Legitimation in die Waagschale. Sie sprechen dann vom „Primat der Politik“, als wollten sie sich und anderen ihrer Handlungsmacht versichern. Dieses Primat wird daraus abgeleitet, dass der Politiker durch eine souveräne, kollektive Entscheidung in sein Amt kam. Doch auch Plattformen generieren eine Form von Legitimation durch kollektive Entscheidungen, die allerdings leicht anders funktioniert.

David Singh Grewal zeigt in seinem Buch Network Power, wie die Adaption von Standards als kollektive Entscheidung verstanden werden kann.3 Standards sind Möglichkeitsbedingungen von Interaktion, weswegen jede Entscheidung für oder gegen einen Standard immer schon eine gesellschaftliche Tragweite hat. Und nur weil diese Entscheidungen nicht gleichzeitig getroffen werden wie bei einer Wahl, sondern zeitlich versetzt („aggregiert“), mindert das nicht ihre gesellschaftliche Macht.

Die Macht dieser aggregierten kollektiven Entscheidungen ist nichts Neues. Sie gilt für die Sprache, die wir sprechen, für die Umgangsformen, die wir pflegen oder akzeptieren und natürlich auch für die Entscheidung, über welche Netzwerkdienste wir erreichbar sein wollen. Wir sind schließlich nicht auf Facebook wegen seiner tollen Produktqualität, sondern weil alle unsere Freunde auf Facebook sind.

In der Ökonomie nennt man das Phänomen „Netzwerkeffekt“, aber Grewal hat völlig recht, es als politischen Machtfaktor zu verstehen. Ab einer bestimmten Ausbreitung eines Standards sind die Kräfte auf das Individuum so groß, dass ihm kaum etwas anderes übrig bleibt, als den Standard ebenfalls zu adaptieren. Die Alternative ist häufig sozialer Ausschluss. Wir akzeptieren diese „Netzwerkmacht“, den Standards ausüben, denn sie kann schließlich nicht von Einzelnen in Stellung gebracht werden. Das gilt zumindest für offene Standards. Niemand kann mich davon abhalten, Russisch zu lernen, oder einen Server mittels offener Protokolle wie TCP/IP im Internet bereit zu stellen. Der soziale Druck geht immer von der ganzen Gemeinschaft aus und kann nicht von Einzelnen gerichtet werden.

Zur “Plattformmacht” wird die Netzwerkmacht aber, wenn der adaptierte Standard zentrale Mechanismen des Ausschlusses kennt. Facebook kann mir den Zugang zu meinen Freunden jederzeit wieder nehmen, oder auch nur temporär oder lokal einschränken. Die Kontrolle über den Zugang zu dem Standard ist einerseits der Schlüssel zum Geschäftsmodell der Plattformen, andererseits auch die Grundlage ihrer politischen Macht.

Kurz: Plattformmacht = Netzwerkmacht + Kontrolle des Zugangs.

3. Plattformregulierung erhöht die Macht der Plattformen

Natürlich ist in der klassischen Politik bereits angekommen, dass Plattformen über eine unheimliche Macht verfügen, aber weil Politiker diese Macht nicht verstehen, verschlimmern sie diesen Zustand noch. Sie glauben, es bei Google, Facebook, Apple und Co. schlicht mit der typischen Konzernmacht zu tun zu haben, die sie von Siemens und der Deutschen Bank her kennen. Entsprechend greifen sie zum Rezeptbuch der politischen Regulierung, um dieser Macht entgegenzutreten.

Doch Plattformanbieter sind nicht einfach nur große Firmen und ihre Macht beruht auf weit mehr als nur Geld und weltweite Ausdehnung. Plattformen stehen Staaten vielmehr als Systemkonkurrenten gegenüber – obwohl das beide nicht wahrhaben wollen.

Anstrengungen der klassischen Politik, Plattformen zu regulieren, enden deswegen in einem Paradox. Während die Politiker ihre Fäuste gen Google und Facebook recken, schanzen sie den Plattformen immer neue hoheitliche Kompetenzen zu. Jede Auflage, die sich die Politik ausdenkt, stärkt die politische Handlungsmacht und Legitimation von Plattformen. Als Beispiel kann das Urteil des EuGH zum Recht auf Vergessenwerden gelten, das Google dazu anhält, Suchergebnisse zu Personen nach einem sehr schwammigen Katalog von Kriterien zu bereinigen.4 Ein anderes Beispiel ist das neuere Netzwerkdurchsetzungsgesetz des Justizministers Heiko Maas, das Facebook und andere Plattformen dazu anhält „offensichtlich rechtswidrige Inhalte“ zu löschen.5 In beiden Fällen gibt der Staat Rechtssprechungs- sowie Rechtsdurchsetzungskompetenzen an die Plattformen ab. Das ist einerseits durchaus sinnvoll, weil Plattformen durch ihre Plattformmacht und tiefen, datenreichen Einsichten die logischen Ansprechpartner zur Regulierung des Digitalen sind. Es ist aber auch fatal, weil der Staat damit das Regime der Plattformen stärkt. Er macht sich abhängig von seinem eigenen Systemkonkurrenten.

Drei Ressorts der Plattformpolitik

Der politische Einfluss von Plattformen ist vielfältig. Ohne Anspruch an Vollständigkeit möchte an dieser Stelle drei Politikbereiche voneinander abgrenzen, in denen Plattformen heute schon sehr einflussreich sind und in Zukunft noch an Einfluss gewinnen werden: Netzinnenpolitik, Netzaußenpolitik und Netzsicherheitspolitik.

Netzinnenpolitik

Der Begriff „Netzpolitik“ hat sich vor allem in Deutschland – ausgehend vom gleichnamigen Blog für politische Fragen – rund um das Netz etabliert.6 Er versammelt Fragen des Datenschutzes, der Netzneutralität, der Zensurfreiheit und andere netzrelevante Politikbereiche. Wesentlich ist, dass das Netz immer als Gegenstand der Netzpolitik gesehen wird.

Der Begriff „Netzinnenpolitik“ soll nun zunächst das Eingeständnis signalisieren, dass es dieses innen/außen und Objekt/Subjekt-Verhältnis so nicht mehr gibt und dass die politischen Fragen des Netzes zunehmend aus dem inneren des Netzes selbst erwachsen. Und dass sie auch nur im inneren des Netzes zu lösen sind. Zu nennen wären die vielzitierten Probleme mit Hate Speech, Trolling und Fake News, aber auch ältere Probleme wie Identitätsdiebstahl oder Doxxing (das Veröffentlichen von persönlichen Informationen gegen den Willen der Betroffenen) fallen in die Kategorie.

Da diese Probleme meistens auf Plattformen entstehen, ist es es folgerichtig, von ihnen auch die entsprechenden Gegenmaßnahmen zu erwarten. Das geschieht zwar durchaus, allerdings immer noch in allgemein als unzureichend empfundenem Maße. Tatsächlich zeigen Plattformen eine gewisse Regulierungsaversität. Sie scheuen zurück, die politische Macht, die sie faktisch haben, tatsächlich einzusetzen, um zum Beispiel strengere Regeln aufzustellen und durchzusetzen.7

Nichtsdestotrotz scheint sich ein gewisses Problembewusstsein durchgesetzt zu haben. Facebooks neues Missionstatement von Februar deutete bereits darauf hin8, von Twitter9 und Google10 gab es ähnliche Signale. Nach dem eskalierten Nazi-Aufmarsch in Charlottesville haben viele Plattformanbieter gehandelt und rechtsradikale Accounts und Websites von ihren Services verbannt. Twitter und LinkedIn suspendierten etliche Accounts von „White Suprimacists“, Facebook, Google und GoDaddy (ein populärer Domainhändler) sperrten Domains und Gruppen, die Hass verbreiten. Vor allem das Naziportal Daily Stormer war betroffen und flog sogar beim Content Delivery Network Cloudflare raus.11

Offen bleibt allerdings, ob solche Maßnahmen geeignet sind, die zitierten Probleme in den Griff bekommen. Bisherige Ergebnisse geben wenig Anlass zur Hoffnung.12

Netzaußenpolitik

Während Facebooks Umgang mit Hate Speech und Fake News der Netzinnenpolitik zugeordnet werden kann, wäre das bereits erwähnte Netzwerkurchsetzungsgesetz von Heiko Maß Gegenstand der Netzaußenpolitik. In der Netzaußenpolitik treffen vor allem (aber nicht nur) Plattformen und Staaten aufeinander und handeln ihre gegenseitigen Interessen miteinander aus. Der Standardfall ist dabei natürlich der Versuch der Regulierung von Plattformen durch Staaten, wie wir es bereits besprochen haben. So hat die EU gleich mehrere Verfahren gegen Facebook und Google am laufen, aber auch die Konflikte zwischen US-Regierung und den Plattformen treten immer deutlicher zu Tage.13

Doch die Beziehungen zwischen Plattformen und Staaten waren in der Vergangenheit nicht immer so schlecht. Insbesondere das amerikanische Außenministerium unter Hillary Clinton nutzte Plattformen für außenpolitische Zwecke. In ihrer bedeutenden Rede von 2010 zu Internet und Freiheit bezeichnete sie die Plattformberteiber als wichtige Partner, wenn es darum geht, Demokratie und Menschenrechte in die Welt zu tragen.14

Eine besondere Scharnierfunktion erfüllte dabei Jared Cohen.15 Er kam noch unter Condoleezza Rice ins Außenministerium, stieg aber vor allem unter Clinton auf. Als 2009 in Iran eine Revolution auszubrechen drohte, rief er bei Twitter an und überzeugte sie, ihre geplante Wartungsdowntime aufzuschieben.16 Twitter spielte eine wichtige Rolle zur Koordination der Aufstände.

Als dann Anfang 2011 der Arabische Frühling ausbrach, arbeitete Cohen bereits bei Google und half verschiedene Projekte zwischen Plattformen zu koordinieren. Facebook, Twitter und Google versuchten jeweils auf ihre Weise die Aufstände zu unterstützen und teilweise kooperierten sie dazu auch. Wie zum Beispiel beim Dienst speak2tweet, bei dem Google eine Telefonnummer bereit stellte, bei der Menschen aus Ägypten aufs Band sprechen konnten. Das Gesagte wurde dann per Twitter veröffentlicht und so die Internetabschaltung umgangen.17

Spätestens seit den Snowden-Enthüllungen von 2013 ist das Verhältnis zwischen Silicon Valley und Washington deutlich abgekühlt. Plattformen versuchen sich seitdem eher stärker gegen Eingriffe des Staates abzugrenzen und zu schützen. Dies geschieht vor allem durch die allgemeine Verbreitung von verschlüsselten Verbindungen und die Erhöhung der technischen wie rechtlichen Sicherheit.18 Die USA sehen diese Entwicklung ihrerseits mit wachsendem Unbehagen, insbesondere den Trend zu immer besser kryptografisch abgesicherten Systemen.

Im Frühjahr 2016 eskalierte der Streit schließlich anhand des iPhones, das FBI-Ermittler bei dem Attentäter von San Bernardino gefunden hatten. Es war gesperrt und verschlüsselt und die Ermittler verlangten von Apple Kooperation bei der Entschlüsselung. Apple verweigerte. Für das Aufschließen hätte Apple in die Sicherheitssoftware eine Schwachstelle einbauen müssen. Aus Apples Sicht ein gefährliches Unterfangen, das die Sicherheit aller anderen Geräte und damit der Nutzer gemindert hätte. Am Ende musste das FBI mit einer externen Sicherheitsfirma zusammenarbeiten, um das iPhone zu entsperren.19

Neben den Kooperationen und Konflikten der Plattformen mit Staaten gibt es natürlich noch die Beziehungen der Plattformen untereinander.20 Politisch greifbar ist die Entwicklung, dass Facebook zunehmend Nutzer und Nutzerinnen aus dem rechten und rechtsradikalen Milieu an VKontakte verliert.21 VKontakte ist Facebooks russisches Pendant, hat aber ganz andere Richtlinien. Während man zum Beispiel auf Facebook Probleme bekommt, wenn man homophobe Postings veröffentlicht, bekommt man auf VKontakte Probleme, wenn man die Regenbogenfahne veröffentlicht.

Eine Spaltung der Gesellschaft entlang unterschiedlicher Plattformen und ihrer Policies erscheint durchaus als ein plausibles Szenario und bietet zukünftig viel Stoff für netzaußenpolitische Konflikte.

Netzsicherheitspolitik

Seit einiger Zeit wird in politischen Kreisen vermehrt von „Cyberwar“ und „Cybersicherheit“ gesprochen. Gemeint ist eine neue Form des Krieges mit digitalen Mitteln. Die USA und Israel hatten 2010 vorgelegt und mittels einer hochgerüsteten „Cyberwaffe“ – einem speziell entwickelten Computerwurm – Urananreicherungsanlagen im Iran zerstört.22 Der Stuxnet-Shock war der Beginn eines allgemeinen Wettrüstens in Sachen Hacking-Kapazitäten weltweit. Cyberangriffe sind seitdem Alltag geworden, seien es die Angriffe von China auf Google23, Nordkorea auf Sony-Pictures24 oder Russlands auf die amerikanische Wahl. „Cyber“ wird gerne damit erklärt, dass das Militär verschiedene Einsatzgebiete kennt: Boden (Armee), Wasser (Marine) und Luft (Luftwaffe) und nun komme eben mit „Cyber“ ein neues Einsatzgebiet hinzu, für das man entsprechende Kapazitäten aufbauen muss.25

Doch das wesentliche Mißverständnis bei dem Thema ist, davon auszugehen, dass Cyberwars vornehmlich zwischen Staaten stattfinden. Das ist bereits heute nicht der Fall. Zum einen ist fast jeder „Cyber-Angriff“ zumindest auch ein Angriff auf eine Plattform. Sei es, auf das Betriebssystem von Microsoft (wie bei Stuxnet und viele anderen Fällen) oder auf Services (der Angriff aus China auf Google richtete sich auf Gmail-Postfächer, der russische Hack des Postfaches von John Podesta betraf ebenfalls Gmail). Fast immer ist eine Software oder Dienst betroffen, der von einem Plattformanbieter bereitgestellt wird.

Zum Anderen zielen schon heute viele Angriffe konkret auf Plattformanbieter als Primärziel. Am prominentesten ist vielleicht der Angriff Chinas auf die Entwicklerplattform GitHub von 2015. GitHub ist eine Plattform, auf der Softwareentwickler ihren Code versionieren und gleichzeitig mit anderen teilen können. Beinahe alle populären Open Source Projekte sind dort zu finden, unter anderem auch eines mit dem Titel „The Great Fire“. Als „Great Firewall“ wird für gewöhnlich die mächtige Internetzensurarchitektur Chinas bezeichnet und so war „The Great Fire“ ein eigens bereitgestelltes Toolkit zur Umgehung eben dieser. Das gefiel der chinesischen Regierung natürlich nicht.

Nun ist es für China nichts ungewöhnliches, unliebsame Dienste einfach mittels der Great Firewall auszusperren, doch GitHub bildet hier eine Ausnahme. Den einheimischen Entwicklern den Zugang zu Github zu versperren, käme einer Komplettaufgabe der chinesischen Softwarebranche gleich. Etwas, das sich nicht mal China leisten kann. Da aber China in ihrer Zensurinfrastruktur Millionen von Anfragen pro Sekunde ins Leere laufen lassen muss, kamen sie auf die Idee, die geblockten Anfragen stattdessen auf ein Ziel im Internet zu richten. Das ist die Idee hinter “The Great Cannon”.26

Was auf GitHub einprasselte waren Millionen und Abermillionen Abfragen aus ganz China, die den Service bis weit an die Belastungsgrenze führte. In IT-Sicherheitkreisen nennt man das einen DDoS Angriff – einen “Distributed Denial of Service”-Angriff.27

Plattformen sind aber nicht nur Ziel von Angriffen, sondern immer öfter auch die letzte Verteidigungslinie für Angegriffene. 2016 traf ein DDoS-Angriff das Blog des Sicherheitsforschers Brian Krebs. Bei einer Analyse des Angriffs stellte sich heraus, dass der Angriff vornehmlich von Internetroutern und Sicherheitskameras ausgegangen war. Der Grund: Ein Fehler im Betriebssystem „Mirai“, das in solchen Geräten oft zum Einsatz kommt, hatte es Angreifern erlaubt, viele Millionen von ihnen virtuell in Besitz zu nehmen. Es war die größte Bot-Armee, die die Welt je gesehen hat.

Krebs wusste sich nicht anders zu helfen, als unter Googles eigens für solche Fälle eingerichtete Serverinfrastruktur namens „Project Shield“ zu schlüpfen. Das – nebenbei bemerkt – von Jared Cohens aus Google ausgegründetem Thinktank Jigsaw betrieben wird.28

Die unbequeme Wahrheit hinter „Cyber“ ist, dass nicht Staaten im Mittelpunkt des Geschehens stehen, sondern Plattformen. Sie sind es, die die Infrastruktur bereitstellen, die angegriffen wird. Sie sind sehr häufig auch Ziele der Attacken. Vor allem aber sind sie derzeit die Einzigen, die über die technischen Kapazitäten und menschlichen Ressourcen verfügen, Angriffe abzuwehren, ihnen vorzubeugen und am Ende den Tag zu retten.29 So oder so. Den Staaten wird im Falle des Falles nichts anderes übrig bleiben, wie Brian Krebs unter den Schutzschirm der Plattformen zu schlüpfen. Staatliche “Cybersouveränität” bleibt derzeit ein unrealistischer Traum.

Fazit

Plattformen besetzen bereits heute zentrale Stellen der gesellschaftlichen Ordnung, die selbst zunehmend zur digitalen wird. Sie regulieren für die Gesellschaft kritische Infrastruktur und bieten Schutz und Ordnung im Internet. Sie stehen damit in Konkurrenz zu Staaten und generieren Abhängigkeiten, die für die Staaten bedrohlich werden könnten.

Ob Staaten in dieser Hinsicht auf lange Frist ihre Unabhängigkeit und Souveränität aufrecht erhalten werden, wird davon abhängen, ob es ihnen gelingt, eine eigene digitale Infrastruktur ins Werk zu setzen. Der Staat muss auf lange Sicht selbst zum Plattformanbieter werden.30

Plattformen dagegen täten gut daran, sich bei den Staaten die gewachsenen, demokratischen Institutionen abzuschauen, um mit ihren netzinnenpolitischen Problemen fertig zu werden. Ein wenigstens rudimentäres Recht statt Terms of Service, einen Ansatz von Gewaltenteilung, Transparenz und Einspruchsmöglichkeiten bei allen Verfahren, würden den Kampf gegen Hate Speech und Fake News glaubhafter, gerechter und mit Sicherheit auch erfolgreicher machen.31

Kurz: Plattformen müssen mehr werden wie Staaten und Staaten mehr wie Plattformen.

Beiden, d.h. Staaten und Plattformen bleibt derweil nicht viel anderes übrig, als ein kritisch-kooperatives Verhältnis zu pflegen und in allen drei Feldern – Netzinnenpolitik, Netzaußenpolitik und Netzsicherheitspolitik – zu kooperieren. Es bleibt noch darauf hinzuweisen, dass das Konkurrenzverhältnis zwischen beiden im Zweifel für den Bürger, bzw. User sogar gewinnbringend sein kann. Während mich der Staat vor dem überbordenden Zugriff der Plattformen zu beschützen sucht, versucht der Plattformanbieter mich vor dem Datenzugriff des Staates zu schützen.

  1. Alex Heath: Speculation is mounting that Mark Zuckerberg wants to serve in government, http://www.businessinsider.de/speculation-mounting-that-mark-zuckerberg-wants-work-government-2017-1?r=US&IR=T, 05.01.2017.
  2. Vgl. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, 2014, S. 204 ff.
  3. Grewal, David Singh: Network Power – The Social Dynamics of Globalization, S. 9.
  4. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, 2014, S. 223.
  5. Markus Beckedahl: NetzDG: Fake-Law gegen Hate-Speech, https://netzpolitik.org/2017/netzdg-fake-law-gegen-hate-speech/, 30.06.2017.
  6. Siehe netzpolitik.org.
  7. Das ist einerseits damit zu erklären, dass es sich immer noch um gewinnorientierte Firmen handelt und solche Art Regulierung keinen Umsatz, aber einen ganzen Rattenschwanz an Kosten verursacht. Andererseits kommen die Firmengründer und Angestellten aus der weitgehend von libertären Denkweisen dominierten Startup-Kultur des Silicon Valleys, wo jegliche Eingriffe in Debatten als Eingriffe gegen die Redefreiheit interpretiert werden.
  8. Mark Zuckerberg: Building Global Communiy, https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634, 16.02.2017.
  9. Kerry Flynn: Twitter just took its biggest stance yet on hate speech, http://mashable.com/2017/10/17/twitter-hate-speech-abuse-new-rules-women-boycott/#vfo7gOJrokqD, 17.10.2017.
  10. Dan Seitz: Google Is Cracking Down On Fake News In Search Results, http://uproxx.com/technology/google-search-results-fake-news/, 13.03.2017.
  11. David Ingram, Joseph Menn: Internet firms shift stance, move to exile white supremacists, https://www.reuters.com/article/us-virginia-protests-tech/internet-firms-shift-stance-move-to-exile-white-supremacists-idUSKCN1AW2L5, 16.08.2016.
  12. Kerry Flynn: Facebook’s ‚Trust Indicators‘ is apparently a gift to select media partners, http://mashable.com/2017/11/16/facebook-trust-indicators-fake-news-problem/, 16.11.2017.
  13. Julia Fioretti: EU increases pressure on Facebook, Google and Twitter over user terms, https://www.reuters.com/article/us-socialmedia-eu-consumers/eu-increases-pressure-on-facebook-google-and-twitter-over-user-terms-idUSKBN1A92D4, 24.07.2017.
  14. Hillary Clinton: Statement: Hillary Clinton on internet freedom, https://www.ft.com/content/f0c3bf8c-06bd-11df-b426-00144feabdc0, 21.01.2010.
  15. Wikipedia: Jared Cohen, https://en.wikipedia.org/wiki/Jared_Cohen
  16. Ewen MacAskill: US confirms it asked Twitter to stay open to help Iran protesters, https://www.theguardian.com/world/2009/jun/17/obama-iran-twitter, 17.06.2017.
  17. Charles Arthur: Google and Twitter launch service enabling Egyptians to tweet by phone, https://www.theguardian.com/technology/2011/feb/01/google-twitter-egypt, 01.02.2011.
  18. Google und Twitter zum Beispiel bekämpften seit 2013 etliche Geheimgerichtsbeschlüsse bis zur letzten Instanz. Siehe zum Beispiel: Sam Byford: Google challenges US government’s private data demand in court, https://www.theverge.com/2013/4/5/4185732/google-fights-national-security-letter, 05.04.2013.
  19. Wikipedia: FBI-Apple encryption dispute, https://en.wikipedia.org/wiki/FBI–Apple_encryption_dispute.
  20. Auf die ständigen Konflikte zu Schnittstellen, Standards und Marktanteile will ich gar hier allerdings gar nicht eingehen, obwohl auch diese natürlich politisches Gewicht haben.
  21. Katie Zawadski: American Alt-Right Leaves Facebook for Russian Site VKontakte, https://www.thedailybeast.com/american-alt-right-leaves-facebook-for-russian-site-vkontakte, 11.03.2017.
  22. Wikipedia: Stuxnet, https://en.wikipedia.org/wiki/Stuxnet.
  23. Die Angriffe gingen unter dem Namen “Operation Aurora in die Geschichte ein. Wikipedia: Operation Aurora: https://en.wikipedia.org/wiki/Operation_Aurora.
  24. Axel Kannenberg: USA: Nordkorea steckt hinter Hackerangriff auf Sony Pictures, https://www.heise.de/newsticker/meldung/USA-Nordkorea-steckt-hinter-Hackerangriff-auf-Sony-Pictures-2504888.html, 19.12.2014.
  25. Handelsblatt: Zu Land, zu Wasser, in der Luft – und im Internet, http://www.handelsblatt.com/politik/deutschland/bundeswehr-erhaelt-cyber-truppe-zu-land-zu-wasser-in-der-luft-und-im-internet/13505076.html, 24.04.2016.
  26. Federführend bei der Untersuchung des Vorfalls war das Citizen Lab, das auch einen ausführlichen Bericht darüber geschrieben hat. Citizen Lab: China’s Great Cannon: https://citizenlab.ca/2015/04/chinas-great-cannon/, 10.04.2015.
  27. Wikipedia: DDoS: https://en.wikipedia.org/wiki/Denial-of-service_attack#Distributed_attack
  28. Brian Krebs: How Google Took on Mirai, KrebsOnSecurity, https://krebsonsecurity.com/2017/02/how-google-took-on-mirai-krebsonsecurity/, 03.02.2017.
  29. Das Hauptproblem von Staaten in diesem Bereich ist tatsächlich das Personal. IT-Sicherheitsexperten gehören zu einer personellen Rarität und werden in der Industrie entsprechend mit astronomischen Honoraren und Karrierechancen bedacht – bei beidem können Staaten – vor allem das Militär – schlecht mithalten.
  30. Wie das gehen könnte, habe ich im Rahmen einer Expertenanhörung des Deutschen Bundestags ausgeführt. Siehe Michael Seemann: Stellungnahme: Fragenkatalog für das Fachgespräch zum Thema „Interoperabilität und Neutralität von Plattformen“ des Ausschusses Digitale Agenda am 14.12.2016, https://www.bundestag.de/blob/484608/b1dc578c0fdd28b4e53815cda384335b/stellungnahme-seemann-data.pdf, 12.12.2016.
  31. Das habe ich 2016 in einem Vortrag auf der re:publica vorgeschlagen. Siehe Michael Seemann: Netzinnenpolitik – Grundzüge einer Politik der Plattformgesellschaft, https://www.youtube.com/watch?v=eQ-a13ZL33g, 11.03.2016.


Veröffentlicht unter Das Neue Spiel extern Kontrollverlust Plattformpolitik
8 Kommentare

Digital Tribalism – The Real Story About Fake News

Text by: Michael Seemann / Data Visualization by: Michael Kreil


[Download as PDF]
[(original) German Version]

The Internet has always been my dream of freedom. By this I mean not only the freedom of communication and information, but also the hope for a new freedom of social relations. Despite all the social mobility of modern society, social relations are still somewhat constricting today. From kindergarten to school, from the club to the workplace, we are constantly fed through organizational forms that categorize, sort and thereby de-individualize us. From grassroots groups to citizenship, the whole of society is organized like a group game, and we are rarely allowed to choose our fellow players. It’s always like, „Find your place, settle down, be a part of us.

The Internet seemed to me to be a way out. If every human being can relate directly to every other, as my naive-utopian thought went, then there would no longer be any need for communalized structures. Individuals could finally counteract as peers and organize themselves. Communities would emerge as a result of individual relationships, rather than the other way around. Ideally, there would no longer be any structures at all beyond the customized, self-determined network of relations of the individual.1

The election of Donald Trump was only the latest incident to tear me rudely from my hopes. The Alt-Right movement – a union of right-wing radical hipsterdom and the nihilistic excesses of nerd culture – boasts that it „shitposted“ Trump into the White House. This refers to the massive support of the official election campaign by an internet-driven grassroots meme campaign. And even though you can argue that the influence of this movement on the election was not as great as the trolls would have you believe, the campaign clearly demonstrated the immense power of digital agitation.
But it wasn’t the discursive power of internet-driven campaigns that frightened me so badly this time. This had been common knowledge since the Arab Spring and Occupy Wall Street. It was the complete detachment from facts and reality unfolding within the Alt-Right which, driven by the many lies of Trump himself and his official campaign, has given rise to an uncanny parallel world. The conspiracy theorists and crackpots have left their online niches to rule the world.

In my search for an explanation for this phenomenon, I repeatedly came across the connection between identity and truth. People who believe that Hillary and Bill Clinton had a number of people murdered and that the Democratic Party was running a child sex trafficking ring in the basement of a pizza shop in Washington DC are not simply stupid or uneducated. They spread this message because it signals membership to their specific group. David Roberts coined the term „tribal epistemology“ for this phenomenon, and defines it as follows:

Information is evaluated based not on conformity to common standards of evidence or correspondence to a common understanding of the world, but on whether it supports the tribe’s values and goals and is vouchsafed by tribal leaders. “Good for our side” and “true” begin to blur into one.2

New social structures with similar tribal dynamics have also evolved in the German-speaking Internet. Members of these „digital tribes“ rarely know each other personally and often don’t even live in the same city or know each other’s real names. And yet they are closely connected online, communicating constantly with one another while splitting off from the rest of the public, both in terms of ideology and of network. They feel connected by a common theme, and by their rejection of the public debate which they consider to be false and „mainstream“.

It’s hardly surprising, then, that precisely these „digital tribes“ can be discovered as soon as you start researching the spread of fake news. Fake news is not, as is often assumed, the product of sinister manipulators trying to steer public opinion into a certain direction. Rather, it is the food for affirmation-hungry tribes. Demand creates supply, and not the other way around.

Since the present study, I have become convinced that „digital tribalism“ is at the heart of the success of movements such as Pegida and the AfD party, as well as the Alt-Right and anti-liberal forces that have blossomed all over the world since 2016.

For the study at hand, we analysed hundreds of thousands of tweets over the course of many months, ranking research question by research question, scouring heaps of literature, and developing and testing a whole range of theories. On the basis of Twitter data on fake news, we came across the phenomenon of digital tribalism, and took it from there.3 In this study, we show how fake news from the left and the right of the political spectrum is disseminated in practice, and how social structures on the Internet can reinforce the formation of hermetic groups. We also show what the concept of „filter bubbles“ can and cannot explain, and provide a whole new perspective on the right-wing Internet scene in Germany, which can help to understand how hate is developed, fortified, spread and organized on the web. However, we will not be able to answer all the questions that this phenomenon gives rise to, which is why this essay is also a call for further interdisciplinary research.

Blue Cloud, Red Knot

In early March 2017, there was some commotion on the German-language Twitter platform: the German authorities, it was alleged, had very quietly issued a travel warning for Sweden, but both the government and the media were hushing the matter up, since the warning had been prompted by an elevated terrorism threat. Many users agreed that the silence was politically motivated. The bigger picture is that Sweden, like Germany, had accepted a major contingent of Syrian refugees. Ever since, foreign media, and right-wing outlets in particular, have been claiming that the country is in the grip of a civil war. Reports about the terrorism alert being kept under wraps fed right into that belief.
For proof, many of these tweets did in fact refer to the section of the German Foreign Office website that includes the travel advisory for Sweden.4 Users who followed the link in early March did in fact find a level-3 (“elevated”) terrorism alert, which remains in place to this day. The website also notes the date of the most recent update: March 1, 2017. What it did not mention at the time was that the Swedish authorities had issued their revised terrorism alert a while back – and that it had been revised downwards rather than upwards, from level 4 (“high”) to level 3 (“elevated”).
After some time, the Foreign Office addressed the rumors via a clarification of facts on its website. Several media picked up on the story and the ensuing corrections. But the damage was done. The fake story had already reached thousands of people who came away feeling that their views had been corroborated: firstly, that conditions in Sweden resembled a civil war, and secondly, that the media and the political sphere were colluding to keep the public in the dark.
What happened in early March fits the pattern of what is known as fake news – reports that have virtually no basis in fact, but spread virally online due to their ostensibly explosive content.5 Especially in the right-wing sectors of the web, such reports are now “business as usual”.6
Data journalist Michael Kreil took a closer look at the case. He wanted to know how fake news spread, and whether corrections were an effective countermeasure. He collected the Twitter data of all accounts that had posted something on the issue, and flagged all tweets sharing the fake news as red and all those forwarding the correction as blue. He then compiled a graphic visualization of these accounts that illustrates the density of their respective networks. If two accounts follow each other and/or follow the same people, or are followed by the same people, they are represented by dots in greater proximity. In other words, the smaller the distance between two dots is, the more closely-knit the networking connections are between the accounts they refer to. The dot size corresponds to the account’s follower count.

The result is striking: where we might expect to see one large network, two almost completely distinct networks appear. The disparity between the two is revealed both by the coloring and by the relative position of the accounts. On the left, we see a fairly diffuse blue cloud with frayed edges. Several large blue dots relatively close together in the center represent German mass media such as Spiegel Online, Zeit Online, or Tagesschau. The blue cloud encompasses all those accounts that reported or retweeted, which is to say, forwarded, the correction.
On the other side, we see a somewhat smaller and more compact red mass consisting of numerous closely-spaced dots. These are the accounts that disseminated the fake news story. They are not only closely interconnected, but also cut off from the network represented by the large blue cloud.
What is crucial here is the clear separation between the red and blue clusters. There is virtually no communication between the two. Every group keeps to itself, its members connecting only with those who already share the same viewpoint.

That’s a filter bubble”, Michael Kreil said when he approached me, graph in hand, and asked whether I wanted to join him in investigating the phenomenon. Kreil is on the DataScience&Story team at Tagesspiegel, a daily newspaper published in Berlin, which puts him at the forefront of German data journalism. I accepted, even though I was skeptical of the filter bubble hypothesis.
At first glance, the hypothesis is plausible. A user is said to live in a filter bubble when his or her social media accounts no longer present any viewpoints that do not conform to his or her own. Eli Pariser coined the term in 2011, with view to the algorithms used by Google and Facebook to personalize our search results and news feeds by pre-sorting search results and news items.7 Designed to gauge our personal preferences, these algorithms present us with a filtered version of reality. Filter bubbles exist on Twitter as well, seeing as that every user can create a customized small media network by following accounts that stand for a view of the world that interests them. Divergent opinions, conflicting worldviews, or simply different perspectives simply disappear from view.
This is why the filter bubble theory has frequently served as a convincing explanation in the debate about fake news. If we are only ever presented with points of view that confirm our existing opinions, rebuttals of those opinions might not even reach us any more. So filter bubbles turn into an echo chamber where all we hear is what we ourselves are shouting out into the world.

Verification

Before examining the filter bubble theory, however, we first tried to reproduce the results using a second example of fake news. This time, we found it in the mass media.
On February 5, 2017, the infamous German tabloid BILD reported on an alleged „sex mob“ of about 900 refugees who had allegedly harassed people on New Year’s Eve in Frankfurt’s Fressgass district. This was explosive news because similar riots had occurred in Cologne on New Year’s Eve the previous year. The BILD story quickly made the rounds, mainly because it gave the impression that the Frankfurt police force had kept the incident quiet for more than a month.
In fact, the BILD journalist had been told the story by a barkeeper who turned out to be a supporter of the right-wing AfD party, and BILD had printed it immediately without sufficient fact-checking. As it turned out, the police were unable to confirm any of this, and no other source could be found for the incident. Even so, other media outlets picked up on the story, though often with a certain caution. In the course of the scandal, it became clear that the barkeeper had made up the entire story, and BILD was forced to apologize publicly.

This time, we had to take a slightly different approach for evaluation, because this particular debate on Twitter had been far more complex, and so many reports couldn’t be clearly assigned to either of the two categories, „fake news“ or „correction“. We needed a third category in between. We collected all the articles on the topic in a spreadsheet and flagged them as either spreading the false report (red), or just passing it on in a distanced or indecisive manner (yellow). Phrases such as „According to reports in BILD…“, or indications that the police could not confirm the events, were sufficient for the label „indecisive“. Of course, we also collected articles disproving the fake news story (blue). We also assigned some of the tweets to a fourth category: Meta. The mistake the BILD newspaper made sparked a broader debate on how a controversial, but well-established media company could become the trigger point of a major fake news campaign. These meta-debate articles were colored in green.8
Despite these precautionary measures, it is obvious even at first glance that the results of our first analysis have been reproduced here. The cloud of corrections, superimposed with the meta-comments, is visible in blue and green, brightened up here and there by yellow specks of indecision. Most noticeably, the red cluster of fake news clearly stands out from the rest again, in terms of color and of connectivity. Our fake news bubble is obviously a stable, reproducible phenomenon.

The Filter Bubble Theory

So we were still dealing with the theory that we were seeing the manifestation of a filter bubble. To be honest, I was skeptical. The existence of a filter bubble is not what our examples prove: The filter bubble theory makes assertions about who sees which news, while our graph only visualizes who is disseminating which news. So to prove the existence of a filter bubble, we would have to find out who does or doesn’t read these news items.

This information, however, is also encoded in the Twitter data, and can simply be extracted. For any given Twitter account, we can see the other accounts it follows. In a second step, we can bring up all the tweets sent from those accounts. Once we have the tweets from all the accounts the original account follows, we can reconstruct the timeline of the latter. In other words, we can peer into the filter bubble of that particular account and recreate the worldview within it. In a third step, we can determine whether a particular piece of information penetrated that filter bubble or not.
In this manner, we were able to retrieve the timelines of all accounts that had spread the fake news story, and scan them for links to the correction. The result is surprising: Almost all the disseminators of the false terrorism alert story – 89.2 percent, to be exact – had also had the correction in their timelines. So we repeated that test for the Fressgass story, too. In our first example, 83.7 percent of fake news distributors had at least technically been reached by the counterstatement.

This finding contradicts the filter bubble theory. It was obviously not for technical reasons that these accounts continued to spread the fake news story and not the subsequent corrections. At the very least, the filter bubbles of these fake news disseminators had been far from airtight.
Without expecting much, we ran a counter-test: What about those who had forwarded the correction – what did their timelines reveal? Had they actually been exposed to the initial fake news story they were so heroically debunking? We downloaded their timelines and looked into their filter bubbles. Once again, we were surprised by what we found: a mere 43 percent of the correction disseminators could have known about this fake news on Sweden. This result does suggest the existence of a filter bubble – albeit on the other side. In the case of the Fressgass story, the figure is even lower: at 33 percent. So these results do indicate a filter bubble, but in the other direction.

To sum up, the filter bubble effect insulating fake news disseminators against corrections is negligible, whereas the converse effect is much more noticeable.9 These findings might seem to turn the entire filter bubble discourse upside down. No, according to our examples, filter bubbles are not to blame for the unchecked proliferation of fake news. On the contrary, we have demonstrated that while a filter bubble can impede the dissemination of fake news, it did not inoculate users from being confronted with the correction.

Cognitive Dissonance

We are not dealing with a technological phenomenon. The reason why people whose accounts appear within the red area are spreading fake news is not a filter-induced lack of information or a technologically distorted view of the world. They receive the corrections, but do not forward recurring topicsthem, so we must assume that their dissemination of fake news has nothing to do with whether a given piece of information is correct or not – and everything to do with whether it suits them.

Instead, this resembles a phenomenon Leon Festinger called „Cognitive Dissonance“ and investigated in the 1950s.10 Acting as his own guinea pig, Festinger joined a sect that claimed the end of the world was near, and repeatedly postponed the exact date. He wanted to know why the members of the sect were undeterred by the succession of false prophecies, and didn’t simply stop believing in their doomsday doctrine. His theory was that people tend to have a distorted perception of events depending on how much they clash with their existing worldview. When an event runs counter to our worldview, it generates the aforementioned cognitive dissonance: reality proves itself incompatible with our idea of it. Since the state of cognitive dissonance is so disagreeable, people try to avoid it intuitively by adopting a behavior psychologists also call confirmation bias – this means perceiving and taking seriously only such information that matches your worldview, while disregarding or squarely denying any other information.
In this sense, the theory of cognitive dissonance tells us that the red cloud likely represents a group of people whose specific worldview is confirmed by the fake news in question. To test this hypothesis, we extracted several hundred of the most recents tweets from our Twitter user pools, both from the fake news disseminators and from those who had forwarded the correction, and compared word frequencies amongst the user groups. If the theory was correct, we should be able to show that the fake news group was united by a shared, consistent worldview.
We subjected a total of 380.000 tweets to statistical analysis, examining the relative frequencies of words in both groups and compiling a word ranking. The expressions at the top of each list are the ones that appear more commonly in tweets from the one group and more rarely in the other’s.11

After eliminating negligible words like “from”, “the”, etc., and prominent or frequently mentioned account names, the ranking for the fake news group shows a highly informative list of common words. In descending order, the sixteen most important terms were: “Islam”, “Deutschland”, “Migranten”, “Merkel”, “Maas”, “Politik”, “Freiheitskampf” (struggle for freedom), “Flüchtlinge” (refugees), “SPD” (the German Social Democratic Party), “NetzDG”12, “NPD” (the extreme-right National Party), “Antifa”, “Zensur” (censorship), “PEGIDA”13, “Syrer”, “Asylbewerber” (asylum seeker).


(The word size corresponds to the relative frequency of the terms.)

Certain thematic limitations become obvious at first glance. The narrative being told within this group is about migration, marked by a high frequency of terms like Islam, migrants, refugees, Pegida, Syrians. The terms “Merkel” and “Deutschland” are probably also associated with the “refugee crisis” narrative or with the issue of migration in general. A manual inspection of these tweets showed that the recurring topics are the dangers posed by Islam and crimes committed by individuals with a migrant background, and refugees in particular.
A second, less powerful narrative concerns the self-conception of the group: as victims of political persecution. The keywords “Maas”, “Freiheitskampf”, “SPD”, “NetzDG”, “Antifa”, and “Zensur” clearly refer to the narrative of victimization, in particular with view to the introduction of the so-called “network enforcement act”, NetzDG for short, promoted by German Federal Minister of Justice, Heiko Maas (SPD). This new law regulating speech on Facebook and Twitter is obviously regarded as a political attack on freedom of speech on the right.

The extent of thematic overlap amongst the spreaders of fake news is massive, and becomes even more apparent when we compare these terms to the most common terms the correction tweeters used:

“NEWS”, “Nachrichten” (news), “Trump”, “newsDE”, “Infos”, “BreakingNews”, “SPIEGEL”, “DieNachrichten”, “online”, “noafd”, “May” (as in Theresa May), “Donald”, “Piraten”, “tagesschau”, “pulseofeurope”, “Reichsbürger”.

First of all, what is noticeable is that the most important terms used by correctors are not politically loaded. It is more about media brands and news coverage in general: NEWS, news, newsDe, Infos, BreakingNews, SPIEGEL, DieNachrichten, tagesschau, Wochenblatt. Nine out of 16 terms are but a general reference to news media.
The remaining terms, however, do show a slight tendency to address the right-wing spectrum politically. Donald Trump is such a big topic that both his first and his last name appear in the Top 16. In addition, hashtags like „noafd“ or the pro-European network „pulseofeurope“ seem to be quite popular, while the concept of „Reichsbürger“ (people who feel that Germany isn’t a legitimate nation state and see themselves as citizens of the German Reich) is also discussed.

We can draw three conclusions from this word frequency analysis:

  1. The fake news group is more limited thematically and more homogeneous politically than the corrections group.
  2. The fake news group is primarily focused on the negative aspects of migration and the refugee crisis. They also feel politically persecuted.
  3. The right-wingers have no unified political agenda, but a slightly larger interest in right-wing movements.

All of this would seem to confirm the cognitive dissonance hypothesis. Our fake news example stories are reports of problems with refugees, which is the red group’s core topic exactly. Avoidance of cognitive dissonance could explain why a certain group might uncritically share fake news while not sharing the appropriate correction.

Digital Tribalism

When comparing the two groups in both examples, we already found three essential distinguishing features:

  1. The group of correctors is larger, more scattered/cloudy and includes the mass media, while the fake news group is more closely interwoven, smaller and more concentrated.
  2. The filter bubble of the corrector group is more impermeable to fake news than vice versa.
  3. The fake news group is more limited in topics than the users tweeting corrections.

In short, we are dealing with two completely different kinds of group. Whenever differences at the group level are so salient, we are well advised to look for an explanation that goes beyond individual psychology. Cognitive dissonance avoidance may well have a part in motivating the individual fake news disseminator, but seeing as we regard it as a conspicuous group-wide feature, the reasons will more likely be found in sociocultural factors. This again is a subject for further research.
In fact, there has been a growing tendency in research to embed the psychology of morals (and hence, politics) within a sociocultural context. This trend has been especially pronounced since the publication of Jonathan Haidt’s The Righteous Mind: Why Good People are Divided by Politics and Religion in 2012. Drawing on a wealth of research, Haidt showed that, firstly, we make moral and political decisions based on intuition rather than reasoning, and that, secondly, those intuitions are informed by social and cultural influences. Humans are naturally equipped with a moral framework, which is used to construct coherent ethics within specific cultures and subcultures. Culture and psychology “make each other up”, as the anthropologist and psychologist Richard Shweder put it.14
One of our innate moral-psychological characteristics is our predisposition for tribalism. We have a tendency to determine our positions as individuals in relation to specific reference groups. Our moral toolbox is designed to help us function within a defined group. When we feel we belong to a group, we intuitively exhibit altruistic and cooperative behaviors. With groups of strangers, by comparison, we often show the opposite behavior. We are less trusting and empathetic, and even inclined to hostility.
Haidt explains these human characteristics by way of an excursion into evolutionary biology. From a rational perspective, one might expect purely egoistic individuals to have the greatest survival advantage – in that case, altruism would seem to be an impediment.15 However, at a certain point in human evolution, Haidt argues, the selection process shifted from the individual to the group level. Ever since humanity went down the route of closer cooperation, sometime between 75.000 and 50.000 BCE, it has been the tribes, rather than the individuals, in evolutionary competition with one another.16 From this moment on, the most egoistic individual no longer automatically prevailed – henceforth it was cooperation that provided a distinct evolutionary edge.17

Or perhaps we should say, it was tribalism: The basic tribal configuration not only includes altruism and the ability to cooperate, but also the desire for clear boundaries, group egotism, and a strong sense of belonging and identity. These qualities often give rise to behaviors that, as members of an individualistic society, we believe we have given up, seeing as they often result in war, suffering, and hostility.18

However, for some time there have also been attempts to establish tribalism as a positive vision for the future. Back in the early 1990s, Michel Maffesoli founded the concept of “Urban Tribalism”.19 The urban tribes he was referring to were not based on kinship, but more or less self-chosen; mainly the kind of micro-groups we would now call subcultures. From punk to activist circles, humans feel the need to be part of something greater, to align themselves with a community and its shared identity. In the long run, Maffesoli argued, this trend works against the mass society.
There are more radical visions as well. In his grand critique bearing the programmatic title Beyond Civilization, the writer Daniel Quinn appeals to his readers to abandon the amenities and institutions of civilization entirely and found new tribal communities.20 Activists organizing in so-called neo-tribes mainly reference Quinn on their search for ways out of the mass society, and believe the Internet might be the most important technology in enabling these new tribal cultures.21

In 2008, Seth Godin pointed out how well-suited the Internet was to the establishment of new tribes. Indeed, his book, boldly titled Tribes: We Need You to Lead Us, was intended as a how-to guide.22 His main piece of advice: The would-be leader of a tribe needs to be a “heretic”, someone willing to break into the mainstream, identify the weakest link in an established set of ideas, and attack it. With a little luck, his or her possibly quite daring proposition will attract followers, who may then connect and mobilize via the Internet. These tribes, Godin argues, are a potent source of identity; they unleash energies in their members that enable them to change the world. Many of Godin’s ideas are actually fairly good descriptions of contemporary online group dynamics, including the 2016 Trump campaign.
To sum up: Digital tribes have traded their emphasis on kinship for an even stronger focus on a shared topic. This is the tribe’s touchstone and shibboleth, a marker of its disapproval of the “mainstream”, by whose standards the tribe members are considered heretics. This sense of heresy produces strong internal solidarity and homogenization, and even more importantly, a strict boundary that separates the tribe from the outside world. This in turn triggers the tribalist foundations of our moral sentiments: everything that matters now is “them against us”, and the narratives reflect this basic conflict. AfD, Pegida, the Alt-Right etc. see themselves as rebels, defying a mainstream that in their view, has lost its way, has been corrupted or at best, blinded by ideology. They feel they are victims of political persecution and oppression. Narratives like the “lying mainstream press” and the “political establishment” serve as boundary markers between two or more antagonistic tribes.23 Our visualization of disconnected clusters within the network structure, as well as the topical limitations revealed by our word frequency analysis are empirical evidence of precisely this boundary.

Counter Check: Left-Wing Fake News

Our assumption so far is that the red cloud of fake news disseminators is a digital tribe, and that the differences setting it apart from the group of correction disseminators result from its specific tribal characteristics. These characteristics are: close-knit internal networks, in combination with self-segregation from the mainstream (the larger network); an intense focus on specific topics and issues; and, by consequence, a propensity to forward fake news that match their topical preferences. Our tribe is manifestly right-leaning: the focus on the refugee issue is telling. Negative stories about refugees go largely or entirely unquestioned, and are forwarded uncritically, even when very little factual reporting is available and the story is implausible. Some users even forward stories they know to be untrue.
However, none of this shows the non-existence or impossibility of very diverse digital tribes within the German-speaking Twitterverse. In this sense, our identification of this particular tribe based on its circulation of fake news is inherently biased. The fake news events function as a kind of flashlight that lets us shine a light onto one part of the overall network, but only a rather limited part. Right-wing fake news reports let us detect right-wing tribes. Assuming that our theory is correct so far, we should similarly be able to discover left-wing tribes by flashing the light from the left, that is to say, by examining left-wing fake news reports, if they exist.
To cut a long story short: tracking down left-wing fake news reports was not easy, in any case, more difficult than finding their right-wing counterparts. This is interesting to note, especially since the last U.S. election campaign presented us with a very similar situation.24 One example that caught our attention early on was the so-called Khaled case, even though it is not an exact match for our definition of fake news.25
On January 13, 2015, the Eritrean refugee Khaled Idris was found stabbed to death in Dresden. This was during the peak of the Pegida demonstrations, which had been accompanied by acts of violence on several other occasions before. With the official investigation still ongoing and the authorities careful not to speculate, many Twitter users and primarily leftist media implied that the homicide was connected to the Pegida demonstrations. Some slammed the work of the investigators as scandalously ineffective (“blind on their right eye”), and many prematurely condemned the killing as a racist hate crime. Eventually the police determined that Idris had been killed by a fellow resident in his asylum seekers’ hostel.

We applied the same procedure as in the first example, again coding the fake news reports (or, let us say, incorrect speculations) in red and the corrections in blue. The meta-debate, which played an oversized role in this example, is green.
At first glance, the resulting visualization looks quite different from our first graph. Still, some structural features seem oddly familiar – only in this case, they seem to have been inverted. For instance, the division into two clusters that appear side by side, and the relative proportions of those clusters are instantly recognizable. This time, though, the spatial arrangement and distribution of colors is different.
Once again, we can distinguish two groups, represented by a cloud and a knot respectively. This time, however, the cloud appears on the right and the knot on the left.26 As before, one group is smaller, more closely linked, and more homogeneous (which, as per our theory, suggests tribal characteristics), while the other, represented by a larger, more disperse cloud, includes the mass media. Again, the smaller group is far more homogeneous in its coloring. But instead of red, it is now predominantly green and blue. Now the red dots are part of the larger cloud, which isn’t homogeneously or even predominantly red here; it is as though the cloud mostly consists of corrections (blue) and the meta-debate (green), and just like the knot, merely has occasional sprinkles of red.
These findings did not match our expectations. We thought it would be possible to detect a leftist tribe, but this rather unambiguous answer to our question took us by surprise. We could not detect a leftist tribe similarly driven by fake news; a tribal structure like before could be identified, but this time it was populated by accounts that had forwarded the correction. The cloud does include fake news disseminators as well, but there is no self-segregation, so the disseminators of the fake news are still interspersed with the correctors and the meta-debaters.

In order to increase the robustness of our analysis, we also investigated a second example:

On January 27, 2016, a volunteer of the Berlin refugee initiative „Moabit Hilft“ published a Facebook post telling the story of a refugee who, after standing in line for days in front of the LAGeSo (Landesamt für Gesundheit und Soziales, the agency assigning refugees to shelters in Berlin), collapsed and later died in hospital. The news spread like wildfire, not least due to the fact that conditions at the LAGeSo in Berlin had been known to be chaotic since mid-2015. Many social media accounts took up the case and scandalized it accordingly. The media also picked up on events, some of them rather uncritically at first. Over time, however, when no one else confirmed the story and the author of the original Facebook post had not responded to inquiries, reporting became more and more sporadic. The same day, the news was also officially debunked by the police. In the following days, it turned out that the helper had made up the entire story, apparently completely bowdlerizing it under the influence of alcohol.

We proceeded as we did in the Khaled case, with the difference that we used yellow as a fourth color to distinguish impartial reports from more uncritical fake news disseminators.
The example confirms our findings from the Khaled case. Once again, the spreaders of fake news are dispersed far and wide – there is no closely-connected group. Again, a segregated group that is particularly eager to spread the correction is recognizable. This supports our thesis that this is exactly the same group as the one that was so susceptible to right-wing fake news in the previous examples: our right-wing digital tribe.
To substantiate this conjecture, we „manually“ sifted through our pool of tweets and randomly tested individual tweets from the tribal group.
To put it mildly, if we had introduced a color for malice and sarcasm, this cluster would stand out even more from the rest of the network. Even if the tweets include corrections or meta-debate, the gloating joy about the uncovering of this fake news story is unmistakable. Here are some examples from the LaGeSo case:




(Translation:
Tweet 1: What the press believes immediately: / – Stabbing of left party politician / – Dead refugee at #lageso / What the press denies: / – Case of the thirteen-year-old Lisa / #lyingpress
Tweet 2: How desperate does one have to be to invent a dead refugee to prop up this web of lies? #lageso #moabithilft
Tweet 3: Let’s see when people start calling the dead #lageso refugee an art form to raise awareness for the suffering. Then everything will be alright again.
Tweet 4: Do-gooders cried a river of tears. For nothing. The “dead refugee” is a hoax. #lageso #berlin)

These tweets also reveal a deep mistrust in the mass media, which is expressed in the term “Lügenpresse” (“lying press”). By exposing left-wing fake news, the tribe seems to reinforce one of its most deeply-rooted beliefs: that the media are suppressing the truth about the refugees, and that stories of racist violence are invented or exaggerated.

To sum up our findings: Based on leftist fake news about refugees, we were unable to detect a leftist equivalent of the right-wing tribe. On the contrary, it turns out that disseminators of leftist fake news are highly integrated into the mainstream.27 The latter (represented by the cloud) plays an ambivalent role when it comes to leftist fake news, as it includes the fake news tweets, but also the corrections and meta-debate. Everything comes together in this great speckled cloud. By contrast, the right-wing tribe is recognizable as such even in the context of leftist fake news. Again, it appears as a segregated cluster that is noticeably homogeneous in color, though this time on the side of the correction disseminators. (It’s worth mentioning that most of the tweets forwarding the correction were mockeries.) But that does not mean that leftist tribes do not exist at all – they might be visible when investigating topics other than migration and refugees. Nor does it mean that there isn’t a multiplicity of other tribes, perhaps focused on issues that are devoid of political significance or not associated with a political faction. The latter in fact is quite probable.28

Tribal Epistemology

Some findings of our study of leftist fake news are unexpected, but that only makes them even more compelling as confirmation of our hypothesis concerning the right-wing tribe. The latter tribe is real, and it is hardly surprising that it is involved in the dissemination of all those news reports concerning refugees, be it in the form of fake news or of subsequent corrections.29
Yet the theoretical framework describing tribalism that we have outlined so far is still too broad to grasp the specificity of the phenomenon considered here. People like to band together, people like to draw lines to exclude others – this is hardly a novel insight. In principle, we might suspect that tribalism is the foundation of every informal or formally organized community. Hackers, Pirates, “Weird Twitter”, the net community, Telekommunisten, “Siff-Twitter”, 4chan, preppers, furries, cosplayers, gamers, bronies, etc: all of them digital tribes? Maybe. But when we make that claim without carefully examining the communities in question, we risk broadening the concept to such an extent that it no longer adequately captures our observations.30
What sets our phenomenon apart is a specific relation to reality, that is also visibly reflected in the network structure. Worldview and group affliation seem to coincide. This is the defining characteristic of tribal epistemology.
In recent years, a growing body of research has further inspected the connection between group identity and the psychology of perception. Dan M. Kahan and his team at the Cultural Cognition Project have made important contributions in this field.31 In a range of experimental studies, they demonstrated how strongly political affiliation influences people’s assessment of arguments and facts.
In one study, Kahan presented four versions of a problem-solving task to a representative group of test subjects.32 Two of the four versions were about the results of a fictitious study of a medical skin cream; the subjects were asked to tell whether the cream was effective or not, based on the data provided. In the first version, the data indicated that the new cream helped reduce rash in patients; in the second version, it showed that the medication did more harm than good. In the two other versions of the task, the same numbers were used, but this time to refer not to the effectiveness of a skin cream, but to the effects of a political decision to ban the carrying of concealed handguns in public. In one version, the data indicated that banning handguns from public settings had tended to decrease crime rates; in the other, it suggested the opposite.

Before being given the problem, all subjects were given a range of tests to measure their quantitative thinking skills (numeracy) as well as their political attitudes. It turned out that subjects’ numeracy was a good predictor of their ability to solve the task correctly when they were asked to interpret the data gauging the efficacy of a skin cream. When the same numbers were said to relate to gun control, political attitude trumps numeracy. So far, so unsurprising.
More strikingly, with a polarizing political issue at stake, numeracy actually had a negative effect. On the gun-control question, superior quantitative thinking skills in partisans were correlated with misinterpretation of the data. In Kahan’s interpretation, when it comes to ideologically contentious issues, individuals do not use their cognitive competences to reconcile their own attitudes with the world of fact, but instead maintain their position even when confronted with evidence that contradicts it.
The conclusion Kahan and his colleagues draw from their study is disturbing: culture trumps facts. People are intuitively more interested in staying true to their identity-based roles than in forming an accurate picture of the world, and so they employ their cognitive skills to that end. Kahan’s term for the phenomenon is “identity-protective cognition”: Individuals utilize their intellectual abilities to explain away anything that threatens their identities.33 It is a behavior that becomes conspicuous only when they engage with polarizing issues or positions that solicit strong—negative or positive—identification. Kahan was able to reproduce his findings with problems that touched on issues such as climate change and nuclear waste disposal.
Based on his research, Kahan has outlined his own theory of fake news. He is skeptical of the prevailing narrative that motivated parties such as campaign teams, the Russian government, or enthusiastic supporters of candidates plant fake news in order to manipulate the public. Rather, he argues that there is a “motivated public” that has high demand for news reports that corroborate its viewpoints—and that demand is greater than the supply.34 Fake news, as it were, are simply filling a market gap. Information is a resource in the production not so much of knowledge than of identity—and its utility for this purpose is independent of whether it is correct or incorrect.
The right-wing tribe in our study is one such “motivated public.” Its members’ assessment of a factual claim hinges on its usefulness as a signal of allegiance to the tribe and rejection of the mainstream, much more so than on truthfulness or even plausibility. Our findings therefore do not support the notion that new information might prompt the tribe’s members to change their minds or mitigate their radicalism. In this climate, corrections to the fake news story may have had an opportunity to be noticed, but they were not accepted and certainly not shared any further.

The Rise of Tribal Institutions in the USA

In his text on tribal epistemology, David Roberts makes another interesting observation, which can also be applied to Germany. While the mass media, science and others regard themselves as non-partisan, this claim is denied by the tribal right. On the contrary, the right assumes that these institutions are following a secret or not-so-secret liberal/left-wing agenda and colluding with the political establishment. In consequence, not only the opposing party, but the entire political, scientific and media system is rejected as corrupt.35
As I’ve said before, these conspiracy theories are false at face value, but relate to a certain truth.36 There is in fact a certain liberal basic consensus in politics, science and media that many citizens are sceptical of.37

However, instead of reforming the institutions or opposing their bias, new communication structures such as the Internet (but not exclusively) have made it possible to establish an alternative media landscape and new institutions at low cost. This is exactly what has been happening in the USA since the 1990s. A parallel right-wing media landscape with considerable reach and high mobilization potential has formed. The crucial point is, since this alternative media landscape does not recognise the traditional mainstream media’s claim of non-partisanism, it doesn’t even attempt to reach this ideal in the first place. We can also see similar developments in Germany, but they are far less advanced.

In the USA, the secession of alternative tribal institutions began with local talk radios radicalizing more and more towards the right. Rush Limbaugh, Sean Hannity and Glenn Beck were the early provocateurs of this flourishing scene. Since the mid-1990s, the new TV station Fox News has hired some of these „angry white men“ and set out to carry right-wing radical rhetoric into the mainstream, becoming the media anchor point for the Tea Party movement in the process.38 But during the pre-election campaign of 2015/16, Fox News itself was overtaken by a new player on the right: the Breitbart News website, which had zeroed in on supporting Donald Trump early on.
Not surprisingly, this division in the media landscape can be traced in social media data. In a highly acclaimed Harvard University study, researchers around Yochai Benkler evaluated 1.25 million messages that had been shared by a total of 25,000 sources on Twitter and Facebook during the U.S. election campaign (from April 1, 2015 to the ballot).39

Explanation: The size of a node corresponds to how often the contents of a Twitter account was shared. The position of the nodes in relation to one another shows how often they were shared by the same people at the same time. The colors indicate whether they are mostly shared by people who routinely retweet either Clinton (blue) or Trump (red), or both/neither (green).

Even though the metrics work quite differently in both cases, their analysis is strikingly similar to ours. Networking density and polarization are as clearly reflected in the Harvard study as in ours, albeit somewhat differently. Almost all traditional media are on the left/blue side, whereas there is hardly any medium older than 20 years in red. The most important players are not even 10 years old.
The authors of the study conclude, not unlike we do, that this asymmetry cannot have a technical cause. If it were technical, new, polarizing media would have evolved on both sides of the spectrum. And left-wing media would play just as important a role on the left as Breitbart News on the right.
However, there are also clear differences to our results: the right side, despite its relative novelty and radicalism, is more or less on a par with the traditional media on the left (the left side of the graph, not necessarily in terms of politics). So it is less a polarization between the extreme left and the extreme right, than between the moderate left and the extreme right.
Since the left-hand side of the graph basically reflects what the public image has represented up to now – the traditional mass media at the center with a swarm of smaller media surrounding it, such as blogs and successful Twitter accounts, it may be wrong to speak of division and polarization altogether. This should more correctly be called a „split-off“, because something new is being created here in contrast to the old. The right-wing media and their public spheres have emerged beyond the established public sphere to oppose it. They have split off not because of the Internet or because of filter bubbles, but because they wanted to.
The authors of the study conclude, as we do, that this separation must have cultural and/or ideological reasons. They analyse the topics of the right and reveal a similar focus on migration, but also on the supposed corruption of Hillary Clinton and her support in the media. Here, too, fake news and politically misleading news are a huge part of the day-to-day news cycle, and are among the most widespread messages of these outlets.
We have to be cautious of comparing these two analyses too closely, because the political and media landscapes in Germany and the US are too different. Nevertheless, we strongly suspect that we are dealing with structurally similar phenomena.
An overview of the similarities between the US right-wing spin-off media group and our fake news tribe:

  1. Separation from the established public.
  2. Traditional mass media remain on the „other“ side.
  3. Focus on migration and at the same time, their own victimization.
  4. Increased affinity to fake news.
  5. Relative novelty of the news channels.

We can assume that our fake news Twitter accounts are part of a similar split-off group as the one observed in the Harvard study. One could speculate that the United States has merely gone through the same processes of secession earlier than we have, and that both studies show virtually the same phenomenon at different stages. The theory would be: A parallel society can emerge out of one tribe if it creates a media ecosystem and institutions of its own, and last but not least, a truth of its own.
What we have seen in the United States could be called the coup of a super-tribe that has grown into a parallel society. Our small fake news tribe is far from there. However, it cannot be ruled out that this tribe will continue to grow and prosper, and will eventually be just as disruptive as its American counterparts.
In order for that to happen, however, it would have to develop structures that go well beyond the individual network structure of associated Twitter accounts. This can already be observed in some cases. Blogs like “Politisch Inkorrekt”, “Achgut” or “Tichys Einblick” (Tichy’s Inside View), and of course, the numerous successful right-wing Facebook pages and groups surrounding the AfD party and Pegida in particular, can be seen as „tribal institutions“. These are still far from having the same range and are often not as radical as their American counterparts, but this may merely be a matter of time.

Conclusion

The dream of the freedom of networks was a naive one. Even if all our social constraints are removed, our presupposed patterns of socialisation become all the more evident. Humans have a hard-wired tendency to gather into groups they identify themselves with, and to separate themselves from others as a group. Yes, we enjoy more and greater freedoms in our socialisation than ever before, but this does not lead to more individualism – quite the contrary, in many cases it paradoxically leads to a even stronger affinity for groups. The tribal instinct can develop without constraint and becomes all the more dominant. And the longer I think about it, the more I wonder whether all the strangely limiting categories and artificial group structures of modern society are a peacemaking mechanism for taming the tribal side in us that is all too human. Or whether they were. The Internet is far from finished with deconstructing modern society.40

We learned a lot about the new right. It is not just one side of the political spectrum, but a rift, the dividing off of a new political space beyond the traditional continuum. The Internet is not to blame for this split-off, but it has made these kinds of developments possible and therefore more likely. Free from the constraints and the normalization dynamics of the traditional continuum, „politically incorrect“ parallel realities are formed that no longer feel the need to align themselves with social conventions or even factuality.

In The Righteous Mind, Jonathan Haidt writes that people need no more than one single argument to justify a belief or disbelief. When I am compelled (but do not want) to believe something, a single counterargument is enough to make me disregard a thousand arguments. 99 out of 100 climate scientists say that climate change is real? The one who says otherwise is enough for me to reject their view. Or I may want to hold on to a belief that runs counter to all available evidence: Even if all my objections to the official version of the events of 9/11 are refuted, I will always find an argument that lets me cling to my conviction that the attacks were an inside job.

This single argument is the reason why the right-wing tribe is immune to fake news corrections even if exposed to them. Its members always have one more argument to explain why they stand by their narrative, and their tribe. That is exactly what the phrase “lying mainstream press” was invented for. It does not actually imply a sweeping rejection of everything the mass media report, but justifies crediting only those reports that fit one’s own worldview and discounting the rest as inconsequential.41

If we follow the tribalist view of the media landscape (your media vs. our media), the traditional mass media, with their commitment to accuracy, balance, and neutrality, will always benefit the right wing about half the time, while right-wing media pay exclusively into their own accounts. Having faith in non-partisanship and acting accordingly turns out to be the traditional mass media’s decisive strategic disadvantage.

The right will undoubtedly respond that the tribalist tendencies and structures which are uncovered in this text equally apply to the left. But there is no evidence for this assertion. In any case, equating the groups observed is not an option, seeing as the data is unambiguous. This does not mean, however, that there is no tribalistic affect on the left, or that they are still forming in response to the right. On the left, there are belief systems with a similarly strong identity-forming effect, and if Dan Kahan’s theory of „identity-protective cognition“ is correct, similar effects should be observable on the left with the appropriate topics.

This essay is not a complete research paper, and can only be a starting point for additional research. Many questions remain unanswered, and some of the assumptions we have made have not been sufficiently proven yet. It’s clear, however, that we have discovered something that, on the one hand, has a high degree of significance for the current political situation in Germany. On the other hand, and this is my assessment, it also says something fundamental about politics and society in the age of digital networking.

All politics becomes identity politics, as far as polarizing issues are concerned. Identity politics can be described as highly motivating, uncompromising and rarely or never fact-based.

A few research questions remain unanswered:

  1. Can we really prove that this permanently resurfacing tribe on the right is structurally identical (and at least largely account-identical) with all the phenomena we observe? We’ve got some good leads, but hard evidence is still missing. We would have to measure the entire group and then show that the fake news accounts are a subset of that group.
  2. In our research, we compared two special groups: right-wing fake news distributors and those who spread the corrections to fake news. The differences are significant, but the comparison is problematic: the group of correctors was also selected, and is therefore not representative. Also, the groups differ in size. Therefore it would be more meaningful to compare the fake news group with a randomized control group of the same size.
  3. Facebook. Facebook is a far more influential player in the German political debate than Twitter. Can we find the same or similar patterns on Facebook? I would assume so, but it’s hasn’t been looked into yet.
  4. To justify the term „digital tribe“, further tribes should be identified and researched. This requires a digital ethnology. Are there other tribes in the German-speaking world with other agendas, ideologies or narratives displaying a similar level of separation and perhaps radicalization? Possible candidates are the digital Men’s Rights movement, “Sifftwitter” and various groups of conspiracy theorists. Also: How do digital tribes differ from others? Which types of tribes can reasonably distinguished, etc.? Or is tribalism more a spectrum on which to locate different groups; are there different „degrees“ of tribalism, and which metrics would apply in that case?

I know there are already a few advances in digital ethnology, but I feel that an interdisciplinary approach is needed when it comes to digital tribes. Data analysts, network researchers, psychologists, sociologists, ethnologists, programmers, and maybe even linguists, will have to work together to get to the bottom of this phenomenon.

Another, less scientific question is where all this will end. Is digital tribalism a sustainable trend and will it, as it has happened in the United States, continue to put pressure on the institutions of modern society, and maybe even destroy them in the long term?

So what can we do about it?

Can you immunize yourself against tribalist reflexes? Is it possible to warn against them, even to renounce them socially? Or do we have to live with these reflexes and find new ways of channeling them peacefully?

Haidt’s answer is twofold. He compares our moral decision-making to an elephant and its rider: The elephant intuitively does whatever it feels like at any moment, while the rider merely supplies retrospective rationalizations and justifications for where the elephant has taken him. A successful strategy of persuasion, then, does not consists in confronting the rider with prudent arguments, but in making sure that one retains the elephant’s goodwill (for instance by establishing relationships of personal trust that will then allow a non-confrontational mode of argumentation, which can help individuals break free of the identity trap).
The other half of Haidt’s answer is actually about the power of institutions. The best institutions, he writes, stage a competition between different people and their worldviews, so as to counterbalance the limitations of any one individual’s judgment. Science, for instance, is organized in such a way as to encourage scientists to questions one anothers’ insights. The fact that a member of the scientific community will always encounter someone who will review his or her perspective on the world acts as containment against the risk that he or she will become overly attached to any personal misperceptions.
Our discovery of digital tribalism, however, points to the disintegration of precisely these checks and balances, and the increased strength of unchecked tribal thinking. I am inclined to think that the erosion of this strategy is precisely the problem we are struggling with today.

Paul Graham also made a suggestion on how to deal with this phenomenon on a personal level, but without reference to research. In a short essay entitled „Keep Your Identity Small“ from 2009, he advises exactly that: not to identify too much with topics, debates, or factions within these debates.42 The fewer labels you attach to yourself, the less you allow identity politics to tarnish your judgement.

However, this advice is difficult to generalise because there are also legitimate kinds of identity politics. Identity politics is always justified and even necessary when it has to be enforced against the group think of the majority. Often, the majority does not consider the demands of minorities on its own. Examples are homosexual and transsexual rights, or the problems caused by institutional racism. In these cases, those affected simply do not have the choice of not identifying with the cause. They literally are the cause.

A societal solution to the problem would presumably need to rebuild faith in supra-tribal and nonpartisan institutions, and it is doubtful whether the traditional institutions are still capable of inspiring such faith. People’s trust in them was always fragile at heart and would probably have fallen apart long ago given the right circumstances. In Germany, this opportunity arose with the arrival of the Internet, which dramatically lowered the costs of establishing alternative media structures. New institutions aiming to reunify society within a shared discursive framework will need to take into account the unprecedented agility of communication made possible by digital technology, and will even devise ways of harnessing it.

Of course, another response to the tribalism on the right would be to become tribalist in turn. A divisive “us against them” attitude has always been part of the important anti-fascist struggle, and an ultimately necessary component of the Antifa political folklore. However, I suspect that an exclusive focus on the right-wing digital tribe might inadvertently encourage the other side—which is to say, large segments of mainstream society—to tribalize itself, drawing cohesion and identification from the repudiation of the “enemy.” In doing so, society would be doing the right-wing tribe a huge favor, turning its conspiracy theory (“They’re all in cahoots with each other”) into a self-fulfilling prophecy.

The problem of digital tribalism is unlikely to go away anytime soon. It will continue to have a transformative effect on our debates and, by consequence, our political scenes.

Footnotes:

 

  1. Or at least, as Felix Stalder – somewhat less naive – has suggested as „networked individualism“, according to which „… people in western societies(…) define their identity less and less via the family, the workplace or other stable communities, but increasingly via their personal social networks, i. e. through the collective formations in which they are active as individuals and in which they are perceived as singular persons. Stalder, Felix: Kultur der Digitalität, p. 144.
  2. Roberts, David: Donald Trump and the rise of tribal epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  3. We have chosen Twitter for our analysis because it is easy to process automatically due to its comparatively open API. We are aware that Facebook is more relevant, especially in Germany and especially in right-wing circles. However, we assume that the same phenomena are present there, so that these findings from Twitter could also be applied to Facebook.
  4. Website of the German Foreign Office, travel and safety advisory for Sweden: Auswärtiges Amt: Schweden: Reise- und Sicherheitshinweise, http://www.auswaertiges-amt.de/sid_39E6971E3FA86BB25CA25DE698189AFB/DE/Laenderinformationen/00-SiHi/Nodes/SchwedenSicherheit_node.html (2017).
  5. For a closer examination of the term “fake news”, consider (in German): Seemann, Michael: Das Regime der demokratischen Wahrheit II – Die Deregulierung des Wahrheitsmarktes. http://www.ctrl-verlust.net/das-regime-der-demokratischen-wahrheit-teil-ii-die-deregulierung-des-wahrheitsmarktes/ (2017).
  6. The German project ‘Hoaxmap’ has been tracking a lot of rumors concerning refugees for a while: http://hoaxmap.org/.
  7. See Pariser, Eli: The Filter Bubble – How the New Personalized Web Is Changing What We Read and How We Think (2011).
  8. However, the data basis of this example is problematic in several respects.
    – The original article in BILD newspaper has been deleted, as have the @BILD_de tweet and all of its retweets. It’s no longer possible to reconstruct the articles and references that have been deleted in the meantime.
    – Some of the articles have been changed over time. For example, Spiegel Online’s article was much more sensational at the beginning, and we would probably have categorized it as clearly fake news in the beginning. At some point, when it turned out that there were more and more inconsistencies, it must have been amended and defused. We don’t know which other articles this has happened to.
  9. Eli Pariser, the inventor of the filter bubble, recently said in an interview regarding the situation in the USA: „The filter bubble explains a lot about how liberals didn’t see Trump coming, but not very much about how he won the election.“ https://backchannel.com/eli-pariser-predicted-the-future-now-he-cant-escape-it-f230e8299906 2017 The problem is, according to Parisians, that the leftists lose sight of the right, not the other way round.
  10. See Festinger, Leon: A Theory of Cognitive Dissonance, (1957).
  11. A special vocabulary (or slang) probably also distinguishes a digital tribe. Relative word frequencies have also been used to identify homogeneous groups in social networks. Cf. study: Bryden, John / Sebastian Funk / AA Jansen, Vincent: Word usage mirrors community structure in the online social network Twitter, https://epjdatascience.springeropen.com/articles/10.1140/epjds15 (2012).
  12. Short for Netzwerkdurchsetzungsgesetz, a controversial law designed to prevent online hate speech and fake news that went into effect on October 1, 2017.
  13. Patriotic Europeans Against the Islamisation of the West – an extreme-right wing movement founded in Dresden, Germany in 2014.
  14. Richard Shweder, quoted in Jonathan Haidt, The Righteous Mind: Why Good People Are Divided by Politics and Religion (New York: Pantheon Books, 2012), 115.
  15. So the thesis of the Homo Oeconomicus from economics has always been founded on that assumption.
  16. In this context, John Miller and Simon Dedeo’s research is also compelling. They developed an evolutionary game theory computer simulation in which agents have memory so that they can integrate other agents’ behavior in the past into their own decision-making process. Knowledge is inherited over generations. It turned out that the agents began to see recurring patterns in the behavior of other agents, and shifted their confidence to the homogeneity of these patterns. These evolved „tribes“ with homogeneous behavioural patterns quickly cooperated to become the most successful populations. However, if small behavioural changes were established over many generations through mutations, a kind of genocide occurred. Entire populations were wiped out, and a period of instability and mistrust followed. Tribalism seems to be an evolutionary strategy. Cf. Dedeo, Simon: Is Tribalism a Natural Malfunction? http://nautil.us/issue/52/the-hive/is-tribalism-a-natural-malfunction (2017).
  17. The thesis of group selection (or „multi-level selection“) was already brought into play by Darwin himself, but it is still controversial among biologists. Jonathan Haidt makes good arguments as to why it makes a lot of sense, especially from a psychological point of view. Cf. Haidt, Jonathan: The Righteous Mind – Why Good People are Divided by Politics and Religion, 210 ff.
  18. Cf. Greene, Joshua: Moral Tribes – Emotion, Reason, and the Gap Between Us and Them (2013), S. 63.
  19. Maffesoli, Michel: The Time of the Tribes – The Decline of Individualism in Mass Society (1993).
  20. Quinn, Daniel: Beyond Civilization – Humanity’s Next Great Adventure (1999).
  21. See NEOTRIBES http://www.neotribes.co/en.
  22. Godin, Seth: Tribes – We Need You to Lead Us (2008).
  23. For example,“Lügenpresse“ appears 226 times in our analysis of the fake news spreaders’ tweets, vs. 149 for the correctors. „Altparteien“ even appears 235 times vs. 24.
  24. “We’ve tried to do similar things to liberals. It just has never worked, it never takes off. You’ll get debunked within the first two comments and then the whole thing just kind of fizzles out.” That’s what Jestin Coler says to NPR. He is a professional fake-news entrepreneur who made a lot of money during the US election campaign by spreading untruths. His target audience are Trump supporters; liberals are not as easy to ensnare, he claims. Ct. Sydell, Laura: We Tracked Down A Fake-News Creator In The Suburbs. Here’s What We Learned. http://www.npr.org/sections/alltechconsidered/2016/11/23/503146770/npr-finds-the-head-of-a-covert-fake-news-operation-in-the-suburbs (2016).
  25. The difference to fake news lies mainly in the fact that these were not allegations made against better knowledge, but rather assumptions that were mostly recognizable as presupposed.
  26. The orientation of the graph is based on where the distribution of fake news is centered.
  27. Even though it remains unclear whether it may be possible to provide a digital tribe with leftist fake news on other topics. For example, there is widespread use of false quotations or photo montages of Donald Trump. However, such examples have attracted particular attention in the English-speaking world, and it would be hard to achieve a clean research design for the German-language Twittersphere. An interesting example to investigate from the German election campaign would be the fake news (which was probably was meant as satirical hoax) that Alexander Gauland, head of the right-wing AfD, expressed his admiration for Hitler. Cf. Schmehl, Karsten: DIE PARTEI legt AfD-Spitzenkandidat Gauland dieses Hitler-Zitat in den Mund, aber es ist frei erfunden, https://www.buzzfeed.com/karstenschmehl/satire-und-luegen-sind-nicht-das-gleiche (2017).
  28. There are quite a lot of texts on the tribalist political situation in the USA, in which authors also assume tribalist tendencies in certain left-wing circles. See Sullivan, Andrew: America Wasn’t Built for Humans. http://nymag.com/daily/intelligencer/2017/09/can-democracy-survive-tribalism.html (2017) and Alexander, Scott: I Can Tolarate Anything Except The Outgroup http://slatestarcodex.com/2014/09/30/i-can-tolerate-anything-except-the-outgroup/ (2014).
  29. This is further evidenced by the fact that similar phenomena were already detectable in other events. See, for example, the tweet evaluations of the Munich rampage last year. See Gerret von Nordheim: Poppers nightmare, http://de.ejo-online.eu/digitales/poppers-alptraum (2016).
  30. A candidate for a tribe that has already been investigated is „Sifftwitter“. Luca Hammer has looked at the network structures of this group, and his findings seem to be at least compatible with our investigations. See Walter, René: Sifftwitter – Dancing around the data fire with the trolls. http://www.nerdcore.de/2017/05/09/sifftwitter-mit-den-trollen-ums-datenfeuer-tanzen/ (2017).
  31. Cultural Cognition Project (Yale Law School), http://www.culturalcognition.net/.
  32. Dan M. Kahan, “Motivated Numeracy and Enlightened Self-Government,” Yale Law School, Public Law Working Paper, no. 307, September 8, 2013, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2319992, accessed November 7, 2017.
  33. Dan M. Kahan, “Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition,” Cultural Cognition Project Working Paper Series, no. 164, May 24, 2017, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2973067, accessed November 7, 2017.
  34. Which in turn proves the studies which classify fake news as a commercial phenomenon are right. See e. g. Allcott/Gentzkow: Social Media and Fake News in the 2016 Election, https://www.aeaweb.org/articles?id=10.1257/jep.31.2.211 (2017).
  35. Roberts, David: Donald Trump and the Rise of Tribal Epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  36. Seemann, Michael: The Global Class – Another World is Possible, but this time, it’s a threat, http://mspr0.de/?p=4712. (2016).
  37. Recently Richard Gutjahr called for the reflection of this bias. The fact that media representatives actually have a filter bubble against right-wing thought building is proven in our data. http://www.gutjahr.biz/2017/05/filterblase/ (2007).
  38. In fact, Seth Godin actually refers to the example of Fox News in his 2008 book „Tribes“. Fox News has managed to create a tribe for itself. Cf. God, Seth: Tribes – We need you to lead us, 2008, p. 48.
  39. Berkman Center: Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election, https://cyber.harvard.edu/publications/2017/08/mediacloud (2017).
  40. In this context, we should also look at the appalling events accompanying the introduction of the Internet to the general public in developing countries. In connection with the anti-Muslim resentment in Burma with Fake News and the incredibly rapid popularization of the Internet, see for example Frenkel, Sheera: This Is What Happens When Millions Of People Suddenly Get The Internet, https://www.buzzfeed.com/sheerafrenkel/fake-news-spreads-trump-around-the-world?utm_term=.loeoq9kBX#.qiVgaEX7r (2017), and how rumors on the Internet could have led to a genocide in South Sudan: Patinkin, Jason: How To Use Facebook And Fake News To Get People To Murder Each Other, https://www.buzzfeed.com/jasonpatinkin/how-to-get-people-to-murder-each-other-through-fake-news-and?utm_term=.ktQP8vaJN#.jh8Dd6Xyj (2017).
  41. Ct. Lobo, Sascha: Die Filterblase sind wir selbst, http://www.spiegel.de/netzwelt/web/facebook-und-die-filterblase-kolumne-von-sascha-lobo-a-1145866.html, (2017).
  42. Graham, Paul: Keep Your Identity Small, http://www.paulgraham.com/identity.html (2009).


Veröffentlicht unter Das Neue Spiel Digital Tribalism english Weltkontrollverlust
4 Kommentare

Vier Jahre nach Snowden – Wird die EU-Datenschutzgrundverordnung uns vor der Überwachung retten?

/***** Die Bundeszentrale für politische Bildung hat die Onlineverbreitungsrechte für den Film „Im Rausch der Daten“ gekauft und zeigt ihn ab jetzt kostenfrei auf ihrem Portal. Im Zuge dessen haben sie von verschiedenen Autor/innen Beiträge zum Thema eingeholt, unter anderem von mir. Mein Beitrag wurde allerdings stark gekürzt, weswegen ich an dieser Stelle noch mal die Langfassung bringe. ******/

Es gibt diesen Witz. Ein Mann kriecht mitten in der Nacht unter einer Laterne herum. Ein Passant bleibt stehen und fragt den Mann, was er dort tue. „Ich habe meine Brille verloren“, antwortet der und da der Passant ein freundlicher Mensch ist, hilft er ihm bei der Suche. Nach einiger Zeit erfolglosen Suchens fragt der hilfsbereite Passant den Mann, wo er die Brille denn verloren hätte. „Dort drüben“, erwidert der Mann und zeigt auf eine rund 20 Meter weiter entfernte Stelle im Dunkeln. „Aber warum suchen wir denn hier?“ fragt der Passant verdutzt. Der Mann daraufhin: „Dort drüben ist es doch viel zu dunkel!“

Als die Verhandlungen zur EU-Datenschutzgrundverordnung im Jahr 2013 vollends ins Stocken gerieten, passierte so etwas wie ein Wunder. Zu dieser Zeit waren viele Akteure unterschiedlicher europäischer Länder nicht sonderlich überzeugt von dem Reformentwurf. Der Berichterstatter und maßgebliche Autor der Reform Jan Philipp Albrecht hatte seine datenschutzfreundliche Handschrift nur allzu deutlich im Entwurf durchscheinen lassen, was vielen Akteuren in seiner Strenge und Konsequenz zu weit ging. Zudem hatte die Internetwirtschaft massive Lobbyanstrengungen in Bewegung gesetzt, um die Abgeordneten davon zu überzeugen, dass der Entwurf dringend abgeschwächt werden müsse. Die Verhandlungen hatten sich festgefahren und Zeitplan um Zeitplan wurde zur Makulatur. Manche fürchteten schon, dass der Prozess nie zu einem Ende kommen würde.
Das Wunder geschah im Juni. Edward Snowden war ehemaliger Mitarbeiter eines NSA-Vertragsunternehmens und er enthüllte der Welt ihre massenweise Ausspähung. Er nannte Namen, Zahlen und Methoden und belegte die Existenz verschiedenster Überwachungsprogramme mittels PowerPoint-Präsentationen, die so hässlich waren, dass sie unmöglich gefälscht sein konnten. Der Skandal, der Medien, Politik und Öffentlichkeit über ein Jahr lang in Atem hielt, veränderte den Ton der Debatte. Die Angst vor totaler Überwachung und die damit einhergehende Aufwertung des Themas Datenschutz und Privatsphäre gab Albrechts Position Rückenwind. Er schaffte es erfolgreich, die vergleichsweise strenge Version seines Datenschutzentwurfs als die Lösung des Überwachungsproblems zu präsentieren. In diesem einmaligen politischen Klima konnte die Verordnung fast unbeschadet die Ausschüsse passieren und wurde schon im Oktober mit überwältigender Mehrheit im Parlament angenommen. Verbindlich in Kraft tritt sie Anfang 2018.

Es ist eine politische Heldengeschichte, die auch wunderbar im Dokumentarfilm „Democracy – im Rausch der Daten“ verewigt wurde. Leider hat die Geschichte einen kleinen Haken: Die Datenschutzgrundreform schützt gegen Geheimdienstüberwachung wie ein Regenschirm gegen Mückenstiche: Gar nicht.

Natürlich hört sich das erstmal logisch an: Hast du Überwachung, dann nimm doch etwas mehr Datenschutz. Denn sind die Daten geschützt, können sie ja nicht mehr überwacht werden, oder?

Doch wenn man genauer hinschaut, stellt man fest: Nichts, was in der Grundverordnung steht, schränkt irgendeinen Geheimdienst in seinen Befugnissen und Möglichkeiten auch nur einen Deut weit ein. Keine einzige geheimdienstliche Datensammlung wird verunmöglicht oder auch nur ein EU-Bürger besser vor Massenüberwachung geschützt. Das liegt an dem schlichten Umstand, dass die Verordnung nur private Akteure wie Unternehmen und öffentliche Stellen innerhalb der EU reguliert. Die NSA ist davon genauso wenig betroffen, wie der BND oder der britische GCHQ.

Die Europäische Datenschutzreform wird weder das massenhafte Abfischen von Daten an den Überseekabel des GCHQ in Großbritannien unterbinden (Tempora1), noch die Datensammlung der NSA in Zusammenarbeit mit dem BND in Bad Aibling (Operation Eikonal2). Sie wird keine Einschränkung der mächtigen Abfragesoftware XKeyScore erzwingen können, mit der die NSA und befreundete Dienste ihre riesigen Datenmassen durchkämmen. Die Datenschutzgrundverordnung ist eine Laterne, die überall aber eben nicht an dem Ort scheint, wo Snowden seine Brille verloren hat.

Den Sinn von Datenschutz nicht verstanden

Wenn man mit Datenschüzer/innen über diesen Umstand spricht, wird vor allem ein Thema angegeben, in dem zumindest die Chance besteht, dass die Datenschutzgrundverordung einen Einfluss hat: PRISM. PRISM ist die Abhörschnittstelle mit der die NSA an die Daten amerikanischer Internetfirmen kommt. Es war eine der ersten Snowden-Enthüllungen und auf den zugehörigen Dokumenten tauchen alle bekannten Namen auf: Yahoo!, Google, Apple, Microsoft, Facebook, Twitter und einige mehr. PRISM steht unter der Ägide des FISC (Foreign Intelligence Surveillance Court) – des geheimdienstlichen Spezialgerichts für Auslandsüberwachung in den USA.3 Mit einem entsprechenden Beschluss dieses Gerichts kann die NSA an die Unternehmen herantreten und Zugriff auf Daten ihrer Nutzer/innen verlangen. Datenschützer/innen argumentieren, dass diese Vorgehensweise durchaus gegen das europäische Datenschutzrecht verstoßen wird und da es sich hier um private Firmen handelt, ist die Verordnung eben auch zuständig. Hier also könnte europäisches Datenschutzrecht durchaus einen Unterschied machen.

Das stimmt zwar, jedoch ist die sich daraus ergebende Gemengelage nicht ganz einfach aufzudröseln. Schließlich dürfen sich die US-Unternehmen ja nicht einfach den Anordnungen des FISA-Courts widersetzen, nur weil es ein EU-Gesetz von ihnen verlangt. Sie geraten vielmehr in einen Zwiespalt, ob sie entweder nach amerikanischem Recht handeln und so EU-Recht brechen sollen, oder andersrum. Dieses Dilemma ist nicht leicht aufzulösen.

Im besten Fall, so wenden Datenschützer ein, werden amerikanische Firmen anfangen, ihre Server nach Europa zu verlegen. Dann würden die Daten nicht nur unter den europäischen Datenschutz fallen, sondern die amerikanischen Behörden hätten dann enorme rechtliche Schwierigkeiten, auf die Daten zuzugreifen. Das zeigt zumindest der Fall Microsoft gegen die Vereinigten Staaten.4 In letzter Instanz entschied ein US-Gericht, dass US-Behörden Microsoft nicht zwingen können, Daten über Nutzer/innen herauszugeben, wenn diese auf Servern in Irland gespeichert sind. Damit könnte die NSA effektiv ausgesperrt werden.

Das hört sich so lange gut an, bis man die Implikationen einer solchen Entwicklung durchdenkt. Denn, ja, die amerikanischen Behörden haben es dadurch schwerer, auf die Daten zuzugreifen. Aber es ist ja nicht so, als gäbe es in Europa keine Geheimdienste und Strafverfolgungsbehörden, die Interessen an den Daten hätten. Und diese hätten es einfacher, wenn die Server nach Europa ziehen.

Wer nun sagt, dass ihm/ihr das lieber ist, als wenn es die Amerikaner tun, hat den ganzen Sinn des Datenschutzes nicht verstanden. Im Datenschutz geht es darum, zu verhindern, dass ein Staat Daten seiner Bürger nutzt, um Macht über diese auszuüben. Deswegen ist es schlimmer, wenn europäische Dienste Zugriff haben. Die NSA hat schließlich weder das Interesse noch die Mittel, Deutschen mit den Daten zu schaden, der Verfassungsschutz oder das BKA hingegen schon. Und wir erinnern uns: Diese Behörden sind wiederum nicht durch die Datenschutzgrundverordnung eingeschränkt. Was sich also erst gut anhört, würde die Situation nur verschlimmern.

Neue Kompetenzen für Geheimdienste

Wie man es dreht und wendet, die Datenschutzgrundverordnung wird niemanden wirksam vor den von Edward Snowden enthüllten Überwachungsprogrammen schützen. Die einzige Möglichkeit, das zu tun, wäre direkt die Gesetze anzugehen, die die Kompetenzen der Geheimdienste regeln.

Und hier zunächst die gute Nachricht: Dieses Gesetz wurde tatsächlich im Nachklapp der Snowden-Affäre gründlich reformiert. Es handelt sich um das BND-Gesetz und die Bundesregierung hat, nachdem ein Bundestagsuntersuchungsausschuss illegale Kooperationen des BND mit der NSA aufgedeckt hatte, schnell gehandelt und es noch in der letzten Legislaturperiode reformiert.

Die schlechte Nachricht ist, dass es nicht in der Weise reformiert wurde, wie man sich das vielleicht gewünscht hätte. Die enthüllten illegalen Machenschaften des BND wurden nicht unterbunden, sondern legalisiert. Die Rechtsverstöße wurden einfach zu „keine Rechtsverstöße“ umdefiniert, indem die Befugnisse und Mittel des BND entsprechend ausgeweitet wurden.

Das politische Resultat nach Snowden sieht in Deutschland also folgendermaßen aus:
Amerikanische Firmen werden vermutlich, um den europäischen Datenschutzstandards zu genügen, ihre Server für europäische Bürger sukzessive nach Europa auslagern. Dort erwarten sie die mit neuen Vollmachten und Befugnissen ausgestatteten europäischen Geheimdienste, die – von der EU-Datenschutzgrundverordnung völlig unbehelligt – viel mehr tun und lassen können, was sie wollen. Europäische Regierungen bekommen eine größere Kontrolle über die Daten ihrer Bürger.

Kurz: Das politische Ergebnis der Snowden-Enthüllungen ist ein Lose-Lose-Lose-Szenario des Datenschutzes. Die Verordnung ist natürlich nicht komplett Effektlos. Unternehmen werden es schwerer haben, personalisierte Werbung auszuspielen, Internetnutzer/innen werden ein paar mal öfter klicken müssen und Häkchen setzen, um sich irgendwo zu registrieren und ein paar sinnvolle Regeln gibt es auch. Aber eben nichts bezogen auf staatliche Überwachung.

Hoffnung macht die Industrie

Doch es ist nicht alles schlecht nach Snowden. Trotz des politischen Desasters stelle ich hier die These auf, dass die Bürger heute unterm Strich geschützter vor Massenüberwachung sind, als sie es 2013 waren. Doch das ist kein Verdienst der Politik, sondern ausgerechnet der Internetwirtschaft.

Ab 2013 setzte ein Boom der Sicherheitsrelevanten Software ein. Neue Messenger kamen auf den Markt, die Ende-zu-Ende verschlüsselt waren. Threema und Signal zum Beispiel funktionieren so, dass niemand – auch die Betreiber nicht – die Nachrichten ihrer Nutzer/innen lesen können. Nur Sender und Empfänger.

Apple war das erste große Unternehmen, dass seinen Dienst iMessage an diesen neuen Standard angepasst hat. Facebook zog nach und verschlüsselte seine von über hundert Millionen Menschen genutzte Messaging-App WhatsApp. Damit war nun endgültig ein Industriestandard geschaffen. Ende-zu-Ende-Verschlüsselung gilt seitdem – zumindest als optionales Feature – als unerlässlich im Messenger-Markt.

Apple hat – nicht erst nach Snowden, aber seit dem viel massiver – die Sicherheit seiner Produkte verbessert. Das iPhone gilt vielen Sicherheitsexperten heute als so sicher, dass sie Leuten mit erhöhten Sicherheitsbedürfnissen empfehlen, vom Computer aufs iPhone zu wechseln. Auch Google führte wesentliche Verbesserungen seines Smartphonebetriebssystems Android ein, unter anderem eine Vollverschlüsselung aller Daten auf dem Gerät.

Google hat zudem mit seinem 2014 gegründeten „Project Zero“ wahrscheinlich den wichtigsten Beitrag zur Computer- und Kommunikationssicherheit der letzten 10 Jahre vollbracht. Jedes größere Unternehmen hat Teams, die die eigenen Produkte auf Sicherheitsschwachstellen testet. Google leistet sich aber ein Team hochspezialisierter Sicherheitsforscher, das auch alle möglichen Softwareprodukte anderer Hersteller unter die Lupe nimmt und diese zwingt, sicherheitskritische Fehler zu beheben. Seit ihrer Gründung hat das Team über tausend kritische Schwachstellen in Betriebssystemen, Antivierensoftware, Passwortmanagern, wichtigen Open-Source-Libraries und anderer Software gefunden.5 Es gibt heute wohl kaum mehr einen Internetnutzer, der dem Projekt keine wesentliche Steigerung seiner Sicherheit verdankt.

Firmeninterne Datentransfers werden nicht mehr unverschlüsselt von Rechenzentrum zu Rechenzentrum verschickt, seit herauskam, dass die NSA sich im Rahmen des Programms „Muscular“ bei Google und Yahoo! in die Firmenleitungen gehackt hat. Zudem haben viele Firmen an ihrer Transparenz gearbeitet und geben nun regelmäßige Reports heraus, wie viele Regierungsanfragen sie bekommen und beantwortet haben, und sie investieren viel Geld darin, diese Abfragen im Zweifel mit juristischen Mitteln abzuwehren.

Der wohl größte Schlag gegen die NSA-Massenüberwachung ist aber, dass starke Verschlüsselung von Web-Verbindungen inzwischen zum globalen Standard geworden sind. Bereits 2014 hatte sich als Reaktion auf die Snowden-Enthüllungen der verschlüsselte Webtraffic verdoppelt6 und Anfang 2017 verkündete die digitale Bürgerrechtsorganisation Electronic Frontier Foundation (EFF), dass nunmehr die Hälfte des globalen Webtraffics verschlüsselt sei.7 Die Cybersecurity-Firma NSS Labs schätzt sogar, dass bis 2019 75% des gesamten Webtraffics verschlüsselt sein wird.8 All das sind Daten, mit denen NSA, GCHQ und BND nichts mehr anfangen können, wenn sie sie abfangen. In ihren Schleppnetzen bleibt nur noch sinnfreier Datensalat hängen und nicht mal die Geheimdienste haben die Mittel, das wieder zu entschlüsseln. Heute gibt es kaum mehr eine größere Website, die nicht durchgehend das grüne SSL-Häkchen in der Adresszeile des Browser stehen hat. Doch nicht nur die Unternehmen, auch NGOs und Aktivist/innen haben daran einen Anteil. Die Initiative „Let’s Encrypt“ verteilt kostenlos SSL-Zertifikate, die vorher teuer bei Unternehmen gekauft werden mussten.

Fazit: Wir sind heute deutlich sicherer vor Massenüberwachung, als wir es zur Zeit der Snowden-Enthüllungen waren. Daran hat aber keine Datenschutzreform oder gar die Politik einen Anteil, ganz im Gegenteil. Die Politik hat alles getan, die Überwachung noch weiter anzufeuern und uns mit der Datenschutzgrundverordnung bestenfalls ein Placebo verabreicht. Das, was uns tatsächlich sicherer gemacht hat, sind die Bemühungen der Internetwirtschaft, für die Snowden ein Weckruf war. Ironischer Weise ist es eben jene Internetwirtschaft, die immer als der Privatsphäre schlimmster Feind verschrien ist, die den größten Anteil an der Verbesserung unserer Sicherheit hat. In Zusammenarbeit mit NGOs und Aktivist/innen weltweit haben die Internetfirmen unsere Computersysteme sicherer gemacht, den Großteil der Internetkommunikation verschlüsselt, sicheres Kommunizieren für alle möglich gemacht und insgesamt die Standards für Sicherheit weltweit deutlich angehoben.

Wir sind noch lange nicht am Ziel. Neue Herausforderungen stehen auf dem Plan. Ein Großteil der Geräte des sogenannten „Internet der Dinge“ ist mit katastrophal schlechter und unsicherer Software ausgestattet und auch die restlichen Bereiche des Internets sind noch lange nicht dort, wo wir von wirklicher „Sicherheit“ sprechen können. Es ist aber falsch, sich auf die Institutionen des Staates in diesen Bereichen zu verlassen. Die Erfahrung zeigt leider viel zu oft, dass er alles nur schlimmer macht.

  1. Wikipedia: Tempora: https://de.wikipedia.org/wiki/Tempora
  2. Wikipedia: NSA-Untersuchungsaussuss: https://de.wikipedia.org/wiki/NSA-Untersuchungsausschuss#Operation_Eikonal
  3. Wikipedia: United States Foreign Intelligence Surveillance Court: https://en.wikipedia.org/wiki/United_States_Foreign_Intelligence_Surveillance_Court
  4. Wikipedia: Microsoft (Corp.) v. United States: https://en.wikipedia.org/wiki/Microsoft_Corp._v._United_States
  5. Hackett, Robert: Google’s Elite Hacker SWAT Team vs. Everyone http://fortune.com/2017/06/23/google-project-zero-hacker-swat-team/ (23.06.2017)
  6. Finley, Klint: ENCRYPTED WEB TRAFFIC MORE THAN DOUBLES AFTER NSA REVELATIONS https://www.wired.com/2014/05/sandvine-report/ (16.05.2014)
  7. Gebhart, Gennie: We’re Halfway to Encrypting the Entire Web https://www.eff.org/deeplinks/2017/02/were-halfway-encrypting-entire-web (21.02.2017)
  8. NSS Labs: NSS Labs Predicts 75% of Web Traffic Will Be Encrypted by 2019 https://www.nsslabs.com/company/news/press-releases/nss-labs-predicts-75-of-web-traffic-will-be-encrypted-by-2019/ (09.10.2016)


Veröffentlicht unter Das Neue Spiel extern Kontrollverlust Postprivacy
2 Kommentare

Kabel, Protokolle, Plattformen und Tribes – Vier Strukturen des Internets

/**** Für die Architekturzeitschrift [ark] 2-2017 habe ich einen Text über Strukturen des Internets geschrieben. ****/

Das Internet ist vielschichtig und lange nicht nur das offenkundige World Wide Web, mit dem fast jeder täglich zu tun hat. Es gibt Millionen und Abermillionen Prozesse, die im Hintergrund ablaufen, und ständig bilden sich neue, oftmals ungeplante Strukturen, die zum Teil in erheblichem Maße unseren Alltag bestimmen und lenken. Michael Seemann gibt Einblick in eine Welt jenseits unserer Vorstellungskraft, von der wir so wenig wissen, obwohl ein Leben ohne sie unvorstellbar scheint.

Ich klicke auf einen Link. Ein Bit wird zusammen mit einigen anderen vom Arbeitsspeicher meines Computers rüber in die Netzwerkkarte kopiert, wo es in ein Funksignal umgewandelt wird.
In Lichtgeschwindigkeit hat es den WLAN-Router in der Abstellkammer erreicht, der es sodann durch das dicke Netzwerkkabel an das DSL-Modem weiterschickt. Dort wird das Bit in eine elektrische Frequenz verwandelt, einen Puls, der durch das Kupferkabel meiner Telefonleitung das Haus verlässt. Die vielen Leitungen aus den vielen Wohnungen aus den vielen Häusern aus dem Block versammeln sich schließlich im DSLAM, einem dieser hellgrauen, schulterhohen Hartplastikboxen, die so unscheinbar an der Straße stehen. Alle Daten aus den Häusern, aus den Wohnungen und den Routern landen erst mal hier und so auch unser kleines Bit. Der DSLAM verwandelt es in Licht, einen kleinen hellen Blitz, der nun durch die Glasfaserleitungen sitzt, zur ersten größeren Station der Telekom in meiner Nachbarschaft. Von dort zum Hauptrouter in Berlin, dann nach Frankfurt und an die Nordseeküste. Die Kabel werden immer breiter und dicker und unser Bit findet sich im immer größeren Strom anderer Bits wieder, bis es im Überseekabel TAT14 neben 10 Billionen anderer Bits durch den Atlantik pulst. Sobald unser Bit in New York wieder an Land geht, wird es sofort in die nächste Überlandleitung nach San Francisco gesteckt, von wo es in ein Rechenzentrum nach Palo Alto gelangt. Dort, in einem der zigtausend Rechner, die Facebook am Laufen halten, wird unser Bit einen Prozess auslösen, der wieder Millionen anderer Bits auf die Reise schickt, zurück zu mir. Der gesamte Prozess hat nur einen Bruchteil einer Sekunde gebraucht und stößt wiederum mehrere Prozesse an, die jeweils viele Bits auf dieselbe Reise schicken.

Das Internet ist die größte Maschine, die jemals gebaut wurde. Es wird derzeit von ca. 900 Millionen Computern bereitgestellt, an die wiederum 8,7 Milliarden Endgeräte (PCs, Smartphones, iPads etc.) angeschlossen sind, die den derzeit 3,6 Milliarden Internetnutzern gehören, die in allen Ländern der Welt zu Hause sind.

Dafür braucht es Kupfer-, Glasfaser- und Überseekabel. Es braucht die Server, Router und Switches. Es braucht Software und Protokolle. Es braucht die Links, die von Milliarden Menschen gesetzt wurden, die das weltweite Gewebe von Websites ausmachen, das wir täglich nutzen. Nicht zuletzt braucht es die menschlichen Beziehungen, geschäftlich, freundschaftlich, die so was wie Facebook oder LinkedIn überhaupt erst sinnvoll machen.
Das Internet hat mehr als eine Struktur, es ist ein ganzer Strukturzoo. Mehr noch: Das Internet bringt ständig neue Strukturen hervor. Vier davon möchte ich vorstellen.

Kabel

Die Struktur des Internets ist „distributed“ (verteilt). Das jedenfalls stand am Anfang der Überlegungen, als sich der US-amerikanische Think Tank „RAND Corporation“ Anfang der 1960er-Jahre das erste Mal Gedanken über digitale Datennetze machte. Paul Baran schwebte ein Netz vor, das Daten in Pakete verpackt und diese dann von Knotenpunkt zu Knotenpunkt weiterwirft, wie eine heiße Kartoffel. Das Prinzip – genannt „Paket Switching“ – sollte das Netz derart fexibel machen, dass es kein „intelligentes“ Zentrum mehr braucht. Die Intelligenz sollte über das gesamte Netz verteilt („distributed“) und so auch wesentlich robuster gegen Angriffe sein. Ein Netz, das kein Zentrum hat, hat auch keinen „Single Point of Failure” und funktioniert auch dann noch, wenn große Teile davon zerstört sind.

Es sollte bis 1969 dauern, bis seine Ideen im ARPANET, dem ersten Vorläufer des Internets, verwirklicht wurden. Computer waren damals noch so groß wie Hallen und so selten wie Weltwunder. Um die Computer von den ersten vier Universitäten zu verbinden, mussten ihnen jeweils ein eigener Computer hinzugestellt werden, die sogenannten IMPs (Interface Message Processor).

Doch schon in der Wachstumsphase des ARPANET wurde klar, dass sich das Versprechen des völlig verteilten Netzes nicht durchhalten lassen würde. 1982 hatte das ARPANET 100 Netzwerkknoten und die Anzahl der Verbindungen pro Knoten variierte bereits stark. Ein Netz, das tatsächlich „distributed“ ist, würde einem Maschendrahtzaun gleichen. Alle Knoten hätten mehr oder weniger gleich viele Verbindungen. Doch in der Realität bilden sich dann doch Hauptverkehrsadern heraus und bestimmte Knoten werden zu wichtigen „Hubs“ mit sehr vielen Verbindungen. Das ARPANET entwickelte sich mehr wie das Straßennetz oder wie ein Baum. Eine solche Struktur nennt man „dezentral“. Sie ist verzweigt, hierarchisch – zwar ohne Zentrum –, aber mit vielen unterschiedlichen Nebenzentren. Als das ARPANET 1983 auf das Internet umgeschaltet wurde, verstärkte sich der Effekt noch. 1986 wurde mit NSFNT der erste Backbone (eine Hauptverkehrsader) des noch jungen Internets eingeweiht und führte die Hierarchie der Datenleitungen nun auch formal ein.

Die wichtigsten Backboneleitungen werden heute von wenigen Firmen beherrscht. Betrieben werden sie von den großen Telekommunikationsbetreibern, wie AT&T, Level 3 oder der Deutschen Telekom. Anbieter dieser Größe nennt man „Tier 1“, was bedeutet, dass sie ihren Datenverkehr miteinander austauschen, ohne sich gegenseitig dafür zu bezahlen. Eine Hand wäscht die andere. Auf der anderen Seite steht die kapillare Verästelung an der „letzten Meile“ in die Haushalte.

Die Dezentralität ist nicht das Ergebnis von Planung, sondern von organischen Prozessen der Selbstorganisation. Das Netz wuchs einfach, indem sich nach und nach immer mehr Institutionen anschlossen, was automatisch zu Verästelung hier und Konzentration dort führte. Das Internet ist dezentral, nicht weil das so geplant war, sondern weil es die effizienteste Struktur ist.

Protokolle

Doch die eigentliche Struktur des Internets ist der Stapel. So wurde es als Software designt. Im Grunde ging es darum, die verschiedenen Netze, die es Ende der 1970er-Jahren gab und von denen das ARPANET nur eines war, miteinander zu verbinden. Vint Cerf und Robert E. Kahn entwarfen eine Art universelles Verbindungsstück, das zwischen unterschiedlichen Netzen vermitteln sollte. Ein Zwischen(inter)-Netz.

Das Ergebnis ihrer Forschung heißt TCP/IP und bildet noch immer die wesentliche Grundlage des Internets. Es ist eben nicht die Hardware, auf der es läuft, sondern die Software, die sicherstellt, dass Computer weltweit dieselbe Sprache sprechen. TCP (Transport Control Protocol) und IP (Internet Protocol) besorgen arbeitsteilig das bereits erwähnte „Paket Switching“. Während TCP die Datenpakete schnürt und kontrolliert, kümmert sich IP darum, den besten Weg zum Ziel zu finden.

Zurück zu unserem Bit vom Anfang. Mit dem Klick auf einen Link auf Facebook wird eine Nachricht ausgelöst, die an Facebook gesendet werden muss. TCP nimmt die Nachricht und zerlegt sie in einzelne Pakete – unser Bit landet in einem davon. TCP weiß auch in welchem, denn es behält den Überblick, was in welchem Paket liegt und wie die Daten wieder zusammengesetzt werden müssen. Die geschnürten Pakete werden dann vom IP mit einem Adressaufkleber versehen, wie im normalen Leben: Absenderadresse, Empfängeradresse. Wobei es sich in diesem Fall natürlich um IP-Adressen handelt – einzigartige Nummern, über die jeder Computer im Internet erreichbar ist (z.B. 190.123.34.13).

Das Paket mit unserem Bit wird nun von einem Computer zum anderen geworfen, sogenannten Routern. Die Router kennen meist nicht die Zieladresse, aber sie kennen den jeweils nächsten Router auf dem Weg. Das Paket wird also wie die heiße Kartoffel immer näher ans Ziel geworfen, bis es am Ende Facebooks Rechenzentren in Kalifornien erreicht. Dort wacht TCP derweil über den Transport jedes einzelnen Pakets und ordert verloren gegangene Pakete nach.

Und hier wird die Stapel-Architektur sichtbar: TCP kann seine Arbeit nur verrichten, wenn vorher IP seine Arbeit erledigt hat. Die Transportebene sitzt auf der Adressebene auf. Und diese kann wiederum nur funktionieren, wenn es darunter noch andere Netzwerkprotokolle gibt, wie WLAN, Ethernet oder LTE. Unser Bit klettert also den Stapel hoch: vom WLAN hoch zu IP weiter zu TCP und oben bei Facebook wird es wieder zusammengesetzt.

Die Struktur des Internets ist vertikal geschichtet. Man spricht auch vom Protokollstapel (Protocol Stack) mit vier Ebenen: der Netzwerkebene, der Adressebene, der Transportebene und zu guter Letzt der Anwendungsebene (Application Layer), auf der in unserem Fall Facebook beziehungsweise das WWW liegen, aber auch WhatsApp, E-Mail oder Uber zu Hause sein können. Dieser Application Layer hat seine ganz eigenen Strukturen hervorgebracht.

Plattformen

Die wahre Struktur des Internets ist das Monopol. Große Konzerne beherrschen das Internet und keiner kann ihnen noch das Wasser reichen. Für viele ist es überraschend, dass das World Wide Web (WWW) nicht gleichbedeutend mit dem Internet ist. Doch als sich der britische Wissenschaftler Tim Berners Lee 1991 im schweizerischen Cern daranmachte, eine Technologie zu entwickeln, mit der man schnell und unkompliziert Dokumente publizieren kann, konnte er bereits auf das Internet zählen. Das World Wide Web ist eine unter vielen Anwendungen (im Sinne des Application Layers), die durch das Internet möglich wurden. Schätzungen gehen heute von 47 Milliarden Websites aus.

Auch das WWW bildet mit seinen Links eine Netzwerkstruktur. Diese Struktur zu benutzen, um Ordnung in das Chaos des Webs zu bringen, hat Google Ende der 1990er-Jahre groß gemacht. Google fragte, wie viele andere Websites auf eine jeweilige Website Links gesetzt haben, und nahm dies als Maß ihrer Relevanz.
Das Web ist auch Grundlage des Erfolgs von Facebook und Amazon. Wie Google beherrschen diese Firmen ihre jeweiligen Märkte mit einer monopolartigen Machtkonzentration. Einige dieser Web-Unternehmen gehören heute zu den wertvollsten und wirtschaftlich erfolgreichsten der Welt.

Das Geheimnis des Erfolgs dieser Plattformen besteht darin, dass sie sogenannte „Netzwerkeffekte“ generieren. Jeder Nutzer und jede Nutzerin, die einem Netzwerk beitritt, erhöht dessen Nutzen für alle anderen – was wiederum neue Interessenten anlockt. Dieser „Feedbackloop“ führt zu den ungekannten Wachstumseffekten und dazu, dass alle auf Facebook sind, einfach, weil alle auf Facebook sind.

Man kann die Netzwerkeffekte mit der Gravitation vergleichen. Große Massen ziehen wiederum Massen an. Wir werden auf Facebook gehalten, wie wir auf der Erde gehalten werden. Zwar können wir die Gravitation überwinden, aber das ist ziemlich anstrengend. Ähnlich geht es uns mit Facebook. Klar können wir nein sagen, aber das kostet uns enorm viele kommunikative Möglichkeiten.

Diese soziale Gravitation strukturiert den ganzen Plattformmarkt zu etwas Vergleichbarem wie dem Sonnensystem. Große Massen rasen um ihre Umlaufbahn und prallen immer wieder auf andere Objekte. Ein Planet, so legte unlängst eine Planetenkommission fest, ist ein Objekt, das Kraft seiner Gravitation seine Umlaufbahn frei geräumt hat. Diese Definition kostete Pluto 2012 den Planetenstatus. Auf Facebook hingegen passt sie erstaunlich gut, denn im selben Jahr verleibte sich der blaue Riese erst Instagram und zwei Jahre später WhatsApp ein. Facebooks Umlaufbahn ist seitdem frei.

„The winner takes it all“ nennt man das in der Businesswelt. Eine gefährliche Entwicklung, die die Idee des freien, dezentralen Internets ad absurdum führt.

Tribes

Die neuste Struktur des Internets ist der Stamm (Tribe). Auch wenn die Stammeskulturen als nicht sonderlich zeitgemäße Erscheinung gelten, treffen wir im Internet immer häufger auf vergleichbare soziale Strukturen.

Als Donald Trump Präsident der USA wurde, reklamierte die „Alt-Right-Bewegung“ für sich, ihn ins Weiße Haus „geshitposted“ zu haben. Gemeint waren monatelange Netzkampagnen mit Memes und Fakenews. Die Alt-Right war dabei kein offzieller Teil der Kampagne, sondern ein loser Zusammenschluss von Internettrollen und rechtsradikalen Hipstern.

Die Alt-Right kann man als Internettribe begreifen. Seth Godin hat 2008 in seinem Buch „Tribes“ beschrieben, wie man einen solchen Stamm gründet. Dafür müsse man nur eine Idee formulieren, die dem jeweiligen Status quo zuwiderläuft. Man müsse Herätiker sein. Den „Followern“ der Idee müsse dann nur noch eine Kommunikationsstruktur zur Verfügung gestellt werden und es bestehe die Chance, dass sich in der Gruppe enorme Energien freisetzen. Mit so einem Tribe könne man die Welt verändern, so Godin.

Onlinetribes brauchen weder geografsche Nähe noch verwandtschaftliche Beziehungen, sondern nur ein Thema und einen Gegner. Den Rest erledigt das Netz mit seinen kommunikativen Möglichkeiten. Tribe gegen Tribe. Das Netz zersplittert in immer mehr sich gegenseitig hassende Gruppen.

Das ist vor allem deswegen erstaunlich, weil das Internet eigentlich als der endgültige Befreiungsschlag des Individuums gefeiert wurde. All die Institutionen und künstlichen Organisationen würde das Internet unnötig machen und der geogra sche Raum würde fürs Soziale obsolet. Sozialität braucht keine Struktur, jenseits der individuellen Bindungen, so war die Idee. Wozu Gruppen?

Weil sie es wollen! Menschen brauchen Zugehörigkeit, Identität und Abgrenzung, so scheint es jedenfalls. „Die moderne Massengesellschaft entspreche einfach nicht der Natur des Menschen.“, sagen die Aktivisten von neotribes.co und wollen den Tribalismus in die neue Zeit holen. So hatte bereits Michel Maffesoli argumentiert, der schon in den 1990er-Jahren den Neo-Tribalismus ausgerufen hatte.

Dennoch würden sich die meisten Tribes nicht als solche bezeichnen. Anonymous, Piraten, Weird Twitter, Pegida, die Netzgemeinde, Telekommunisten, Sifftwitter, 4chan, 8chan, die Bernds von krautchan, Pr0gramm.com, Prepper, Furrys, Cosplayer, Gamergater, Bronies, Maskus, Netzfrauen, Alt-Righter, die diversen Subreddits und viele andere Gruppen schließen sich im Internet zusammen, gründen ihre eigenen Medien und Kommunikationsstrukturen, grenzen und kapseln sich nach außen ab, frönen ihrer Echokammer und bekriegen sich unerbittlich.
Es ist noch nicht klar, wohin die zunehmende Tribalisierung des Netzes noch führt. Löst sich die Massengesellschaft vollkommen in verfeindete Stämme auf, die sich virtuell gegenüberstehen, aber deren Demarkationslinien geografisch durch alle Nationen und Nachbarschaften laufen?

Fazit

Der Traum vom Internet war immer das Überkommen von Struktur: von Macht, Hierarchie, Nation, Institution und Gruppe. Doch überall, wo es waltet, schleichen sich neue Strukturen ein, neue Macht entsteht, neue Hierarchien setzen sich durch, neue Gruppenformationen werden gefunden. Nichts davon war so geplant, alles kam immer anders. Das Internet ist der Motor eines beschleunigten Strukturwildwuchses und die neuen Strukturen bedrohen zunehmend die alten. Überall quietscht und knarzt es. Plattformen reiben sich an Nationalstaaten, Tribes stürzen politische Institutionen. Die Welt verändert sich in einem rasenden Tempo.

Occupy Wall Street, Arabischer Frühling, Brexit und Trump sind nur die sichtbarsten Auswüchse dieses turbulenten Strukturwandels. Niemand weiß, wo das endet. Aber Kabel, Protokolle, Plattformen und Tribes bilden die Infrastrukturen der neuen Gesellschaft und wir werden wohl lernen müssen, darin zu leben.


Veröffentlicht unter extern Kontrollverlust Plattformpolitik
1 Kommentar

Digitaler Tribalismus und Fake News

Text: Michael Seemann / Datenauswertung: Michael Kreil (DataScience&Stories des Tagesspiegels)

[Dokument als PDF laden.]
[English Version]

Einleitung

Das Internet war für mich immer der Traum der Freiheit. Damit meine ich nicht nur die Freiheit der Kommunikation und der Information, sondern auch die Hoffnung auf eine neue Freiheit der sozialen Beziehungen. Soziale Beziehungen sind, trotz aller sozialer Mobilität der modernen Gesellschaft, auch heute noch etwas sehr Unfreies. Vom Kindergarten über die Schule, den Verein bis zum Unternehmen durchlaufen wir ständig Organisationsformen, die uns fremdbestimmt gruppieren, sortieren und somit entindividualisieren. Von der Hasen- und Igel-Gruppe bis zur Staatsbürgerschaft ist die Gesellschaft als Gruppenspiel organisiert und unsere Mitspieler dürfen wir uns nur selten aussuchen. Und dann heißt es: „Finde dich ein, ordne dich unter, sei ein Teil von uns.“

Das Internet erschien mir als Ausweg. Wenn sich jeder Mensch mit jedem anderen Menschen direkt in Beziehung setzen kann – so mein naiv-utopische Gedanke – dann braucht es keine vergemeinschaftenden Strukturen mehr. Auf einmal können Individuen sich auf Augenhöhe begegnen und sich selbst organisieren. Gemeinschaften entstünden auf einmal als Resultat individueller Beziehungen, statt umgekehrt. Im Idealfall gäbe es überhaupt keine Strukturen mehr, die über die individuell-selbstbestimmten Beziehungsnetzwerke jedes Einzelnen hinausgingen.1

Spätestens die Wahl Donald Trumps war es, die mich unsanft aus meinen Hoffnungen riss. Die Alt-Right-Bewegung – ein Zusammenschluss aus rechtsradikalen Hipstern und den nihilistischen Auswüchsen der Nerdkultur – verbuchte für sich, Trump ins Weiße Haus „geshitpostet“ zu haben. Gemeint ist die massive Flankierung des Wahlkampfes mit Grassroots-Kampagnen im Internet mittels Memes. Und auch wenn man argumentieren kann, dass ihr Einfluss auf die Wahl längst nicht so groß war, wie die Trolle es gerne darstellen: die Meme-Kampagne zeigte auf jeden Fall die enorme Kraft digitaler Agitation.

Doch es war nicht die diskursive Macht internetgetriebener Kampagnen, die mich so nachhaltig erschreckte. Die ist seit dem arabischen Frühling und Occupy Wallstreet ein alter Hut. Es war die vollkommene Loslösung von Fakten und Realität, die sich in der Alt-Right entfaltete und die – angetrieben durch die vielen Lügen Trumps und seiner offiziellen Kampagne – einer unheimlichen Parallelrealität zur Macht verhalf. Die Verschwörungstheoretiker und Spinner haben ihre Nischen im Internet verlassen und regieren nun die Welt.

Auf der Suche nach einer Erklärung für dieses Phänomen bin ich immer wieder auf den Zusammenhang von Identität und Wahrheit gestoßen. Die Menschen, die daran glauben, dass Hillary und Bill Clinton eine Reihe von Menschen ermorden ließen und die Demokratische Partei einen Kindesmissbrauchs-Ring im Keller einer Pizzafiliale in Washington betreibt, sind nicht einfach dumm oder unaufgeklärt. Sie verbreiten diese Nachricht, weil sie damit die Zugehörigkeit zu ihrer Gruppe signalisieren. David Roberts hat dieses Phänomen treffend als „Tribale Epistemologie“ bezeichnet und definiert es folgendermaßen:

„Eine Information wird nicht anhand von Kriterien wie wissenschaftliche Standards der Beweisführung oder gar der Anschlussfähigkeit an das allgemeine Weltverständnis beurteilt, sondern einzig und allein danach, ob sie den Werten und Zielen des Stammes entspricht. ‘Gut für unsere Seite’ und ‘wahr’ beginnen eins zu werden.“ 2

Auch im deutschsprachigen Internet haben sich neue soziale Strukturen entwickelt, die eine vergleichbare Stammesdynamik aufweisen. Die Mitglieder eines solchen „digitalen Stammes“ kennen sich selten persönlich, wohnen nicht in derselben Stadt, wissen oft sogar nicht einmal die Namen der anderen. Und doch sind sie online eng vernetzt, kommunizieren stetig untereinander und haben sich gegenüber der Restöffentlichkeit ideologisch wie auch vernetzungstechnisch abgespalten. Verbunden fühlen sie sich vor allem durch ein gemeinsames Thema und die Ablehnung der von ihnen als falsch empfundenen Debatte darüber im „Mainstream“.

Es ist deswegen vielleicht kein Zufall, dass man auf einen solchen „digitalen Stamm“ stößt, wenn man eigentlich die Verbreitung von Fake News untersuchen will. Fake News sind nicht, wie es oft angenommen wurde, die Produkte sinisterer Manipulatoren, die damit die öffentliche Meinung in eine bestimmte Richtung lenken wollen. Sie sind vielmehr das Futter für bestätigungshungrige Stämme. Die Nachfrage macht hier das Angebot, nicht andersrum.

Seit der vorliegenden Untersuchung bin ich überzeugt: „Digitaler Tribalismus“ bildet den Kern des Erfolges von Bewegungen wie Pegida und AfD, wie auch der Alt-Right und den antiliberalen Kräften, die letztes Jahr weltweit Erfolge feierten.

Für die vorliegende Untersuchung haben wir über viele Monate hinweg Hunderttausende von Tweets ausgewertet, Forschungsfrage an Forschungsfrage gereiht, meterweise Literatur gewälzt und eine ganze Reihe von Theorien entwickelt und ausprobiert. Ausgehend von Twitterdaten über Fake News sind wir auf das Phänomen des digitalen Tribalismus gestoßen, dem wir von dort weiter auf den Grund gegangen sind.3 In dieser Untersuchung werden wir zeigen, wie sich Fake News links und rechts des politischen Spektrums tatsächlich verbreiten und wie soziale Strukturbildung im Netz zu hermetischen Gruppen führen kann. Wir werden auch zeigen, was die Theorie der „Filterbubble“ erklären kann und was nicht. Wir werden eine völlig neue Perspektive auf die rechte Internetszene bieten, die vielleicht dabei hilft zu verstehen, wie sich Hass im Netz findet, verhärtet, wächst und organisiert. Wir werden aber nicht alle Fragen beantworten können, die sich entlang dieses Phänomens stellen, deswegen soll dieser Essay vor allem ein Aufruf zu weiterer, interdisziplinärer Forschung sein.

Blaue Wolke, roter Knoten

Anfang März dieses Jahres war auf Twitter große Aufregung. Die Bundesregierung habe klammheimlich eine Reisewarnung für Schweden herausgegeben, so hieß es in verschiedenen Tweets. Die Bundesregierung und die Medien würden das aber verschweigen, denn es ginge um erhöhte Terrorgefahr. Viele waren sich einig: Das soll aus politischen Gründen totgeschwiegen werden.

Zum Hintergrund: Schweden hat, wie Deutschland, einen großen Anteil syrischer Flüchtlinge aufgenommen. In ausländischen Medien, vor allem rechtsgerichteten, wird seitdem so getan, als würde dort Bürgerkrieg herrschen. Die Meldung von der totgeschwiegenen Terrorwarnung passte also prima ins Bild.

Zum Beweis wird in den Tweets tatsächlich auf die Website des Auswärtigen Amtes zu den Reisehinweisen nach Schweden verwiesen.4 Ging man Anfang März dem Link nach, fand man tatsächlich eine Terrorwarnstufe. Sie stand auf 3 (erhöht) und ist bis heute auf diesem Niveau. Zudem fand sich der Hinweis der letzten Website-Änderung: 1. März 2017.

Was dort Anfang März noch nicht steht, ist, dass diese Terrorwarnstufe von den schwedischen Behörden schon länger herausgegeben wird und dass die letzte Änderung keine Erhöhung, sondern eine Herabstufung von 4 (hoch) auf 3 (erhöht) war.

Das Auswärtige Amt reagierte nach einiger Zeit auf die Gerüchte und stellte die Sachlage auf ihrer Website richtig. Auch einige Medien griffen den Fall und die Richtigstellung auf. Doch der Schaden war da. Die falsche Nachricht hatte bereits tausende Menschen erreicht, die sich in ihrer Meinung bestätigt fühlen durften: Dass erstens die Zustände in Schweden bürgerkriegsähnlich seien und dass zweitens die Medien und die Politik die Probleme totschwiegen.

Was Anfang März geschah, passt gut in das Raster der sogenannten „Fake News“. Also Nachrichten, die quasi aus der Luft gegriffen sind, sich aber durch ihre vermeintliche Brisanz viral im Netz verbreiten.5 Vor allem im rechten Spektrum gehören sie heute zur Normalität im Netz.6

Der Datenjournalist Michael Kreil schaute sich den Fall genauer an. Er wollte wissen, wie sich Fake News verbreiten und ob die Richtigstellungen ein geeignetes Gegenmittel sind. Er holte sich die Twitterdaten von allen Accounts, die zu dem Thema etwas geschrieben hatten, und markierte die Tweets mit Fake News rot und die Tweets mit Richtigstellungen blau. Dann ordnete er die Accounts zueinander so an, dass sie Aufschluss über die Vernetzungsdichte geben. Wenn zwei Accounts sich gegenseitig folgen und/oder den selben Leuten folgen oder von den selben Leuten gefolgt werden, werden sie nah beieinander dargestellt. Je näher Punkte einander sind, desto enger sind diese vernetzt. Die Größe der Punkte entspricht der Anzahl von Followern, die der Account erreicht.

Das Ergebnis ist erstaunlich: Statt eines großen Netzwerks sehen wir zwei fast komplett voneinander getrennte Netzwerke. Diese Trennung wird einerseits durch die Farben deutlich und gleichzeitig durch die Anordnung der Accounts zueinander. Auf der linken Seite sehen wir eine recht weit gestreute, blaue Wolke, die sich nach außen hin zerfastert. Dazu sehen wir recht dicht zueinander stehend mehrere große blaue Punkte. Das sind die Massenmedien wie Spiegel Online, Zeit Online, Tagesschau und so weiter. Die blaue Wolke sind alle Accounts, die die Richtigstellungen veröffentlicht oder retweetet haben.

Auf der rechten Seite sehen wir einen stärker konzentrierten, dafür etwas kleineren, roten, nach außen ausfransenden Knoten. Es ist ein Knoten aus vielen Punkten, die sehr eng beieinander liegen. Das sind die Fake-News-Verbreiter. Sie sind nicht nur sehr eng vernetzt, sondern auch vernetzungstechnisch fast komplett abgeschnitten von der großen, blauen Wolke.

Das Entscheidende ist die deutliche Trennung der roten von der blauen Gruppe. Es findet praktisch gar kein Austausch statt. Jede Gruppe verharrt bei der von ihr verbreiteten Wahrheit.

Das ist eine Filterblase”, mit diesen Worten und der Grafik kam Michael zu mir und fragte, ob ich bei der Untersuchung mitmachen wolle. Michael Kreil ist Teil des DataScience&Story-Teams des Tagesspiegels und gehört zur Avantgarde des deutschen Datenjournalismus. Ich sagte zu, obwohl ich der Filterblasen-These gegenüber skeptisch war.

Auf den ersten Blick leuchtet die These ein. Eine Filterblase ist, wenn man auf seinen Social-Media-Accounts nur noch Ansichten auf die Welt angezeigt bekommt, die mit den eigenen konform gehen. Eli Pariser – derjenige, der den Begriff 2011 geprägt hat – bezog das vor allem auf die Algorithmen von Google und Facebook, die uns unsere Suchergebnisse oder unser Newsfeed personalisiert vorsortieren.7 Diese Algorithmen versuchen einzuschätzen, was uns gefällt, und geben uns so eine gefilterte Realität wieder. Doch auch auf Twitter gibt es Filterblasen. Hier kann jeder sein eigenes kleines Mediennetzwerk zusammenstellen, das heißt jeder kann Accounts folgen, deren Sicht auf die Welt ihn interessiert. Was dabei oft hinten runterfällt ist die abweichende Meinung, die unliebsame Weltsicht, oder einfach die fremdartige Perspektive.

In der Debatte um Fake News ist die Filterblasen-Theorie deswegen immer wieder eine schlüssige Erklärung. Wenn wir nur noch Sichtweisen auf die Welt dargelegt bekommen, die uns in den Kram passen, erreichen uns deren Widerlegungen vielleicht gar nicht mehr. Filterblasen werden zur Echokammer, aus der immer nur herausschallt, was wir hineinrufen.

Verifikation

Bevor wir die Filterblasen-These untersuchten, versuchten wir allerdings zunächst die Ergebnisse anhand eines zweiten Fake-News-Beispiels zu reproduzieren. Und das fanden wir diesmal in den Massenmedien.

Am 5. Februar berichtete die BILD-Zeitung von einem angeblichen „Sexmob“ von rund 900 Flüchtlingen, die in der Silvesternacht im Frankfurter Stadtteil Freßgass Menschen belästigt haben sollen. Die Nachricht war deswegen brisant, weil es in der Silvesternacht des vorherigen Jahres in Köln zu ähnlichen Ausschreitungen gekommen ist. Die Nachricht der BILD machte schnell die Runde, vor allem weil sie den Eindruck erweckte, die Frankfurter Polizei habe den Vorfall über einen Monat lang verschwiegen.

Tatsächlich hatte ein Bildjournalist sich die Geschichte von einem AfD-nahen Kneipenwirt aufschwatzen lassen und BILD druckte sie, ohne sie ausreichend geprüft zu haben. Die Polizei konnte die Angaben nicht bestätigen und auch sonst ließ sich keine zweite Quelle für den Vorfall finden. Andere Medien griffen die Geschichte damals trotzdem auf, oft allerdings mit einer gewissen Vorsicht. Im Verlauf des Skandals wurde klar, dass der Kneipenwirt sich alles nur ausgedacht hatte und die BILD-Zeitung musste sich öffentlich entschuldigen.

Dieses Mal mussten wir bei der Auswertung etwas anders vorgehen, weil die Debatte auf Twitter diesmal vielschichtiger war und sich viele Berichte nicht eindeutig einer der beiden Kategorien „Fake News“ oder „Richtigstellung“ zuordnen ließen. Diesmal brauchten wir noch eine dritte Kategorie dazwischen. Wir recherchierten alle Artikel zum Thema, sammelten sie in einer Tabelle und markierten, ob sie tendenziell die Falschmeldung weiterverbreiteten (rot), oder sie nur distanziert und unschlüssig weitergaben (gelb). Phrasen wie „Laut Berichten der BILD-Zeitung …“ und Hinweise darauf, dass die Polizei den Fall nicht bestätigen kann, reichten uns für das „unschlüssig“-Label aus. Natürlich suchten wir auch wieder die Artikel raus, die die Fake News widerlegten (blau). Wir vergaben auch noch eine vierte Kategorie: Meta. Im Anschluss an die Fehlleistung der BILD-Zeitung gab es eine ausführliche Debatte darum, dass ein umstrittenes, aber durchaus etabliertes Medium der Auslöser einer großen Fake-News-Kampagne werden konnte. Diese Metadebatten-Artikel färbten wir grün.8

Trotz der Vorsichtsmaßnahmen wird auf den ersten Blick klar, dass sich hier die Ergebnisse unserer ersten Auswertungen reproduziert hatten. Die Richtigstellung zerstäubt sich zusammen mit der Metadebatte als grün-blaue Wolke, die nur hier und da von gelben Sprenklern der Unschlüssigkeit aufgehellt wird. Vor allem aber hebt sich auch hier der rote Fake-News-Cluster deutlich vom Rest des Feldes ab – wieder farblich und vernetzungstechnisch. Unsere Fake-News-Blase ist offensichtlich ein stabiles, reproduzierbares Phänomen.

Die Filterblase

Immer noch stand die Theorie im Raum, wir hätten es mit der Manifestation einer Filterblase zu tun. Ich war skeptisch. Die Existenz einer Filterblase ist in unseren Beispielen jedenfalls nicht belegt: Die Theorie der Filterblase macht Aussagen darüber, wer welche Nachrichten zu Gesicht bekommt. Unsere Grafik veranschaulicht aber nur, wer welche Nachricht sendet. Um also einer Filterblase nachzuweisen, müssten wir untersuchen, wer welche Nachricht zu lesen bekommt und wer welche nicht.

Aber auch diese Information steckt in den Twitterdaten und lässt sich entsprechend abfragen. Wir können für einen beliebigen Twitter-Account nachvollziehen, wem er folgt. In einem zweiten Schritt können wir uns von den verfolgten Accounts die Tweets ausgeben lassen. Wenn wir die Tweets von allen verfolgten Accounts haben, können wir die Timeline des ursprünglichen Accounts rekonstruiert. So können wir letztendlich in die Filterblase des Accounts gucken und nachvollziehen, was er sieht. Im dritten Schritt können wir überprüfen, ob eine bestimmte Information seine Filterblase erreicht hat, odere nicht.

Wir besorgten uns also alle Timelines der Accounts, die die Fake News der Reisewarnung für Schweden verbreitet haben und guckten nach, ob sich dort Verweise auf die Richtigstellung finden. Das Ergebnis überrascht: Fast alle Fake-News-Verbreiter der angeblichen Reisewarnung – ganze 89,2 % – haben die Richtigstellung in ihrer Timeline gehabt. Wir machen den Test auch für die Freßgass-Meldung. Hier sind es 83,7 % der Fake-News-Verbreiter, die zumindest technisch von der Gegendarstellung erreicht wurden.

Die Ergebnisse werfen die Filterblasen-Theorie über den Haufen. Ganz offensichtlich sind es keine technischen Gründe, die diese Accounts einseitig nur die Fake News verbreiten lassen. Die Filterblase der Fake-News-Verbreiter ist zumindest alles andere als dicht.

Ohne viel zu erwarten machen wir den Gegentest: Wie sieht es bei den Richtigstellern aus, was haben sie in der Timeline? Haben sie die originale Fake News überhaupt mitbekommen, die sie so heroisch bekämpfen? Wir laden uns ihre Timelines und gucken in ihre Filterblasen. Und wieder ein Ergebnis, das uns erstaunt: Gerade mal 43 % der Richtigsteller haben von der originalen Schweden-Fake-News mitbekommen. Bei der Freßgass-Geschichte ist der Wert mit 33 % sogar noch geringer. Diese Ergebnisse deuten tatsächlich auf eine Filterblase hin, allerdings in die andere Richtung.

Es gibt also kaum Filterblasen-Effekte von Fake-News-Verbreitern gegenüber den Richtigstellern, wohl aber andersrum.9 Die Ergebnisse scheinen den gesamten Filterblasen-Diskurs umzudrehen. Nein, Filterblasen sind in unseren beiden Beispielen nicht an der ungehinderten Verbreitung von Fake News schuld. Das genaue Gegenteil ist der Fall. In unseren beiden Beispielen können wir zeigen, dass die Filterblasen gegen die Verbreitung von Fake News wirken. Sie „schützen“ aber nicht vor Richtigstellungen.

Kognitive Dissonanz

Wir haben es hier nicht mit einem technischen Phänomen zu tun. Der Grund, warum die Menschen im roten Knoten Fake News verbreiten ist nicht ihre filterbedingte Uninformiertheit oder eine technisch verzerrte Sicht auf die Welt. Weil sie von der Richtigstellung erreicht wird, diese aber nicht weiterverbreitet, müssen wir davon ausgehen, dass die Gruppe die Fake News verbreitet, völlig unabhängig davon, ob die Informationen wahr sind oder nicht – einfach weil sie es so will.

Das Phänomen gleicht vielmehr dem, was Leon Festinger bereits in den 50er Jahren untersuchte, und dem er den Namen „Kognitive Dissonanz“ gab.10 Festinger trat damals im Selbstversuch einer Sekte bei, die den Weltuntergang beschwor und immer wieder genau datierte. Festinger wollte wissen, warum die Sektenmitglieder trotz der andauernd falschen Prophezeiungen nicht aufhörten, an die Untergangslehre zu glauben. Seiner Theorie nach neigen Menschen dazu, Ereignisse verzerrt wahrzunehmen, je nachdem wie gut sie zum eigenen Weltbild passen. Widerspricht ein Ereignis unserem Weltbild, entsteht die besagte “Kognitive Dissonanz”: die Unvereinbarkeit von Realität und Vorstellung. Weil so eine Kognitive Dissonanz als sehr unangenehm empfunden wird, versuchen Menschen intuitiv, sie zu vermeiden. Das führt zu einem Verhalten, das Psychologen auch den Bestätigungsfehler (englisch: „Confirmation Bias“) nennen. Es werden nur noch Informationen wahr- und ernst genommen, die in das eigene Weltbild passen. Der Rest wird ausgeblendet, relativiert oder schlicht geleugnet.

Die Theorie der Kognitiven Dissonanz würde also vorhersagen, dass wir es beim roten Knoten mit einer Gruppe von Menschen zu tun haben, deren spezifisches Weltbild durch die Fake News bestätigt wird.

Um diese Hypothese zu testen, haben wir uns die letzten paar Hundert Tweets der Twitterer herausgezogen – sowohl von den Fake-News-Verbreitern, als auch von den Richtigstellern – und haben Worthäufigkeiten verglichen. Wenn die Theorie richtig ist, müsste sich zeigen lassen, dass die Fake-News-Gruppe ein gemeinsames, homogenes Weltbild hat.

Dazu haben wir insgesamt 380.000 Tweets aus Twitter geholt und den Textkorpus statistisch ausgewertet. Dabei haben wir die relative Häufigkeit von Worten in beiden Gruppen abgeglichen und ein Ranking der Worte erstellt. Ganz oben stehen Worte, die in der einen Gruppe viel, aber in der anderen Gruppe wenig vorkommen.11

Wenn man bedeutungsarme Begriffe wie „via“, „die“ und „the“, sowie häufig erwähnte Twitteraccounts rausnimmt, kommt bei der Fake-News-Gruppe eine sehr aussagekräftige Liste prominenter Worte heraus. Ihre 16 wichtigsten Begriffe sind in absteigender Reihenfolge: Islam, Deutschland, Migranten, Merkel, Maas, Politik, Freiheitskampf, Flüchtlinge, SPD, NetzDG, NPD, Antifa, Zensur, PEGIDA, Syrer, Asylbewerber.


(Die Wortgröße entspricht der relativen Häufigkeit der Begriffe.)

Eine gewisse thematische Homogenität ist bereits auf den ersten Blick erkennbar. Allerdings ergeben sich bei näherem Hinsehen zwei Geschichten, die in dieser Gruppe erzählt werden:

Die erste Geschichte handelt von Migration: Islam, Migranten, Flüchtlinge, PEGIDA, Syrer, höchstwahrscheinlich auch „Merkel“ und „Deutschland“ sind recht eindeutig der Erzählung über die Flüchtlingskrise – oder allgemein dem Thema Migration – zuzuordnen. Bei der manuellen Durchsicht der Tweets geht es immer wieder um die Gefahren des Islams und um einzelne Kriminalfälle durch Menschen mit Migrationshintergrund, speziell Flüchtlinge.

Eine zweite, nicht ganz so starke Erzählung betrifft das Selbstverständnis dieser Gruppe: nämlich Opfer politischer Verfolgung zu sein. „Maas“, „Freiheitskampf“, „SPD“, „NetzDG“, „Antifa“ und „Zensur“ weisen deutlich auf diese Opfererzählung hin. So geht es konkret viel um die Einführung des Netzwerkdurchsetzungsgesetzes (kurz: NetzDG) durch den Justizminister Heiko Maas (SPD), das vor allem von rechter Seite als politischer Angriff auf sie und ihre Überzeugungen verstanden wird.

Wie massiv die thematische Homogenität der Fake-News-Verbreiter ist, merkt man vor allem, wenn man sie mit den wichtigsten Begriffen der Richtigsteller vergleicht: NEWS, Nachrichten, Trump, newsDE, Infos, BreakingNews, SPIEGEL, DieNachrichten, online, noafd, May, Donald, Piraten, tagesschau, pulseofeurope, Reichsbürger.

Zunächst fällt auf, dass die wichtigsten Begriffe der Richtigsteller gar nicht politisch vereinnahmt sind. Es geht vielmehr um Medienmarken und um Nachrichtenberichterstattung im Allgemeinen: NEWS, Nachrichten, newsDe, Infos, BreakingNews, SPIEGEL, DieNachrichten, tagesschau, Wochenblatt. Neun der 16 Begriffe haben diesen allgemeinen Nachrichtenbezug.

Aus den restlichen Begriffen lässt sich allerdings eine leichte Tendenz ablesen, sich wiederum mit dem politisch rechten Spektrum zu beschäftigen. Donald Trump ist ein so großes Thema, dass sowohl sein Vor- als auch Nachname in den Top 16 auftauchen. Dazu scheinen die Hashtags „noafd“ und das proeuropäische Netzwerk „pulseofeurope“ recht populär zu sein und auch die „Reichsbürger“ werden thematisiert.

Aus der Worthäufigkeitsanalyse lassen sich also drei Schlüsse ziehen:

  1. Die Fake-News-Gruppe ist thematisch wesentlich fokussierter und politisch homogener als die Gruppe der Richtigsteller.
  2. Die Fake-News-Gruppe ist vor allem auf die negativ empfundene Seite von Migration und Flüchtlingskrise fokussiert. Zudem fühlen sie sich politisch verfolgt.
  3. Die Richtigsteller haben keine einheitliche politische Agenda, allerdings ein leicht gesteigertes Interesse für rechte Strömungen.

All dies scheint die Hypothese der Kognitiven Dissonanz zu bestätigen. Tatsächlich handelt es sich bei beiden Fake-News-Beispielen um Geschichten über Probleme mit Flüchtigen, also genau um das Kernthema der roten Gruppe. Das Vermeiden von Kognitiver Dissonanz könnte also das unkritische Teilen der Fake News sowie das Nichtteilen der Richtigstellung wider besseren Wissens erklären.

Digitaler Tribalismus

Beim Vergleich der zwei Gruppen in beiden Beispielen haben wir bereits drei wesentliche Unterscheidungsmerkmale festgestellt:

  1. Die Gruppe der Richtigsteller ist größer, weiter gestreut/wolkenartig und inkludiert die Massenmedien, während die Fake-News-Gruppe enger vernetzt, kleiner und konzentrierter wirkt.
  2. Die „Filterblase“ der Richtigsteller-Gruppe ist gegenüber Fake News wesentlich undurchlässiger als umgekehrt.
  3. Die Fake-News-Gruppe ist thematisch deutlich fokussierter als die Richtigsteller.

Kurz: Wir haben es hier also mit zwei völlig unterschiedlichen Arten von Gruppen zu tun. Wenn aber die Unterschiede auf Gruppenebene so deutlich hervortreten, wird eine individualpsychologische Erklärung nicht hinreichen. Es mag zwar sein, dass Kognitive Dissonanz beim einzelnen Fake-News-Verbreiter eine Rolle spielt, aber da wir sie als gruppenbezogene Auffälligkeiten beobachten, muss sie soziokulturelle Ursachen haben. Wir müssen hier noch tiefer graben.

Tatsächlich wird spätestens seit Jonathan Haidts Bestseller von 2012 „The Righteous Mind – Why Good People Are Divided by Politics and Religion“ moralische (und damit auch politische) Psychologie immer mehr im soziokulturellen Kontext gelesen. Haidt hatte anhand vieler Studien gezeigt, dass wir moralische und politische Entscheidungen einerseits intuitiv, statt rational entscheiden. Diese aber andererseits durch soziale und kulturelle Prägungen geleitet sind. Menschen sind von Natur aus mit einem moralischen Framework ausgestattet, aus dem sich die spezifischen Kulturen und Subkulturen dann eine zusammenhängende Ethik bauen. Kultur und Psychologie „make each other up“, wie es der Anthropologe und Psychologe Richard Shedem ausdrückt.12

Eine unserer moralisch-psychologischen Anlagen ist der Hang zum Tribalismus. Wir neigen dazu, unsere Stellung als Individuum immer in Beziehung zu konkreten Bezugsgruppen zu definieren. Unser moralisches Rüstzeug ist dafür ausgelegt, uns innerhalb von definierten Gruppen funktionieren zu lassen. Fühlen wir uns einer Gruppe zugehörig, zeigen wir intuitiv altruistisches und kooperatives Verhalten. Bezogen auf Fremdgruppen aber ist oft das Gegenteil der Fall. Wir sind misstrauisch, weniger empathisch und Fremdgruppen gegenüber sogar tendenziell feindlich eingestellt.

Haidt erklärt diese menschlichen Eigenschaften evolutionsbiologisch. Rational betrachtet wäre anzunehmen, dass rein egoistische Individuen den größten Überlebensvorteil hätten, Altruismus wäre da eher ein Hindernis.13 Ab einem bestimmten Punkt in der Werdung des Menschen habe sich der Selektionsprozess aber von der Ebene des Individuums auf die Ebene der Gruppe verschoben. Seit der Mensch den Weg zu intensiver Kooperation eingeschlagen hat (irgendwann zwischen 75.000 bis 50.000 v. Chr.) standen nicht mehr Individuen in evolutionärer Konkurrenz zueinander, sondern Stämme.14 Ab diesem Zeitpunkt setzte sich nicht mehr automatisch das egoistischste Individuum durch, sondern das kooperative.15 Man könnte auch sagen das „tribalistische“, denn es gehören eben nicht nur Altruismus und Kooperationsfähigkeit zu der tribalen Grundausstattung, sondern auch Abrenzungswillen, Gruppenegoismus sowie ein starkes Bedürfnis nach Zugehörigkeit und Identität. Eigenschaften, die häufig in Verhalten münden, das wir heute in unserer individualistischen Gesellschaft glaubten abgelegt zu haben, weil sie oft mit Krieg, Leid und Feindschaft in Verbindung gebracht werden.16

Nichtsdestotrotz gibt es seit längerem Versuche, Tribalismus als positiven Zukunftsentwurf zu etablieren. Bereits Anfang der 90er Jahre wurde von Michel Maffesoli der „Urban Tribalism“ ausgerufen.17 Dabei geht es nicht mehr um verwandtschaftsbasierte Stämme, sondern um mehr oder weniger selbst gewählte. Er bespricht dort vor allem „Mikrogruppen“, die wir heute wohl als Subkulturen bezeichnen würden. Vom Punk bis zur Aktivistengruppe empfinden Menschen das Bedürfnis, Teil von etwas Größerem zu sein und in Gemeinschaft und Identität aufzugehen. Dieser Trend wirke langfristig der Massengesellschaft entgegen, so Maffesoli.

Es geht aber auch radikaler. In seinem zivilisationskritischen Werk “Beyond Civilization” ruft der Autor Daniel Quinn dazu auf, zivilisatorische Errungenschaften und Institutionen komplett hinter sich zu lassen, um neue stammesähnliche Gemeinschaften zu gründen.18 Die Aktivist/innen von NEOTRIBES beziehen sich vor allem auf Quinn, wenn sie nach tribalen Auswegen aus der Massengesellschaft suchen, sehen aber vor allem das Internet als Ermöglichungstechnologie der neuen Stammeskulturen.19

2008 war es Seth Godin, der mit seinem Buch „Tribes“ darauf hinwies, wie gut sich das Internet eignet, eigene Stämme zu gründen.20 Sein Buch solle man dafür als Anleitung verstehen. Der zentrale Hinweis: Man müsse als Häretiker zum Mainstream auftreten, den wunden Punkt im etablierten Denken finden und sich ihm entgegenstellen. Mit etwas Glück fände man Anhänger der eigenen steilen These, die man dann über das Internet vernetzen und mobilisieren kann. Solche Stämme stiften Identität und entfesseln Energien bei ihren Anhängern, dass man mit ihnen zusammen die Welt verändern könne. Tatsächlich lassen sich viele der Ideen von Seth Godin gut auf heutige Gruppenphänomene im Internet übertragen, nicht zuletzt der Trump-Kampagne 2016.

Fassen wir zusammen: Digitale Stämme haben den verwandtschaftlichen mit einem umso stärkeren thematischen Fokus ausgetauscht. Das Thema ist Dreh- und Angelpunkt des Stammes und gleichzeitig das wesentlichste Abgrenzungsmerkmal zum „Mainstream“, demgegenüber er sich häretisch verhält. Dadurch wird eine starke Kohäsion und Homogenisierung nach innen erwirkt, aber vor allem eine starke Abgrenzung nach Außen. All das triggert die tribalistischen Grundlagen unseres Moralgefüges – es geht nur noch um „Die“ gegen „Uns“. Das spiegelt sich auch in den Erzählungen wider. AfD, Pegida und Co. sehen sich als Rebellen, die sich gegen den irrlichternden Mainstream wenden, der aus ihrer Sicht korrupt, bestenfalls ideologisch verblendet ist. Zudem fühlen sie sich politisch verfolgt und unterdrückt. Narrative wie das von der „Lügenpresse“ und den „Altparteien“ sind Werkzeuge, die Grenze zwischen dem eigenen und dem feindlichen Stamm zu markieren.21 Und es ist genau diese Abgrenzung, die wir anhand der Clusterbildung innerhalb der Netzwerkstrukturen einerseits und als thematische Fokussierung anhand von Wortstatistik andererseits empirisch aufzeigen können.

Gegencheck: Linke Fake News

Unsere These lautet also, dass wir es bei der roten Fake-News-Gruppe mit einem „digitalen Stamm“ zu tun haben und dass die Unterschiede zu der Richtigsteller-Gruppe aus ihren spezifisch tribalen Eigenschaften resultieren. Diese Eigenschaften sind: engere interne Vernetzung bei gleichzeitiger „Abspaltung“ vom Mainstream (Restnetzwerk), eine intensive thematische Fokussierung und daraus resultierend eine Anfälligkeit zur Verbreitung von Fake News, die in das thematische Raster fallen.

Unser Stamm ist offensichtlich rechtslastig: Seine Fokussierung auf die Flüchtlingsthematik spricht eine deutliche Sprache. Negative Flüchtlingsgeschichten werden nicht oder deutlich weniger hinterfragt und unkritisch verbreitet, selbst dann, wenn die Nachrichtenlage dünn und die Geschichten unplausibel sind. Teilweise werden die Geschichten sogar wider besseren Wissens verbreitet.

All das bedeutet allerdings nicht, dass es nicht auch ganz andere digitale Stämme im deutschsprachigen Twitter gibt oder geben kann. Unsere Entdeckung des Stammes mittels Fake News hat insofern einen eingebauten Bias. Die Fake-News-Ereignisse fungieren quasi als Blitzlicht, das eine Momentaufnahme eines Teils des Gesamtnetzwerks ermöglicht, aber eben nur eines begrenzten Teils. Mit Fake News von rechts entdeckt man rechte Stämme. Aber wenn unsere Theorie soweit richtig ist, könnte man linke Stämme endecken, indem man von links blitzt, das heißt linke Fake News untersucht. Jedenfalls sofern es welche gibt.

Um es vorweg zu sagen: Es war gar nicht leicht, linke Fake News zu finden. Jedenfalls wesentlich schwerer als rechte. Das ist auch deswegen interessant, weil es im US-Wahlkampf ganz ähnlich war.22

Ein Beispiel, auf das wir recht schnell stießen, ist der Fall Khaled, obwohl der Begriff Fake News hier nicht zu 100% passt.23

Am 13.01.2015 wurde der Flüchtling Khaled Idris aus Eritrea in Dresden erstochen aufgefunden. Das geschah während der Hochphase der Pegida-Demonstrationen, bei denen es zu verschiedenen anderen Gelegenheiten bereits zu gewaltsamen Ausschreitungen kam. Während also die Behörden noch ermittelten und sich mit Mutmaßungen zurückhielten, legten vor allem linke Medien und viele Twitternutzer/innen einen Zusammenhang des Mordes mit den Pegida-Demonstrationen nahe. Die Ermittlungsarbeit wurde skandalisiert („auf dem rechten Auge blind“) und der Tod Khaleds immer wieder vorschnell als rassistische Tat verurteilt. Durch die Ermittlungen der Polizei stellte sich schließlich heraus, dass Khaled von einem der Mitbewohner seiner Asylunterkunft erstochen worden war.

Wir gingen genauso vor, wie bei den ersten beiden Beispielen. Wir färbten also die Fake News (oder sagen wir: die falschen Mutmaßungen) rot und die Richtigstellungen blau. Grün ist wie zuletzt die Metadebatte, die gerade bei diesem Beispiel eine große Rolle spielte.

Die daraufhin entstandene Grafik ist auf den ersten Blick eine komplett andere und doch erinnern einige Strukturmerkmale auf eigentümliche Weise an unsere ersten beiden Grafiken – nur scheinen sie hier invertiert. So lässt sich die räumliche Aufteilung in zwei Cluster anhand ihrer Proportionen exakt wiedererkennen. Nur ist ihre örtliche und farbliche Verteilung eine völlig andere.

Wieder haben wir zwei Gruppen. Wieder haben wir die Wolke und den Knoten. Nur ist die Wolke dieses Mal auf der rechten, der Knoten auf der linken Seite.24 Wieder haben wir es mit einer kleineren, engeren und homogeneren Gruppe zu tun (was laut unserer Theorie wieder auf tribale Eigenschaften hinweist) und einer größeren, loseren Wolke, die wiederum die Massenmedien inkludiert. Auch hier ist die kleinere Gruppe wesentlich homogener in der Farbgebung. Doch anstatt Rot sind hier Grün und Blau dominant. Das Rot findet man dieses Mal in der großen Wolke, allerdings nicht als homogene oder auch nur dominante Farbe, sondern mehr als leichte Sprenkel – verteilt über die ganze Wolke, die eigentlich ebenfalls aus Richtigstellung (blau) und Metadebatte (grün) besteht.

Das sind Ergebnisse, mit denen wir nicht gerechnet haben. Zwar stand es durchaus in Frage, dass wir einen linken Stamm finden, aber eine so eindeutige Antwort hatten wir nicht erwartet. Wir fanden nicht nur keinen von Fake News getriebenen linken Stamm, sondern fanden wieder eine stammes-ähnliche Struktur, die in diesem Beispiel aber auf der Seite der Richtigsteller firmiert. In der Wolke finden wir zwar auch Fake-News-Verbreiter, aber es gibt keine Abspaltung, sondern eine wilde Vermischung von Fake-Newsern, Richtigstellern und Metadebattierern.

Um die Robustheit unserer Analyse zu stärken, untersuchen wir auch hier ein zweites Beispiel:

Am 27.1.2016 schreibt ein freiwilliger Helfer der Berliner Flüchtlings-Initiative „Moabit Hilft“ einen Facebook-Eintrag, in dem er von einem Flüchtling berichtet, der nach tagelangem Schlangestehen vor dem LAGeSo (Landesamt für Gesundheit und Soziales) zusammengebrochen und später im Krankenhaus verstorben sei. Die Nachricht verbreitete sich wie ein Lauffeuer, was auch daran lag, dass die Zustände am Berliner LAGeSo bereits seit dem Sommer 2015 allgemein als chaotisch galten. Viele Social-Media-Accounts griffen den Fall auf und skandalisierten ihn entsprechend. Auch Medien griffen die Ereignisse auf, einige zunächst recht unkritisch. Im Laufe der Zeit aber – als niemand den Toten bestätigen konnte und der Autor des ursprünglichen Facebook-Posts nicht auf Anfragen reagierte – wurde die Berichterstattung immer distanzierter. Noch im Laufe desselben Tages wurde der Nachricht auch offiziell von Polizeiseite widersprochen. In den folgenden Tagen stellte sich heraus, dass sich der Helfer die Geschichte wohl – anscheinend völlig überarbeitet und unter Alkoholeinfluss – ausgedacht hatte.

Wir gingen wie im Fall Khaled vor mit dem Unterschied, dass wir wieder die vierte Farbe Gelb verwenden, um die sich um Distanz Bemühten von den unkritischen Verbreitern der Fake News abzuheben.

Auch dieses Beispiel bestätigt die Erkenntnisse aus dem Fall Khaled. Wieder sind die Fake-News-Verbreiter weit verstreut, es lässt sich keine enger vernetzte Gruppe ausmachen. Auch in diesem Fall sticht eine abgespaltene Gruppe heraus, die besonders eifrig die Richtigstellung verbreitet. Das gibt unserer These Nahrung, dass es sich um dieselbe Gruppe handelt, wie die, die in den anderen Beispielen so anfällig für rechte Fake News ist: unser rechter, digitaler Stamm.

Um diese These zu untermauern sind wir „manuell“ durch den Tweet-Fundus gegangen und haben uns stichprobenartig einzelne Tweets aus der tribalen Gruppe angeschaut.

Um es vorsichtig auszudrücken: Hätten wir eine Farbe für Häme und Sarkasmus eingeführt, würde sich dieser Cluster noch deutlicher vom Rest abheben. Die Tweets sind inhaltlich zwar Richtigstellungen oder Metadebattenbeiträge, doch die Schadenfreude über die enthüllte Fake News ist unübersehbar. Hier ein paar Beispiele aus dem LaGeSo-Fall:




Noch dazu kommt in den Beiträgen das tiefe Misstrauen gegenüber den Massenmedien zum Vorschein, das bekanntermaßen im Begriff „Lügenpresse“ Ausdruck findet. In der Aufdeckung der Fake News wird wiederum ein tief verankerter Glauben an ein Narrativ dieses Stammes bedient: Dass die Medien die Wahrheit über die Flüchtlinge verschweigen und dass sie Geschichten über rassistische Gewalt erfinden oder übertreiben.

Als Erkenntnisse können wir festhalten:

  1. Anhand von linken Fake News zu Flüchtlingen lässt sich kein linkes Pendant des rechten Stammes nachweisen. Im Gegenteil zeigt sich, dass Verbreiter linker Fake News sehr gut im Mainstream integriert sind.
  2. Der Mainstream (die Wolke) selbst verhält sich bei linken Fake News ambivalent. Er twittert sowohl die Fake News, aber vor allem auch die Gegendarstellungen und die Metadebatte. Alles mischt sich in der großen bunten Wolke.25
  3. Der rechte Stamm ist hingegen als solcher auch bei linken Fake News erkennbar. Auch hier tritt er als abgespaltener Cluster und ungewöhnlich homogen in der Farbgebung hervor, nur hier eben auf der Seite der Richtigsteller. (Auch wenn die Richtigstellungen vor allem Verhöhnungen sind)
  4. Das bedeutet aber nicht, dass es A) keine linken Stämme gibt, die vielleicht bei anderen Themen, als der Flüchtlingskrise auffindbar sind. 26 Und B) dass es nicht noch eine Vielzahl anderer Stämme gibt, vielleicht mit gänzlich unpolitischen oder politisch nicht klar zuordenbaren Themen. Davon ist sogar auszugehen.

Tribale Epistemologie

Auch wenn einige Ergebnisse der linken Fake-News-Untersuchung überraschend sind, bestätigen und verfestigen sie unsere These des rechten Stammes um so mehr. Der rechte Stamm ist real und es ist wenig überraschend, dass er bei allen Nachrichten mitmischt, die etwas mit Flüchtlingen zu tun haben – ob nun auf der Fake-News-Seite oder nicht.27

Unser theoretisches Verständnis des „Tribalismus“ ist an dieser Stelle allerdings noch zu weit gefasst, um das beobachtete Phänomen in seiner Besonderheit zu fassen. Menschen tun sich gerne zusammen, Menschen grenzen sich gerne ab – soweit nichts neues. Im Grunde kann man alle losen oder festen Gemeinschaften eine tribalistische Grundlage unterstellen. Hacker, Piraten, Weird Twitter, die Netzgemeinde, Telekommunisten, Sifftwitter, 4chan, Prepper, Furrys, Cosplayer, Gamer, Bronies, etc. Alles „digitale Stämme“? Vielleicht. Aber wenn man das ohne genauere Prüfung behauptet, läuft der Begriff Gefahr, an Schärfe zu verlieren und wird den bisherigen Beobachtungen nicht mehr gerecht.28

Was unser Phänomen so besonders macht, ist dieser spezifische Bezug zur Realität, der sich zudem kongruent in der Netzwerkstruktur abbildet. Weltwahrnehmung und Gruppe – so scheint es – sind eins. Das ist das wesentliche Merkmal der „tribalen Epistemologie“.

Den Zusammenhang von Gruppenidentität und Wahrnehmungspsychologie, hat in den letzten Jahren vor allem Dan M. Kahan untersucht. Kahan und sein Team vom Cultural Cognition Project29 haben in verschiedenen experimentellen Studien gezeigt, wie sehr beispielsweise die politische Zugehörigkeit die Beurteilung von Argumenten und Fakten beeinflusst.

In einer Studie gab Kahan einer Gruppe von repräsentativ ausgesuchten Probanden vier Versionen einer Problemlösungsaufgabe.30 In zwei der Versionen ging es um Testergebnisse zu einer medizinischen Hautcreme und die Probanden sollten anhand der Daten einschätzen, ob die Creme hilfreich ist oder nicht. In der einen Version der Aufgabe zeigten die Daten, dass die Hautcreme eher schadet als nützt. In der anderen Version ging hervor, dass die Hautcreme die Situation verbessert. In den zwei anderen Aufgaben waren dieselben Daten aufgelistet, nur bezogen sie sich nicht auf die Wirksamkeit von Hautcremes, sondern auf die Wirksamkeit der politischen Maßnahme, das offene Tragen von Schusswaffen zu verbieten. Städte, die Schußwaffen gebannt hatten, hatten in der einen Version der Studie eine höhere, in der anderen Version eine niedrigere Kriminalitätsrate.

Alle Probanden wurden vor der Aufgabe unterschiedlichen Tests ausgesetzt; einerseits zu ihrer Zahlenkompetenz (numeracy) und andererseits zu ihrer politischen Einstellung. Es stellt sich heraus, dass die Zahlenkompetenz ein guter Vorhersagefaktor für den Lösungserfolg der Aufgabe ist, wenn die Zahlen in Bezug zur Wirksamkeit der Hautcreme interpretiert werden. Beziehen sich die Zahlen aber auf die Waffenbesitzregulierung, wiegt der Faktor der politischen Einstellung schwerer als der der Zahlenkompetenz. So weit, so wenig überraschend.

Das Überraschende ist nun, dass sich die Zahlenkompetenz bei polarisierenden Themen sogar negativ auswirkt. In der Waffenfrage war die ideologische Polarisierung bei Menschen umso deutlicher, je höher ihre Zahlenkompetenz war. Kahan interpretiert die Daten so, dass kognitive Kompetenzen in ideologischen Streitfällen nicht dafür eingesetzt werden, die eigene Einstellung mit der Welt der Fakten in Einklang zu bringen, sondern, dafür, die eigene Positionierung trotz Gegenbeweisen weiterhin zu rechtfertigen.

Kahan und seine Forscherkolleg/innen kommen zu einer verstörenden Schlussfolgerung: „Kultur schlägt Fakten“. Menschen sind intuitiv mehr daran interessiert ihren Identitätsrollen gerecht zu werden, als ein ungetrübtes Weltbild zu entwickeln und setzen ihre kognitiven Fähigkeiten deswegen für zweiteres ein. Kahan nennt dieses Phänomen „Identity protective cognition“, also „identitätsschützende Kognition“. Was der eigenen Identität gefährlich wird, wird mithilfe der eigenen intellektuellen Fähigkeiten einfach wegerklärt.31 Auffällig ist dieses Verhalten aber nur bei polarisierenden Themen, bzw. Themen, mit denen man sich sehr identifiziert – negativ wie positiv. Kahan konnte die Ergebnisse für verschiedene andere Themenbereiche bestätigen, zum Beispiel zur Frage des Klimawandels oder zur Frage nach Atommüll-Endlagerung.

Kahan hat dank seiner Forschung auch eine Theorie zu Fake News. Er glaubt nicht an die vorherrschende Erzählung, dass Fake News durch motivierte Kreise wie Wahlkampfteams, die russische Regierung oder enthusiastische Unterstützer/innen in die Öffentlichkeit eingeschleust werden, um diese zu manipulieren. Vielmehr glaubt er, dass es eine „motivierte Öffentlichkeit“ gibt, die einen Bedarf an Meldungen hat, die ihre Sichtweise bestätigen. Ein Bedarf, der größer ist als das Angebot an solchen Nachrichten.32 Fake News schließen gewissermaßen nur eine Marktlücke. Informationen dienen weniger als Wissensressourcen, denn als Identitätsressourcen – und da spielt es keine Rolle, ob sie wahr oder falsch sind.

Der rechte Stamm in unserer Untersuchung ist eine solche „motivierte Öffentlichkeit“. Zugehörigkeits- und Abgrenzungs-Signale spielen in ihrer Beurteilung von Fakten eine wesentlich größere Rolle, als Wahrhaftigkeit oder gar Plausibilität. Auch die Annahme, dass neue Informationen diese Gruppe in ihrem Denken umstimmen, oder entradikalisieren könnten, kann an dieser Stelle eine Absage erteilt werden. Richtigstellungen haben in so einem Klima zwar eine Chance wahrgenommen, aber nicht akzeptiert und erst recht nicht weiterverbreitet zu werden.

Tribale Institutionen in den USA

In seinem Text über die Tribale Epistemologie macht David Roberts eine weitere interessante Beobachtung, die auch gut auf die Situation in Deutschland übertragbar ist. Während die Massenmedien, die Wissenschaft und andere Institutionen sich als überparteilich präsentieren und verstehen, wird genau dieser Anspruch von der tribalen Rechten bestritten. Im Gegenteil wird von rechts unterstellt, dass die Institutionen eine liberale/linke Agenda fahren, dass sie mit dem politischen Establishment/Altparteien „unter einer Decke stecken“. Es wird folglich nicht nur die gegnerische Partei abgelehnt, sondern das gesamte politische, wissenschaftliche und mediale System wird als korrupt verworfen.33

Dass diese Verschwörungstheorien zwar falsch sind, aber einen gewissen wahren Kern haben, habe ich bereits anderswo ausgeführt.34 Tatsächlich ist es ja so, dass es in Medien, Politik und Wissenschaft einen gewissen liberalen Grundkonsens gibt, dem viele Bürger/innen skeptisch bis ablehnend gegenüberstehen.35

Statt aber die Institutionen reformieren zu wollen oder ihren Bias zu bekämpfen, verhelfen neue Kommunikationsstrukturen wie das Internet (aber nicht nur das Internet) dazu, kostengünstig alternative Medien und Institutionen zu etablieren. Genau das geschieht in den USA bereits seit den 90er Jahren kontinuierlich. Es hat sich dort eine Art rechte Parallelmedienlandschaft mit beachtlicher Reichweite und hohem Mobilisierungspotential gebildet. Das Entscheidende ist: da diese alternative Medienlandschaft den Anspruch der klassischen „Mainstreammedien“ zur Überparteilichkeit nicht anerkennt, versucht sie gar nicht erst diesem Ideal nachzueifern. Wir sehen diese Tendenzen auch in Deutschland, aber sie sind bei uns noch wesentlich weniger weit entwickelt.

In den USA begann die Abspaltung alternativ-tribaler Institutionen bereits mit den lokalen Talkradios, die sich nach rechts immer mehr radikalisierten. Rush Limbaugh, Sean Hannity und Glenn Beck waren die frühen Provokateure dieser wachsenden Szene. Seit Mitte der 90er kaufte der neue TV-Sender Fox News einige der „angry white men“ ein und machte sich daran, rechte Radikalrhetorik in den Mainstream zu tragen und wurde so zum medialen Ankerpunkt der Tea-Party-Bewegung.36 Doch noch während des Vorwahlkampfes wurde Fox News rechts von einem neuen Player überholt: der Website Breitbart News, die sich schon früh auf Donald Trump festlegte und die rechte Basis neu definierte – und vor allem auf ein neues Hauptthema einschwor: Migration.

Es verwundert deswegen nicht, dass sich diese Spaltung in den Medien anhand von Social-Media-Daten nachzeichnen lässt. In einer vielbeachteten Studie der Harvard Universität werteten Wissenschaftler/innen um Yochai Benkler 1,25 Millionen Nachrichten aus, die von insgesamt 25.000 Quellen während der Zeit des US-Wahlkampfs (vom 1. April 2015 bis zum Urnengang) auf Twitter und Facebook geteilt wurden.37


Erklärung: Die Größe der Knoten entspricht, wie häufig die Inhalte der Twitter-Accounts geteilt wurden. Der Ort der Knoten zueinander zeigt, wie oft sie von denselben Leuten zur selben Zeit geteilt wurden. Die Farben geben an, ob sie oft von Leuten geteilt werden, die entweder Clinton (blau) oder Trump (rot), oder beide/keinen (grün) retweeten.

Auch wenn die Metriken durchaus anders als in unserem Beispiel funktionieren, sind ihre Aussagen erstaunlich vergleichbar. Vernetzungsdichte und Polarisierung bilden sich in der Harvard-Studie genauso deutlich ab, wie in unserer Auswertung, wenn auch etwas anders. In der vorliegenden Polarisierung finden wir ebenfalls dieselbe, deutliche Asymmetrie: Fast alle traditionellen Medien befinden sich auf der linken, blauen Seite, während sich in Rot kaum ein Medium findet, das älter als 20 Jahre ist. Die meisten und wichtigsten sind sogar jünger als 10 Jahre.

Die Autor/innen der Studie folgern aus dieser Asymmetrie – ähnlich wie wir –, dass die Spaltung keine technische Ursache haben kann. Wäre sie technisch, hätten sich auf der linken wie auf der rechten Seite neue, polarisierende Medien herausgebildet. Und sie würden links eine genauso große Rolle spielen, wie zum Beispiel Breitbart News auf der rechten Seite.
Es gibt aber auch einen deutlichen Unterschied zu unseren Ergebnissen: Die rechte Seite ist trotz ihrer relativen Neuheit und Radikalität den traditionellen Medien auf der – in der Grafik und nicht notwendigenfalls politischen – linken Seite durchaus ebenbürtig. Es handelt sich also nicht um eine Polarisierung zwischen extrem links und extrem rechts, sondern zwischen moderat links und extrem rechts.

Da die linke Seite der Verteilung im Grunde das abbildet, was bislang das Bild der Öffentlichkeit repräsentierte – die traditionellen Massenmedien im Zentrum von den sie umschwärmenden kleineren Medien, wie Blogs und erfolgreiche Twitter-Accounts – ist es vielleicht falsch von einer Spaltung und Polarisierung im Ganzen zu sprechen. Vielmehr sollte man von einer „Abspaltung“ sprechen, denn hier entsteht etwas Neues in Abgrenzung zu etwas Altem. Die rechten Medien und ihre Öffentlichkeiten haben sich jenseits der etablierten Öffentlichkeit gebildet, um sich in Opposition zu ihr zu setzen. Sie haben sich abgespalten, nicht weil das Internet oder die Filterblasen das so bewirkt haben, sondern weil sie es so wollten.

Die Autor/innen der Studie kommen wie wir zu dem Schluss, dass diese Abspaltung folglich kulturelle und/oder ideologische Gründe haben muss. Sie analysieren die Themen der Rechten und zeigen auf, dass ihr Nachrichtenschwerpunkt auf Migration lag, aber auch auf der vermeintlichen Korruptheit von Hillary Clinton und das sie unterstützende Mediensystem, „the liberal Media“. Auch auch hier gilt: Fake News und politisch irreführende Nachrichten gehören zur Normalität und zu den meistverbreiteten Nachrichten dieser Abspaltung.

Es ist Vorsicht geboten, die beiden Analysen allzu eng zu vergleichen, dafür ist die politische und die Medienlandschaft in Deutschland und in den USA zu unterschiedlich. Dennoch drängt sich der Verdacht auf, dass wir es hier mit strukturgleichen Phänomenen zu tun haben.

Die Ähnlichkeiten der US-Abspaltung mit unserem rechten Stamm im Überblick:

  1. Abspaltung von der etablierten Öffentlichkeit
  2. Traditionelle Massenmedien verbleiben dabei auf der „anderen“ Seite.
  3. Themenschwerpunkt Migration und die eigene Opferinszenierung.
  4. Verstärkte Anfälligkeit für Fake News
  5. Neuheit der Medien-Kanäle

Wir können also vermuten, dass unsere fakenewsverbreitenden Twitter-Accounts Teil einer ähnlichen Abspaltung sind, wie wir sie in der Harvard-Studie noch deutlicher sehen können. Mehr noch: Man könnte an dieser Stelle spekulieren, dass die USA dieselben Abspaltungsprozesse lediglich früher durchgemacht haben und dass der Befund der Studie quasi dasselbe Phänomen wie unsere Beobachtungen zeigt, nur in einem späteren Stadium. Aus einem Stamm kann eine Parallelgesellschaft entstehen, mit eigenen Medien, eigenen Institutionen und nicht zuletzt: einer eigenen Wahrheit.

Das, was wir in den USA gesehen haben, wäre die Machtübernahme eines zur Parallelgesellschaft ausgewachsenen Super-Stammes. Es ist auszuschließen, dass die kleine Blase, die wir gefunden haben, bei der Bundestagswahl eine vergleichbare Wirkung hatte. Es ist aber nicht auszuschließen, dass der Stamm weiter wächst und gedeiht und irgendwann ähnlich disruptiv in Erscheinung tritt wie sein amerikanisches Pendant.

Dafür muss er aber eigene Strukturen entwickeln, die über die individuelle Vernetzungsstruktur einzelner Twitter-Accounts hinausgehen. In Ansätzen ist das bereits beobachtbar. Blogs wie Political Incorrect, Achgut und Tichys Einblick und vor allem die vielen erfolgreichen, rechten Facebook-Pages und -Gruppen können als „Tribale Institutionen“ gelesen werden. Sie verfügen noch lange nicht über die Reichweite und oft auch nicht über dieselbe Radikalität wie ihre amerikanischen Pendants, aber das kann eine Frage der Zeit sein.

Fazit

Der Traum der freien Vernetzung war ein naiver. Nimmt man alle vergesellschaftenden Zwänge weg, treten unsere prädispositiven Sozialisationsmuster nur umso deutlicher hervor. Menschen haben einen fest verdrahteten Hang, Gruppen zu bilden, sich zu identifizieren, sich abzugrenzen. Ja, wir sind freier in unserer Sozialisation denn je, aber das führt eben nicht zu mehr Individualismus, sondern paradoxerweise in vielen Fällen zu einer stärkeren Gruppenaffinität. Der Stammes-Trieb kann sich nur umso freier entfalten und kommt umso unbändiger zum Tragen. Und je länger ich darüber nachdenke, frage ich mich, ob die fremdbestimmten Kategorien und vorgegebenen Gruppenstrukturen der modernen Gesellschaft nicht auch eine friedensstiftende Zähmung des allzu menschlichen Tribalismus sind. Oder waren. Das Internet ist noch lange nicht fertig mit der Dekonstruktion der modernen Gesellschaft.38

Über die neue Rechte haben wir viel Neues erfahren. Sie ist nicht einfach eine Seite im politischen Kontinuum, sondern eine Abspaltung, das Abspreizen eines neuen Raums jenseits des herkömmlichen politischen Kontinuums. Das Internet ist nicht schuld an dieser Abspaltung, macht sie aber möglich und damit wahrscheinlich. Befreit von den Zwängen und Normalisierungsdynamiken des herkömmlichen Kontinuums, lassen sich „politisch inkorrekte“ Parallelrealitäten schaffen, die sich nicht mehr nur an die gesellschaftlichen Konventionen, sondern gar nicht mehr am Anspruch der Faktizität orientieren müssen.
Jonathan Haidt schreibt in „The Righteous Mind“, dass der Mensch nur ein einziges Argument braucht, um einen Glauben oder einen Nichtglauben zu rechtfertigen. Wenn ich etwas glauben muss (aber nicht will), reicht ein Gegenargument aus, tausend Argumente zu verwerfen. 99 von 100 Klimawissenschaftler sagen, der Klimawandel ist real? Der eine, der was anderes sagt, reicht mir, um die 99 anderen Meinungen zu verwerfen. Oder ich will etwas glauben, wogegen alle Fakten sprechen. Selbst wenn alle meine Einwände gegen die offizielle Version von 9/11 entkräftet werden – ein Argument findet sich immer, um den Glauben beizubehalten, dass es sich um einen „inside job“ handelte.

Das eine Argument ist der Grund, warum der rechte Stamm immun gegenüber den Richtigstellungen seiner Fake News ist, obwohl sie ihn erreichen. Es bleibt immer ein Argument über, um an seinem Narrativ – und somit an seinem Stamm – festzuhalten. Genau dafür wurde das Wort „Lügenpresse“ erfunden. Es impliziert mitnichten die komplette Ablehnung von allem, was die Massenmedien schreiben, sondern ist die Rechtfertigung dafür, der Presse nur das zu glauben, was in das eigene Weltbild passt und den Rest abzutun.39

Ließe man sich auf die tribalistische Sichtweise auf die Medienlandschaft ein (eure Medien vs. unsere Medien), dann würden die klassischen Massenmedien mit ihrer Selbstverpflichtung zu Wahrheit, Ausgewogenheit und Neutralität immer etwa zur Hälfte auf das Konto der Rechten einzahlen, während die rechten Medien ausschließlich auf ihr eigenes Konto buchen. An Überparteilichkeit glauben und danach zu handeln wird so zum entscheidenden strategischen Nachteil der traditionellen Massenmedien.

Die Rechte wird hier mit Sicherheit kontern, dass die tribalistischen Affekte und Strukturen, derer sie in diesem Text bezichtigt werden, doch auf die Linke ebenso zutreffen. Dafür gibt es aber keine Indizien. Eine Gleichsetzung der von uns beobachteten Gruppen jedenfalls verbietet sich aufgrund der deutlichen Datenlage. Das bedeutet allerdings nicht, dass es nicht vielleicht tribalistische Affekte auf der linken Seite gibt, oder sie sich als Reaktion auf die Rechte noch bilden. Auch links gibt es Glaubenssysteme, die stark identitätsstiftend wirken, und wenn Dan Kahan mit seiner Theorie der „Identity Protective Cognition“ recht hat, sollten sich auch auf der linken Seite mit den richtigen Themen ähnliche Effekte beobachten lassen.

Dieser Essay ist kein richtiger Forschungsbericht, sondern kann nur der Startpunkt einer Forschung sein. Es sind noch sehr viele Fragen unbeantwortet und auch einige von uns gemachte Annahmen sind noch nicht hinreichend belegt. Klar ist aber, dass wir hier auf etwas gestoßen sind, das zum einen eine hohe Aussagekraft für die momentane politische Situation in Deutschland hat. Zum anderen sagt es aber – das ist meine Einschätzung – auch etwas Grundlegendes über Politik und Gesellschaft im Zeitalter der digitalen Vernetzung aus.

Jede Politik wird – so es um polarisierende Themen geht – zur Identitätspolitik. Und Identitätspolitik ist hoch motivierend, kompromisslos und wenig bis gar nicht faktenorientiert.

Ein paar offene Forschungsfragen, die der Beantwortung harren:

  1. Können wir wirklich beweisen, dass der permanent auftauchende rechte Stamm strukturidentisch (und zumindest größtenteils accountidentisch) mit allen von uns aufgezeigten Erscheinungen ist? Wir haben gute Hinweise dafür, aber der Beweis steht noch aus. Es müsste die gesamte Gruppe durchmessen werden und dann gezeigt werden, dass die Fake-News-Accounts Teil dieser Gesamtgruppe sind.
  2. Wir haben in unseren Untersuchungen zwei spezielle Gruppen miteinander verglichen: rechte Fake-News-Verbreiter und diejenigen, die die Richtigstellungen zu Fake News verbreiten. Die Unterschiede sind wunderbar eindeutig, aber der Vergleich problematisch: Die Richtigsteller sind ebenfalls eine selbstselektierte Gruppe, also nicht repräsentativ. Zudem sind die Gruppen auch noch unterschiedlich groß. Aussagekräftiger wäre also der Vergleich der Fake-News-Gruppe mit einer randomisierten Vergleichsgruppe gleicher Größe.
  3. Facebook. Facebook ist in der deutschen politischen Debatte der wesentlich einflussreichere Player als Twitter. Können wir also dasselbe oder ähnliche Phänomene auf Facebook finden? Ich würde davon ausgehen, aber bewiesen ist das noch nicht.
  4. Um den Begriff „digitaler Stamm“ zu rechtfertigen, sollten weitere Stämme gefunden und erforscht werden. Es braucht dafür eine digitale Ethnologie. Gibt es im deutschen Sprachraum weitere Stämme, mit anderen Agenden, Ideologien oder Narrativen, die aber eine ähnliche Abspaltung und Radikalisierung zeigen? Einige Kandidaten wären die digitale Männerechtsbewegung, Sifftwitter und verschiedene Gruppen von Verschwörungstheoretikern. Dann: Wie unterscheiden sich digitale Stämme? Welche Typen von Stämmen lassen sich sinnvoll unterscheiden, etc.? Oder ist Tribalismus mehr eine Achse, auf der man verschiedene Gruppen verorten kann; gibt es verschiedene „Grade“ des Tribalismus und welche Metriken wären dafür sinnvoll?

Es gibt bereits einige Bemühungen zu einer digitalen Ethnologie, doch habe ich das Gefühl, dass ein interdisziplinärer Ansatz vonnöten ist, wenn es um digitale Stämme geht. Datenanalysten, Netzwerkforscher, Psychologen, Soziologen, Ethnologen und Programmierer – vielleicht sogar Linguisten – müssten zusammenarbeiten, um dem Phänomen auf den Grund zu gehen.

Ein andere, weniger wissenschaftliche Frage, ist die, wo das alles endet. Ist der digitale Tribalismus ein nachhaltiger Trend und wird er – wie in den USA geschehen – die Institutionen der modernen Gesellschaft weiterhin unter Druck setzen, sie vielleicht auf lange Sicht sogar zerstören?

Und dringend darauf aufbauend: Was können wir dagegen tun?

Kann man gegen die tribalistischen Reflexe aufklären? Kann man vor ihnen warnen, sie sogar sozial ächten? Oder müssen wir mit ihnen leben und neue Wege finden, sie friedlich zu kanalisieren?

Jonathan Haidt hat zwei Antworten für uns parat. Er vergleicht unsere moralische Entscheidungsmaschinerie mit einem Elefanten und seinem Reiter, wobei der Elefant intuitiv tut, wonach ihm gerade ist, und der Reiter immer nur nachträglich verrationalisiert und rechtfertigt, wo der Elefant nun schon wieder hingegangen ist. Eine erfolgreiche Strategie der Überzeugung besteht also nicht darin, den Reiter mit klugen Argumenten zu konfrontieren, sondern dafür zu sorgen, dass der Elefant einem wohlgesonnen ist. Zum Beispiel durch das Herstellen von persönlichen Vertrauensverhältnissen, um dann mit einer nichtkonfrontativen Argumentationsweise Wege aus der Identitätsfalle zu weisen.

Eine andere Antwort, die Haidt gibt, ist tatsächlich die Kraft der Institution. Institutionen setzen im besten Falle verschiedene Menschen und ihr Weltbild in Konkurrenz zueinander, so dass die verminderte Urteilskraft des Einzelnen ausgeglichen wird. Die Wissenschaft sei zum Beispiel so organisiert, dass einzelne Mitglieder die Erkenntnisse anderer Mitglieder herausfordern sollen. Solange sich immer jemand findet, der die eigene Sicht auf die Welt herausfordert, kann die Gefahr eingegrenzt werden, in der eigenen Fehlwahrnehmung stecken zu bleiben.

Jedoch verweist unsere Entdeckung des digitalen Tribalismus doch genau auf die Auflösung solcher „Checks & Balances“ und auf die Umarmung des unherausgeforderten Stammesdenkens. Tendenziell habe ich eher den Eindruck, dass die Erosion dieser Lösungsstrategie genau das Problem ist, mit dem wir heute kämpfen.

Einen Vorschlag zum persönlichen Umgang mit dem Phänomen hat, ohne sich tatsächlich auf die Forschung zu beziehen, Paul Graham gemacht. In einem kurzen Essay von 2009 mit dem Titel „Keep Your Identity Small“ rät er genau das: sich nicht allzusehr mit Themen und Debatten und Seiten in diesen Debatten zu identifizieren.40 Je weniger Labels man sich anhefte, desto weniger Identitätspolitiken würde man erlauben, das eigene Urteil zu trüben.

Allerdings ist auch dieser Ratschlag nur schwer zu generalisieren, denn es gibt durchaus legitime Identitätspolitiken. Identitätspolitik ist immer dann berechtigt und sogar notwendig, wenn sie gegen das Denken der Mehrheitsgesellschaft durchgesetzt werden muss, weil die Mehrheit die Ansprüche von Minderheiten nicht mitdenkt. Beispiele sind die Rechte von Homosexuellen oder Transsexuellen oder die Probleme, die durch institutionellen Rassismus entstehen. In diesen Fällen haben die Betroffenen schlicht nicht den Luxus, sich mit den Problemen nicht identifizieren zu können.

Eine gesellschaftliche Lösung des Problems müsste wohl wieder Vertrauen in übertribale/überparteiliche Institutionen herstellen und es ist fraglich, ob das mit den alten Institutionen überhaupt noch funktionieren kann. Letztlich war das Vertrauen in diese immer eine fragile Angelegenheit und wahrscheinlich wäre es schon viel eher zerbrochen, wenn es dazu Gelegenheiten gegeben hätte. Die Gelegenheit kam in Deutschland erst mit dem Internet, das es erlaubt, kostengünstig alternative Medienstrukturen zu etablieren. Neue Institutionen, die die Gesellschaft als Ganzes wieder in einen gemeinsamen Diskursrahmen einhegen sollen, müssten der neuen Agilität von Kommunikation unter den digitalen Bedingungen Rechnung tragen, sie sogar für sich zu nutzen wissen.

Eine Art auf den Tribalismus von Rechts zu reagieren, wäre natürlich, selbst tribalistischer zu werden. Eine ausgeprägte „Wir gegen Die“-Polarisierung war immer auch Teil des wichtigen antifaschistischen Kampfes und letztlich notwendiger Teil der politischen Folklore. Ich habe aber den Verdacht, dass die bloße Beschäftigung mit dem rechten, digitalen Stamm dazu führen kann, dass die Gegenseite – also große Teile der Restgesellschaft – sich unwillkürlich tribalisiert. Das heißt ebenso Kohäsion und Identifikation aus der Ablehnung des „Feindes“ zu ziehen. Damit würde die Gesellschaft dem rechten Stamm allerdings einen großen Gefallen tun, denn dann hätte sich seine Verschwörungstheorie (alle stecken unter einer Decke) in eine selbsterfüllende Prophezeihung verwandelt.

Das Problem des digitalen Tribalismus wird uns vermutlich erstmal nicht verlassen. Er wird weiterhin unsere Debatten transformieren und als Resultat auch unsere politischen Landschaften.

Fußnoten:

 

  1. Oder wenigstens wie es – etwas weniger naiv – Felix Stalder als „vernetzten Individualismus“ in Aussicht gestellt hat, wonach „… Menschen in westlichen Gesellschaften (…) ihre Identität immer weniger über die Familie, den Arbeitsplatz oder andere stabile Kollektive definieren, sondern zunehmend über ihre persönlichen sozialen Netzwerke, also über die gemeinschaftlichen Formationen, in denen sie als Einzelne aktiv sind und in denen sie als singuläre Personen wahrgenommen werden.“ Stalder, Felix: Kultur der Digitalität, S.144.
  2. Roberts, David: Donald Trump and the rise of tribal epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  3. Wir haben Twitter für unsere Analyse ausgewählt, weil es durch sein vergleichsweise offenes Format gut automatisiert auswertbar ist. Uns ist bewusst, dass Facebook gerade in Deutschland und gerade auch in rechten Kreise relevanter ist. Wir gehen aber davon aus, dass sich dort dieselben Phänomene abspielen, sodass sich die Erkenntnisse aus der Twitteranalyse auch auf Facebook übertragen lassen.
  4. Auswärtiges Amt: Schweden: Reise- und Sicherheitshinweise, http://www.auswaertiges-amt.de/sid_39E6971E3FA86BB25CA25DE698189AFB/DE/Laenderinformationen/00-SiHi/Nodes/SchwedenSicherheit_node.html (2017).
  5. Zu einer näheren Beschäftigung mit dem Begriff der Fake News siehe: Seemann, Michael: Das Regime der demokratischen Wahrheit II – Die Deregulierung des Wahrheitsmarktes. http://www.ctrl-verlust.net/das-regime-der-demokratischen-wahrheit-teil-ii-die-deregulierung-des-wahrheitsmarktes/ (2017).
  6. Das Projekt Hoaxmap verfolgt diese rechten Gerüchte und Fake News seit einiger Zeit: http://hoaxmap.org/.
  7. Vgl. Pariser, Eli: The Filter Bubble – How the New Personalized Web Is Changing What We Read and How We Think (2011).
  8. Die Datenbasis dieses Beispiels ist allerdings in mehrerer Hinsicht problematisch.
    1. Der Originalartikel der BILD-Zeitung ist gelöscht. Ebenso der @BILD_de-Tweet dazu und somit alle seine Retweets. Welche Artikel und Bezugnahmen es noch gab, die mittlerweile gelöscht sind, lässt sich nicht mehr rekonstruieren.
    2. Einige der Artikel sind über die Zeit geändert worden. Der Artikel von Spiegel Online war zum Beispiel am Anfang sehr viel reißerischer und wäre von uns vermutlich in der Anfangsphase als klare Fake News kategorisiert worden. Irgendwann, als sich herausstellte, dass es immer mehr Ungereimtheiten gibt, muss er abgeschwächt und relativiert worden sein. Wir wissen nicht mit welchen Artikeln das sonst noch so passiert ist.
  9. Dazu passend hat Eli Pariser, der Erfinder der Filterbubble erst kürzlich in einem Interview zu der Situation in den USA gesagt: “The filter bubble explains a lot about how liberals didn’t see Trump coming, but not very much about how he won the election.” https://backchannel.com/eli-pariser-predicted-the-future-now-he-cant-escape-it-f230e8299906 2017. Das Problem ist also auch laut Pariser eher, dass die linken die Rechten aus dem Blick verlieren, nicht andersrum.
  10. Vgl. Festinger, Leon: A Theory of Cognitive Dissonance, (1957).
  11. Ein spezieller Wortschatz (oder Slang) zeichnet wohl auch einen digitalen Stamm aus. Relative Worthäufigkeiten wurden auch andersrum bereits dazu benutzt, homogene Gruppen in sozialen Netzwerken ausfindig zu machen. Vgl. Studie: Bryden, John / Sebastian Funk / AA Jansen, Vincent: Word usage mirrors community structure in the online social network Twitter, https://epjdatascience.springeropen.com/articles/10.1140/epjds15 (2012).
  12. Nach Haidt, Jonathan: The Righteous Mind – Why Good People Are Divided by Politics and Religion, S. 115
  13. Damit war auch immer die These des Homo Oeconomicus aus der Wirtschaftswissenschaft gut begründbar.
  14. In diesem Zusammenhang sind auch die Forschungen von John Miller und Simon Dedeo interessant. Sie entwickelten eine evolutionär-spieltheoretische Computersimulation, in der Agenten ein Gedächtnis mitbringen, um das Verhalten anderer Agenten in der Vergangenheit in ihre Entscheidungsfindung einzubeziehen. Wissen konnte außerdem unter Generationen von Agenten vererbt werden. Es stellte sich heraus, dass die Agenten anfingen, wiederkehrende Muster in dem Verhalten anderer Agenten zu sehen und ihr Vertrauen auf die Homogenität dieser Muster zu verlagern. Diese „Stämme“ mit homogenen Verhaltensmustern kooperierten vollständig und waren schnell die erfolgreichsten Populationen. Setzten sich aber über viele Generationen durch Mutationen geringe Verhaltensänderungen durch, kam es zu einer Art Genozid. Ganze Populationen wurden ausgelöscht und eine Phase von Instabilität und Misstrauen folgte. Tribalismus scheint eine evolutionäre Strategie zu sein. Vgl. Dedeo, Simon: Is Tribalism a Natural Malfunction? http://nautil.us/issue/52/the-hive/is-tribalism-a-natural-malfunction (2017).
  15. Die These der Gruppenselektion (oder„Multi-Level-Selection“) ist bereits von Darwin ins Spiel gebracht worden, ist aber unter Biologen umstritten. Jonathan Haidt führt gute Argumente ins Feld, warum sie vor allem aus psychologischer Sicht, sehr viel Sinn ergibt. Vgl. Haidt, Jonathan: The Righteous Mind – Why Good People Are Divided by Politics and Religion, 210 ff.
  16. Vgl. auch Greene, Joshua: Moral Tribes – Emotion, Reason, and the Gap Between Us and Them (2013), S. 63.
  17. Maffesoli, Michel: The Time of the Tribes – The Decline of Individualism in Mass Society (1993).
  18. Quinn, Daniel: Beyond Civilization – Humanity’s Next Great Adventure. (1999)
  19. NEOTRIBES http://www.neotribes.co/en
  20. Godin, Seth: Tribes – We Need You to Lead Us (2008).
  21. „Lügenpresse“ kommt zum Beispiel in unserer Auswertung der Tweets der Fake-News-Verbreiter 226-mal vor, bei dem Rest 149. „Altparteien“ kommt sogar auf 235 vs. 24.
  22. “We’ve tried to do similar things to liberals. It just has never worked, it never takes off. You’ll get debunked within the first two comments and then the whole thing just kind of fizzles out.” Das sagt Jestin Coler gegenüber NPR. Er ist professioneller Fake-News-Entrepreneur, der während des US-Wahlkampfes viel Geld mit dem Streuen von Unwahrheiten verdient hat. Sein Zielpublikum seien die Trump-Anhänger, Liberale seien nicht so leicht zu ködern. Sydell, Laura: We Tracked Down A Fake-News Creator In The Suburbs. Here’s What We Learned. http://www.npr.org/sections/alltechconsidered/2016/11/23/503146770/npr-finds-the-head-of-a-covert-fake-news-operation-in-the-suburbs (2016).
  23. Der Unterschied zu Fake News liegt vor allem darin, dass es sich hier nicht um Behauptungen wider besseren Wissens handelte, sondern um Mutmaßungen, die meistens auch als solche Erkennbar waren. Aber der Untersuchung zu liebe tun wir einfach so, als wären falsche Mutmaßungen dasselbe wie Fake News.
  24. Die Ausrichtung der Grafik orientiert sich am Schwerpunkt der Fake-News-Verteilung.
  25. Unklar bleibt hingegen, ob sich mit linken Fake News zu anderen Themen ein digitaler Stamm nachweisen ließe. Große Verbreitung in linken Kreisen finden zum Beispiel falsche Zitate oder Bildmontagen zu Donald Trump. Solche Beispiele sind aber vor allem im englischen Sprachraum aufgefallen und es würde methodisch schwierig werden, hier ein sauberes Forschungsdesign für die deutsche Twittersphäre hinzubekommen. Ein interessantes, zu untersuchendes Beispiel im deutschen Wahlkampf wäre die Fake News (die wohl aber als satirischer Hoax gemeint war), Alexander Gauland hätte sich relativierend über Hitler geäußert. Vgl. Schmehl, Karsten: DIE PARTEI legt AfD-Spitzenkandidat Gauland dieses Hitler-Zitat in den Mund, aber es ist frei erfunden, https://www.buzzfeed.com/karstenschmehl/satire-und-luegen-sind-nicht-das-gleiche?bftwdenews&utm_term=.relgPQzB6#.dgbOgvyQw (2017).
  26. Es gibt nicht wenige Texte zu der tribalistischen, politischen Situation in den USA, in der Autor/innen auch bestimmten linken Kreisen tribalistische Tendenzen unterstellen. Vgl. Sullivan, Andrew: America Wasn’t Built for Humans. http://nymag.com/daily/intelligencer/2017/09/can-democracy-survive-tribalism.html (2017) und Alexander, Scott: I Can Tolarate Anything Except The Outgroup, http://slatestarcodex.com/2014/09/30/i-can-tolerate-anything-except-the-outgroup/ (2014).
  27. Dafür spricht auch, dass bereits bei anderen Ereignissen, ähnliche Phänomene nachweisbar waren. Siehe zum Beispiel die Tweetauswertungen zum Amoklauf von München letztes Jahr. Vgl. Gerret von Nordheim: Poppers Alptraum, http://de.ejo-online.eu/digitales/poppers-alptraum (2016).
  28. Ein Kandidat für einen Stamm, zu dem es bereits Untersuchungen gibt, ist „Sifftwitter“. Luca Hammer hat sich die Netzwerkstrukturen dieser Gruppe angesehen und seine Ergebnisse scheinen zumindest anschlussfähig an unsere Untersuchungen. Vgl. Walter, René: Sifftwitter – Mit den Trollen ums Datenfeuer tanzen. http://www.nerdcore.de/2017/05/09/sifftwitter-mit-den-trollen-ums-datenfeuer-tanzen/ (2017).
  29. Cultural Cognition Project (Yale Law School): http://www.culturalcognition.net/.
  30. Kahan, Dan M.: Motivated Numeracy and Enlightened Self-Government, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2319992 (2013).
  31. Kahan, Dan M: Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2973067 (2017).
  32. Was wiederum den Studien recht gibt, die Fake News in den USA vor allem als kommerzielles Phänomen einordnen. Vgl. z.B. Allcott/Gentzkow: Social Media and Fake News in the 2016 Election, https://www.aeaweb.org/articles?id=10.1257/jep.31.2.211 (2017).
  33. Roberts, David: Donald Trump and the Rise of Tribal Epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  34. Seemann, Michael: Die Globale Klasse – Eine andere Welt ist möglich, aber als Drohung. http://mspr0.de/?p=4696 (2016).
  35. Diesen Bias zu reflektieren hat neulich Richard Gutjahr aufgerufen. Dass die Medienschaffenden tatsächlich eine Filterblase gegen rechte Gedankengebäude haben, ist in unseren Daten nachgewiesen. Vgl. Gutjahr, Richard: Von Fake News, Filterblasen und digitaler Empathie, http://www.gutjahr.biz/2017/05/filterblase/ (2007).
  36. Tatsächlich verweist bereits Seth Godin in seinem 2008er Buch „Tribes“ auf das Beispiel Fox News. Fox News habe es geschafft, sich einen Stamm zu erschaffen. Vgl. God, Seth: Tribes – We need you to lead us, 2008, S. 48.
  37. Berkman Center: Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election, https://cyber.harvard.edu/publications/2017/08/mediacloud (2017).
  38. In diesem Zusammenhang sind auch die teilweise fürchterlichen Ereignisse zu deuten, die in Entwicklungs- und Schwellenländern die Einführung des Internets in breite Bevölkerungsschichten flankieren. Zum Zusammenhang der antimuslimischen Ressentiments in Burma mit Fake News und der wahnsinnig schnellen Popularisierung des Internet siehe zum Beispiel Frenkel, Sheera: This Is What Happens When Millions Of People Suddenly Get The Internet https://www.buzzfeed.com/sheerafrenkel/fake-news-spreads-trump-around-the-world?utm_term=.ldeLYlXJ8#.eyamPokbX (2017) und wie Gerüchte im Internet zu einem Genozid im Süd-Sudan führen könnten: Patinkin, Jason: How To Use Facebook And Fake News To Get People To Murder Each Other, https://www.buzzfeed.com/jasonpatinkin/how-to-get-people-to-murder-each-other-through-fake-news-and?utm_term=.fbDeo8pv0#.xe4EvW2xb (2017).
  39. Vgl. Lobo, Sascha: Die Filterblase sind wir selbst, http://www.spiegel.de/netzwelt/web/facebook-und-die-filterblase-kolumne-von-sascha-lobo-a-1145866.html, (2017).
  40. Graham, Paul: Keep Your Identity Small, http://www.paulgraham.com/identity.html (2009).


Veröffentlicht unter Demokratische Wahrheit Weltkontrollverlust
29 Kommentare

Societies of Post-Control (Talk)

This was my opening keynote at the conference „Societies of Post-Control“ in January 2017 in Amsterdam.


Veröffentlicht unter Demokratische Wahrheit Digital Tribalism english extern Kontrollverlust Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar