Blockchain For Dummies

[German Version]

The ‚blockchain‘ is currently being praised as a new miracle technology. The word appears six times in the German coalition agreement for the new government – and always in the context of new and promising digital technologies.

But what is behind all this?

Blockchain technology was born with its first popular application: Bitcoin. Bitcoin is based on the fact that all transactions made with the digital currency are recorded in a kind of ledger. However, this ledger is not located in a central registry, but on the computers of all Bitcoin users. Everyone has an identical copy. And whenever a transaction happens, it is recorded more or less simultaneously in all these copies. It is only when most of the ledgers have written down the transaction that it is considered completed. Each transaction is cryptographically linked to the preceding transactions so that their validity is verifiable for all. For instance, if someone inserts a fake transaction in between, the calculations are no longer valid and the system raises an alarm. What we’ve got, is a storage technology that no individual can control or manipulate.

Early on, even bitcoin skeptics admitted that besides the digital currency itself, it is the blockchain technology behind it that holds the real future potential. Since then, many people have been wondering where else it could be applied.

The Internet has always been regarded as a particularly decentralized technology, but this holds no longer true for most services today: All of us use one search engine (Google), one social network (Facebook) and one messenger (WhatsApp). And all these services are based on centralized data storage and data processing. Blockchain technology seems to offer a way out–all services that previously operated via central databases could now be organized with a distributed ledger.

The ideas go so far as to depict complex business processes within blockchains. For example, automated payouts to an account when a stock reaches a certain value. That’s called „Smart Contract.“

The hype about blockchain is almost as old as the one around Bitcoin, so we are talking about the inevitability of this technology for like six to seven years now. Hundreds, if not thousands of start-ups have been established since then, and just as many applications of the blockchain have been claimed.

As an interested observer one asks himself, why there is yet no other popular application besides cryptocurrencies (which themselves are more or less speculation bubbles without any real world application)? Why hasn’t a blockchain-based search engine threatened Google, or a blockchain-based social network Facebook? Why don’t we see a blockchain-based drive mediation app, and no accommodation agency–although these purposes have been praised so often? Why do all blockchain technologies remain in the project phase and none of them finds a market?

The answer is that Blockchain is more an ideology than a technology. Ideology means, that it is backed by an idea of how society works and how it should work.

One of the oldest problems in social sciences is the question of how to establish trust between strangers. Society will only exist if this problem is adequately resolved. Our modern society’s approach is to establish institutions as trustful third parties that secure interactions. Think of banks, the legal system, parties, media, etc. All these institutions bundle trust and thus secure social actions between strangers.

However, these institutions gain a certain social power through their central role. This power has always caused a headache to a certain school of thinking: the Libertarians, or anarcho-capitalists. They believe that there should not be a state that interferes in people’s affairs. The market – as the sum of all individuals trading with each other – should regulate everything by its own. Accordingly, they are also very critical of institutions such as central banks that issue currencies. The basic idea behind Bitcoin is to eliminate the central banks – and indeed banks in general – from the equation.

Blockchain is the libertarian utopia of a society without institutions. Instead of trusting institutions, we should have confidence in cryptography. Instead of our bank, we should trust in the unbreakability of algorithms. Instead of trusting in Uber or any other taxi app, we should trust a protocol to find us a driver.

That’s why Bitcoin and blockchain technology is so popular with the American right, which has a long libertarian tradition and rejects the state as such. That’s why it is also very popular with German rights, for example with Alice Weidel from the AfD, who will now hold the keynote at a big German Bitcoin conference and is founding her own blockchain startup. Those who are opposed to the „lying media“ and the „old parties“ are also critical of all other institutions, it seems.

So when you invest in Blockchain, you make a bet against trust in institutions. And that’s also the reason why this bet hasn’t been won once, yet. It’s because the ideology of anarcho capitalism is naive.

Technically speaking, a blockchain can do the same things any database has long been able to do–with a tendency to less. The only feature that distinguishes blockchain here is, that no one has ever to trust a central party. But this generates also costs. It takes millions of databases instead of one. Instead of writing down a transaction once, it has to be written down millions of times. All this costs time, computing power and resources.

So if we do not share the libertarian basic assumption that people should mistrust institutions, the blockchain is just the most inefficient database in the world.


Veröffentlicht unter Algorithmenkritik english extern Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar

What Is Platform Politics? Foundations of a New Form of Political Power

/**** First published in ‘Zeitschrift für sozialistische Politik und Wirtschaft’ (SPW), S. 44 – 49. in December 2017. ****/

[PDF]
[German Original]

In early 2017, shortly after the inauguration of Donald Trump, the rumor began to spread that Facebook founder Mark Zuckerberg himself was planning to enter the presidential race in 2020.
Following Trump’s victory, everything may seem possible, but this speculation was based solely on the so-called “Listening Tour”, Zuckerberg’s trip through the US, where he wanted to meet Facebook users in person.1

This rumor is only a symptom of the general lack of understanding of our times. For Mark Zuckerberg has long been a politician. He has an enormous impact on the daily lives of two billion people. He makes decisions that affect how these people get together, how they interact, even how they see the world. So Zuckerberg is already perhaps the most powerful politician in the world. Any job in traditional politics, including the office of US president, would be a step down.

In this text, I will try to determine and analyze the ways in which platforms act politically, examining how they organize their power base and in which fields their policies are already changing the world. But first we should eliminate three fundamental misconceptions about platform politics.

Three Misconceptions About Platform Politics

1. Platforms are not (only) the objects of politics, but also powerful political subjects

When we talk about “platform politics” or platform regulation, we tend to think of platforms as the subjects of regulation and policymaking. That isn’t wrong as such, but it conceals the far more important point that today, the platforms themselves have become influential regulators and political actors.

Platforms provide the infrastructure for our digital coexistence – with an emphasis on “structure”. For this structure is neither arbitrary nor neutral: Defining the structure of communication is a political act in and of itself, one that enables certain interactions and reduces the likelihood of other kinds of communication. This is a profound intervention into our social lives, and therefore in itself political.

So it makes sense to think about platforms not merely as companies that provide Internet services, but as political entities or even institutions.2 Their impact on the political debate, on our society and coexistence, and therefore on all kinds of political decisions, is nothing short of the influence of traditional media. Platforms can be regarded as the Fifth Estate. But unlike the other four estates, platforms are not limited by the boundaries of the nation state; they act and think globally by design. And in contrast to other institutions, they don’t try to overemphasize their socio-political significance; after all, political responsibility is bad for business. Platforms rather tend to downplay their political power and refuse to take responsibility. They are political actors in spite of themselves.

2. Platforms exercise a different form of power

One reason why platforms are still not taken seriously as political actors is the general lack of understanding of their power dynamics.

When politicians come up against platforms, they like to throw the weight of their political legitimation around. They talk about the “primacy of politics”, as if to convince themselves and others of their agency. This primacy is derived from the fact that the politician came into office by way of a sovereign, collective decision. But platforms, too, generate a kind of legitimation through collective decision-making, even though this works slightly differently.

In his book Network Power, David Singh Grewal argues that the adoption of standards can be understood as a collective decision.3 And standards are but the conditions of possible interactions, which is why the social relevance of every decision for or against a standard is inherent political. The mere fact that these decisions are not all taken simultaneously as they would be in an election, but rather in staggered intervals (“aggregated”), does not diminish their social impact.

The power of these aggregated, collective decisions is nothing new. It relates to the languages we speak, the manners we cultivate or accept, and of course, to the choice of network service we choose to use. In the end, we join Facebook not because of its great product quality, but because all our friends are on Facebook.

In economics, this phenomenon is called the “network effect”, but Grewal is quite right to view it as a political power factor in its own right. Once a certain standard is widely established, the pressure on the individual becomes so great that there is little choice but to adopt that standard as well – the alternative often being social ostracism.

We accept the “network power” that these standards wield, because ultimately they can never be enforced by individuals. At least that applies to open standards. No one can prevent me from learning Russian, or from making a server available on the Internet with open protocols like TCP/IP. Social pressure always comes from the community as a whole, so it can never instrumentalized individually.

Network power, however, becomes “platform power” when the standards adapted contain key mechanisms of exclusion. Facebook could withhold access to my friends at any time, or place temporal or local restrictions on it. On the one hand, access control of the standard is at the heart of the platform’s business model, on the other hand, it is the basis of its political power.

To sum up: Platform Power = Network Power + Access Control.

3. Regulation of platforms increases their power

Of course, even in conventional politics it has become clear that platforms have this uncanny power, but since politicians don’t understand that power, they are simply making matters worse. They are under the misconception that dealing with Google, Facebook, Apple and Co is much the same thing as the corporate power structures they might have encountered at Siemens or at Deutsche Bank. And so they resort to the playbook of political regulation to match these powers.

But platform providers are not just large enterprises; their power is based on more than just money and global expansion. Rather, the platform is facing down the nation state itself, as a systemic competitor – even if neither side is prepared to admit it yet.

This is why all efforts in conventional politics to regulate platforms must lead to a paradox. Even while politicians are shaking their fists at Google and Facebook, they are granting these platforms more sovereignty by the minute. Any new constraints devised by policymakers just serve to strengthen the political power and legitimacy of the platform. One example is the European Court of Justice ruling on the so-called “right to be forgotten”, which forces Google to redact search results following a very vague list of criteria.4 Another example is the notorious Network Enforcement Act, recently introduced by the German Federal Minister of Justice Heiko Maas, which obliges Facebook and other platforms to delete what is deemed “obvious unlawful content”.5 In both cases, the state has relinquished its powers of jurisdiction and law enforcement to the platform in question. At first sight, this makes perfect sense, because platforms are the logical point of contact for regulating the digital world, thanks to their platform power and deep, data-driven insights. At the same time, this is fatal, because the state further increases the power of the platforms in this way, making itself dependent on its very competitors.

The Three Spheres of Platform Politics

The political influence of platforms takes many forms. I would like to examine three departments more closely where platforms are already very influential today and will gain even more influence in future (without this claiming to be an exhaustive list): domestic net policy, foreign net policy, and security net policy.

Domestic Net Policy

The term “net politics” (Netzpolitik) has become widespread, in the German-speaking net in particular, since it originated here with the popular political blog of the same name.6 The Netzpolitik site addresses topics like data protection, net neutrality, censorship and many other Internet-related areas of politics. It is important to regard the network as the subject of net politics in this case.

For now, the term “domestic net policy” is merely intended to highlight the concession that these internal/external or object/subject relationships no longer exist – political issues pertaining to the net increasingly arise from within the net. Which implies that these issues can only be solved from within. This is not only pertinent to those problems with hate speech, trolling and fake news we are currently discussing, but also to older issues such as identity theft or doxxing (publishing personal information with malicious intent).

Since these problems mostly arise on platforms, it is logical to expect the according countermeasures to come from the platforms themselves. While this does indeed happen occasionally, overall these interventions are still seen as insufficient. In fact, platforms display a lot of reluctance towards regulations in general. They are hesitant to make use of the political power they already wield, for instance by establishing and enforcing stricter community rules.7
Still, the awareness of the problem seems to have sharpened. Facebook’s new mission statement in February 2017 already indicated as much8, and Twitter9 and Google10 have been giving similar indications. After the Nazi march that escalated in Charlottesville, many platform providers were pushed to action and subsequently banned right-wing accounts and websites from their services. Twitter and LinkedIn suspended a range of “White Supremacist” accounts, while Facebook, Google and GoDaddy, a popular domain registry, blocked domains and groups that were spreading hate. Most notably, the Nazi website Daily Stormer was blocked, and even kicked out of the content delivery network Cloudflare.11 It is still not clear, however, whether these measures are really the most suited to address the aforementioned problems. The results so far give little cause for hope.12

Foreign Net Policy

While Facebook’s handling of hate speech and fake news can be relegated to the domestic net policy department, Heiko Maas‘ aforementioned Network Enforcement Act would be the subject of the foreign net policy department. “foreign net policy” mostly (but not exclusively) references the way in which platforms encounter the state, and how these parties meet and negotiate their mutual interests. Of course, the standard case is a state attempting to regulate a platform, as we have seen above. The EU, for example, has several lawsuits pending against Facebook and Google, and the conflicts between the US government and platform providers are becoming increasingly apparent as well.13

Relations between platforms and states have not always been this bad in the past. Notably, the US State Department under Hillary Clinton made use of various platforms for foreign policy purposes. In her influential speech on Internet and Freedom in 2010, Clinton described the platform providers as important partners in terms of global spreading of democracy and human rights.14

Jared Cohen played a particularly pivotal role here.15 Cohen had joined the State Department while still under Condoleezza Rice, but rose to prominence during Clinton’s office. When in 2009, a revolution was threatening to break out in Iran, Cohen called Twitter and convinced them to postpone their scheduled maintenance downtime.16 Twitter played an important part in the coordination of the upheaval.

When the Arab Spring finally broke out in early 2011, Cohen was already working at Google, where he helped coordinate various inter-platform projects. Facebook, Twitter and Google in their own ways all tried to support the uprisings in the Arab World, and even cooperated with one another to do so. One example is the case of the service speak2tweet: Google provided a telephone number which people from Egypt could call to record a message. These messages were then published on Twitter, thus bypassing the Egyptian Internet shutdown.17

Since the Snowden revelations of 2013 at the latest, relations between Silicon Valley and Washington have cooled down significantly. Platforms have since been trying to protect and distance themselves from state interference. This is mostly achieved through the increasing use of encrypted connections, and through elevated technical and legal security.18 In the US, this development in general, and the move towards more cryptographically secure systems in particular, is viewed with a mounting sense of discomfort.

The conflict than escalated in spring 2016, due to the iPhone that FBI investigators found with the perpetrator of the San Bernardino attacks. The phone was locked and encrypted, and so the investigators ordered Apple to assist with the decryption. Apple refused – in order to unlock the phone, Apple would have had to introduce a security vulnerability in its security software. A dangerous endeavor, from Apple’s perspective, that would have reduced the security of all other Apple devices and therefore, consumer confidence. In the end, the FBI had to work with a third-party security company to unlock the iPhone.19

Beside these varied forms of cooperation and conflict between platforms and states, platform-platform relations should also be taken into account, of course.20 One politically tangible example is the fact that Facebook is increasingly losing users from the extreme right and right-wing spectrum to its competitor, VKontakte.21 VKontakte is the equivalent of Facebook in Russia, albeit with a completely different set of guidelines. For instance, while you might get into trouble for posting homophobic contents on Facebook, you might get into trouble on VKontakte for posting the Rainbow Flag.

A segregation of society along the boundaries of different platforms and their according policies seems to be a plausible scenario, and may well provide a lot more material for foreign net policy in future.

Security Net Policy

For some time now, there has been growing debate on issues like “cyberwar” and “cyber security” in political circles. The expression simply references a new form of war, conducted with digital means. The United States and Israel were the vanguard here, and in 2010 managed to destroy a uranium enrichment facility in Iran, using a highly rigged and upgraded “cyber weapon”, in this case the custom-designed computer worm Stuxnet.22 The so-called Stuxnet shock marked the beginning of a global arms race in terms of hacking capacity in general. Cyber-attacks have since become more and more commonplace, be it China’s attacks on Google23, North Korea’s attack on Sony Pictures24, or Russia’s attack on the US elections. The “cyber” terminology is frequently explained by the fact that the military has different areas of operation: ground forces (army), water (navy) and air (air force) – and now, “cyber” opens up a whole new area of operations, complete with the demand that specific capacities be strengthened accordingly.25

That said, the core misunderstanding here is the assumption that cyber-wars primarily take place between nation states. Even today, that is hardly the case. On the one hand, almost every “cyberattack” is an assault on a platform at the same time. The attack might pertain to the Microsoft operating system (as in the case of Stuxnet and many others), or to specific services (the attack on Google was directed at Gmail mailboxes, as was the Russian hack of John Podesta’s emails). Almost without exception, a software or service provided by a specific platform is involved.

Further, many attacks are directed at platforms as their primary target. Perhaps the most prominent case is the 2015 attack from China on the GitHub developer platform. GitHub is a popular website where software developers can store and synchronize versions of their code and share with other users. Nearly all popular open source projects can be found there – including one called “The Great Fire”. The “Great Firewall” is what China’s powerful Internet censorship architecture is usually referred to, and accordingly, “The Great Fire” is a special toolkit designed to circumvent the Chinese firewall. Of course, the Chinese government didn’t find this at all agreeable.
While it is not unheard of that China simply shuts off services it objects to by activating the Great Firewall, GitHub was a notable exception. Blocking local developers‘ access to Github would have been tantamount to shutting down the Chinese software industry altogether, something not even China could afford. But with a censorship infrastructure that lets millions of requests per second come to nothing, the Chinese came up with another idea: redirecting the censored requests from China to one single destination on the net instead. This is the core idea behind “The Great Cannon”.26

GitHub was hit by millions and millions of requests from all over China, pushing the website to its utmost limits. In IT security terms, this is called a DDoS attack, or “distributed denial of service”.27

Finally, platforms are not only the target of cyber attacks, but more and more frequently the last line of defense for other targets. In 2016, a DDoS attack came down on the blog of security researcher Brian Krebs. His analysis of the attack revealed that the attack had been carried out mainly by Internet routers and security cameras. The underlying explanation was that a vulnerability in the operating system “Mirai”, commonly used in such devices, had allowed hackers to take over millions of these devices. It was the largest bot army the world had ever seen.

And so Krebs had no choice but to look for cover with Google’s proprietary server infrastructure, designed for precisely that purpose, and commonly known as “Project Shield”. A platform operated, incidentally, by Jigsaw, the Google spin-off think tank founded by Jared Cohen.28

So the inconvenient truth behind “cyber” is that it is not at all the state that is at the center of events, but the platforms. The platforms provide the infrastructure that comes under attack, and more importantly, they are increasingly becoming targets themselves. Most importantly, the platforms are the only players with sufficient technical capacity and human resources to fend off these kinds of attacks, or prevent them to save the day.29 Either way – if the worst comes to the worst, the state might have no choice but to slip under the umbrella of a welcoming platform, just like Brian Krebs did. “Cyber Sovereignty” on a state level still remains a pipe dream at present.

Conclusion

Platforms are already holding a prominent position within the social order, which in itself is becoming more and more digitalized. Platforms regulate critical infrastructure for the whole of society, and provide protection and order on the Internet. Increasingly the platform is in direct competition with the state, which generates dependencies that could turn out to be a threat for nation states.

Whether the state will maintain its independence and sovereignty in the long term or not, will depend on its ability to operate and maintain digital infrastructure on its own. In the long run, the state needs to become a platform provider itself.30

Platforms, on the other hand, would be well advised to look at the democratic institutions of states that have evolved over time, to address their own domestic net policy issues. Even a rudimentary rule of law instead of generic “Terms of Service”, even the most tentative embrace of transparency, checks and balances, and the possibility of appeal in all actions, would make the platforms‘ fight against hate speech and fake news more credible and fair, and most certainly more successful.31

In short: platforms need to become more like nation states, and states need to become more like platforms.

In the meantime both sides, the state and the platform, don’t have much choice but to cultivate their mutually critical-cooperative relationships and collaborate in all three departments – domestic net policy, foreign net policy, and security net policy. It should be noted that competition between the two might even be advantageous for the citizen (or user) in the long run. While the state is trying to protect me from the overbearing access of the platforms, platform providers are trying to protect me from the excessive data collection of the state.

  1. Alex Heath: Speculation is mounting that Mark Zuckerberg wants to serve in government, in Business Insider, http://www.businessinsider.de/speculation-mounting-that-mark-zuckerberg-wants-work-government-2017-1?r=US&IR=T, 01/05/2017.
  2. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Freiburg 2014, p. 204 ff.
  3. Grewal, David Singh: Network Power – The Social Dynamics of Globalization, p. 9.
  4. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, Freiburg 2014, p. 223.
  5. Markus Beckedahl: NetzDG: Fake-Law gegen Hate-Speech, in Netzpolitik https://netzpolitik.org/2017/netzdg-fake-law-gegen-hate-speech/, 06/30/2017.
  6. See: http://netzpolitik.org.
  7. On the one hand, this is due to the fact that these are still profit-oriented companies, and this kind of regulation doesn’t generate any more turnover, but a lot of additional costs instead. On the other hand, most company founders and employees in Silicon Valley hail from the startup culture largely dominated by libertarian thought – a context in which any intervention into current debates is interpreted as an assault against freedom of speech.
  8. Mark Zuckerberg: Building Global Community, https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634, 02/16/2017.
  9. Kerry Flynn: Twitter just took its biggest stance yet on hate speech, http://mashable.com/2017/10/17/twitter-hate-speech-abuse-new-rules-women-boycott/#vfo7gOJrokqD, 10/17/2017.
  10. Dan Seitz: Google Is Cracking Down On Fake News In Search Results, http://uproxx.com/technology/google-search-results-fake-news/, 03/13/2017.
  11. David Ingram, Joseph Menn: Internet firms shift stance, move to exile white supremacists, https://www.reuters.com/article/us-virginia-protests-tech/internet-firms-shift-stance-move-to-exile-white-supremacists-idUSKCN1AW2L5, 08/16/2016.
  12. Kerry Flynn: Facebook’s ‘Trust Indicators’ is apparently a gift to select media partners, http://mashable.com/2017/11/16/facebook-trust-indicators-fake-news-problem/, 11/16/2017.
  13. Julia Fioretti: EU increases pressure on Facebook, Google and Twitter over user terms, https://www.reuters.com/article/us-socialmedia-eu-consumers/eu-increases-pressure-on-facebook-google-and-twitter-over-user-terms-idUSKBN1A92D4, 07/24/2017.
  14. Hillary Clinton: Statement: Hillary Clinton on internet freedom, https://www.ft.com/content/f0c3bf8c-06bd-11df-b426-00144feabdc0, 01/21/2010.
  15. Wikipedia: Jared Cohen, https://en.wikipedia.org/wiki/Jared_Cohen.
  16. Ewen MacAskill: US confirms it asked Twitter to stay open to help Iran protesters, https://www.theguardian.com/world/2009/jun/17/obama-iran-twitter, 06/17/2009.
  17. Charles Arthur: Google and Twitter launch service enabling Egyptians to tweet by phone, https://www.theguardian.com/technology/2011/feb/01/google-twitter-egypt, 02/01/2011.
  18. Since 2013 Google and Twitter, for instance, have been contesting a number of secret court orders on the highest levels of jurisdiction. See for example: Sam Byford: Google challenges US government’s private data demand in court, https://www.theverge.com/2013/4/5/4185732/google-fights-national-security-letter, 04/05/2013.
  19. Wikipedia: FBI-Apple encryption dispute, https://en.wikipedia.org/wiki/FBI–Apple_encryption_dispute.
  20. Not to mention the constant conflicts regarding interfaces, standards and market shares, even though these also have political weight, of course.
  21. Katie Zawadski: American Alt-Right Leaves Facebook for Russian Site VKontakte, https://www.thedailybeast.com/american-alt-right-leaves-facebook-for-russian-site-vkontakte, 03/11/2017.
  22. Wikipedia: Stuxnet, https://en.wikipedia.org/wiki/Stuxnet.
  23. The attacks went down in history as “Operation Aurora”. Wikipedia: Operation Aurora: https://en.wikipedia.org/wiki/Operation_Aurora.
  24. Axel Kannenberg: USA: Nordkorea steckt hinter Hackerangriff auf Sony Pictures, https://www.heise.de/newsticker/meldung/USA-Nordkorea-steckt-hinter-Hackerangriff-auf-Sony-Pictures-2504888.html, 12/19/2014.
  25. Handelsblatt: Zu Land, zu Wasser, in der Luft – und im Internet, http://www.handelsblatt.com/politik/deutschland/bundeswehr-erhaelt-cyber-truppe-zu-land-zu-wasser-in-der-luft-und-im-internet/13505076.html, 04/24/2016.
  26. Lead investigator of this incident was the Citizen Lab, which also published a detailed report on their findings. Citizen Lab: China’s Great Cannon: https://citizenlab.ca/2015/04/chinas-great-cannon/, 04/10/2015.
  27. Wikipedia: DDoS: https://en.wikipedia.org/wiki/Denial-of-service_attack#Distributed_attack.
  28. Brian Krebs: How Google Took on Mirai, KrebsOnSecurity, https://krebsonsecurity.com/2017/02/how-google-took-on-mirai-krebsonsecurity/, 02/03/2017.
  29. The main problem of states in this area is actually finding suitable staff. IT security experts are what might be called a rarity in human resources, and so the industry tempts them with exorbitant fees and career options. The state, and the military in particular, can hardly keep up with either of these.
  30. How that might work out was the topic of an opinion I presented the context of an expert hearing in the German Bundestag. See Michael Seemann: Stellungnahme: Fragenkatalog für das Fachgespräch zum Thema „Interoperabilität und Neutralität von Plattformen“ des Ausschusses Digitale Agenda am 14.12.2016, https://www.bundestag.de/blob/484608/b1dc578c0fdd28b4e53815cda384335b/stellungnahme-seemann-data.pdf, 12/12/2016.
  31. This suggestion of mine was first presented in my re:publica talk in 2016. See Michael Seemann: Netzinnenpolitik – Grundzüge einer Politik der Plattformgesellschaft, https://www.youtube.com/watch?v=eQ-a13ZL33g, 03/11/2016.


Veröffentlicht unter Das Neue Spiel english extern Kontrollverlust Plattformpolitik
Hinterlasse einen Kommentar

Was ist Plattformpolitik? Grundzüge einer neuen Form der politischen Macht

/***** Für die Zeitschrift für sozialistische Politik und Wirtschaft (SPW) habe ich einen Artikel über Plattformpolitik geschrieben. Man kann ihn auch hier als PDF abrufen. *****/

Anfang des Jahres, kurz nach der Inauguration Donald Trumps, verbreitete sich das Gerücht, der Facebook-Gründer Mark Zuckerberg plane seinerseits, 2020 als Präsidentschaftskandidat ins Rennen zu gehen. Nun ist es nachvollziehbar, dass man nach Trumps Sieg alles für möglich halten kann, jedoch beruhte die Spekulation lediglich auf der sogenannten „listening tour“, Zuckerbergs Reise durch die USA, bei der er „Facebook-User“ persönlich treffen wollte.1

Das Gerücht ist nur Anzeichen des allgemeinen Nichtverstehens unserer Zeit. Denn Zuckerberg ist längst ein Politiker. Er hat enormen Einfluss auf das tägliche Leben von zwei Milliarden Menschen. Er trifft Entscheidungen, die beeinflussen, wie diese Menschen sich zusammenschließen, wie sie miteinander umgehen, sogar wie sie die Welt sehen. Zuckerberg ist der vielleicht mächtigste Politiker der Welt. Jeder Job in der klassischen Politik – inklusive dem des US-Präsidenten – wäre eine Degradierung.

In diesem Text möchte ich versuchen zu benennen und zu analysieren, wie Plattformen Politik machen, wie sie ihre Machtbasis organisieren und in welchen Feldern ihre Politik heute bereits die Welt verändert. Doch zunächst müssen wir drei Mißverständnisse über Plattformpolitik ausräumen.

Drei Mißverständnisse zur Plattformpolitik

1. Plattformen sind nicht (nur) Objekte der Politik, sondern auch mächtige politische Subjekte.

Wenn wir von “Plattformpolitik” oder Plattformregulierung sprechen, dann denken wir uns Plattformen meist als Gegenstand von Regulierung und von Politik. Das ist soweit auch nicht falsch, aber es verdeckt den viel wesentlicheren Punkt, dass Plattformen heute selber mächtige Regulierer und politische Akteure sind.

Plattformen sind die Infrastrukturen unseres digitalen Zusammenlebens – wobei die Betonung auf „Struktur“ liegt. Denn diese Struktur ist weder beliebig noch neutral. Die Struktur von Kommunikation vorzugeben ist bereits eine politische Tat, sie ermöglicht bestimmte Interaktionen und verringert die Wahrscheinlichkeit von anderen Arten der Kommunikation; sie ist bereits ein tiefer Eingriff ins Zusammenleben und damit politisch.

Es macht also Sinn, über Plattformen nicht nur als Firmen nachzudenken, die im Internet Services anbieten, sondern sie als politische Entitäten, gar Institutionen zu betrachten.2 Ihr Einfluss auf die politische Debatte, auf unser Zusammenleben und somit auf politische Entscheidungen steht dem der klassischen Medien in nichts nach. Plattformen können als die 5. Gewalt verstanden werden. Allerdings sind sie im Gegensatz zu den anderen vier Gewalten nicht national organisiert, sondern denken und agieren per se global. Und im Gegensatz zu den anderen Institutionen versuchen sie ihre gesellschaftspolitische Rolle nicht überzubetonen, im Gegenteil; politische Verantwortung zu haben ist schließlich schlecht fürs Geschäft. Vielmehr neigen Plattformen dazu, ihre eigene politische Macht herunterzuspielen und die Verantwortung nicht anzunehmen zu wollen. Sie sind politische Akteure wider Willen.

2. Plattform üben eine andere Form von Macht aus.

Einer der Gründe, warum Plattformen als politische Akteure immer noch nicht ernst genommen werden, ist das allgemeine Unverständnis für die Mechanik ihrer Macht.

Wenn Politiker gegenüber Plattformen auftreten, legen sie gern das Gewicht ihrer politischen Legitimation in die Waagschale. Sie sprechen dann vom „Primat der Politik“, als wollten sie sich und anderen ihrer Handlungsmacht versichern. Dieses Primat wird daraus abgeleitet, dass der Politiker durch eine souveräne, kollektive Entscheidung in sein Amt kam. Doch auch Plattformen generieren eine Form von Legitimation durch kollektive Entscheidungen, die allerdings leicht anders funktioniert.

David Singh Grewal zeigt in seinem Buch Network Power, wie die Adaption von Standards als kollektive Entscheidung verstanden werden kann.3 Standards sind Möglichkeitsbedingungen von Interaktion, weswegen jede Entscheidung für oder gegen einen Standard immer schon eine gesellschaftliche Tragweite hat. Und nur weil diese Entscheidungen nicht gleichzeitig getroffen werden wie bei einer Wahl, sondern zeitlich versetzt („aggregiert“), mindert das nicht ihre gesellschaftliche Macht.

Die Macht dieser aggregierten kollektiven Entscheidungen ist nichts Neues. Sie gilt für die Sprache, die wir sprechen, für die Umgangsformen, die wir pflegen oder akzeptieren und natürlich auch für die Entscheidung, über welche Netzwerkdienste wir erreichbar sein wollen. Wir sind schließlich nicht auf Facebook wegen seiner tollen Produktqualität, sondern weil alle unsere Freunde auf Facebook sind.

In der Ökonomie nennt man das Phänomen „Netzwerkeffekt“, aber Grewal hat völlig recht, es als politischen Machtfaktor zu verstehen. Ab einer bestimmten Ausbreitung eines Standards sind die Kräfte auf das Individuum so groß, dass ihm kaum etwas anderes übrig bleibt, als den Standard ebenfalls zu adaptieren. Die Alternative ist häufig sozialer Ausschluss. Wir akzeptieren diese „Netzwerkmacht“, den Standards ausüben, denn sie kann schließlich nicht von Einzelnen in Stellung gebracht werden. Das gilt zumindest für offene Standards. Niemand kann mich davon abhalten, Russisch zu lernen, oder einen Server mittels offener Protokolle wie TCP/IP im Internet bereit zu stellen. Der soziale Druck geht immer von der ganzen Gemeinschaft aus und kann nicht von Einzelnen gerichtet werden.

Zur “Plattformmacht” wird die Netzwerkmacht aber, wenn der adaptierte Standard zentrale Mechanismen des Ausschlusses kennt. Facebook kann mir den Zugang zu meinen Freunden jederzeit wieder nehmen, oder auch nur temporär oder lokal einschränken. Die Kontrolle über den Zugang zu dem Standard ist einerseits der Schlüssel zum Geschäftsmodell der Plattformen, andererseits auch die Grundlage ihrer politischen Macht.

Kurz: Plattformmacht = Netzwerkmacht + Kontrolle des Zugangs.

3. Plattformregulierung erhöht die Macht der Plattformen

Natürlich ist in der klassischen Politik bereits angekommen, dass Plattformen über eine unheimliche Macht verfügen, aber weil Politiker diese Macht nicht verstehen, verschlimmern sie diesen Zustand noch. Sie glauben, es bei Google, Facebook, Apple und Co. schlicht mit der typischen Konzernmacht zu tun zu haben, die sie von Siemens und der Deutschen Bank her kennen. Entsprechend greifen sie zum Rezeptbuch der politischen Regulierung, um dieser Macht entgegenzutreten.

Doch Plattformanbieter sind nicht einfach nur große Firmen und ihre Macht beruht auf weit mehr als nur Geld und weltweite Ausdehnung. Plattformen stehen Staaten vielmehr als Systemkonkurrenten gegenüber – obwohl das beide nicht wahrhaben wollen.

Anstrengungen der klassischen Politik, Plattformen zu regulieren, enden deswegen in einem Paradox. Während die Politiker ihre Fäuste gen Google und Facebook recken, schanzen sie den Plattformen immer neue hoheitliche Kompetenzen zu. Jede Auflage, die sich die Politik ausdenkt, stärkt die politische Handlungsmacht und Legitimation von Plattformen. Als Beispiel kann das Urteil des EuGH zum Recht auf Vergessenwerden gelten, das Google dazu anhält, Suchergebnisse zu Personen nach einem sehr schwammigen Katalog von Kriterien zu bereinigen.4 Ein anderes Beispiel ist das neuere Netzwerkdurchsetzungsgesetz des Justizministers Heiko Maas, das Facebook und andere Plattformen dazu anhält „offensichtlich rechtswidrige Inhalte“ zu löschen.5 In beiden Fällen gibt der Staat Rechtssprechungs- sowie Rechtsdurchsetzungskompetenzen an die Plattformen ab. Das ist einerseits durchaus sinnvoll, weil Plattformen durch ihre Plattformmacht und tiefen, datenreichen Einsichten die logischen Ansprechpartner zur Regulierung des Digitalen sind. Es ist aber auch fatal, weil der Staat damit das Regime der Plattformen stärkt. Er macht sich abhängig von seinem eigenen Systemkonkurrenten.

Drei Ressorts der Plattformpolitik

Der politische Einfluss von Plattformen ist vielfältig. Ohne Anspruch an Vollständigkeit möchte an dieser Stelle drei Politikbereiche voneinander abgrenzen, in denen Plattformen heute schon sehr einflussreich sind und in Zukunft noch an Einfluss gewinnen werden: Netzinnenpolitik, Netzaußenpolitik und Netzsicherheitspolitik.

Netzinnenpolitik

Der Begriff „Netzpolitik“ hat sich vor allem in Deutschland – ausgehend vom gleichnamigen Blog für politische Fragen – rund um das Netz etabliert.6 Er versammelt Fragen des Datenschutzes, der Netzneutralität, der Zensurfreiheit und andere netzrelevante Politikbereiche. Wesentlich ist, dass das Netz immer als Gegenstand der Netzpolitik gesehen wird.

Der Begriff „Netzinnenpolitik“ soll nun zunächst das Eingeständnis signalisieren, dass es dieses innen/außen und Objekt/Subjekt-Verhältnis so nicht mehr gibt und dass die politischen Fragen des Netzes zunehmend aus dem inneren des Netzes selbst erwachsen. Und dass sie auch nur im inneren des Netzes zu lösen sind. Zu nennen wären die vielzitierten Probleme mit Hate Speech, Trolling und Fake News, aber auch ältere Probleme wie Identitätsdiebstahl oder Doxxing (das Veröffentlichen von persönlichen Informationen gegen den Willen der Betroffenen) fallen in die Kategorie.

Da diese Probleme meistens auf Plattformen entstehen, ist es es folgerichtig, von ihnen auch die entsprechenden Gegenmaßnahmen zu erwarten. Das geschieht zwar durchaus, allerdings immer noch in allgemein als unzureichend empfundenem Maße. Tatsächlich zeigen Plattformen eine gewisse Regulierungsaversität. Sie scheuen zurück, die politische Macht, die sie faktisch haben, tatsächlich einzusetzen, um zum Beispiel strengere Regeln aufzustellen und durchzusetzen.7

Nichtsdestotrotz scheint sich ein gewisses Problembewusstsein durchgesetzt zu haben. Facebooks neues Missionstatement von Februar deutete bereits darauf hin8, von Twitter9 und Google10 gab es ähnliche Signale. Nach dem eskalierten Nazi-Aufmarsch in Charlottesville haben viele Plattformanbieter gehandelt und rechtsradikale Accounts und Websites von ihren Services verbannt. Twitter und LinkedIn suspendierten etliche Accounts von „White Suprimacists“, Facebook, Google und GoDaddy (ein populärer Domainhändler) sperrten Domains und Gruppen, die Hass verbreiten. Vor allem das Naziportal Daily Stormer war betroffen und flog sogar beim Content Delivery Network Cloudflare raus.11

Offen bleibt allerdings, ob solche Maßnahmen geeignet sind, die zitierten Probleme in den Griff bekommen. Bisherige Ergebnisse geben wenig Anlass zur Hoffnung.12

Netzaußenpolitik

Während Facebooks Umgang mit Hate Speech und Fake News der Netzinnenpolitik zugeordnet werden kann, wäre das bereits erwähnte Netzwerkurchsetzungsgesetz von Heiko Maß Gegenstand der Netzaußenpolitik. In der Netzaußenpolitik treffen vor allem (aber nicht nur) Plattformen und Staaten aufeinander und handeln ihre gegenseitigen Interessen miteinander aus. Der Standardfall ist dabei natürlich der Versuch der Regulierung von Plattformen durch Staaten, wie wir es bereits besprochen haben. So hat die EU gleich mehrere Verfahren gegen Facebook und Google am laufen, aber auch die Konflikte zwischen US-Regierung und den Plattformen treten immer deutlicher zu Tage.13

Doch die Beziehungen zwischen Plattformen und Staaten waren in der Vergangenheit nicht immer so schlecht. Insbesondere das amerikanische Außenministerium unter Hillary Clinton nutzte Plattformen für außenpolitische Zwecke. In ihrer bedeutenden Rede von 2010 zu Internet und Freiheit bezeichnete sie die Plattformberteiber als wichtige Partner, wenn es darum geht, Demokratie und Menschenrechte in die Welt zu tragen.14

Eine besondere Scharnierfunktion erfüllte dabei Jared Cohen.15 Er kam noch unter Condoleezza Rice ins Außenministerium, stieg aber vor allem unter Clinton auf. Als 2009 in Iran eine Revolution auszubrechen drohte, rief er bei Twitter an und überzeugte sie, ihre geplante Wartungsdowntime aufzuschieben.16 Twitter spielte eine wichtige Rolle zur Koordination der Aufstände.

Als dann Anfang 2011 der Arabische Frühling ausbrach, arbeitete Cohen bereits bei Google und half verschiedene Projekte zwischen Plattformen zu koordinieren. Facebook, Twitter und Google versuchten jeweils auf ihre Weise die Aufstände zu unterstützen und teilweise kooperierten sie dazu auch. Wie zum Beispiel beim Dienst speak2tweet, bei dem Google eine Telefonnummer bereit stellte, bei der Menschen aus Ägypten aufs Band sprechen konnten. Das Gesagte wurde dann per Twitter veröffentlicht und so die Internetabschaltung umgangen.17

Spätestens seit den Snowden-Enthüllungen von 2013 ist das Verhältnis zwischen Silicon Valley und Washington deutlich abgekühlt. Plattformen versuchen sich seitdem eher stärker gegen Eingriffe des Staates abzugrenzen und zu schützen. Dies geschieht vor allem durch die allgemeine Verbreitung von verschlüsselten Verbindungen und die Erhöhung der technischen wie rechtlichen Sicherheit.18 Die USA sehen diese Entwicklung ihrerseits mit wachsendem Unbehagen, insbesondere den Trend zu immer besser kryptografisch abgesicherten Systemen.

Im Frühjahr 2016 eskalierte der Streit schließlich anhand des iPhones, das FBI-Ermittler bei dem Attentäter von San Bernardino gefunden hatten. Es war gesperrt und verschlüsselt und die Ermittler verlangten von Apple Kooperation bei der Entschlüsselung. Apple verweigerte. Für das Aufschließen hätte Apple in die Sicherheitssoftware eine Schwachstelle einbauen müssen. Aus Apples Sicht ein gefährliches Unterfangen, das die Sicherheit aller anderen Geräte und damit der Nutzer gemindert hätte. Am Ende musste das FBI mit einer externen Sicherheitsfirma zusammenarbeiten, um das iPhone zu entsperren.19

Neben den Kooperationen und Konflikten der Plattformen mit Staaten gibt es natürlich noch die Beziehungen der Plattformen untereinander.20 Politisch greifbar ist die Entwicklung, dass Facebook zunehmend Nutzer und Nutzerinnen aus dem rechten und rechtsradikalen Milieu an VKontakte verliert.21 VKontakte ist Facebooks russisches Pendant, hat aber ganz andere Richtlinien. Während man zum Beispiel auf Facebook Probleme bekommt, wenn man homophobe Postings veröffentlicht, bekommt man auf VKontakte Probleme, wenn man die Regenbogenfahne veröffentlicht.

Eine Spaltung der Gesellschaft entlang unterschiedlicher Plattformen und ihrer Policies erscheint durchaus als ein plausibles Szenario und bietet zukünftig viel Stoff für netzaußenpolitische Konflikte.

Netzsicherheitspolitik

Seit einiger Zeit wird in politischen Kreisen vermehrt von „Cyberwar“ und „Cybersicherheit“ gesprochen. Gemeint ist eine neue Form des Krieges mit digitalen Mitteln. Die USA und Israel hatten 2010 vorgelegt und mittels einer hochgerüsteten „Cyberwaffe“ – einem speziell entwickelten Computerwurm – Urananreicherungsanlagen im Iran zerstört.22 Der Stuxnet-Shock war der Beginn eines allgemeinen Wettrüstens in Sachen Hacking-Kapazitäten weltweit. Cyberangriffe sind seitdem Alltag geworden, seien es die Angriffe von China auf Google23, Nordkorea auf Sony-Pictures24 oder Russlands auf die amerikanische Wahl. „Cyber“ wird gerne damit erklärt, dass das Militär verschiedene Einsatzgebiete kennt: Boden (Armee), Wasser (Marine) und Luft (Luftwaffe) und nun komme eben mit „Cyber“ ein neues Einsatzgebiet hinzu, für das man entsprechende Kapazitäten aufbauen muss.25

Doch das wesentliche Mißverständnis bei dem Thema ist, davon auszugehen, dass Cyberwars vornehmlich zwischen Staaten stattfinden. Das ist bereits heute nicht der Fall. Zum einen ist fast jeder „Cyber-Angriff“ zumindest auch ein Angriff auf eine Plattform. Sei es, auf das Betriebssystem von Microsoft (wie bei Stuxnet und viele anderen Fällen) oder auf Services (der Angriff aus China auf Google richtete sich auf Gmail-Postfächer, der russische Hack des Postfaches von John Podesta betraf ebenfalls Gmail). Fast immer ist eine Software oder Dienst betroffen, der von einem Plattformanbieter bereitgestellt wird.

Zum Anderen zielen schon heute viele Angriffe konkret auf Plattformanbieter als Primärziel. Am prominentesten ist vielleicht der Angriff Chinas auf die Entwicklerplattform GitHub von 2015. GitHub ist eine Plattform, auf der Softwareentwickler ihren Code versionieren und gleichzeitig mit anderen teilen können. Beinahe alle populären Open Source Projekte sind dort zu finden, unter anderem auch eines mit dem Titel „The Great Fire“. Als „Great Firewall“ wird für gewöhnlich die mächtige Internetzensurarchitektur Chinas bezeichnet und so war „The Great Fire“ ein eigens bereitgestelltes Toolkit zur Umgehung eben dieser. Das gefiel der chinesischen Regierung natürlich nicht.

Nun ist es für China nichts ungewöhnliches, unliebsame Dienste einfach mittels der Great Firewall auszusperren, doch GitHub bildet hier eine Ausnahme. Den einheimischen Entwicklern den Zugang zu Github zu versperren, käme einer Komplettaufgabe der chinesischen Softwarebranche gleich. Etwas, das sich nicht mal China leisten kann. Da aber China in ihrer Zensurinfrastruktur Millionen von Anfragen pro Sekunde ins Leere laufen lassen muss, kamen sie auf die Idee, die geblockten Anfragen stattdessen auf ein Ziel im Internet zu richten. Das ist die Idee hinter “The Great Cannon”.26

Was auf GitHub einprasselte waren Millionen und Abermillionen Abfragen aus ganz China, die den Service bis weit an die Belastungsgrenze führte. In IT-Sicherheitkreisen nennt man das einen DDoS Angriff – einen “Distributed Denial of Service”-Angriff.27

Plattformen sind aber nicht nur Ziel von Angriffen, sondern immer öfter auch die letzte Verteidigungslinie für Angegriffene. 2016 traf ein DDoS-Angriff das Blog des Sicherheitsforschers Brian Krebs. Bei einer Analyse des Angriffs stellte sich heraus, dass der Angriff vornehmlich von Internetroutern und Sicherheitskameras ausgegangen war. Der Grund: Ein Fehler im Betriebssystem „Mirai“, das in solchen Geräten oft zum Einsatz kommt, hatte es Angreifern erlaubt, viele Millionen von ihnen virtuell in Besitz zu nehmen. Es war die größte Bot-Armee, die die Welt je gesehen hat.

Krebs wusste sich nicht anders zu helfen, als unter Googles eigens für solche Fälle eingerichtete Serverinfrastruktur namens „Project Shield“ zu schlüpfen. Das – nebenbei bemerkt – von Jared Cohens aus Google ausgegründetem Thinktank Jigsaw betrieben wird.28

Die unbequeme Wahrheit hinter „Cyber“ ist, dass nicht Staaten im Mittelpunkt des Geschehens stehen, sondern Plattformen. Sie sind es, die die Infrastruktur bereitstellen, die angegriffen wird. Sie sind sehr häufig auch Ziele der Attacken. Vor allem aber sind sie derzeit die Einzigen, die über die technischen Kapazitäten und menschlichen Ressourcen verfügen, Angriffe abzuwehren, ihnen vorzubeugen und am Ende den Tag zu retten.29 So oder so. Den Staaten wird im Falle des Falles nichts anderes übrig bleiben, wie Brian Krebs unter den Schutzschirm der Plattformen zu schlüpfen. Staatliche “Cybersouveränität” bleibt derzeit ein unrealistischer Traum.

Fazit

Plattformen besetzen bereits heute zentrale Stellen der gesellschaftlichen Ordnung, die selbst zunehmend zur digitalen wird. Sie regulieren für die Gesellschaft kritische Infrastruktur und bieten Schutz und Ordnung im Internet. Sie stehen damit in Konkurrenz zu Staaten und generieren Abhängigkeiten, die für die Staaten bedrohlich werden könnten.

Ob Staaten in dieser Hinsicht auf lange Frist ihre Unabhängigkeit und Souveränität aufrecht erhalten werden, wird davon abhängen, ob es ihnen gelingt, eine eigene digitale Infrastruktur ins Werk zu setzen. Der Staat muss auf lange Sicht selbst zum Plattformanbieter werden.30

Plattformen dagegen täten gut daran, sich bei den Staaten die gewachsenen, demokratischen Institutionen abzuschauen, um mit ihren netzinnenpolitischen Problemen fertig zu werden. Ein wenigstens rudimentäres Recht statt Terms of Service, einen Ansatz von Gewaltenteilung, Transparenz und Einspruchsmöglichkeiten bei allen Verfahren, würden den Kampf gegen Hate Speech und Fake News glaubhafter, gerechter und mit Sicherheit auch erfolgreicher machen.31

Kurz: Plattformen müssen mehr werden wie Staaten und Staaten mehr wie Plattformen.

Beiden, d.h. Staaten und Plattformen bleibt derweil nicht viel anderes übrig, als ein kritisch-kooperatives Verhältnis zu pflegen und in allen drei Feldern – Netzinnenpolitik, Netzaußenpolitik und Netzsicherheitspolitik – zu kooperieren. Es bleibt noch darauf hinzuweisen, dass das Konkurrenzverhältnis zwischen beiden im Zweifel für den Bürger, bzw. User sogar gewinnbringend sein kann. Während mich der Staat vor dem überbordenden Zugriff der Plattformen zu beschützen sucht, versucht der Plattformanbieter mich vor dem Datenzugriff des Staates zu schützen.

  1. Alex Heath: Speculation is mounting that Mark Zuckerberg wants to serve in government, http://www.businessinsider.de/speculation-mounting-that-mark-zuckerberg-wants-work-government-2017-1?r=US&IR=T, 05.01.2017.
  2. Vgl. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, 2014, S. 204 ff.
  3. Grewal, David Singh: Network Power – The Social Dynamics of Globalization, S. 9.
  4. Michael Seemann: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, 2014, S. 223.
  5. Markus Beckedahl: NetzDG: Fake-Law gegen Hate-Speech, https://netzpolitik.org/2017/netzdg-fake-law-gegen-hate-speech/, 30.06.2017.
  6. Siehe netzpolitik.org.
  7. Das ist einerseits damit zu erklären, dass es sich immer noch um gewinnorientierte Firmen handelt und solche Art Regulierung keinen Umsatz, aber einen ganzen Rattenschwanz an Kosten verursacht. Andererseits kommen die Firmengründer und Angestellten aus der weitgehend von libertären Denkweisen dominierten Startup-Kultur des Silicon Valleys, wo jegliche Eingriffe in Debatten als Eingriffe gegen die Redefreiheit interpretiert werden.
  8. Mark Zuckerberg: Building Global Communiy, https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634, 16.02.2017.
  9. Kerry Flynn: Twitter just took its biggest stance yet on hate speech, http://mashable.com/2017/10/17/twitter-hate-speech-abuse-new-rules-women-boycott/#vfo7gOJrokqD, 17.10.2017.
  10. Dan Seitz: Google Is Cracking Down On Fake News In Search Results, http://uproxx.com/technology/google-search-results-fake-news/, 13.03.2017.
  11. David Ingram, Joseph Menn: Internet firms shift stance, move to exile white supremacists, https://www.reuters.com/article/us-virginia-protests-tech/internet-firms-shift-stance-move-to-exile-white-supremacists-idUSKCN1AW2L5, 16.08.2016.
  12. Kerry Flynn: Facebook’s ‚Trust Indicators‘ is apparently a gift to select media partners, http://mashable.com/2017/11/16/facebook-trust-indicators-fake-news-problem/, 16.11.2017.
  13. Julia Fioretti: EU increases pressure on Facebook, Google and Twitter over user terms, https://www.reuters.com/article/us-socialmedia-eu-consumers/eu-increases-pressure-on-facebook-google-and-twitter-over-user-terms-idUSKBN1A92D4, 24.07.2017.
  14. Hillary Clinton: Statement: Hillary Clinton on internet freedom, https://www.ft.com/content/f0c3bf8c-06bd-11df-b426-00144feabdc0, 21.01.2010.
  15. Wikipedia: Jared Cohen, https://en.wikipedia.org/wiki/Jared_Cohen
  16. Ewen MacAskill: US confirms it asked Twitter to stay open to help Iran protesters, https://www.theguardian.com/world/2009/jun/17/obama-iran-twitter, 17.06.2017.
  17. Charles Arthur: Google and Twitter launch service enabling Egyptians to tweet by phone, https://www.theguardian.com/technology/2011/feb/01/google-twitter-egypt, 01.02.2011.
  18. Google und Twitter zum Beispiel bekämpften seit 2013 etliche Geheimgerichtsbeschlüsse bis zur letzten Instanz. Siehe zum Beispiel: Sam Byford: Google challenges US government’s private data demand in court, https://www.theverge.com/2013/4/5/4185732/google-fights-national-security-letter, 05.04.2013.
  19. Wikipedia: FBI-Apple encryption dispute, https://en.wikipedia.org/wiki/FBI–Apple_encryption_dispute.
  20. Auf die ständigen Konflikte zu Schnittstellen, Standards und Marktanteile will ich gar hier allerdings gar nicht eingehen, obwohl auch diese natürlich politisches Gewicht haben.
  21. Katie Zawadski: American Alt-Right Leaves Facebook for Russian Site VKontakte, https://www.thedailybeast.com/american-alt-right-leaves-facebook-for-russian-site-vkontakte, 11.03.2017.
  22. Wikipedia: Stuxnet, https://en.wikipedia.org/wiki/Stuxnet.
  23. Die Angriffe gingen unter dem Namen “Operation Aurora in die Geschichte ein. Wikipedia: Operation Aurora: https://en.wikipedia.org/wiki/Operation_Aurora.
  24. Axel Kannenberg: USA: Nordkorea steckt hinter Hackerangriff auf Sony Pictures, https://www.heise.de/newsticker/meldung/USA-Nordkorea-steckt-hinter-Hackerangriff-auf-Sony-Pictures-2504888.html, 19.12.2014.
  25. Handelsblatt: Zu Land, zu Wasser, in der Luft – und im Internet, http://www.handelsblatt.com/politik/deutschland/bundeswehr-erhaelt-cyber-truppe-zu-land-zu-wasser-in-der-luft-und-im-internet/13505076.html, 24.04.2016.
  26. Federführend bei der Untersuchung des Vorfalls war das Citizen Lab, das auch einen ausführlichen Bericht darüber geschrieben hat. Citizen Lab: China’s Great Cannon: https://citizenlab.ca/2015/04/chinas-great-cannon/, 10.04.2015.
  27. Wikipedia: DDoS: https://en.wikipedia.org/wiki/Denial-of-service_attack#Distributed_attack
  28. Brian Krebs: How Google Took on Mirai, KrebsOnSecurity, https://krebsonsecurity.com/2017/02/how-google-took-on-mirai-krebsonsecurity/, 03.02.2017.
  29. Das Hauptproblem von Staaten in diesem Bereich ist tatsächlich das Personal. IT-Sicherheitsexperten gehören zu einer personellen Rarität und werden in der Industrie entsprechend mit astronomischen Honoraren und Karrierechancen bedacht – bei beidem können Staaten – vor allem das Militär – schlecht mithalten.
  30. Wie das gehen könnte, habe ich im Rahmen einer Expertenanhörung des Deutschen Bundestags ausgeführt. Siehe Michael Seemann: Stellungnahme: Fragenkatalog für das Fachgespräch zum Thema „Interoperabilität und Neutralität von Plattformen“ des Ausschusses Digitale Agenda am 14.12.2016, https://www.bundestag.de/blob/484608/b1dc578c0fdd28b4e53815cda384335b/stellungnahme-seemann-data.pdf, 12.12.2016.
  31. Das habe ich 2016 in einem Vortrag auf der re:publica vorgeschlagen. Siehe Michael Seemann: Netzinnenpolitik – Grundzüge einer Politik der Plattformgesellschaft, https://www.youtube.com/watch?v=eQ-a13ZL33g, 11.03.2016.


Veröffentlicht unter Das Neue Spiel extern Kontrollverlust Plattformpolitik
7 Kommentare

Digital Tribalism – The Real Story About Fake News

Text by: Michael Seemann / Data Visualization by: Michael Kreil


[Download as PDF]
[(original) German Version]

The Internet has always been my dream of freedom. By this I mean not only the freedom of communication and information, but also the hope for a new freedom of social relations. Despite all the social mobility of modern society, social relations are still somewhat constricting today. From kindergarten to school, from the club to the workplace, we are constantly fed through organizational forms that categorize, sort and thereby de-individualize us. From grassroots groups to citizenship, the whole of society is organized like a group game, and we are rarely allowed to choose our fellow players. It’s always like, „Find your place, settle down, be a part of us.

The Internet seemed to me to be a way out. If every human being can relate directly to every other, as my naive-utopian thought went, then there would no longer be any need for communalized structures. Individuals could finally counteract as peers and organize themselves. Communities would emerge as a result of individual relationships, rather than the other way around. Ideally, there would no longer be any structures at all beyond the customized, self-determined network of relations of the individual.1

The election of Donald Trump was only the latest incident to tear me rudely from my hopes. The Alt-Right movement – a union of right-wing radical hipsterdom and the nihilistic excesses of nerd culture – boasts that it „shitposted“ Trump into the White House. This refers to the massive support of the official election campaign by an internet-driven grassroots meme campaign. And even though you can argue that the influence of this movement on the election was not as great as the trolls would have you believe, the campaign clearly demonstrated the immense power of digital agitation.
But it wasn’t the discursive power of internet-driven campaigns that frightened me so badly this time. This had been common knowledge since the Arab Spring and Occupy Wall Street. It was the complete detachment from facts and reality unfolding within the Alt-Right which, driven by the many lies of Trump himself and his official campaign, has given rise to an uncanny parallel world. The conspiracy theorists and crackpots have left their online niches to rule the world.

In my search for an explanation for this phenomenon, I repeatedly came across the connection between identity and truth. People who believe that Hillary and Bill Clinton had a number of people murdered and that the Democratic Party was running a child sex trafficking ring in the basement of a pizza shop in Washington DC are not simply stupid or uneducated. They spread this message because it signals membership to their specific group. David Roberts coined the term „tribal epistemology“ for this phenomenon, and defines it as follows:

Information is evaluated based not on conformity to common standards of evidence or correspondence to a common understanding of the world, but on whether it supports the tribe’s values and goals and is vouchsafed by tribal leaders. “Good for our side” and “true” begin to blur into one.2

New social structures with similar tribal dynamics have also evolved in the German-speaking Internet. Members of these „digital tribes“ rarely know each other personally and often don’t even live in the same city or know each other’s real names. And yet they are closely connected online, communicating constantly with one another while splitting off from the rest of the public, both in terms of ideology and of network. They feel connected by a common theme, and by their rejection of the public debate which they consider to be false and „mainstream“.

It’s hardly surprising, then, that precisely these „digital tribes“ can be discovered as soon as you start researching the spread of fake news. Fake news is not, as is often assumed, the product of sinister manipulators trying to steer public opinion into a certain direction. Rather, it is the food for affirmation-hungry tribes. Demand creates supply, and not the other way around.

Since the present study, I have become convinced that „digital tribalism“ is at the heart of the success of movements such as Pegida and the AfD party, as well as the Alt-Right and anti-liberal forces that have blossomed all over the world since 2016.

For the study at hand, we analysed hundreds of thousands of tweets over the course of many months, ranking research question by research question, scouring heaps of literature, and developing and testing a whole range of theories. On the basis of Twitter data on fake news, we came across the phenomenon of digital tribalism, and took it from there.3 In this study, we show how fake news from the left and the right of the political spectrum is disseminated in practice, and how social structures on the Internet can reinforce the formation of hermetic groups. We also show what the concept of „filter bubbles“ can and cannot explain, and provide a whole new perspective on the right-wing Internet scene in Germany, which can help to understand how hate is developed, fortified, spread and organized on the web. However, we will not be able to answer all the questions that this phenomenon gives rise to, which is why this essay is also a call for further interdisciplinary research.

Blue Cloud, Red Knot

In early March 2017, there was some commotion on the German-language Twitter platform: the German authorities, it was alleged, had very quietly issued a travel warning for Sweden, but both the government and the media were hushing the matter up, since the warning had been prompted by an elevated terrorism threat. Many users agreed that the silence was politically motivated. The bigger picture is that Sweden, like Germany, had accepted a major contingent of Syrian refugees. Ever since, foreign media, and right-wing outlets in particular, have been claiming that the country is in the grip of a civil war. Reports about the terrorism alert being kept under wraps fed right into that belief.
For proof, many of these tweets did in fact refer to the section of the German Foreign Office website that includes the travel advisory for Sweden.4 Users who followed the link in early March did in fact find a level-3 (“elevated”) terrorism alert, which remains in place to this day. The website also notes the date of the most recent update: March 1, 2017. What it did not mention at the time was that the Swedish authorities had issued their revised terrorism alert a while back – and that it had been revised downwards rather than upwards, from level 4 (“high”) to level 3 (“elevated”).
After some time, the Foreign Office addressed the rumors via a clarification of facts on its website. Several media picked up on the story and the ensuing corrections. But the damage was done. The fake story had already reached thousands of people who came away feeling that their views had been corroborated: firstly, that conditions in Sweden resembled a civil war, and secondly, that the media and the political sphere were colluding to keep the public in the dark.
What happened in early March fits the pattern of what is known as fake news – reports that have virtually no basis in fact, but spread virally online due to their ostensibly explosive content.5 Especially in the right-wing sectors of the web, such reports are now “business as usual”.6
Data journalist Michael Kreil took a closer look at the case. He wanted to know how fake news spread, and whether corrections were an effective countermeasure. He collected the Twitter data of all accounts that had posted something on the issue, and flagged all tweets sharing the fake news as red and all those forwarding the correction as blue. He then compiled a graphic visualization of these accounts that illustrates the density of their respective networks. If two accounts follow each other and/or follow the same people, or are followed by the same people, they are represented by dots in greater proximity. In other words, the smaller the distance between two dots is, the more closely-knit the networking connections are between the accounts they refer to. The dot size corresponds to the account’s follower count.

The result is striking: where we might expect to see one large network, two almost completely distinct networks appear. The disparity between the two is revealed both by the coloring and by the relative position of the accounts. On the left, we see a fairly diffuse blue cloud with frayed edges. Several large blue dots relatively close together in the center represent German mass media such as Spiegel Online, Zeit Online, or Tagesschau. The blue cloud encompasses all those accounts that reported or retweeted, which is to say, forwarded, the correction.
On the other side, we see a somewhat smaller and more compact red mass consisting of numerous closely-spaced dots. These are the accounts that disseminated the fake news story. They are not only closely interconnected, but also cut off from the network represented by the large blue cloud.
What is crucial here is the clear separation between the red and blue clusters. There is virtually no communication between the two. Every group keeps to itself, its members connecting only with those who already share the same viewpoint.

That’s a filter bubble”, Michael Kreil said when he approached me, graph in hand, and asked whether I wanted to join him in investigating the phenomenon. Kreil is on the DataScience&Story team at Tagesspiegel, a daily newspaper published in Berlin, which puts him at the forefront of German data journalism. I accepted, even though I was skeptical of the filter bubble hypothesis.
At first glance, the hypothesis is plausible. A user is said to live in a filter bubble when his or her social media accounts no longer present any viewpoints that do not conform to his or her own. Eli Pariser coined the term in 2011, with view to the algorithms used by Google and Facebook to personalize our search results and news feeds by pre-sorting search results and news items.7 Designed to gauge our personal preferences, these algorithms present us with a filtered version of reality. Filter bubbles exist on Twitter as well, seeing as that every user can create a customized small media network by following accounts that stand for a view of the world that interests them. Divergent opinions, conflicting worldviews, or simply different perspectives simply disappear from view.
This is why the filter bubble theory has frequently served as a convincing explanation in the debate about fake news. If we are only ever presented with points of view that confirm our existing opinions, rebuttals of those opinions might not even reach us any more. So filter bubbles turn into an echo chamber where all we hear is what we ourselves are shouting out into the world.

Verification

Before examining the filter bubble theory, however, we first tried to reproduce the results using a second example of fake news. This time, we found it in the mass media.
On February 5, 2017, the infamous German tabloid BILD reported on an alleged „sex mob“ of about 900 refugees who had allegedly harassed people on New Year’s Eve in Frankfurt’s Fressgass district. This was explosive news because similar riots had occurred in Cologne on New Year’s Eve the previous year. The BILD story quickly made the rounds, mainly because it gave the impression that the Frankfurt police force had kept the incident quiet for more than a month.
In fact, the BILD journalist had been told the story by a barkeeper who turned out to be a supporter of the right-wing AfD party, and BILD had printed it immediately without sufficient fact-checking. As it turned out, the police were unable to confirm any of this, and no other source could be found for the incident. Even so, other media outlets picked up on the story, though often with a certain caution. In the course of the scandal, it became clear that the barkeeper had made up the entire story, and BILD was forced to apologize publicly.

This time, we had to take a slightly different approach for evaluation, because this particular debate on Twitter had been far more complex, and so many reports couldn’t be clearly assigned to either of the two categories, „fake news“ or „correction“. We needed a third category in between. We collected all the articles on the topic in a spreadsheet and flagged them as either spreading the false report (red), or just passing it on in a distanced or indecisive manner (yellow). Phrases such as „According to reports in BILD…“, or indications that the police could not confirm the events, were sufficient for the label „indecisive“. Of course, we also collected articles disproving the fake news story (blue). We also assigned some of the tweets to a fourth category: Meta. The mistake the BILD newspaper made sparked a broader debate on how a controversial, but well-established media company could become the trigger point of a major fake news campaign. These meta-debate articles were colored in green.8
Despite these precautionary measures, it is obvious even at first glance that the results of our first analysis have been reproduced here. The cloud of corrections, superimposed with the meta-comments, is visible in blue and green, brightened up here and there by yellow specks of indecision. Most noticeably, the red cluster of fake news clearly stands out from the rest again, in terms of color and of connectivity. Our fake news bubble is obviously a stable, reproducible phenomenon.

The Filter Bubble Theory

So we were still dealing with the theory that we were seeing the manifestation of a filter bubble. To be honest, I was skeptical. The existence of a filter bubble is not what our examples prove: The filter bubble theory makes assertions about who sees which news, while our graph only visualizes who is disseminating which news. So to prove the existence of a filter bubble, we would have to find out who does or doesn’t read these news items.

This information, however, is also encoded in the Twitter data, and can simply be extracted. For any given Twitter account, we can see the other accounts it follows. In a second step, we can bring up all the tweets sent from those accounts. Once we have the tweets from all the accounts the original account follows, we can reconstruct the timeline of the latter. In other words, we can peer into the filter bubble of that particular account and recreate the worldview within it. In a third step, we can determine whether a particular piece of information penetrated that filter bubble or not.
In this manner, we were able to retrieve the timelines of all accounts that had spread the fake news story, and scan them for links to the correction. The result is surprising: Almost all the disseminators of the false terrorism alert story – 89.2 percent, to be exact – had also had the correction in their timelines. So we repeated that test for the Fressgass story, too. In our first example, 83.7 percent of fake news distributors had at least technically been reached by the counterstatement.

This finding contradicts the filter bubble theory. It was obviously not for technical reasons that these accounts continued to spread the fake news story and not the subsequent corrections. At the very least, the filter bubbles of these fake news disseminators had been far from airtight.
Without expecting much, we ran a counter-test: What about those who had forwarded the correction – what did their timelines reveal? Had they actually been exposed to the initial fake news story they were so heroically debunking? We downloaded their timelines and looked into their filter bubbles. Once again, we were surprised by what we found: a mere 43 percent of the correction disseminators could have known about this fake news on Sweden. This result does suggest the existence of a filter bubble – albeit on the other side. In the case of the Fressgass story, the figure is even lower: at 33 percent. So these results do indicate a filter bubble, but in the other direction.

To sum up, the filter bubble effect insulating fake news disseminators against corrections is negligible, whereas the converse effect is much more noticeable.9 These findings might seem to turn the entire filter bubble discourse upside down. No, according to our examples, filter bubbles are not to blame for the unchecked proliferation of fake news. On the contrary, we have demonstrated that while a filter bubble can impede the dissemination of fake news, it did not inoculate users from being confronted with the correction.

Cognitive Dissonance

We are not dealing with a technological phenomenon. The reason why people whose accounts appear within the red area are spreading fake news is not a filter-induced lack of information or a technologically distorted view of the world. They receive the corrections, but do not forward recurring topicsthem, so we must assume that their dissemination of fake news has nothing to do with whether a given piece of information is correct or not – and everything to do with whether it suits them.

Instead, this resembles a phenomenon Leon Festinger called „Cognitive Dissonance“ and investigated in the 1950s.10 Acting as his own guinea pig, Festinger joined a sect that claimed the end of the world was near, and repeatedly postponed the exact date. He wanted to know why the members of the sect were undeterred by the succession of false prophecies, and didn’t simply stop believing in their doomsday doctrine. His theory was that people tend to have a distorted perception of events depending on how much they clash with their existing worldview. When an event runs counter to our worldview, it generates the aforementioned cognitive dissonance: reality proves itself incompatible with our idea of it. Since the state of cognitive dissonance is so disagreeable, people try to avoid it intuitively by adopting a behavior psychologists also call confirmation bias – this means perceiving and taking seriously only such information that matches your worldview, while disregarding or squarely denying any other information.
In this sense, the theory of cognitive dissonance tells us that the red cloud likely represents a group of people whose specific worldview is confirmed by the fake news in question. To test this hypothesis, we extracted several hundred of the most recents tweets from our Twitter user pools, both from the fake news disseminators and from those who had forwarded the correction, and compared word frequencies amongst the user groups. If the theory was correct, we should be able to show that the fake news group was united by a shared, consistent worldview.
We subjected a total of 380.000 tweets to statistical analysis, examining the relative frequencies of words in both groups and compiling a word ranking. The expressions at the top of each list are the ones that appear more commonly in tweets from the one group and more rarely in the other’s.11

After eliminating negligible words like “from”, “the”, etc., and prominent or frequently mentioned account names, the ranking for the fake news group shows a highly informative list of common words. In descending order, the sixteen most important terms were: “Islam”, “Deutschland”, “Migranten”, “Merkel”, “Maas”, “Politik”, “Freiheitskampf” (struggle for freedom), “Flüchtlinge” (refugees), “SPD” (the German Social Democratic Party), “NetzDG”12, “NPD” (the extreme-right National Party), “Antifa”, “Zensur” (censorship), “PEGIDA”13, “Syrer”, “Asylbewerber” (asylum seeker).


(The word size corresponds to the relative frequency of the terms.)

Certain thematic limitations become obvious at first glance. The narrative being told within this group is about migration, marked by a high frequency of terms like Islam, migrants, refugees, Pegida, Syrians. The terms “Merkel” and “Deutschland” are probably also associated with the “refugee crisis” narrative or with the issue of migration in general. A manual inspection of these tweets showed that the recurring topics are the dangers posed by Islam and crimes committed by individuals with a migrant background, and refugees in particular.
A second, less powerful narrative concerns the self-conception of the group: as victims of political persecution. The keywords “Maas”, “Freiheitskampf”, “SPD”, “NetzDG”, “Antifa”, and “Zensur” clearly refer to the narrative of victimization, in particular with view to the introduction of the so-called “network enforcement act”, NetzDG for short, promoted by German Federal Minister of Justice, Heiko Maas (SPD). This new law regulating speech on Facebook and Twitter is obviously regarded as a political attack on freedom of speech on the right.

The extent of thematic overlap amongst the spreaders of fake news is massive, and becomes even more apparent when we compare these terms to the most common terms the correction tweeters used:

“NEWS”, “Nachrichten” (news), “Trump”, “newsDE”, “Infos”, “BreakingNews”, “SPIEGEL”, “DieNachrichten”, “online”, “noafd”, “May” (as in Theresa May), “Donald”, “Piraten”, “tagesschau”, “pulseofeurope”, “Reichsbürger”.

First of all, what is noticeable is that the most important terms used by correctors are not politically loaded. It is more about media brands and news coverage in general: NEWS, news, newsDe, Infos, BreakingNews, SPIEGEL, DieNachrichten, tagesschau, Wochenblatt. Nine out of 16 terms are but a general reference to news media.
The remaining terms, however, do show a slight tendency to address the right-wing spectrum politically. Donald Trump is such a big topic that both his first and his last name appear in the Top 16. In addition, hashtags like „noafd“ or the pro-European network „pulseofeurope“ seem to be quite popular, while the concept of „Reichsbürger“ (people who feel that Germany isn’t a legitimate nation state and see themselves as citizens of the German Reich) is also discussed.

We can draw three conclusions from this word frequency analysis:

  1. The fake news group is more limited thematically and more homogeneous politically than the corrections group.
  2. The fake news group is primarily focused on the negative aspects of migration and the refugee crisis. They also feel politically persecuted.
  3. The right-wingers have no unified political agenda, but a slightly larger interest in right-wing movements.

All of this would seem to confirm the cognitive dissonance hypothesis. Our fake news example stories are reports of problems with refugees, which is the red group’s core topic exactly. Avoidance of cognitive dissonance could explain why a certain group might uncritically share fake news while not sharing the appropriate correction.

Digital Tribalism

When comparing the two groups in both examples, we already found three essential distinguishing features:

  1. The group of correctors is larger, more scattered/cloudy and includes the mass media, while the fake news group is more closely interwoven, smaller and more concentrated.
  2. The filter bubble of the corrector group is more impermeable to fake news than vice versa.
  3. The fake news group is more limited in topics than the users tweeting corrections.

In short, we are dealing with two completely different kinds of group. Whenever differences at the group level are so salient, we are well advised to look for an explanation that goes beyond individual psychology. Cognitive dissonance avoidance may well have a part in motivating the individual fake news disseminator, but seeing as we regard it as a conspicuous group-wide feature, the reasons will more likely be found in sociocultural factors. This again is a subject for further research.
In fact, there has been a growing tendency in research to embed the psychology of morals (and hence, politics) within a sociocultural context. This trend has been especially pronounced since the publication of Jonathan Haidt’s The Righteous Mind: Why Good People are Divided by Politics and Religion in 2012. Drawing on a wealth of research, Haidt showed that, firstly, we make moral and political decisions based on intuition rather than reasoning, and that, secondly, those intuitions are informed by social and cultural influences. Humans are naturally equipped with a moral framework, which is used to construct coherent ethics within specific cultures and subcultures. Culture and psychology “make each other up”, as the anthropologist and psychologist Richard Shweder put it.14
One of our innate moral-psychological characteristics is our predisposition for tribalism. We have a tendency to determine our positions as individuals in relation to specific reference groups. Our moral toolbox is designed to help us function within a defined group. When we feel we belong to a group, we intuitively exhibit altruistic and cooperative behaviors. With groups of strangers, by comparison, we often show the opposite behavior. We are less trusting and empathetic, and even inclined to hostility.
Haidt explains these human characteristics by way of an excursion into evolutionary biology. From a rational perspective, one might expect purely egoistic individuals to have the greatest survival advantage – in that case, altruism would seem to be an impediment.15 However, at a certain point in human evolution, Haidt argues, the selection process shifted from the individual to the group level. Ever since humanity went down the route of closer cooperation, sometime between 75.000 and 50.000 BCE, it has been the tribes, rather than the individuals, in evolutionary competition with one another.16 From this moment on, the most egoistic individual no longer automatically prevailed – henceforth it was cooperation that provided a distinct evolutionary edge.17

Or perhaps we should say, it was tribalism: The basic tribal configuration not only includes altruism and the ability to cooperate, but also the desire for clear boundaries, group egotism, and a strong sense of belonging and identity. These qualities often give rise to behaviors that, as members of an individualistic society, we believe we have given up, seeing as they often result in war, suffering, and hostility.18

However, for some time there have also been attempts to establish tribalism as a positive vision for the future. Back in the early 1990s, Michel Maffesoli founded the concept of “Urban Tribalism”.19 The urban tribes he was referring to were not based on kinship, but more or less self-chosen; mainly the kind of micro-groups we would now call subcultures. From punk to activist circles, humans feel the need to be part of something greater, to align themselves with a community and its shared identity. In the long run, Maffesoli argued, this trend works against the mass society.
There are more radical visions as well. In his grand critique bearing the programmatic title Beyond Civilization, the writer Daniel Quinn appeals to his readers to abandon the amenities and institutions of civilization entirely and found new tribal communities.20 Activists organizing in so-called neo-tribes mainly reference Quinn on their search for ways out of the mass society, and believe the Internet might be the most important technology in enabling these new tribal cultures.21

In 2008, Seth Godin pointed out how well-suited the Internet was to the establishment of new tribes. Indeed, his book, boldly titled Tribes: We Need You to Lead Us, was intended as a how-to guide.22 His main piece of advice: The would-be leader of a tribe needs to be a “heretic”, someone willing to break into the mainstream, identify the weakest link in an established set of ideas, and attack it. With a little luck, his or her possibly quite daring proposition will attract followers, who may then connect and mobilize via the Internet. These tribes, Godin argues, are a potent source of identity; they unleash energies in their members that enable them to change the world. Many of Godin’s ideas are actually fairly good descriptions of contemporary online group dynamics, including the 2016 Trump campaign.
To sum up: Digital tribes have traded their emphasis on kinship for an even stronger focus on a shared topic. This is the tribe’s touchstone and shibboleth, a marker of its disapproval of the “mainstream”, by whose standards the tribe members are considered heretics. This sense of heresy produces strong internal solidarity and homogenization, and even more importantly, a strict boundary that separates the tribe from the outside world. This in turn triggers the tribalist foundations of our moral sentiments: everything that matters now is “them against us”, and the narratives reflect this basic conflict. AfD, Pegida, the Alt-Right etc. see themselves as rebels, defying a mainstream that in their view, has lost its way, has been corrupted or at best, blinded by ideology. They feel they are victims of political persecution and oppression. Narratives like the “lying mainstream press” and the “political establishment” serve as boundary markers between two or more antagonistic tribes.23 Our visualization of disconnected clusters within the network structure, as well as the topical limitations revealed by our word frequency analysis are empirical evidence of precisely this boundary.

Counter Check: Left-Wing Fake News

Our assumption so far is that the red cloud of fake news disseminators is a digital tribe, and that the differences setting it apart from the group of correction disseminators result from its specific tribal characteristics. These characteristics are: close-knit internal networks, in combination with self-segregation from the mainstream (the larger network); an intense focus on specific topics and issues; and, by consequence, a propensity to forward fake news that match their topical preferences. Our tribe is manifestly right-leaning: the focus on the refugee issue is telling. Negative stories about refugees go largely or entirely unquestioned, and are forwarded uncritically, even when very little factual reporting is available and the story is implausible. Some users even forward stories they know to be untrue.
However, none of this shows the non-existence or impossibility of very diverse digital tribes within the German-speaking Twitterverse. In this sense, our identification of this particular tribe based on its circulation of fake news is inherently biased. The fake news events function as a kind of flashlight that lets us shine a light onto one part of the overall network, but only a rather limited part. Right-wing fake news reports let us detect right-wing tribes. Assuming that our theory is correct so far, we should similarly be able to discover left-wing tribes by flashing the light from the left, that is to say, by examining left-wing fake news reports, if they exist.
To cut a long story short: tracking down left-wing fake news reports was not easy, in any case, more difficult than finding their right-wing counterparts. This is interesting to note, especially since the last U.S. election campaign presented us with a very similar situation.24 One example that caught our attention early on was the so-called Khaled case, even though it is not an exact match for our definition of fake news.25
On January 13, 2015, the Eritrean refugee Khaled Idris was found stabbed to death in Dresden. This was during the peak of the Pegida demonstrations, which had been accompanied by acts of violence on several other occasions before. With the official investigation still ongoing and the authorities careful not to speculate, many Twitter users and primarily leftist media implied that the homicide was connected to the Pegida demonstrations. Some slammed the work of the investigators as scandalously ineffective (“blind on their right eye”), and many prematurely condemned the killing as a racist hate crime. Eventually the police determined that Idris had been killed by a fellow resident in his asylum seekers’ hostel.

We applied the same procedure as in the first example, again coding the fake news reports (or, let us say, incorrect speculations) in red and the corrections in blue. The meta-debate, which played an oversized role in this example, is green.
At first glance, the resulting visualization looks quite different from our first graph. Still, some structural features seem oddly familiar – only in this case, they seem to have been inverted. For instance, the division into two clusters that appear side by side, and the relative proportions of those clusters are instantly recognizable. This time, though, the spatial arrangement and distribution of colors is different.
Once again, we can distinguish two groups, represented by a cloud and a knot respectively. This time, however, the cloud appears on the right and the knot on the left.26 As before, one group is smaller, more closely linked, and more homogeneous (which, as per our theory, suggests tribal characteristics), while the other, represented by a larger, more disperse cloud, includes the mass media. Again, the smaller group is far more homogeneous in its coloring. But instead of red, it is now predominantly green and blue. Now the red dots are part of the larger cloud, which isn’t homogeneously or even predominantly red here; it is as though the cloud mostly consists of corrections (blue) and the meta-debate (green), and just like the knot, merely has occasional sprinkles of red.
These findings did not match our expectations. We thought it would be possible to detect a leftist tribe, but this rather unambiguous answer to our question took us by surprise. We could not detect a leftist tribe similarly driven by fake news; a tribal structure like before could be identified, but this time it was populated by accounts that had forwarded the correction. The cloud does include fake news disseminators as well, but there is no self-segregation, so the disseminators of the fake news are still interspersed with the correctors and the meta-debaters.

In order to increase the robustness of our analysis, we also investigated a second example:

On January 27, 2016, a volunteer of the Berlin refugee initiative „Moabit Hilft“ published a Facebook post telling the story of a refugee who, after standing in line for days in front of the LAGeSo (Landesamt für Gesundheit und Soziales, the agency assigning refugees to shelters in Berlin), collapsed and later died in hospital. The news spread like wildfire, not least due to the fact that conditions at the LAGeSo in Berlin had been known to be chaotic since mid-2015. Many social media accounts took up the case and scandalized it accordingly. The media also picked up on events, some of them rather uncritically at first. Over time, however, when no one else confirmed the story and the author of the original Facebook post had not responded to inquiries, reporting became more and more sporadic. The same day, the news was also officially debunked by the police. In the following days, it turned out that the helper had made up the entire story, apparently completely bowdlerizing it under the influence of alcohol.

We proceeded as we did in the Khaled case, with the difference that we used yellow as a fourth color to distinguish impartial reports from more uncritical fake news disseminators.
The example confirms our findings from the Khaled case. Once again, the spreaders of fake news are dispersed far and wide – there is no closely-connected group. Again, a segregated group that is particularly eager to spread the correction is recognizable. This supports our thesis that this is exactly the same group as the one that was so susceptible to right-wing fake news in the previous examples: our right-wing digital tribe.
To substantiate this conjecture, we „manually“ sifted through our pool of tweets and randomly tested individual tweets from the tribal group.
To put it mildly, if we had introduced a color for malice and sarcasm, this cluster would stand out even more from the rest of the network. Even if the tweets include corrections or meta-debate, the gloating joy about the uncovering of this fake news story is unmistakable. Here are some examples from the LaGeSo case:




(Translation:
Tweet 1: What the press believes immediately: / – Stabbing of left party politician / – Dead refugee at #lageso / What the press denies: / – Case of the thirteen-year-old Lisa / #lyingpress
Tweet 2: How desperate does one have to be to invent a dead refugee to prop up this web of lies? #lageso #moabithilft
Tweet 3: Let’s see when people start calling the dead #lageso refugee an art form to raise awareness for the suffering. Then everything will be alright again.
Tweet 4: Do-gooders cried a river of tears. For nothing. The “dead refugee” is a hoax. #lageso #berlin)

These tweets also reveal a deep mistrust in the mass media, which is expressed in the term “Lügenpresse” (“lying press”). By exposing left-wing fake news, the tribe seems to reinforce one of its most deeply-rooted beliefs: that the media are suppressing the truth about the refugees, and that stories of racist violence are invented or exaggerated.

To sum up our findings: Based on leftist fake news about refugees, we were unable to detect a leftist equivalent of the right-wing tribe. On the contrary, it turns out that disseminators of leftist fake news are highly integrated into the mainstream.27 The latter (represented by the cloud) plays an ambivalent role when it comes to leftist fake news, as it includes the fake news tweets, but also the corrections and meta-debate. Everything comes together in this great speckled cloud. By contrast, the right-wing tribe is recognizable as such even in the context of leftist fake news. Again, it appears as a segregated cluster that is noticeably homogeneous in color, though this time on the side of the correction disseminators. (It’s worth mentioning that most of the tweets forwarding the correction were mockeries.) But that does not mean that leftist tribes do not exist at all – they might be visible when investigating topics other than migration and refugees. Nor does it mean that there isn’t a multiplicity of other tribes, perhaps focused on issues that are devoid of political significance or not associated with a political faction. The latter in fact is quite probable.28

Tribal Epistemology

Some findings of our study of leftist fake news are unexpected, but that only makes them even more compelling as confirmation of our hypothesis concerning the right-wing tribe. The latter tribe is real, and it is hardly surprising that it is involved in the dissemination of all those news reports concerning refugees, be it in the form of fake news or of subsequent corrections.29
Yet the theoretical framework describing tribalism that we have outlined so far is still too broad to grasp the specificity of the phenomenon considered here. People like to band together, people like to draw lines to exclude others – this is hardly a novel insight. In principle, we might suspect that tribalism is the foundation of every informal or formally organized community. Hackers, Pirates, “Weird Twitter”, the net community, Telekommunisten, “Siff-Twitter”, 4chan, preppers, furries, cosplayers, gamers, bronies, etc: all of them digital tribes? Maybe. But when we make that claim without carefully examining the communities in question, we risk broadening the concept to such an extent that it no longer adequately captures our observations.30
What sets our phenomenon apart is a specific relation to reality, that is also visibly reflected in the network structure. Worldview and group affliation seem to coincide. This is the defining characteristic of tribal epistemology.
In recent years, a growing body of research has further inspected the connection between group identity and the psychology of perception. Dan M. Kahan and his team at the Cultural Cognition Project have made important contributions in this field.31 In a range of experimental studies, they demonstrated how strongly political affiliation influences people’s assessment of arguments and facts.
In one study, Kahan presented four versions of a problem-solving task to a representative group of test subjects.32 Two of the four versions were about the results of a fictitious study of a medical skin cream; the subjects were asked to tell whether the cream was effective or not, based on the data provided. In the first version, the data indicated that the new cream helped reduce rash in patients; in the second version, it showed that the medication did more harm than good. In the two other versions of the task, the same numbers were used, but this time to refer not to the effectiveness of a skin cream, but to the effects of a political decision to ban the carrying of concealed handguns in public. In one version, the data indicated that banning handguns from public settings had tended to decrease crime rates; in the other, it suggested the opposite.

Before being given the problem, all subjects were given a range of tests to measure their quantitative thinking skills (numeracy) as well as their political attitudes. It turned out that subjects’ numeracy was a good predictor of their ability to solve the task correctly when they were asked to interpret the data gauging the efficacy of a skin cream. When the same numbers were said to relate to gun control, political attitude trumps numeracy. So far, so unsurprising.
More strikingly, with a polarizing political issue at stake, numeracy actually had a negative effect. On the gun-control question, superior quantitative thinking skills in partisans were correlated with misinterpretation of the data. In Kahan’s interpretation, when it comes to ideologically contentious issues, individuals do not use their cognitive competences to reconcile their own attitudes with the world of fact, but instead maintain their position even when confronted with evidence that contradicts it.
The conclusion Kahan and his colleagues draw from their study is disturbing: culture trumps facts. People are intuitively more interested in staying true to their identity-based roles than in forming an accurate picture of the world, and so they employ their cognitive skills to that end. Kahan’s term for the phenomenon is “identity-protective cognition”: Individuals utilize their intellectual abilities to explain away anything that threatens their identities.33 It is a behavior that becomes conspicuous only when they engage with polarizing issues or positions that solicit strong—negative or positive—identification. Kahan was able to reproduce his findings with problems that touched on issues such as climate change and nuclear waste disposal.
Based on his research, Kahan has outlined his own theory of fake news. He is skeptical of the prevailing narrative that motivated parties such as campaign teams, the Russian government, or enthusiastic supporters of candidates plant fake news in order to manipulate the public. Rather, he argues that there is a “motivated public” that has high demand for news reports that corroborate its viewpoints—and that demand is greater than the supply.34 Fake news, as it were, are simply filling a market gap. Information is a resource in the production not so much of knowledge than of identity—and its utility for this purpose is independent of whether it is correct or incorrect.
The right-wing tribe in our study is one such “motivated public.” Its members’ assessment of a factual claim hinges on its usefulness as a signal of allegiance to the tribe and rejection of the mainstream, much more so than on truthfulness or even plausibility. Our findings therefore do not support the notion that new information might prompt the tribe’s members to change their minds or mitigate their radicalism. In this climate, corrections to the fake news story may have had an opportunity to be noticed, but they were not accepted and certainly not shared any further.

The Rise of Tribal Institutions in the USA

In his text on tribal epistemology, David Roberts makes another interesting observation, which can also be applied to Germany. While the mass media, science and others regard themselves as non-partisan, this claim is denied by the tribal right. On the contrary, the right assumes that these institutions are following a secret or not-so-secret liberal/left-wing agenda and colluding with the political establishment. In consequence, not only the opposing party, but the entire political, scientific and media system is rejected as corrupt.35
As I’ve said before, these conspiracy theories are false at face value, but relate to a certain truth.36 There is in fact a certain liberal basic consensus in politics, science and media that many citizens are sceptical of.37

However, instead of reforming the institutions or opposing their bias, new communication structures such as the Internet (but not exclusively) have made it possible to establish an alternative media landscape and new institutions at low cost. This is exactly what has been happening in the USA since the 1990s. A parallel right-wing media landscape with considerable reach and high mobilization potential has formed. The crucial point is, since this alternative media landscape does not recognise the traditional mainstream media’s claim of non-partisanism, it doesn’t even attempt to reach this ideal in the first place. We can also see similar developments in Germany, but they are far less advanced.

In the USA, the secession of alternative tribal institutions began with local talk radios radicalizing more and more towards the right. Rush Limbaugh, Sean Hannity and Glenn Beck were the early provocateurs of this flourishing scene. Since the mid-1990s, the new TV station Fox News has hired some of these „angry white men“ and set out to carry right-wing radical rhetoric into the mainstream, becoming the media anchor point for the Tea Party movement in the process.38 But during the pre-election campaign of 2015/16, Fox News itself was overtaken by a new player on the right: the Breitbart News website, which had zeroed in on supporting Donald Trump early on.
Not surprisingly, this division in the media landscape can be traced in social media data. In a highly acclaimed Harvard University study, researchers around Yochai Benkler evaluated 1.25 million messages that had been shared by a total of 25,000 sources on Twitter and Facebook during the U.S. election campaign (from April 1, 2015 to the ballot).39

Explanation: The size of a node corresponds to how often the contents of a Twitter account was shared. The position of the nodes in relation to one another shows how often they were shared by the same people at the same time. The colors indicate whether they are mostly shared by people who routinely retweet either Clinton (blue) or Trump (red), or both/neither (green).

Even though the metrics work quite differently in both cases, their analysis is strikingly similar to ours. Networking density and polarization are as clearly reflected in the Harvard study as in ours, albeit somewhat differently. Almost all traditional media are on the left/blue side, whereas there is hardly any medium older than 20 years in red. The most important players are not even 10 years old.
The authors of the study conclude, not unlike we do, that this asymmetry cannot have a technical cause. If it were technical, new, polarizing media would have evolved on both sides of the spectrum. And left-wing media would play just as important a role on the left as Breitbart News on the right.
However, there are also clear differences to our results: the right side, despite its relative novelty and radicalism, is more or less on a par with the traditional media on the left (the left side of the graph, not necessarily in terms of politics). So it is less a polarization between the extreme left and the extreme right, than between the moderate left and the extreme right.
Since the left-hand side of the graph basically reflects what the public image has represented up to now – the traditional mass media at the center with a swarm of smaller media surrounding it, such as blogs and successful Twitter accounts, it may be wrong to speak of division and polarization altogether. This should more correctly be called a „split-off“, because something new is being created here in contrast to the old. The right-wing media and their public spheres have emerged beyond the established public sphere to oppose it. They have split off not because of the Internet or because of filter bubbles, but because they wanted to.
The authors of the study conclude, as we do, that this separation must have cultural and/or ideological reasons. They analyse the topics of the right and reveal a similar focus on migration, but also on the supposed corruption of Hillary Clinton and her support in the media. Here, too, fake news and politically misleading news are a huge part of the day-to-day news cycle, and are among the most widespread messages of these outlets.
We have to be cautious of comparing these two analyses too closely, because the political and media landscapes in Germany and the US are too different. Nevertheless, we strongly suspect that we are dealing with structurally similar phenomena.
An overview of the similarities between the US right-wing spin-off media group and our fake news tribe:

  1. Separation from the established public.
  2. Traditional mass media remain on the „other“ side.
  3. Focus on migration and at the same time, their own victimization.
  4. Increased affinity to fake news.
  5. Relative novelty of the news channels.

We can assume that our fake news Twitter accounts are part of a similar split-off group as the one observed in the Harvard study. One could speculate that the United States has merely gone through the same processes of secession earlier than we have, and that both studies show virtually the same phenomenon at different stages. The theory would be: A parallel society can emerge out of one tribe if it creates a media ecosystem and institutions of its own, and last but not least, a truth of its own.
What we have seen in the United States could be called the coup of a super-tribe that has grown into a parallel society. Our small fake news tribe is far from there. However, it cannot be ruled out that this tribe will continue to grow and prosper, and will eventually be just as disruptive as its American counterparts.
In order for that to happen, however, it would have to develop structures that go well beyond the individual network structure of associated Twitter accounts. This can already be observed in some cases. Blogs like “Politisch Inkorrekt”, “Achgut” or “Tichys Einblick” (Tichy’s Inside View), and of course, the numerous successful right-wing Facebook pages and groups surrounding the AfD party and Pegida in particular, can be seen as „tribal institutions“. These are still far from having the same range and are often not as radical as their American counterparts, but this may merely be a matter of time.

Conclusion

The dream of the freedom of networks was a naive one. Even if all our social constraints are removed, our presupposed patterns of socialisation become all the more evident. Humans have a hard-wired tendency to gather into groups they identify themselves with, and to separate themselves from others as a group. Yes, we enjoy more and greater freedoms in our socialisation than ever before, but this does not lead to more individualism – quite the contrary, in many cases it paradoxically leads to a even stronger affinity for groups. The tribal instinct can develop without constraint and becomes all the more dominant. And the longer I think about it, the more I wonder whether all the strangely limiting categories and artificial group structures of modern society are a peacemaking mechanism for taming the tribal side in us that is all too human. Or whether they were. The Internet is far from finished with deconstructing modern society.40

We learned a lot about the new right. It is not just one side of the political spectrum, but a rift, the dividing off of a new political space beyond the traditional continuum. The Internet is not to blame for this split-off, but it has made these kinds of developments possible and therefore more likely. Free from the constraints and the normalization dynamics of the traditional continuum, „politically incorrect“ parallel realities are formed that no longer feel the need to align themselves with social conventions or even factuality.

In The Righteous Mind, Jonathan Haidt writes that people need no more than one single argument to justify a belief or disbelief. When I am compelled (but do not want) to believe something, a single counterargument is enough to make me disregard a thousand arguments. 99 out of 100 climate scientists say that climate change is real? The one who says otherwise is enough for me to reject their view. Or I may want to hold on to a belief that runs counter to all available evidence: Even if all my objections to the official version of the events of 9/11 are refuted, I will always find an argument that lets me cling to my conviction that the attacks were an inside job.

This single argument is the reason why the right-wing tribe is immune to fake news corrections even if exposed to them. Its members always have one more argument to explain why they stand by their narrative, and their tribe. That is exactly what the phrase “lying mainstream press” was invented for. It does not actually imply a sweeping rejection of everything the mass media report, but justifies crediting only those reports that fit one’s own worldview and discounting the rest as inconsequential.41

If we follow the tribalist view of the media landscape (your media vs. our media), the traditional mass media, with their commitment to accuracy, balance, and neutrality, will always benefit the right wing about half the time, while right-wing media pay exclusively into their own accounts. Having faith in non-partisanship and acting accordingly turns out to be the traditional mass media’s decisive strategic disadvantage.

The right will undoubtedly respond that the tribalist tendencies and structures which are uncovered in this text equally apply to the left. But there is no evidence for this assertion. In any case, equating the groups observed is not an option, seeing as the data is unambiguous. This does not mean, however, that there is no tribalistic affect on the left, or that they are still forming in response to the right. On the left, there are belief systems with a similarly strong identity-forming effect, and if Dan Kahan’s theory of „identity-protective cognition“ is correct, similar effects should be observable on the left with the appropriate topics.

This essay is not a complete research paper, and can only be a starting point for additional research. Many questions remain unanswered, and some of the assumptions we have made have not been sufficiently proven yet. It’s clear, however, that we have discovered something that, on the one hand, has a high degree of significance for the current political situation in Germany. On the other hand, and this is my assessment, it also says something fundamental about politics and society in the age of digital networking.

All politics becomes identity politics, as far as polarizing issues are concerned. Identity politics can be described as highly motivating, uncompromising and rarely or never fact-based.

A few research questions remain unanswered:

  1. Can we really prove that this permanently resurfacing tribe on the right is structurally identical (and at least largely account-identical) with all the phenomena we observe? We’ve got some good leads, but hard evidence is still missing. We would have to measure the entire group and then show that the fake news accounts are a subset of that group.
  2. In our research, we compared two special groups: right-wing fake news distributors and those who spread the corrections to fake news. The differences are significant, but the comparison is problematic: the group of correctors was also selected, and is therefore not representative. Also, the groups differ in size. Therefore it would be more meaningful to compare the fake news group with a randomized control group of the same size.
  3. Facebook. Facebook is a far more influential player in the German political debate than Twitter. Can we find the same or similar patterns on Facebook? I would assume so, but it’s hasn’t been looked into yet.
  4. To justify the term „digital tribe“, further tribes should be identified and researched. This requires a digital ethnology. Are there other tribes in the German-speaking world with other agendas, ideologies or narratives displaying a similar level of separation and perhaps radicalization? Possible candidates are the digital Men’s Rights movement, “Sifftwitter” and various groups of conspiracy theorists. Also: How do digital tribes differ from others? Which types of tribes can reasonably distinguished, etc.? Or is tribalism more a spectrum on which to locate different groups; are there different „degrees“ of tribalism, and which metrics would apply in that case?

I know there are already a few advances in digital ethnology, but I feel that an interdisciplinary approach is needed when it comes to digital tribes. Data analysts, network researchers, psychologists, sociologists, ethnologists, programmers, and maybe even linguists, will have to work together to get to the bottom of this phenomenon.

Another, less scientific question is where all this will end. Is digital tribalism a sustainable trend and will it, as it has happened in the United States, continue to put pressure on the institutions of modern society, and maybe even destroy them in the long term?

So what can we do about it?

Can you immunize yourself against tribalist reflexes? Is it possible to warn against them, even to renounce them socially? Or do we have to live with these reflexes and find new ways of channeling them peacefully?

Haidt’s answer is twofold. He compares our moral decision-making to an elephant and its rider: The elephant intuitively does whatever it feels like at any moment, while the rider merely supplies retrospective rationalizations and justifications for where the elephant has taken him. A successful strategy of persuasion, then, does not consists in confronting the rider with prudent arguments, but in making sure that one retains the elephant’s goodwill (for instance by establishing relationships of personal trust that will then allow a non-confrontational mode of argumentation, which can help individuals break free of the identity trap).
The other half of Haidt’s answer is actually about the power of institutions. The best institutions, he writes, stage a competition between different people and their worldviews, so as to counterbalance the limitations of any one individual’s judgment. Science, for instance, is organized in such a way as to encourage scientists to questions one anothers’ insights. The fact that a member of the scientific community will always encounter someone who will review his or her perspective on the world acts as containment against the risk that he or she will become overly attached to any personal misperceptions.
Our discovery of digital tribalism, however, points to the disintegration of precisely these checks and balances, and the increased strength of unchecked tribal thinking. I am inclined to think that the erosion of this strategy is precisely the problem we are struggling with today.

Paul Graham also made a suggestion on how to deal with this phenomenon on a personal level, but without reference to research. In a short essay entitled „Keep Your Identity Small“ from 2009, he advises exactly that: not to identify too much with topics, debates, or factions within these debates.42 The fewer labels you attach to yourself, the less you allow identity politics to tarnish your judgement.

However, this advice is difficult to generalise because there are also legitimate kinds of identity politics. Identity politics is always justified and even necessary when it has to be enforced against the group think of the majority. Often, the majority does not consider the demands of minorities on its own. Examples are homosexual and transsexual rights, or the problems caused by institutional racism. In these cases, those affected simply do not have the choice of not identifying with the cause. They literally are the cause.

A societal solution to the problem would presumably need to rebuild faith in supra-tribal and nonpartisan institutions, and it is doubtful whether the traditional institutions are still capable of inspiring such faith. People’s trust in them was always fragile at heart and would probably have fallen apart long ago given the right circumstances. In Germany, this opportunity arose with the arrival of the Internet, which dramatically lowered the costs of establishing alternative media structures. New institutions aiming to reunify society within a shared discursive framework will need to take into account the unprecedented agility of communication made possible by digital technology, and will even devise ways of harnessing it.

Of course, another response to the tribalism on the right would be to become tribalist in turn. A divisive “us against them” attitude has always been part of the important anti-fascist struggle, and an ultimately necessary component of the Antifa political folklore. However, I suspect that an exclusive focus on the right-wing digital tribe might inadvertently encourage the other side—which is to say, large segments of mainstream society—to tribalize itself, drawing cohesion and identification from the repudiation of the “enemy.” In doing so, society would be doing the right-wing tribe a huge favor, turning its conspiracy theory (“They’re all in cahoots with each other”) into a self-fulfilling prophecy.

The problem of digital tribalism is unlikely to go away anytime soon. It will continue to have a transformative effect on our debates and, by consequence, our political scenes.

Footnotes:

 

  1. Or at least, as Felix Stalder – somewhat less naive – has suggested as „networked individualism“, according to which „… people in western societies(…) define their identity less and less via the family, the workplace or other stable communities, but increasingly via their personal social networks, i. e. through the collective formations in which they are active as individuals and in which they are perceived as singular persons. Stalder, Felix: Kultur der Digitalität, p. 144.
  2. Roberts, David: Donald Trump and the rise of tribal epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  3. We have chosen Twitter for our analysis because it is easy to process automatically due to its comparatively open API. We are aware that Facebook is more relevant, especially in Germany and especially in right-wing circles. However, we assume that the same phenomena are present there, so that these findings from Twitter could also be applied to Facebook.
  4. Website of the German Foreign Office, travel and safety advisory for Sweden: Auswärtiges Amt: Schweden: Reise- und Sicherheitshinweise, http://www.auswaertiges-amt.de/sid_39E6971E3FA86BB25CA25DE698189AFB/DE/Laenderinformationen/00-SiHi/Nodes/SchwedenSicherheit_node.html (2017).
  5. For a closer examination of the term “fake news”, consider (in German): Seemann, Michael: Das Regime der demokratischen Wahrheit II – Die Deregulierung des Wahrheitsmarktes. http://www.ctrl-verlust.net/das-regime-der-demokratischen-wahrheit-teil-ii-die-deregulierung-des-wahrheitsmarktes/ (2017).
  6. The German project ‘Hoaxmap’ has been tracking a lot of rumors concerning refugees for a while: http://hoaxmap.org/.
  7. See Pariser, Eli: The Filter Bubble – How the New Personalized Web Is Changing What We Read and How We Think (2011).
  8. However, the data basis of this example is problematic in several respects.
    – The original article in BILD newspaper has been deleted, as have the @BILD_de tweet and all of its retweets. It’s no longer possible to reconstruct the articles and references that have been deleted in the meantime.
    – Some of the articles have been changed over time. For example, Spiegel Online’s article was much more sensational at the beginning, and we would probably have categorized it as clearly fake news in the beginning. At some point, when it turned out that there were more and more inconsistencies, it must have been amended and defused. We don’t know which other articles this has happened to.
  9. Eli Pariser, the inventor of the filter bubble, recently said in an interview regarding the situation in the USA: „The filter bubble explains a lot about how liberals didn’t see Trump coming, but not very much about how he won the election.“ https://backchannel.com/eli-pariser-predicted-the-future-now-he-cant-escape-it-f230e8299906 2017 The problem is, according to Parisians, that the leftists lose sight of the right, not the other way round.
  10. See Festinger, Leon: A Theory of Cognitive Dissonance, (1957).
  11. A special vocabulary (or slang) probably also distinguishes a digital tribe. Relative word frequencies have also been used to identify homogeneous groups in social networks. Cf. study: Bryden, John / Sebastian Funk / AA Jansen, Vincent: Word usage mirrors community structure in the online social network Twitter, https://epjdatascience.springeropen.com/articles/10.1140/epjds15 (2012).
  12. Short for Netzwerkdurchsetzungsgesetz, a controversial law designed to prevent online hate speech and fake news that went into effect on October 1, 2017.
  13. Patriotic Europeans Against the Islamisation of the West – an extreme-right wing movement founded in Dresden, Germany in 2014.
  14. Richard Shweder, quoted in Jonathan Haidt, The Righteous Mind: Why Good People Are Divided by Politics and Religion (New York: Pantheon Books, 2012), 115.
  15. So the thesis of the Homo Oeconomicus from economics has always been founded on that assumption.
  16. In this context, John Miller and Simon Dedeo’s research is also compelling. They developed an evolutionary game theory computer simulation in which agents have memory so that they can integrate other agents’ behavior in the past into their own decision-making process. Knowledge is inherited over generations. It turned out that the agents began to see recurring patterns in the behavior of other agents, and shifted their confidence to the homogeneity of these patterns. These evolved „tribes“ with homogeneous behavioural patterns quickly cooperated to become the most successful populations. However, if small behavioural changes were established over many generations through mutations, a kind of genocide occurred. Entire populations were wiped out, and a period of instability and mistrust followed. Tribalism seems to be an evolutionary strategy. Cf. Dedeo, Simon: Is Tribalism a Natural Malfunction? http://nautil.us/issue/52/the-hive/is-tribalism-a-natural-malfunction (2017).
  17. The thesis of group selection (or „multi-level selection“) was already brought into play by Darwin himself, but it is still controversial among biologists. Jonathan Haidt makes good arguments as to why it makes a lot of sense, especially from a psychological point of view. Cf. Haidt, Jonathan: The Righteous Mind – Why Good People are Divided by Politics and Religion, 210 ff.
  18. Cf. Greene, Joshua: Moral Tribes – Emotion, Reason, and the Gap Between Us and Them (2013), S. 63.
  19. Maffesoli, Michel: The Time of the Tribes – The Decline of Individualism in Mass Society (1993).
  20. Quinn, Daniel: Beyond Civilization – Humanity’s Next Great Adventure (1999).
  21. See NEOTRIBES http://www.neotribes.co/en.
  22. Godin, Seth: Tribes – We Need You to Lead Us (2008).
  23. For example,“Lügenpresse“ appears 226 times in our analysis of the fake news spreaders’ tweets, vs. 149 for the correctors. „Altparteien“ even appears 235 times vs. 24.
  24. “We’ve tried to do similar things to liberals. It just has never worked, it never takes off. You’ll get debunked within the first two comments and then the whole thing just kind of fizzles out.” That’s what Jestin Coler says to NPR. He is a professional fake-news entrepreneur who made a lot of money during the US election campaign by spreading untruths. His target audience are Trump supporters; liberals are not as easy to ensnare, he claims. Ct. Sydell, Laura: We Tracked Down A Fake-News Creator In The Suburbs. Here’s What We Learned. http://www.npr.org/sections/alltechconsidered/2016/11/23/503146770/npr-finds-the-head-of-a-covert-fake-news-operation-in-the-suburbs (2016).
  25. The difference to fake news lies mainly in the fact that these were not allegations made against better knowledge, but rather assumptions that were mostly recognizable as presupposed.
  26. The orientation of the graph is based on where the distribution of fake news is centered.
  27. Even though it remains unclear whether it may be possible to provide a digital tribe with leftist fake news on other topics. For example, there is widespread use of false quotations or photo montages of Donald Trump. However, such examples have attracted particular attention in the English-speaking world, and it would be hard to achieve a clean research design for the German-language Twittersphere. An interesting example to investigate from the German election campaign would be the fake news (which was probably was meant as satirical hoax) that Alexander Gauland, head of the right-wing AfD, expressed his admiration for Hitler. Cf. Schmehl, Karsten: DIE PARTEI legt AfD-Spitzenkandidat Gauland dieses Hitler-Zitat in den Mund, aber es ist frei erfunden, https://www.buzzfeed.com/karstenschmehl/satire-und-luegen-sind-nicht-das-gleiche (2017).
  28. There are quite a lot of texts on the tribalist political situation in the USA, in which authors also assume tribalist tendencies in certain left-wing circles. See Sullivan, Andrew: America Wasn’t Built for Humans. http://nymag.com/daily/intelligencer/2017/09/can-democracy-survive-tribalism.html (2017) and Alexander, Scott: I Can Tolarate Anything Except The Outgroup http://slatestarcodex.com/2014/09/30/i-can-tolerate-anything-except-the-outgroup/ (2014).
  29. This is further evidenced by the fact that similar phenomena were already detectable in other events. See, for example, the tweet evaluations of the Munich rampage last year. See Gerret von Nordheim: Poppers nightmare, http://de.ejo-online.eu/digitales/poppers-alptraum (2016).
  30. A candidate for a tribe that has already been investigated is „Sifftwitter“. Luca Hammer has looked at the network structures of this group, and his findings seem to be at least compatible with our investigations. See Walter, René: Sifftwitter – Dancing around the data fire with the trolls. http://www.nerdcore.de/2017/05/09/sifftwitter-mit-den-trollen-ums-datenfeuer-tanzen/ (2017).
  31. Cultural Cognition Project (Yale Law School), http://www.culturalcognition.net/.
  32. Dan M. Kahan, “Motivated Numeracy and Enlightened Self-Government,” Yale Law School, Public Law Working Paper, no. 307, September 8, 2013, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2319992, accessed November 7, 2017.
  33. Dan M. Kahan, “Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition,” Cultural Cognition Project Working Paper Series, no. 164, May 24, 2017, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2973067, accessed November 7, 2017.
  34. Which in turn proves the studies which classify fake news as a commercial phenomenon are right. See e. g. Allcott/Gentzkow: Social Media and Fake News in the 2016 Election, https://www.aeaweb.org/articles?id=10.1257/jep.31.2.211 (2017).
  35. Roberts, David: Donald Trump and the Rise of Tribal Epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  36. Seemann, Michael: The Global Class – Another World is Possible, but this time, it’s a threat, http://mspr0.de/?p=4712. (2016).
  37. Recently Richard Gutjahr called for the reflection of this bias. The fact that media representatives actually have a filter bubble against right-wing thought building is proven in our data. http://www.gutjahr.biz/2017/05/filterblase/ (2007).
  38. In fact, Seth Godin actually refers to the example of Fox News in his 2008 book „Tribes“. Fox News has managed to create a tribe for itself. Cf. God, Seth: Tribes – We need you to lead us, 2008, p. 48.
  39. Berkman Center: Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election, https://cyber.harvard.edu/publications/2017/08/mediacloud (2017).
  40. In this context, we should also look at the appalling events accompanying the introduction of the Internet to the general public in developing countries. In connection with the anti-Muslim resentment in Burma with Fake News and the incredibly rapid popularization of the Internet, see for example Frenkel, Sheera: This Is What Happens When Millions Of People Suddenly Get The Internet, https://www.buzzfeed.com/sheerafrenkel/fake-news-spreads-trump-around-the-world?utm_term=.loeoq9kBX#.qiVgaEX7r (2017), and how rumors on the Internet could have led to a genocide in South Sudan: Patinkin, Jason: How To Use Facebook And Fake News To Get People To Murder Each Other, https://www.buzzfeed.com/jasonpatinkin/how-to-get-people-to-murder-each-other-through-fake-news-and?utm_term=.ktQP8vaJN#.jh8Dd6Xyj (2017).
  41. Ct. Lobo, Sascha: Die Filterblase sind wir selbst, http://www.spiegel.de/netzwelt/web/facebook-und-die-filterblase-kolumne-von-sascha-lobo-a-1145866.html, (2017).
  42. Graham, Paul: Keep Your Identity Small, http://www.paulgraham.com/identity.html (2009).


Veröffentlicht unter Das Neue Spiel Digital Tribalism english Weltkontrollverlust
4 Kommentare

Vier Jahre nach Snowden – Wird die EU-Datenschutzgrundverordnung uns vor der Überwachung retten?

/***** Die Bundeszentrale für politische Bildung hat die Onlineverbreitungsrechte für den Film „Im Rausch der Daten“ gekauft und zeigt ihn ab jetzt kostenfrei auf ihrem Portal. Im Zuge dessen haben sie von verschiedenen Autor/innen Beiträge zum Thema eingeholt, unter anderem von mir. Mein Beitrag wurde allerdings stark gekürzt, weswegen ich an dieser Stelle noch mal die Langfassung bringe. ******/

Es gibt diesen Witz. Ein Mann kriecht mitten in der Nacht unter einer Laterne herum. Ein Passant bleibt stehen und fragt den Mann, was er dort tue. „Ich habe meine Brille verloren“, antwortet der und da der Passant ein freundlicher Mensch ist, hilft er ihm bei der Suche. Nach einiger Zeit erfolglosen Suchens fragt der hilfsbereite Passant den Mann, wo er die Brille denn verloren hätte. „Dort drüben“, erwidert der Mann und zeigt auf eine rund 20 Meter weiter entfernte Stelle im Dunkeln. „Aber warum suchen wir denn hier?“ fragt der Passant verdutzt. Der Mann daraufhin: „Dort drüben ist es doch viel zu dunkel!“

Als die Verhandlungen zur EU-Datenschutzgrundverordnung im Jahr 2013 vollends ins Stocken gerieten, passierte so etwas wie ein Wunder. Zu dieser Zeit waren viele Akteure unterschiedlicher europäischer Länder nicht sonderlich überzeugt von dem Reformentwurf. Der Berichterstatter und maßgebliche Autor der Reform Jan Philipp Albrecht hatte seine datenschutzfreundliche Handschrift nur allzu deutlich im Entwurf durchscheinen lassen, was vielen Akteuren in seiner Strenge und Konsequenz zu weit ging. Zudem hatte die Internetwirtschaft massive Lobbyanstrengungen in Bewegung gesetzt, um die Abgeordneten davon zu überzeugen, dass der Entwurf dringend abgeschwächt werden müsse. Die Verhandlungen hatten sich festgefahren und Zeitplan um Zeitplan wurde zur Makulatur. Manche fürchteten schon, dass der Prozess nie zu einem Ende kommen würde.
Das Wunder geschah im Juni. Edward Snowden war ehemaliger Mitarbeiter eines NSA-Vertragsunternehmens und er enthüllte der Welt ihre massenweise Ausspähung. Er nannte Namen, Zahlen und Methoden und belegte die Existenz verschiedenster Überwachungsprogramme mittels PowerPoint-Präsentationen, die so hässlich waren, dass sie unmöglich gefälscht sein konnten. Der Skandal, der Medien, Politik und Öffentlichkeit über ein Jahr lang in Atem hielt, veränderte den Ton der Debatte. Die Angst vor totaler Überwachung und die damit einhergehende Aufwertung des Themas Datenschutz und Privatsphäre gab Albrechts Position Rückenwind. Er schaffte es erfolgreich, die vergleichsweise strenge Version seines Datenschutzentwurfs als die Lösung des Überwachungsproblems zu präsentieren. In diesem einmaligen politischen Klima konnte die Verordnung fast unbeschadet die Ausschüsse passieren und wurde schon im Oktober mit überwältigender Mehrheit im Parlament angenommen. Verbindlich in Kraft tritt sie Anfang 2018.

Es ist eine politische Heldengeschichte, die auch wunderbar im Dokumentarfilm „Democracy – im Rausch der Daten“ verewigt wurde. Leider hat die Geschichte einen kleinen Haken: Die Datenschutzgrundreform schützt gegen Geheimdienstüberwachung wie ein Regenschirm gegen Mückenstiche: Gar nicht.

Natürlich hört sich das erstmal logisch an: Hast du Überwachung, dann nimm doch etwas mehr Datenschutz. Denn sind die Daten geschützt, können sie ja nicht mehr überwacht werden, oder?

Doch wenn man genauer hinschaut, stellt man fest: Nichts, was in der Grundverordnung steht, schränkt irgendeinen Geheimdienst in seinen Befugnissen und Möglichkeiten auch nur einen Deut weit ein. Keine einzige geheimdienstliche Datensammlung wird verunmöglicht oder auch nur ein EU-Bürger besser vor Massenüberwachung geschützt. Das liegt an dem schlichten Umstand, dass die Verordnung nur private Akteure wie Unternehmen und öffentliche Stellen innerhalb der EU reguliert. Die NSA ist davon genauso wenig betroffen, wie der BND oder der britische GCHQ.

Die Europäische Datenschutzreform wird weder das massenhafte Abfischen von Daten an den Überseekabel des GCHQ in Großbritannien unterbinden (Tempora1), noch die Datensammlung der NSA in Zusammenarbeit mit dem BND in Bad Aibling (Operation Eikonal2). Sie wird keine Einschränkung der mächtigen Abfragesoftware XKeyScore erzwingen können, mit der die NSA und befreundete Dienste ihre riesigen Datenmassen durchkämmen. Die Datenschutzgrundverordnung ist eine Laterne, die überall aber eben nicht an dem Ort scheint, wo Snowden seine Brille verloren hat.

Den Sinn von Datenschutz nicht verstanden

Wenn man mit Datenschüzer/innen über diesen Umstand spricht, wird vor allem ein Thema angegeben, in dem zumindest die Chance besteht, dass die Datenschutzgrundverordung einen Einfluss hat: PRISM. PRISM ist die Abhörschnittstelle mit der die NSA an die Daten amerikanischer Internetfirmen kommt. Es war eine der ersten Snowden-Enthüllungen und auf den zugehörigen Dokumenten tauchen alle bekannten Namen auf: Yahoo!, Google, Apple, Microsoft, Facebook, Twitter und einige mehr. PRISM steht unter der Ägide des FISC (Foreign Intelligence Surveillance Court) – des geheimdienstlichen Spezialgerichts für Auslandsüberwachung in den USA.3 Mit einem entsprechenden Beschluss dieses Gerichts kann die NSA an die Unternehmen herantreten und Zugriff auf Daten ihrer Nutzer/innen verlangen. Datenschützer/innen argumentieren, dass diese Vorgehensweise durchaus gegen das europäische Datenschutzrecht verstoßen wird und da es sich hier um private Firmen handelt, ist die Verordnung eben auch zuständig. Hier also könnte europäisches Datenschutzrecht durchaus einen Unterschied machen.

Das stimmt zwar, jedoch ist die sich daraus ergebende Gemengelage nicht ganz einfach aufzudröseln. Schließlich dürfen sich die US-Unternehmen ja nicht einfach den Anordnungen des FISA-Courts widersetzen, nur weil es ein EU-Gesetz von ihnen verlangt. Sie geraten vielmehr in einen Zwiespalt, ob sie entweder nach amerikanischem Recht handeln und so EU-Recht brechen sollen, oder andersrum. Dieses Dilemma ist nicht leicht aufzulösen.

Im besten Fall, so wenden Datenschützer ein, werden amerikanische Firmen anfangen, ihre Server nach Europa zu verlegen. Dann würden die Daten nicht nur unter den europäischen Datenschutz fallen, sondern die amerikanischen Behörden hätten dann enorme rechtliche Schwierigkeiten, auf die Daten zuzugreifen. Das zeigt zumindest der Fall Microsoft gegen die Vereinigten Staaten.4 In letzter Instanz entschied ein US-Gericht, dass US-Behörden Microsoft nicht zwingen können, Daten über Nutzer/innen herauszugeben, wenn diese auf Servern in Irland gespeichert sind. Damit könnte die NSA effektiv ausgesperrt werden.

Das hört sich so lange gut an, bis man die Implikationen einer solchen Entwicklung durchdenkt. Denn, ja, die amerikanischen Behörden haben es dadurch schwerer, auf die Daten zuzugreifen. Aber es ist ja nicht so, als gäbe es in Europa keine Geheimdienste und Strafverfolgungsbehörden, die Interessen an den Daten hätten. Und diese hätten es einfacher, wenn die Server nach Europa ziehen.

Wer nun sagt, dass ihm/ihr das lieber ist, als wenn es die Amerikaner tun, hat den ganzen Sinn des Datenschutzes nicht verstanden. Im Datenschutz geht es darum, zu verhindern, dass ein Staat Daten seiner Bürger nutzt, um Macht über diese auszuüben. Deswegen ist es schlimmer, wenn europäische Dienste Zugriff haben. Die NSA hat schließlich weder das Interesse noch die Mittel, Deutschen mit den Daten zu schaden, der Verfassungsschutz oder das BKA hingegen schon. Und wir erinnern uns: Diese Behörden sind wiederum nicht durch die Datenschutzgrundverordnung eingeschränkt. Was sich also erst gut anhört, würde die Situation nur verschlimmern.

Neue Kompetenzen für Geheimdienste

Wie man es dreht und wendet, die Datenschutzgrundverordnung wird niemanden wirksam vor den von Edward Snowden enthüllten Überwachungsprogrammen schützen. Die einzige Möglichkeit, das zu tun, wäre direkt die Gesetze anzugehen, die die Kompetenzen der Geheimdienste regeln.

Und hier zunächst die gute Nachricht: Dieses Gesetz wurde tatsächlich im Nachklapp der Snowden-Affäre gründlich reformiert. Es handelt sich um das BND-Gesetz und die Bundesregierung hat, nachdem ein Bundestagsuntersuchungsausschuss illegale Kooperationen des BND mit der NSA aufgedeckt hatte, schnell gehandelt und es noch in der letzten Legislaturperiode reformiert.

Die schlechte Nachricht ist, dass es nicht in der Weise reformiert wurde, wie man sich das vielleicht gewünscht hätte. Die enthüllten illegalen Machenschaften des BND wurden nicht unterbunden, sondern legalisiert. Die Rechtsverstöße wurden einfach zu „keine Rechtsverstöße“ umdefiniert, indem die Befugnisse und Mittel des BND entsprechend ausgeweitet wurden.

Das politische Resultat nach Snowden sieht in Deutschland also folgendermaßen aus:
Amerikanische Firmen werden vermutlich, um den europäischen Datenschutzstandards zu genügen, ihre Server für europäische Bürger sukzessive nach Europa auslagern. Dort erwarten sie die mit neuen Vollmachten und Befugnissen ausgestatteten europäischen Geheimdienste, die – von der EU-Datenschutzgrundverordnung völlig unbehelligt – viel mehr tun und lassen können, was sie wollen. Europäische Regierungen bekommen eine größere Kontrolle über die Daten ihrer Bürger.

Kurz: Das politische Ergebnis der Snowden-Enthüllungen ist ein Lose-Lose-Lose-Szenario des Datenschutzes. Die Verordnung ist natürlich nicht komplett Effektlos. Unternehmen werden es schwerer haben, personalisierte Werbung auszuspielen, Internetnutzer/innen werden ein paar mal öfter klicken müssen und Häkchen setzen, um sich irgendwo zu registrieren und ein paar sinnvolle Regeln gibt es auch. Aber eben nichts bezogen auf staatliche Überwachung.

Hoffnung macht die Industrie

Doch es ist nicht alles schlecht nach Snowden. Trotz des politischen Desasters stelle ich hier die These auf, dass die Bürger heute unterm Strich geschützter vor Massenüberwachung sind, als sie es 2013 waren. Doch das ist kein Verdienst der Politik, sondern ausgerechnet der Internetwirtschaft.

Ab 2013 setzte ein Boom der Sicherheitsrelevanten Software ein. Neue Messenger kamen auf den Markt, die Ende-zu-Ende verschlüsselt waren. Threema und Signal zum Beispiel funktionieren so, dass niemand – auch die Betreiber nicht – die Nachrichten ihrer Nutzer/innen lesen können. Nur Sender und Empfänger.

Apple war das erste große Unternehmen, dass seinen Dienst iMessage an diesen neuen Standard angepasst hat. Facebook zog nach und verschlüsselte seine von über hundert Millionen Menschen genutzte Messaging-App WhatsApp. Damit war nun endgültig ein Industriestandard geschaffen. Ende-zu-Ende-Verschlüsselung gilt seitdem – zumindest als optionales Feature – als unerlässlich im Messenger-Markt.

Apple hat – nicht erst nach Snowden, aber seit dem viel massiver – die Sicherheit seiner Produkte verbessert. Das iPhone gilt vielen Sicherheitsexperten heute als so sicher, dass sie Leuten mit erhöhten Sicherheitsbedürfnissen empfehlen, vom Computer aufs iPhone zu wechseln. Auch Google führte wesentliche Verbesserungen seines Smartphonebetriebssystems Android ein, unter anderem eine Vollverschlüsselung aller Daten auf dem Gerät.

Google hat zudem mit seinem 2014 gegründeten „Project Zero“ wahrscheinlich den wichtigsten Beitrag zur Computer- und Kommunikationssicherheit der letzten 10 Jahre vollbracht. Jedes größere Unternehmen hat Teams, die die eigenen Produkte auf Sicherheitsschwachstellen testet. Google leistet sich aber ein Team hochspezialisierter Sicherheitsforscher, das auch alle möglichen Softwareprodukte anderer Hersteller unter die Lupe nimmt und diese zwingt, sicherheitskritische Fehler zu beheben. Seit ihrer Gründung hat das Team über tausend kritische Schwachstellen in Betriebssystemen, Antivierensoftware, Passwortmanagern, wichtigen Open-Source-Libraries und anderer Software gefunden.5 Es gibt heute wohl kaum mehr einen Internetnutzer, der dem Projekt keine wesentliche Steigerung seiner Sicherheit verdankt.

Firmeninterne Datentransfers werden nicht mehr unverschlüsselt von Rechenzentrum zu Rechenzentrum verschickt, seit herauskam, dass die NSA sich im Rahmen des Programms „Muscular“ bei Google und Yahoo! in die Firmenleitungen gehackt hat. Zudem haben viele Firmen an ihrer Transparenz gearbeitet und geben nun regelmäßige Reports heraus, wie viele Regierungsanfragen sie bekommen und beantwortet haben, und sie investieren viel Geld darin, diese Abfragen im Zweifel mit juristischen Mitteln abzuwehren.

Der wohl größte Schlag gegen die NSA-Massenüberwachung ist aber, dass starke Verschlüsselung von Web-Verbindungen inzwischen zum globalen Standard geworden sind. Bereits 2014 hatte sich als Reaktion auf die Snowden-Enthüllungen der verschlüsselte Webtraffic verdoppelt6 und Anfang 2017 verkündete die digitale Bürgerrechtsorganisation Electronic Frontier Foundation (EFF), dass nunmehr die Hälfte des globalen Webtraffics verschlüsselt sei.7 Die Cybersecurity-Firma NSS Labs schätzt sogar, dass bis 2019 75% des gesamten Webtraffics verschlüsselt sein wird.8 All das sind Daten, mit denen NSA, GCHQ und BND nichts mehr anfangen können, wenn sie sie abfangen. In ihren Schleppnetzen bleibt nur noch sinnfreier Datensalat hängen und nicht mal die Geheimdienste haben die Mittel, das wieder zu entschlüsseln. Heute gibt es kaum mehr eine größere Website, die nicht durchgehend das grüne SSL-Häkchen in der Adresszeile des Browser stehen hat. Doch nicht nur die Unternehmen, auch NGOs und Aktivist/innen haben daran einen Anteil. Die Initiative „Let’s Encrypt“ verteilt kostenlos SSL-Zertifikate, die vorher teuer bei Unternehmen gekauft werden mussten.

Fazit: Wir sind heute deutlich sicherer vor Massenüberwachung, als wir es zur Zeit der Snowden-Enthüllungen waren. Daran hat aber keine Datenschutzreform oder gar die Politik einen Anteil, ganz im Gegenteil. Die Politik hat alles getan, die Überwachung noch weiter anzufeuern und uns mit der Datenschutzgrundverordnung bestenfalls ein Placebo verabreicht. Das, was uns tatsächlich sicherer gemacht hat, sind die Bemühungen der Internetwirtschaft, für die Snowden ein Weckruf war. Ironischer Weise ist es eben jene Internetwirtschaft, die immer als der Privatsphäre schlimmster Feind verschrien ist, die den größten Anteil an der Verbesserung unserer Sicherheit hat. In Zusammenarbeit mit NGOs und Aktivist/innen weltweit haben die Internetfirmen unsere Computersysteme sicherer gemacht, den Großteil der Internetkommunikation verschlüsselt, sicheres Kommunizieren für alle möglich gemacht und insgesamt die Standards für Sicherheit weltweit deutlich angehoben.

Wir sind noch lange nicht am Ziel. Neue Herausforderungen stehen auf dem Plan. Ein Großteil der Geräte des sogenannten „Internet der Dinge“ ist mit katastrophal schlechter und unsicherer Software ausgestattet und auch die restlichen Bereiche des Internets sind noch lange nicht dort, wo wir von wirklicher „Sicherheit“ sprechen können. Es ist aber falsch, sich auf die Institutionen des Staates in diesen Bereichen zu verlassen. Die Erfahrung zeigt leider viel zu oft, dass er alles nur schlimmer macht.

  1. Wikipedia: Tempora: https://de.wikipedia.org/wiki/Tempora
  2. Wikipedia: NSA-Untersuchungsaussuss: https://de.wikipedia.org/wiki/NSA-Untersuchungsausschuss#Operation_Eikonal
  3. Wikipedia: United States Foreign Intelligence Surveillance Court: https://en.wikipedia.org/wiki/United_States_Foreign_Intelligence_Surveillance_Court
  4. Wikipedia: Microsoft (Corp.) v. United States: https://en.wikipedia.org/wiki/Microsoft_Corp._v._United_States
  5. Hackett, Robert: Google’s Elite Hacker SWAT Team vs. Everyone http://fortune.com/2017/06/23/google-project-zero-hacker-swat-team/ (23.06.2017)
  6. Finley, Klint: ENCRYPTED WEB TRAFFIC MORE THAN DOUBLES AFTER NSA REVELATIONS https://www.wired.com/2014/05/sandvine-report/ (16.05.2014)
  7. Gebhart, Gennie: We’re Halfway to Encrypting the Entire Web https://www.eff.org/deeplinks/2017/02/were-halfway-encrypting-entire-web (21.02.2017)
  8. NSS Labs: NSS Labs Predicts 75% of Web Traffic Will Be Encrypted by 2019 https://www.nsslabs.com/company/news/press-releases/nss-labs-predicts-75-of-web-traffic-will-be-encrypted-by-2019/ (09.10.2016)


Veröffentlicht unter Das Neue Spiel extern Kontrollverlust Postprivacy
2 Kommentare

Kabel, Protokolle, Plattformen und Tribes – Vier Strukturen des Internets

/**** Für die Architekturzeitschrift [ark] 2-2017 habe ich einen Text über Strukturen des Internets geschrieben. ****/

Das Internet ist vielschichtig und lange nicht nur das offenkundige World Wide Web, mit dem fast jeder täglich zu tun hat. Es gibt Millionen und Abermillionen Prozesse, die im Hintergrund ablaufen, und ständig bilden sich neue, oftmals ungeplante Strukturen, die zum Teil in erheblichem Maße unseren Alltag bestimmen und lenken. Michael Seemann gibt Einblick in eine Welt jenseits unserer Vorstellungskraft, von der wir so wenig wissen, obwohl ein Leben ohne sie unvorstellbar scheint.

Ich klicke auf einen Link. Ein Bit wird zusammen mit einigen anderen vom Arbeitsspeicher meines Computers rüber in die Netzwerkkarte kopiert, wo es in ein Funksignal umgewandelt wird.
In Lichtgeschwindigkeit hat es den WLAN-Router in der Abstellkammer erreicht, der es sodann durch das dicke Netzwerkkabel an das DSL-Modem weiterschickt. Dort wird das Bit in eine elektrische Frequenz verwandelt, einen Puls, der durch das Kupferkabel meiner Telefonleitung das Haus verlässt. Die vielen Leitungen aus den vielen Wohnungen aus den vielen Häusern aus dem Block versammeln sich schließlich im DSLAM, einem dieser hellgrauen, schulterhohen Hartplastikboxen, die so unscheinbar an der Straße stehen. Alle Daten aus den Häusern, aus den Wohnungen und den Routern landen erst mal hier und so auch unser kleines Bit. Der DSLAM verwandelt es in Licht, einen kleinen hellen Blitz, der nun durch die Glasfaserleitungen sitzt, zur ersten größeren Station der Telekom in meiner Nachbarschaft. Von dort zum Hauptrouter in Berlin, dann nach Frankfurt und an die Nordseeküste. Die Kabel werden immer breiter und dicker und unser Bit findet sich im immer größeren Strom anderer Bits wieder, bis es im Überseekabel TAT14 neben 10 Billionen anderer Bits durch den Atlantik pulst. Sobald unser Bit in New York wieder an Land geht, wird es sofort in die nächste Überlandleitung nach San Francisco gesteckt, von wo es in ein Rechenzentrum nach Palo Alto gelangt. Dort, in einem der zigtausend Rechner, die Facebook am Laufen halten, wird unser Bit einen Prozess auslösen, der wieder Millionen anderer Bits auf die Reise schickt, zurück zu mir. Der gesamte Prozess hat nur einen Bruchteil einer Sekunde gebraucht und stößt wiederum mehrere Prozesse an, die jeweils viele Bits auf dieselbe Reise schicken.

Das Internet ist die größte Maschine, die jemals gebaut wurde. Es wird derzeit von ca. 900 Millionen Computern bereitgestellt, an die wiederum 8,7 Milliarden Endgeräte (PCs, Smartphones, iPads etc.) angeschlossen sind, die den derzeit 3,6 Milliarden Internetnutzern gehören, die in allen Ländern der Welt zu Hause sind.

Dafür braucht es Kupfer-, Glasfaser- und Überseekabel. Es braucht die Server, Router und Switches. Es braucht Software und Protokolle. Es braucht die Links, die von Milliarden Menschen gesetzt wurden, die das weltweite Gewebe von Websites ausmachen, das wir täglich nutzen. Nicht zuletzt braucht es die menschlichen Beziehungen, geschäftlich, freundschaftlich, die so was wie Facebook oder LinkedIn überhaupt erst sinnvoll machen.
Das Internet hat mehr als eine Struktur, es ist ein ganzer Strukturzoo. Mehr noch: Das Internet bringt ständig neue Strukturen hervor. Vier davon möchte ich vorstellen.

Kabel

Die Struktur des Internets ist „distributed“ (verteilt). Das jedenfalls stand am Anfang der Überlegungen, als sich der US-amerikanische Think Tank „RAND Corporation“ Anfang der 1960er-Jahre das erste Mal Gedanken über digitale Datennetze machte. Paul Baran schwebte ein Netz vor, das Daten in Pakete verpackt und diese dann von Knotenpunkt zu Knotenpunkt weiterwirft, wie eine heiße Kartoffel. Das Prinzip – genannt „Paket Switching“ – sollte das Netz derart fexibel machen, dass es kein „intelligentes“ Zentrum mehr braucht. Die Intelligenz sollte über das gesamte Netz verteilt („distributed“) und so auch wesentlich robuster gegen Angriffe sein. Ein Netz, das kein Zentrum hat, hat auch keinen „Single Point of Failure” und funktioniert auch dann noch, wenn große Teile davon zerstört sind.

Es sollte bis 1969 dauern, bis seine Ideen im ARPANET, dem ersten Vorläufer des Internets, verwirklicht wurden. Computer waren damals noch so groß wie Hallen und so selten wie Weltwunder. Um die Computer von den ersten vier Universitäten zu verbinden, mussten ihnen jeweils ein eigener Computer hinzugestellt werden, die sogenannten IMPs (Interface Message Processor).

Doch schon in der Wachstumsphase des ARPANET wurde klar, dass sich das Versprechen des völlig verteilten Netzes nicht durchhalten lassen würde. 1982 hatte das ARPANET 100 Netzwerkknoten und die Anzahl der Verbindungen pro Knoten variierte bereits stark. Ein Netz, das tatsächlich „distributed“ ist, würde einem Maschendrahtzaun gleichen. Alle Knoten hätten mehr oder weniger gleich viele Verbindungen. Doch in der Realität bilden sich dann doch Hauptverkehrsadern heraus und bestimmte Knoten werden zu wichtigen „Hubs“ mit sehr vielen Verbindungen. Das ARPANET entwickelte sich mehr wie das Straßennetz oder wie ein Baum. Eine solche Struktur nennt man „dezentral“. Sie ist verzweigt, hierarchisch – zwar ohne Zentrum –, aber mit vielen unterschiedlichen Nebenzentren. Als das ARPANET 1983 auf das Internet umgeschaltet wurde, verstärkte sich der Effekt noch. 1986 wurde mit NSFNT der erste Backbone (eine Hauptverkehrsader) des noch jungen Internets eingeweiht und führte die Hierarchie der Datenleitungen nun auch formal ein.

Die wichtigsten Backboneleitungen werden heute von wenigen Firmen beherrscht. Betrieben werden sie von den großen Telekommunikationsbetreibern, wie AT&T, Level 3 oder der Deutschen Telekom. Anbieter dieser Größe nennt man „Tier 1“, was bedeutet, dass sie ihren Datenverkehr miteinander austauschen, ohne sich gegenseitig dafür zu bezahlen. Eine Hand wäscht die andere. Auf der anderen Seite steht die kapillare Verästelung an der „letzten Meile“ in die Haushalte.

Die Dezentralität ist nicht das Ergebnis von Planung, sondern von organischen Prozessen der Selbstorganisation. Das Netz wuchs einfach, indem sich nach und nach immer mehr Institutionen anschlossen, was automatisch zu Verästelung hier und Konzentration dort führte. Das Internet ist dezentral, nicht weil das so geplant war, sondern weil es die effizienteste Struktur ist.

Protokolle

Doch die eigentliche Struktur des Internets ist der Stapel. So wurde es als Software designt. Im Grunde ging es darum, die verschiedenen Netze, die es Ende der 1970er-Jahren gab und von denen das ARPANET nur eines war, miteinander zu verbinden. Vint Cerf und Robert E. Kahn entwarfen eine Art universelles Verbindungsstück, das zwischen unterschiedlichen Netzen vermitteln sollte. Ein Zwischen(inter)-Netz.

Das Ergebnis ihrer Forschung heißt TCP/IP und bildet noch immer die wesentliche Grundlage des Internets. Es ist eben nicht die Hardware, auf der es läuft, sondern die Software, die sicherstellt, dass Computer weltweit dieselbe Sprache sprechen. TCP (Transport Control Protocol) und IP (Internet Protocol) besorgen arbeitsteilig das bereits erwähnte „Paket Switching“. Während TCP die Datenpakete schnürt und kontrolliert, kümmert sich IP darum, den besten Weg zum Ziel zu finden.

Zurück zu unserem Bit vom Anfang. Mit dem Klick auf einen Link auf Facebook wird eine Nachricht ausgelöst, die an Facebook gesendet werden muss. TCP nimmt die Nachricht und zerlegt sie in einzelne Pakete – unser Bit landet in einem davon. TCP weiß auch in welchem, denn es behält den Überblick, was in welchem Paket liegt und wie die Daten wieder zusammengesetzt werden müssen. Die geschnürten Pakete werden dann vom IP mit einem Adressaufkleber versehen, wie im normalen Leben: Absenderadresse, Empfängeradresse. Wobei es sich in diesem Fall natürlich um IP-Adressen handelt – einzigartige Nummern, über die jeder Computer im Internet erreichbar ist (z.B. 190.123.34.13).

Das Paket mit unserem Bit wird nun von einem Computer zum anderen geworfen, sogenannten Routern. Die Router kennen meist nicht die Zieladresse, aber sie kennen den jeweils nächsten Router auf dem Weg. Das Paket wird also wie die heiße Kartoffel immer näher ans Ziel geworfen, bis es am Ende Facebooks Rechenzentren in Kalifornien erreicht. Dort wacht TCP derweil über den Transport jedes einzelnen Pakets und ordert verloren gegangene Pakete nach.

Und hier wird die Stapel-Architektur sichtbar: TCP kann seine Arbeit nur verrichten, wenn vorher IP seine Arbeit erledigt hat. Die Transportebene sitzt auf der Adressebene auf. Und diese kann wiederum nur funktionieren, wenn es darunter noch andere Netzwerkprotokolle gibt, wie WLAN, Ethernet oder LTE. Unser Bit klettert also den Stapel hoch: vom WLAN hoch zu IP weiter zu TCP und oben bei Facebook wird es wieder zusammengesetzt.

Die Struktur des Internets ist vertikal geschichtet. Man spricht auch vom Protokollstapel (Protocol Stack) mit vier Ebenen: der Netzwerkebene, der Adressebene, der Transportebene und zu guter Letzt der Anwendungsebene (Application Layer), auf der in unserem Fall Facebook beziehungsweise das WWW liegen, aber auch WhatsApp, E-Mail oder Uber zu Hause sein können. Dieser Application Layer hat seine ganz eigenen Strukturen hervorgebracht.

Plattformen

Die wahre Struktur des Internets ist das Monopol. Große Konzerne beherrschen das Internet und keiner kann ihnen noch das Wasser reichen. Für viele ist es überraschend, dass das World Wide Web (WWW) nicht gleichbedeutend mit dem Internet ist. Doch als sich der britische Wissenschaftler Tim Berners Lee 1991 im schweizerischen Cern daranmachte, eine Technologie zu entwickeln, mit der man schnell und unkompliziert Dokumente publizieren kann, konnte er bereits auf das Internet zählen. Das World Wide Web ist eine unter vielen Anwendungen (im Sinne des Application Layers), die durch das Internet möglich wurden. Schätzungen gehen heute von 47 Milliarden Websites aus.

Auch das WWW bildet mit seinen Links eine Netzwerkstruktur. Diese Struktur zu benutzen, um Ordnung in das Chaos des Webs zu bringen, hat Google Ende der 1990er-Jahre groß gemacht. Google fragte, wie viele andere Websites auf eine jeweilige Website Links gesetzt haben, und nahm dies als Maß ihrer Relevanz.
Das Web ist auch Grundlage des Erfolgs von Facebook und Amazon. Wie Google beherrschen diese Firmen ihre jeweiligen Märkte mit einer monopolartigen Machtkonzentration. Einige dieser Web-Unternehmen gehören heute zu den wertvollsten und wirtschaftlich erfolgreichsten der Welt.

Das Geheimnis des Erfolgs dieser Plattformen besteht darin, dass sie sogenannte „Netzwerkeffekte“ generieren. Jeder Nutzer und jede Nutzerin, die einem Netzwerk beitritt, erhöht dessen Nutzen für alle anderen – was wiederum neue Interessenten anlockt. Dieser „Feedbackloop“ führt zu den ungekannten Wachstumseffekten und dazu, dass alle auf Facebook sind, einfach, weil alle auf Facebook sind.

Man kann die Netzwerkeffekte mit der Gravitation vergleichen. Große Massen ziehen wiederum Massen an. Wir werden auf Facebook gehalten, wie wir auf der Erde gehalten werden. Zwar können wir die Gravitation überwinden, aber das ist ziemlich anstrengend. Ähnlich geht es uns mit Facebook. Klar können wir nein sagen, aber das kostet uns enorm viele kommunikative Möglichkeiten.

Diese soziale Gravitation strukturiert den ganzen Plattformmarkt zu etwas Vergleichbarem wie dem Sonnensystem. Große Massen rasen um ihre Umlaufbahn und prallen immer wieder auf andere Objekte. Ein Planet, so legte unlängst eine Planetenkommission fest, ist ein Objekt, das Kraft seiner Gravitation seine Umlaufbahn frei geräumt hat. Diese Definition kostete Pluto 2012 den Planetenstatus. Auf Facebook hingegen passt sie erstaunlich gut, denn im selben Jahr verleibte sich der blaue Riese erst Instagram und zwei Jahre später WhatsApp ein. Facebooks Umlaufbahn ist seitdem frei.

„The winner takes it all“ nennt man das in der Businesswelt. Eine gefährliche Entwicklung, die die Idee des freien, dezentralen Internets ad absurdum führt.

Tribes

Die neuste Struktur des Internets ist der Stamm (Tribe). Auch wenn die Stammeskulturen als nicht sonderlich zeitgemäße Erscheinung gelten, treffen wir im Internet immer häufger auf vergleichbare soziale Strukturen.

Als Donald Trump Präsident der USA wurde, reklamierte die „Alt-Right-Bewegung“ für sich, ihn ins Weiße Haus „geshitposted“ zu haben. Gemeint waren monatelange Netzkampagnen mit Memes und Fakenews. Die Alt-Right war dabei kein offzieller Teil der Kampagne, sondern ein loser Zusammenschluss von Internettrollen und rechtsradikalen Hipstern.

Die Alt-Right kann man als Internettribe begreifen. Seth Godin hat 2008 in seinem Buch „Tribes“ beschrieben, wie man einen solchen Stamm gründet. Dafür müsse man nur eine Idee formulieren, die dem jeweiligen Status quo zuwiderläuft. Man müsse Herätiker sein. Den „Followern“ der Idee müsse dann nur noch eine Kommunikationsstruktur zur Verfügung gestellt werden und es bestehe die Chance, dass sich in der Gruppe enorme Energien freisetzen. Mit so einem Tribe könne man die Welt verändern, so Godin.

Onlinetribes brauchen weder geografsche Nähe noch verwandtschaftliche Beziehungen, sondern nur ein Thema und einen Gegner. Den Rest erledigt das Netz mit seinen kommunikativen Möglichkeiten. Tribe gegen Tribe. Das Netz zersplittert in immer mehr sich gegenseitig hassende Gruppen.

Das ist vor allem deswegen erstaunlich, weil das Internet eigentlich als der endgültige Befreiungsschlag des Individuums gefeiert wurde. All die Institutionen und künstlichen Organisationen würde das Internet unnötig machen und der geogra sche Raum würde fürs Soziale obsolet. Sozialität braucht keine Struktur, jenseits der individuellen Bindungen, so war die Idee. Wozu Gruppen?

Weil sie es wollen! Menschen brauchen Zugehörigkeit, Identität und Abgrenzung, so scheint es jedenfalls. „Die moderne Massengesellschaft entspreche einfach nicht der Natur des Menschen.“, sagen die Aktivisten von neotribes.co und wollen den Tribalismus in die neue Zeit holen. So hatte bereits Michel Maffesoli argumentiert, der schon in den 1990er-Jahren den Neo-Tribalismus ausgerufen hatte.

Dennoch würden sich die meisten Tribes nicht als solche bezeichnen. Anonymous, Piraten, Weird Twitter, Pegida, die Netzgemeinde, Telekommunisten, Sifftwitter, 4chan, 8chan, die Bernds von krautchan, Pr0gramm.com, Prepper, Furrys, Cosplayer, Gamergater, Bronies, Maskus, Netzfrauen, Alt-Righter, die diversen Subreddits und viele andere Gruppen schließen sich im Internet zusammen, gründen ihre eigenen Medien und Kommunikationsstrukturen, grenzen und kapseln sich nach außen ab, frönen ihrer Echokammer und bekriegen sich unerbittlich.
Es ist noch nicht klar, wohin die zunehmende Tribalisierung des Netzes noch führt. Löst sich die Massengesellschaft vollkommen in verfeindete Stämme auf, die sich virtuell gegenüberstehen, aber deren Demarkationslinien geografisch durch alle Nationen und Nachbarschaften laufen?

Fazit

Der Traum vom Internet war immer das Überkommen von Struktur: von Macht, Hierarchie, Nation, Institution und Gruppe. Doch überall, wo es waltet, schleichen sich neue Strukturen ein, neue Macht entsteht, neue Hierarchien setzen sich durch, neue Gruppenformationen werden gefunden. Nichts davon war so geplant, alles kam immer anders. Das Internet ist der Motor eines beschleunigten Strukturwildwuchses und die neuen Strukturen bedrohen zunehmend die alten. Überall quietscht und knarzt es. Plattformen reiben sich an Nationalstaaten, Tribes stürzen politische Institutionen. Die Welt verändert sich in einem rasenden Tempo.

Occupy Wall Street, Arabischer Frühling, Brexit und Trump sind nur die sichtbarsten Auswüchse dieses turbulenten Strukturwandels. Niemand weiß, wo das endet. Aber Kabel, Protokolle, Plattformen und Tribes bilden die Infrastrukturen der neuen Gesellschaft und wir werden wohl lernen müssen, darin zu leben.


Veröffentlicht unter extern Kontrollverlust Plattformpolitik
1 Kommentar

Digitaler Tribalismus und Fake News

Text: Michael Seemann / Datenauswertung: Michael Kreil (DataScience&Stories des Tagesspiegels)

[Dokument als PDF laden.]
[English Version]

Einleitung

Das Internet war für mich immer der Traum der Freiheit. Damit meine ich nicht nur die Freiheit der Kommunikation und der Information, sondern auch die Hoffnung auf eine neue Freiheit der sozialen Beziehungen. Soziale Beziehungen sind, trotz aller sozialer Mobilität der modernen Gesellschaft, auch heute noch etwas sehr Unfreies. Vom Kindergarten über die Schule, den Verein bis zum Unternehmen durchlaufen wir ständig Organisationsformen, die uns fremdbestimmt gruppieren, sortieren und somit entindividualisieren. Von der Hasen- und Igel-Gruppe bis zur Staatsbürgerschaft ist die Gesellschaft als Gruppenspiel organisiert und unsere Mitspieler dürfen wir uns nur selten aussuchen. Und dann heißt es: „Finde dich ein, ordne dich unter, sei ein Teil von uns.“

Das Internet erschien mir als Ausweg. Wenn sich jeder Mensch mit jedem anderen Menschen direkt in Beziehung setzen kann – so mein naiv-utopische Gedanke – dann braucht es keine vergemeinschaftenden Strukturen mehr. Auf einmal können Individuen sich auf Augenhöhe begegnen und sich selbst organisieren. Gemeinschaften entstünden auf einmal als Resultat individueller Beziehungen, statt umgekehrt. Im Idealfall gäbe es überhaupt keine Strukturen mehr, die über die individuell-selbstbestimmten Beziehungsnetzwerke jedes Einzelnen hinausgingen.1

Spätestens die Wahl Donald Trumps war es, die mich unsanft aus meinen Hoffnungen riss. Die Alt-Right-Bewegung – ein Zusammenschluss aus rechtsradikalen Hipstern und den nihilistischen Auswüchsen der Nerdkultur – verbuchte für sich, Trump ins Weiße Haus „geshitpostet“ zu haben. Gemeint ist die massive Flankierung des Wahlkampfes mit Grassroots-Kampagnen im Internet mittels Memes. Und auch wenn man argumentieren kann, dass ihr Einfluss auf die Wahl längst nicht so groß war, wie die Trolle es gerne darstellen: die Meme-Kampagne zeigte auf jeden Fall die enorme Kraft digitaler Agitation.

Doch es war nicht die diskursive Macht internetgetriebener Kampagnen, die mich so nachhaltig erschreckte. Die ist seit dem arabischen Frühling und Occupy Wallstreet ein alter Hut. Es war die vollkommene Loslösung von Fakten und Realität, die sich in der Alt-Right entfaltete und die – angetrieben durch die vielen Lügen Trumps und seiner offiziellen Kampagne – einer unheimlichen Parallelrealität zur Macht verhalf. Die Verschwörungstheoretiker und Spinner haben ihre Nischen im Internet verlassen und regieren nun die Welt.

Auf der Suche nach einer Erklärung für dieses Phänomen bin ich immer wieder auf den Zusammenhang von Identität und Wahrheit gestoßen. Die Menschen, die daran glauben, dass Hillary und Bill Clinton eine Reihe von Menschen ermorden ließen und die Demokratische Partei einen Kindesmissbrauchs-Ring im Keller einer Pizzafiliale in Washington betreibt, sind nicht einfach dumm oder unaufgeklärt. Sie verbreiten diese Nachricht, weil sie damit die Zugehörigkeit zu ihrer Gruppe signalisieren. David Roberts hat dieses Phänomen treffend als „Tribale Epistemologie“ bezeichnet und definiert es folgendermaßen:

„Eine Information wird nicht anhand von Kriterien wie wissenschaftliche Standards der Beweisführung oder gar der Anschlussfähigkeit an das allgemeine Weltverständnis beurteilt, sondern einzig und allein danach, ob sie den Werten und Zielen des Stammes entspricht. ‘Gut für unsere Seite’ und ‘wahr’ beginnen eins zu werden.“ 2

Auch im deutschsprachigen Internet haben sich neue soziale Strukturen entwickelt, die eine vergleichbare Stammesdynamik aufweisen. Die Mitglieder eines solchen „digitalen Stammes“ kennen sich selten persönlich, wohnen nicht in derselben Stadt, wissen oft sogar nicht einmal die Namen der anderen. Und doch sind sie online eng vernetzt, kommunizieren stetig untereinander und haben sich gegenüber der Restöffentlichkeit ideologisch wie auch vernetzungstechnisch abgespalten. Verbunden fühlen sie sich vor allem durch ein gemeinsames Thema und die Ablehnung der von ihnen als falsch empfundenen Debatte darüber im „Mainstream“.

Es ist deswegen vielleicht kein Zufall, dass man auf einen solchen „digitalen Stamm“ stößt, wenn man eigentlich die Verbreitung von Fake News untersuchen will. Fake News sind nicht, wie es oft angenommen wurde, die Produkte sinisterer Manipulatoren, die damit die öffentliche Meinung in eine bestimmte Richtung lenken wollen. Sie sind vielmehr das Futter für bestätigungshungrige Stämme. Die Nachfrage macht hier das Angebot, nicht andersrum.

Seit der vorliegenden Untersuchung bin ich überzeugt: „Digitaler Tribalismus“ bildet den Kern des Erfolges von Bewegungen wie Pegida und AfD, wie auch der Alt-Right und den antiliberalen Kräften, die letztes Jahr weltweit Erfolge feierten.

Für die vorliegende Untersuchung haben wir über viele Monate hinweg Hunderttausende von Tweets ausgewertet, Forschungsfrage an Forschungsfrage gereiht, meterweise Literatur gewälzt und eine ganze Reihe von Theorien entwickelt und ausprobiert. Ausgehend von Twitterdaten über Fake News sind wir auf das Phänomen des digitalen Tribalismus gestoßen, dem wir von dort weiter auf den Grund gegangen sind.3 In dieser Untersuchung werden wir zeigen, wie sich Fake News links und rechts des politischen Spektrums tatsächlich verbreiten und wie soziale Strukturbildung im Netz zu hermetischen Gruppen führen kann. Wir werden auch zeigen, was die Theorie der „Filterbubble“ erklären kann und was nicht. Wir werden eine völlig neue Perspektive auf die rechte Internetszene bieten, die vielleicht dabei hilft zu verstehen, wie sich Hass im Netz findet, verhärtet, wächst und organisiert. Wir werden aber nicht alle Fragen beantworten können, die sich entlang dieses Phänomens stellen, deswegen soll dieser Essay vor allem ein Aufruf zu weiterer, interdisziplinärer Forschung sein.

Blaue Wolke, roter Knoten

Anfang März dieses Jahres war auf Twitter große Aufregung. Die Bundesregierung habe klammheimlich eine Reisewarnung für Schweden herausgegeben, so hieß es in verschiedenen Tweets. Die Bundesregierung und die Medien würden das aber verschweigen, denn es ginge um erhöhte Terrorgefahr. Viele waren sich einig: Das soll aus politischen Gründen totgeschwiegen werden.

Zum Hintergrund: Schweden hat, wie Deutschland, einen großen Anteil syrischer Flüchtlinge aufgenommen. In ausländischen Medien, vor allem rechtsgerichteten, wird seitdem so getan, als würde dort Bürgerkrieg herrschen. Die Meldung von der totgeschwiegenen Terrorwarnung passte also prima ins Bild.

Zum Beweis wird in den Tweets tatsächlich auf die Website des Auswärtigen Amtes zu den Reisehinweisen nach Schweden verwiesen.4 Ging man Anfang März dem Link nach, fand man tatsächlich eine Terrorwarnstufe. Sie stand auf 3 (erhöht) und ist bis heute auf diesem Niveau. Zudem fand sich der Hinweis der letzten Website-Änderung: 1. März 2017.

Was dort Anfang März noch nicht steht, ist, dass diese Terrorwarnstufe von den schwedischen Behörden schon länger herausgegeben wird und dass die letzte Änderung keine Erhöhung, sondern eine Herabstufung von 4 (hoch) auf 3 (erhöht) war.

Das Auswärtige Amt reagierte nach einiger Zeit auf die Gerüchte und stellte die Sachlage auf ihrer Website richtig. Auch einige Medien griffen den Fall und die Richtigstellung auf. Doch der Schaden war da. Die falsche Nachricht hatte bereits tausende Menschen erreicht, die sich in ihrer Meinung bestätigt fühlen durften: Dass erstens die Zustände in Schweden bürgerkriegsähnlich seien und dass zweitens die Medien und die Politik die Probleme totschwiegen.

Was Anfang März geschah, passt gut in das Raster der sogenannten „Fake News“. Also Nachrichten, die quasi aus der Luft gegriffen sind, sich aber durch ihre vermeintliche Brisanz viral im Netz verbreiten.5 Vor allem im rechten Spektrum gehören sie heute zur Normalität im Netz.6

Der Datenjournalist Michael Kreil schaute sich den Fall genauer an. Er wollte wissen, wie sich Fake News verbreiten und ob die Richtigstellungen ein geeignetes Gegenmittel sind. Er holte sich die Twitterdaten von allen Accounts, die zu dem Thema etwas geschrieben hatten, und markierte die Tweets mit Fake News rot und die Tweets mit Richtigstellungen blau. Dann ordnete er die Accounts zueinander so an, dass sie Aufschluss über die Vernetzungsdichte geben. Wenn zwei Accounts sich gegenseitig folgen und/oder den selben Leuten folgen oder von den selben Leuten gefolgt werden, werden sie nah beieinander dargestellt. Je näher Punkte einander sind, desto enger sind diese vernetzt. Die Größe der Punkte entspricht der Anzahl von Followern, die der Account erreicht.

Das Ergebnis ist erstaunlich: Statt eines großen Netzwerks sehen wir zwei fast komplett voneinander getrennte Netzwerke. Diese Trennung wird einerseits durch die Farben deutlich und gleichzeitig durch die Anordnung der Accounts zueinander. Auf der linken Seite sehen wir eine recht weit gestreute, blaue Wolke, die sich nach außen hin zerfastert. Dazu sehen wir recht dicht zueinander stehend mehrere große blaue Punkte. Das sind die Massenmedien wie Spiegel Online, Zeit Online, Tagesschau und so weiter. Die blaue Wolke sind alle Accounts, die die Richtigstellungen veröffentlicht oder retweetet haben.

Auf der rechten Seite sehen wir einen stärker konzentrierten, dafür etwas kleineren, roten, nach außen ausfransenden Knoten. Es ist ein Knoten aus vielen Punkten, die sehr eng beieinander liegen. Das sind die Fake-News-Verbreiter. Sie sind nicht nur sehr eng vernetzt, sondern auch vernetzungstechnisch fast komplett abgeschnitten von der großen, blauen Wolke.

Das Entscheidende ist die deutliche Trennung der roten von der blauen Gruppe. Es findet praktisch gar kein Austausch statt. Jede Gruppe verharrt bei der von ihr verbreiteten Wahrheit.

Das ist eine Filterblase”, mit diesen Worten und der Grafik kam Michael zu mir und fragte, ob ich bei der Untersuchung mitmachen wolle. Michael Kreil ist Teil des DataScience&Story-Teams des Tagesspiegels und gehört zur Avantgarde des deutschen Datenjournalismus. Ich sagte zu, obwohl ich der Filterblasen-These gegenüber skeptisch war.

Auf den ersten Blick leuchtet die These ein. Eine Filterblase ist, wenn man auf seinen Social-Media-Accounts nur noch Ansichten auf die Welt angezeigt bekommt, die mit den eigenen konform gehen. Eli Pariser – derjenige, der den Begriff 2011 geprägt hat – bezog das vor allem auf die Algorithmen von Google und Facebook, die uns unsere Suchergebnisse oder unser Newsfeed personalisiert vorsortieren.7 Diese Algorithmen versuchen einzuschätzen, was uns gefällt, und geben uns so eine gefilterte Realität wieder. Doch auch auf Twitter gibt es Filterblasen. Hier kann jeder sein eigenes kleines Mediennetzwerk zusammenstellen, das heißt jeder kann Accounts folgen, deren Sicht auf die Welt ihn interessiert. Was dabei oft hinten runterfällt ist die abweichende Meinung, die unliebsame Weltsicht, oder einfach die fremdartige Perspektive.

In der Debatte um Fake News ist die Filterblasen-Theorie deswegen immer wieder eine schlüssige Erklärung. Wenn wir nur noch Sichtweisen auf die Welt dargelegt bekommen, die uns in den Kram passen, erreichen uns deren Widerlegungen vielleicht gar nicht mehr. Filterblasen werden zur Echokammer, aus der immer nur herausschallt, was wir hineinrufen.

Verifikation

Bevor wir die Filterblasen-These untersuchten, versuchten wir allerdings zunächst die Ergebnisse anhand eines zweiten Fake-News-Beispiels zu reproduzieren. Und das fanden wir diesmal in den Massenmedien.

Am 5. Februar berichtete die BILD-Zeitung von einem angeblichen „Sexmob“ von rund 900 Flüchtlingen, die in der Silvesternacht im Frankfurter Stadtteil Freßgass Menschen belästigt haben sollen. Die Nachricht war deswegen brisant, weil es in der Silvesternacht des vorherigen Jahres in Köln zu ähnlichen Ausschreitungen gekommen ist. Die Nachricht der BILD machte schnell die Runde, vor allem weil sie den Eindruck erweckte, die Frankfurter Polizei habe den Vorfall über einen Monat lang verschwiegen.

Tatsächlich hatte ein Bildjournalist sich die Geschichte von einem AfD-nahen Kneipenwirt aufschwatzen lassen und BILD druckte sie, ohne sie ausreichend geprüft zu haben. Die Polizei konnte die Angaben nicht bestätigen und auch sonst ließ sich keine zweite Quelle für den Vorfall finden. Andere Medien griffen die Geschichte damals trotzdem auf, oft allerdings mit einer gewissen Vorsicht. Im Verlauf des Skandals wurde klar, dass der Kneipenwirt sich alles nur ausgedacht hatte und die BILD-Zeitung musste sich öffentlich entschuldigen.

Dieses Mal mussten wir bei der Auswertung etwas anders vorgehen, weil die Debatte auf Twitter diesmal vielschichtiger war und sich viele Berichte nicht eindeutig einer der beiden Kategorien „Fake News“ oder „Richtigstellung“ zuordnen ließen. Diesmal brauchten wir noch eine dritte Kategorie dazwischen. Wir recherchierten alle Artikel zum Thema, sammelten sie in einer Tabelle und markierten, ob sie tendenziell die Falschmeldung weiterverbreiteten (rot), oder sie nur distanziert und unschlüssig weitergaben (gelb). Phrasen wie „Laut Berichten der BILD-Zeitung …“ und Hinweise darauf, dass die Polizei den Fall nicht bestätigen kann, reichten uns für das „unschlüssig“-Label aus. Natürlich suchten wir auch wieder die Artikel raus, die die Fake News widerlegten (blau). Wir vergaben auch noch eine vierte Kategorie: Meta. Im Anschluss an die Fehlleistung der BILD-Zeitung gab es eine ausführliche Debatte darum, dass ein umstrittenes, aber durchaus etabliertes Medium der Auslöser einer großen Fake-News-Kampagne werden konnte. Diese Metadebatten-Artikel färbten wir grün.8

Trotz der Vorsichtsmaßnahmen wird auf den ersten Blick klar, dass sich hier die Ergebnisse unserer ersten Auswertungen reproduziert hatten. Die Richtigstellung zerstäubt sich zusammen mit der Metadebatte als grün-blaue Wolke, die nur hier und da von gelben Sprenklern der Unschlüssigkeit aufgehellt wird. Vor allem aber hebt sich auch hier der rote Fake-News-Cluster deutlich vom Rest des Feldes ab – wieder farblich und vernetzungstechnisch. Unsere Fake-News-Blase ist offensichtlich ein stabiles, reproduzierbares Phänomen.

Die Filterblase

Immer noch stand die Theorie im Raum, wir hätten es mit der Manifestation einer Filterblase zu tun. Ich war skeptisch. Die Existenz einer Filterblase ist in unseren Beispielen jedenfalls nicht belegt: Die Theorie der Filterblase macht Aussagen darüber, wer welche Nachrichten zu Gesicht bekommt. Unsere Grafik veranschaulicht aber nur, wer welche Nachricht sendet. Um also einer Filterblase nachzuweisen, müssten wir untersuchen, wer welche Nachricht zu lesen bekommt und wer welche nicht.

Aber auch diese Information steckt in den Twitterdaten und lässt sich entsprechend abfragen. Wir können für einen beliebigen Twitter-Account nachvollziehen, wem er folgt. In einem zweiten Schritt können wir uns von den verfolgten Accounts die Tweets ausgeben lassen. Wenn wir die Tweets von allen verfolgten Accounts haben, können wir die Timeline des ursprünglichen Accounts rekonstruiert. So können wir letztendlich in die Filterblase des Accounts gucken und nachvollziehen, was er sieht. Im dritten Schritt können wir überprüfen, ob eine bestimmte Information seine Filterblase erreicht hat, odere nicht.

Wir besorgten uns also alle Timelines der Accounts, die die Fake News der Reisewarnung für Schweden verbreitet haben und guckten nach, ob sich dort Verweise auf die Richtigstellung finden. Das Ergebnis überrascht: Fast alle Fake-News-Verbreiter der angeblichen Reisewarnung – ganze 89,2 % – haben die Richtigstellung in ihrer Timeline gehabt. Wir machen den Test auch für die Freßgass-Meldung. Hier sind es 83,7 % der Fake-News-Verbreiter, die zumindest technisch von der Gegendarstellung erreicht wurden.

Die Ergebnisse werfen die Filterblasen-Theorie über den Haufen. Ganz offensichtlich sind es keine technischen Gründe, die diese Accounts einseitig nur die Fake News verbreiten lassen. Die Filterblase der Fake-News-Verbreiter ist zumindest alles andere als dicht.

Ohne viel zu erwarten machen wir den Gegentest: Wie sieht es bei den Richtigstellern aus, was haben sie in der Timeline? Haben sie die originale Fake News überhaupt mitbekommen, die sie so heroisch bekämpfen? Wir laden uns ihre Timelines und gucken in ihre Filterblasen. Und wieder ein Ergebnis, das uns erstaunt: Gerade mal 43 % der Richtigsteller haben von der originalen Schweden-Fake-News mitbekommen. Bei der Freßgass-Geschichte ist der Wert mit 33 % sogar noch geringer. Diese Ergebnisse deuten tatsächlich auf eine Filterblase hin, allerdings in die andere Richtung.

Es gibt also kaum Filterblasen-Effekte von Fake-News-Verbreitern gegenüber den Richtigstellern, wohl aber andersrum.9 Die Ergebnisse scheinen den gesamten Filterblasen-Diskurs umzudrehen. Nein, Filterblasen sind in unseren beiden Beispielen nicht an der ungehinderten Verbreitung von Fake News schuld. Das genaue Gegenteil ist der Fall. In unseren beiden Beispielen können wir zeigen, dass die Filterblasen gegen die Verbreitung von Fake News wirken. Sie „schützen“ aber nicht vor Richtigstellungen.

Kognitive Dissonanz

Wir haben es hier nicht mit einem technischen Phänomen zu tun. Der Grund, warum die Menschen im roten Knoten Fake News verbreiten ist nicht ihre filterbedingte Uninformiertheit oder eine technisch verzerrte Sicht auf die Welt. Weil sie von der Richtigstellung erreicht wird, diese aber nicht weiterverbreitet, müssen wir davon ausgehen, dass die Gruppe die Fake News verbreitet, völlig unabhängig davon, ob die Informationen wahr sind oder nicht – einfach weil sie es so will.

Das Phänomen gleicht vielmehr dem, was Leon Festinger bereits in den 50er Jahren untersuchte, und dem er den Namen „Kognitive Dissonanz“ gab.10 Festinger trat damals im Selbstversuch einer Sekte bei, die den Weltuntergang beschwor und immer wieder genau datierte. Festinger wollte wissen, warum die Sektenmitglieder trotz der andauernd falschen Prophezeiungen nicht aufhörten, an die Untergangslehre zu glauben. Seiner Theorie nach neigen Menschen dazu, Ereignisse verzerrt wahrzunehmen, je nachdem wie gut sie zum eigenen Weltbild passen. Widerspricht ein Ereignis unserem Weltbild, entsteht die besagte “Kognitive Dissonanz”: die Unvereinbarkeit von Realität und Vorstellung. Weil so eine Kognitive Dissonanz als sehr unangenehm empfunden wird, versuchen Menschen intuitiv, sie zu vermeiden. Das führt zu einem Verhalten, das Psychologen auch den Bestätigungsfehler (englisch: „Confirmation Bias“) nennen. Es werden nur noch Informationen wahr- und ernst genommen, die in das eigene Weltbild passen. Der Rest wird ausgeblendet, relativiert oder schlicht geleugnet.

Die Theorie der Kognitiven Dissonanz würde also vorhersagen, dass wir es beim roten Knoten mit einer Gruppe von Menschen zu tun haben, deren spezifisches Weltbild durch die Fake News bestätigt wird.

Um diese Hypothese zu testen, haben wir uns die letzten paar Hundert Tweets der Twitterer herausgezogen – sowohl von den Fake-News-Verbreitern, als auch von den Richtigstellern – und haben Worthäufigkeiten verglichen. Wenn die Theorie richtig ist, müsste sich zeigen lassen, dass die Fake-News-Gruppe ein gemeinsames, homogenes Weltbild hat.

Dazu haben wir insgesamt 380.000 Tweets aus Twitter geholt und den Textkorpus statistisch ausgewertet. Dabei haben wir die relative Häufigkeit von Worten in beiden Gruppen abgeglichen und ein Ranking der Worte erstellt. Ganz oben stehen Worte, die in der einen Gruppe viel, aber in der anderen Gruppe wenig vorkommen.11

Wenn man bedeutungsarme Begriffe wie „via“, „die“ und „the“, sowie häufig erwähnte Twitteraccounts rausnimmt, kommt bei der Fake-News-Gruppe eine sehr aussagekräftige Liste prominenter Worte heraus. Ihre 16 wichtigsten Begriffe sind in absteigender Reihenfolge: Islam, Deutschland, Migranten, Merkel, Maas, Politik, Freiheitskampf, Flüchtlinge, SPD, NetzDG, NPD, Antifa, Zensur, PEGIDA, Syrer, Asylbewerber.


(Die Wortgröße entspricht der relativen Häufigkeit der Begriffe.)

Eine gewisse thematische Homogenität ist bereits auf den ersten Blick erkennbar. Allerdings ergeben sich bei näherem Hinsehen zwei Geschichten, die in dieser Gruppe erzählt werden:

Die erste Geschichte handelt von Migration: Islam, Migranten, Flüchtlinge, PEGIDA, Syrer, höchstwahrscheinlich auch „Merkel“ und „Deutschland“ sind recht eindeutig der Erzählung über die Flüchtlingskrise – oder allgemein dem Thema Migration – zuzuordnen. Bei der manuellen Durchsicht der Tweets geht es immer wieder um die Gefahren des Islams und um einzelne Kriminalfälle durch Menschen mit Migrationshintergrund, speziell Flüchtlinge.

Eine zweite, nicht ganz so starke Erzählung betrifft das Selbstverständnis dieser Gruppe: nämlich Opfer politischer Verfolgung zu sein. „Maas“, „Freiheitskampf“, „SPD“, „NetzDG“, „Antifa“ und „Zensur“ weisen deutlich auf diese Opfererzählung hin. So geht es konkret viel um die Einführung des Netzwerkdurchsetzungsgesetzes (kurz: NetzDG) durch den Justizminister Heiko Maas (SPD), das vor allem von rechter Seite als politischer Angriff auf sie und ihre Überzeugungen verstanden wird.

Wie massiv die thematische Homogenität der Fake-News-Verbreiter ist, merkt man vor allem, wenn man sie mit den wichtigsten Begriffen der Richtigsteller vergleicht: NEWS, Nachrichten, Trump, newsDE, Infos, BreakingNews, SPIEGEL, DieNachrichten, online, noafd, May, Donald, Piraten, tagesschau, pulseofeurope, Reichsbürger.

Zunächst fällt auf, dass die wichtigsten Begriffe der Richtigsteller gar nicht politisch vereinnahmt sind. Es geht vielmehr um Medienmarken und um Nachrichtenberichterstattung im Allgemeinen: NEWS, Nachrichten, newsDe, Infos, BreakingNews, SPIEGEL, DieNachrichten, tagesschau, Wochenblatt. Neun der 16 Begriffe haben diesen allgemeinen Nachrichtenbezug.

Aus den restlichen Begriffen lässt sich allerdings eine leichte Tendenz ablesen, sich wiederum mit dem politisch rechten Spektrum zu beschäftigen. Donald Trump ist ein so großes Thema, dass sowohl sein Vor- als auch Nachname in den Top 16 auftauchen. Dazu scheinen die Hashtags „noafd“ und das proeuropäische Netzwerk „pulseofeurope“ recht populär zu sein und auch die „Reichsbürger“ werden thematisiert.

Aus der Worthäufigkeitsanalyse lassen sich also drei Schlüsse ziehen:

  1. Die Fake-News-Gruppe ist thematisch wesentlich fokussierter und politisch homogener als die Gruppe der Richtigsteller.
  2. Die Fake-News-Gruppe ist vor allem auf die negativ empfundene Seite von Migration und Flüchtlingskrise fokussiert. Zudem fühlen sie sich politisch verfolgt.
  3. Die Richtigsteller haben keine einheitliche politische Agenda, allerdings ein leicht gesteigertes Interesse für rechte Strömungen.

All dies scheint die Hypothese der Kognitiven Dissonanz zu bestätigen. Tatsächlich handelt es sich bei beiden Fake-News-Beispielen um Geschichten über Probleme mit Flüchtigen, also genau um das Kernthema der roten Gruppe. Das Vermeiden von Kognitiver Dissonanz könnte also das unkritische Teilen der Fake News sowie das Nichtteilen der Richtigstellung wider besseren Wissens erklären.

Digitaler Tribalismus

Beim Vergleich der zwei Gruppen in beiden Beispielen haben wir bereits drei wesentliche Unterscheidungsmerkmale festgestellt:

  1. Die Gruppe der Richtigsteller ist größer, weiter gestreut/wolkenartig und inkludiert die Massenmedien, während die Fake-News-Gruppe enger vernetzt, kleiner und konzentrierter wirkt.
  2. Die „Filterblase“ der Richtigsteller-Gruppe ist gegenüber Fake News wesentlich undurchlässiger als umgekehrt.
  3. Die Fake-News-Gruppe ist thematisch deutlich fokussierter als die Richtigsteller.

Kurz: Wir haben es hier also mit zwei völlig unterschiedlichen Arten von Gruppen zu tun. Wenn aber die Unterschiede auf Gruppenebene so deutlich hervortreten, wird eine individualpsychologische Erklärung nicht hinreichen. Es mag zwar sein, dass Kognitive Dissonanz beim einzelnen Fake-News-Verbreiter eine Rolle spielt, aber da wir sie als gruppenbezogene Auffälligkeiten beobachten, muss sie soziokulturelle Ursachen haben. Wir müssen hier noch tiefer graben.

Tatsächlich wird spätestens seit Jonathan Haidts Bestseller von 2012 „The Righteous Mind – Why Good People Are Divided by Politics and Religion“ moralische (und damit auch politische) Psychologie immer mehr im soziokulturellen Kontext gelesen. Haidt hatte anhand vieler Studien gezeigt, dass wir moralische und politische Entscheidungen einerseits intuitiv, statt rational entscheiden. Diese aber andererseits durch soziale und kulturelle Prägungen geleitet sind. Menschen sind von Natur aus mit einem moralischen Framework ausgestattet, aus dem sich die spezifischen Kulturen und Subkulturen dann eine zusammenhängende Ethik bauen. Kultur und Psychologie „make each other up“, wie es der Anthropologe und Psychologe Richard Shedem ausdrückt.12

Eine unserer moralisch-psychologischen Anlagen ist der Hang zum Tribalismus. Wir neigen dazu, unsere Stellung als Individuum immer in Beziehung zu konkreten Bezugsgruppen zu definieren. Unser moralisches Rüstzeug ist dafür ausgelegt, uns innerhalb von definierten Gruppen funktionieren zu lassen. Fühlen wir uns einer Gruppe zugehörig, zeigen wir intuitiv altruistisches und kooperatives Verhalten. Bezogen auf Fremdgruppen aber ist oft das Gegenteil der Fall. Wir sind misstrauisch, weniger empathisch und Fremdgruppen gegenüber sogar tendenziell feindlich eingestellt.

Haidt erklärt diese menschlichen Eigenschaften evolutionsbiologisch. Rational betrachtet wäre anzunehmen, dass rein egoistische Individuen den größten Überlebensvorteil hätten, Altruismus wäre da eher ein Hindernis.13 Ab einem bestimmten Punkt in der Werdung des Menschen habe sich der Selektionsprozess aber von der Ebene des Individuums auf die Ebene der Gruppe verschoben. Seit der Mensch den Weg zu intensiver Kooperation eingeschlagen hat (irgendwann zwischen 75.000 bis 50.000 v. Chr.) standen nicht mehr Individuen in evolutionärer Konkurrenz zueinander, sondern Stämme.14 Ab diesem Zeitpunkt setzte sich nicht mehr automatisch das egoistischste Individuum durch, sondern das kooperative.15 Man könnte auch sagen das „tribalistische“, denn es gehören eben nicht nur Altruismus und Kooperationsfähigkeit zu der tribalen Grundausstattung, sondern auch Abrenzungswillen, Gruppenegoismus sowie ein starkes Bedürfnis nach Zugehörigkeit und Identität. Eigenschaften, die häufig in Verhalten münden, das wir heute in unserer individualistischen Gesellschaft glaubten abgelegt zu haben, weil sie oft mit Krieg, Leid und Feindschaft in Verbindung gebracht werden.16

Nichtsdestotrotz gibt es seit längerem Versuche, Tribalismus als positiven Zukunftsentwurf zu etablieren. Bereits Anfang der 90er Jahre wurde von Michel Maffesoli der „Urban Tribalism“ ausgerufen.17 Dabei geht es nicht mehr um verwandtschaftsbasierte Stämme, sondern um mehr oder weniger selbst gewählte. Er bespricht dort vor allem „Mikrogruppen“, die wir heute wohl als Subkulturen bezeichnen würden. Vom Punk bis zur Aktivistengruppe empfinden Menschen das Bedürfnis, Teil von etwas Größerem zu sein und in Gemeinschaft und Identität aufzugehen. Dieser Trend wirke langfristig der Massengesellschaft entgegen, so Maffesoli.

Es geht aber auch radikaler. In seinem zivilisationskritischen Werk “Beyond Civilization” ruft der Autor Daniel Quinn dazu auf, zivilisatorische Errungenschaften und Institutionen komplett hinter sich zu lassen, um neue stammesähnliche Gemeinschaften zu gründen.18 Die Aktivist/innen von NEOTRIBES beziehen sich vor allem auf Quinn, wenn sie nach tribalen Auswegen aus der Massengesellschaft suchen, sehen aber vor allem das Internet als Ermöglichungstechnologie der neuen Stammeskulturen.19

2008 war es Seth Godin, der mit seinem Buch „Tribes“ darauf hinwies, wie gut sich das Internet eignet, eigene Stämme zu gründen.20 Sein Buch solle man dafür als Anleitung verstehen. Der zentrale Hinweis: Man müsse als Häretiker zum Mainstream auftreten, den wunden Punkt im etablierten Denken finden und sich ihm entgegenstellen. Mit etwas Glück fände man Anhänger der eigenen steilen These, die man dann über das Internet vernetzen und mobilisieren kann. Solche Stämme stiften Identität und entfesseln Energien bei ihren Anhängern, dass man mit ihnen zusammen die Welt verändern könne. Tatsächlich lassen sich viele der Ideen von Seth Godin gut auf heutige Gruppenphänomene im Internet übertragen, nicht zuletzt der Trump-Kampagne 2016.

Fassen wir zusammen: Digitale Stämme haben den verwandtschaftlichen mit einem umso stärkeren thematischen Fokus ausgetauscht. Das Thema ist Dreh- und Angelpunkt des Stammes und gleichzeitig das wesentlichste Abgrenzungsmerkmal zum „Mainstream“, demgegenüber er sich häretisch verhält. Dadurch wird eine starke Kohäsion und Homogenisierung nach innen erwirkt, aber vor allem eine starke Abgrenzung nach Außen. All das triggert die tribalistischen Grundlagen unseres Moralgefüges – es geht nur noch um „Die“ gegen „Uns“. Das spiegelt sich auch in den Erzählungen wider. AfD, Pegida und Co. sehen sich als Rebellen, die sich gegen den irrlichternden Mainstream wenden, der aus ihrer Sicht korrupt, bestenfalls ideologisch verblendet ist. Zudem fühlen sie sich politisch verfolgt und unterdrückt. Narrative wie das von der „Lügenpresse“ und den „Altparteien“ sind Werkzeuge, die Grenze zwischen dem eigenen und dem feindlichen Stamm zu markieren.21 Und es ist genau diese Abgrenzung, die wir anhand der Clusterbildung innerhalb der Netzwerkstrukturen einerseits und als thematische Fokussierung anhand von Wortstatistik andererseits empirisch aufzeigen können.

Gegencheck: Linke Fake News

Unsere These lautet also, dass wir es bei der roten Fake-News-Gruppe mit einem „digitalen Stamm“ zu tun haben und dass die Unterschiede zu der Richtigsteller-Gruppe aus ihren spezifisch tribalen Eigenschaften resultieren. Diese Eigenschaften sind: engere interne Vernetzung bei gleichzeitiger „Abspaltung“ vom Mainstream (Restnetzwerk), eine intensive thematische Fokussierung und daraus resultierend eine Anfälligkeit zur Verbreitung von Fake News, die in das thematische Raster fallen.

Unser Stamm ist offensichtlich rechtslastig: Seine Fokussierung auf die Flüchtlingsthematik spricht eine deutliche Sprache. Negative Flüchtlingsgeschichten werden nicht oder deutlich weniger hinterfragt und unkritisch verbreitet, selbst dann, wenn die Nachrichtenlage dünn und die Geschichten unplausibel sind. Teilweise werden die Geschichten sogar wider besseren Wissens verbreitet.

All das bedeutet allerdings nicht, dass es nicht auch ganz andere digitale Stämme im deutschsprachigen Twitter gibt oder geben kann. Unsere Entdeckung des Stammes mittels Fake News hat insofern einen eingebauten Bias. Die Fake-News-Ereignisse fungieren quasi als Blitzlicht, das eine Momentaufnahme eines Teils des Gesamtnetzwerks ermöglicht, aber eben nur eines begrenzten Teils. Mit Fake News von rechts entdeckt man rechte Stämme. Aber wenn unsere Theorie soweit richtig ist, könnte man linke Stämme endecken, indem man von links blitzt, das heißt linke Fake News untersucht. Jedenfalls sofern es welche gibt.

Um es vorweg zu sagen: Es war gar nicht leicht, linke Fake News zu finden. Jedenfalls wesentlich schwerer als rechte. Das ist auch deswegen interessant, weil es im US-Wahlkampf ganz ähnlich war.22

Ein Beispiel, auf das wir recht schnell stießen, ist der Fall Khaled, obwohl der Begriff Fake News hier nicht zu 100% passt.23

Am 13.01.2015 wurde der Flüchtling Khaled Idris aus Eritrea in Dresden erstochen aufgefunden. Das geschah während der Hochphase der Pegida-Demonstrationen, bei denen es zu verschiedenen anderen Gelegenheiten bereits zu gewaltsamen Ausschreitungen kam. Während also die Behörden noch ermittelten und sich mit Mutmaßungen zurückhielten, legten vor allem linke Medien und viele Twitternutzer/innen einen Zusammenhang des Mordes mit den Pegida-Demonstrationen nahe. Die Ermittlungsarbeit wurde skandalisiert („auf dem rechten Auge blind“) und der Tod Khaleds immer wieder vorschnell als rassistische Tat verurteilt. Durch die Ermittlungen der Polizei stellte sich schließlich heraus, dass Khaled von einem der Mitbewohner seiner Asylunterkunft erstochen worden war.

Wir gingen genauso vor, wie bei den ersten beiden Beispielen. Wir färbten also die Fake News (oder sagen wir: die falschen Mutmaßungen) rot und die Richtigstellungen blau. Grün ist wie zuletzt die Metadebatte, die gerade bei diesem Beispiel eine große Rolle spielte.

Die daraufhin entstandene Grafik ist auf den ersten Blick eine komplett andere und doch erinnern einige Strukturmerkmale auf eigentümliche Weise an unsere ersten beiden Grafiken – nur scheinen sie hier invertiert. So lässt sich die räumliche Aufteilung in zwei Cluster anhand ihrer Proportionen exakt wiedererkennen. Nur ist ihre örtliche und farbliche Verteilung eine völlig andere.

Wieder haben wir zwei Gruppen. Wieder haben wir die Wolke und den Knoten. Nur ist die Wolke dieses Mal auf der rechten, der Knoten auf der linken Seite.24 Wieder haben wir es mit einer kleineren, engeren und homogeneren Gruppe zu tun (was laut unserer Theorie wieder auf tribale Eigenschaften hinweist) und einer größeren, loseren Wolke, die wiederum die Massenmedien inkludiert. Auch hier ist die kleinere Gruppe wesentlich homogener in der Farbgebung. Doch anstatt Rot sind hier Grün und Blau dominant. Das Rot findet man dieses Mal in der großen Wolke, allerdings nicht als homogene oder auch nur dominante Farbe, sondern mehr als leichte Sprenkel – verteilt über die ganze Wolke, die eigentlich ebenfalls aus Richtigstellung (blau) und Metadebatte (grün) besteht.

Das sind Ergebnisse, mit denen wir nicht gerechnet haben. Zwar stand es durchaus in Frage, dass wir einen linken Stamm finden, aber eine so eindeutige Antwort hatten wir nicht erwartet. Wir fanden nicht nur keinen von Fake News getriebenen linken Stamm, sondern fanden wieder eine stammes-ähnliche Struktur, die in diesem Beispiel aber auf der Seite der Richtigsteller firmiert. In der Wolke finden wir zwar auch Fake-News-Verbreiter, aber es gibt keine Abspaltung, sondern eine wilde Vermischung von Fake-Newsern, Richtigstellern und Metadebattierern.

Um die Robustheit unserer Analyse zu stärken, untersuchen wir auch hier ein zweites Beispiel:

Am 27.1.2016 schreibt ein freiwilliger Helfer der Berliner Flüchtlings-Initiative „Moabit Hilft“ einen Facebook-Eintrag, in dem er von einem Flüchtling berichtet, der nach tagelangem Schlangestehen vor dem LAGeSo (Landesamt für Gesundheit und Soziales) zusammengebrochen und später im Krankenhaus verstorben sei. Die Nachricht verbreitete sich wie ein Lauffeuer, was auch daran lag, dass die Zustände am Berliner LAGeSo bereits seit dem Sommer 2015 allgemein als chaotisch galten. Viele Social-Media-Accounts griffen den Fall auf und skandalisierten ihn entsprechend. Auch Medien griffen die Ereignisse auf, einige zunächst recht unkritisch. Im Laufe der Zeit aber – als niemand den Toten bestätigen konnte und der Autor des ursprünglichen Facebook-Posts nicht auf Anfragen reagierte – wurde die Berichterstattung immer distanzierter. Noch im Laufe desselben Tages wurde der Nachricht auch offiziell von Polizeiseite widersprochen. In den folgenden Tagen stellte sich heraus, dass sich der Helfer die Geschichte wohl – anscheinend völlig überarbeitet und unter Alkoholeinfluss – ausgedacht hatte.

Wir gingen wie im Fall Khaled vor mit dem Unterschied, dass wir wieder die vierte Farbe Gelb verwenden, um die sich um Distanz Bemühten von den unkritischen Verbreitern der Fake News abzuheben.

Auch dieses Beispiel bestätigt die Erkenntnisse aus dem Fall Khaled. Wieder sind die Fake-News-Verbreiter weit verstreut, es lässt sich keine enger vernetzte Gruppe ausmachen. Auch in diesem Fall sticht eine abgespaltene Gruppe heraus, die besonders eifrig die Richtigstellung verbreitet. Das gibt unserer These Nahrung, dass es sich um dieselbe Gruppe handelt, wie die, die in den anderen Beispielen so anfällig für rechte Fake News ist: unser rechter, digitaler Stamm.

Um diese These zu untermauern sind wir „manuell“ durch den Tweet-Fundus gegangen und haben uns stichprobenartig einzelne Tweets aus der tribalen Gruppe angeschaut.

Um es vorsichtig auszudrücken: Hätten wir eine Farbe für Häme und Sarkasmus eingeführt, würde sich dieser Cluster noch deutlicher vom Rest abheben. Die Tweets sind inhaltlich zwar Richtigstellungen oder Metadebattenbeiträge, doch die Schadenfreude über die enthüllte Fake News ist unübersehbar. Hier ein paar Beispiele aus dem LaGeSo-Fall:




Noch dazu kommt in den Beiträgen das tiefe Misstrauen gegenüber den Massenmedien zum Vorschein, das bekanntermaßen im Begriff „Lügenpresse“ Ausdruck findet. In der Aufdeckung der Fake News wird wiederum ein tief verankerter Glauben an ein Narrativ dieses Stammes bedient: Dass die Medien die Wahrheit über die Flüchtlinge verschweigen und dass sie Geschichten über rassistische Gewalt erfinden oder übertreiben.

Als Erkenntnisse können wir festhalten:

  1. Anhand von linken Fake News zu Flüchtlingen lässt sich kein linkes Pendant des rechten Stammes nachweisen. Im Gegenteil zeigt sich, dass Verbreiter linker Fake News sehr gut im Mainstream integriert sind.
  2. Der Mainstream (die Wolke) selbst verhält sich bei linken Fake News ambivalent. Er twittert sowohl die Fake News, aber vor allem auch die Gegendarstellungen und die Metadebatte. Alles mischt sich in der großen bunten Wolke.25
  3. Der rechte Stamm ist hingegen als solcher auch bei linken Fake News erkennbar. Auch hier tritt er als abgespaltener Cluster und ungewöhnlich homogen in der Farbgebung hervor, nur hier eben auf der Seite der Richtigsteller. (Auch wenn die Richtigstellungen vor allem Verhöhnungen sind)
  4. Das bedeutet aber nicht, dass es A) keine linken Stämme gibt, die vielleicht bei anderen Themen, als der Flüchtlingskrise auffindbar sind. 26 Und B) dass es nicht noch eine Vielzahl anderer Stämme gibt, vielleicht mit gänzlich unpolitischen oder politisch nicht klar zuordenbaren Themen. Davon ist sogar auszugehen.

Tribale Epistemologie

Auch wenn einige Ergebnisse der linken Fake-News-Untersuchung überraschend sind, bestätigen und verfestigen sie unsere These des rechten Stammes um so mehr. Der rechte Stamm ist real und es ist wenig überraschend, dass er bei allen Nachrichten mitmischt, die etwas mit Flüchtlingen zu tun haben – ob nun auf der Fake-News-Seite oder nicht.27

Unser theoretisches Verständnis des „Tribalismus“ ist an dieser Stelle allerdings noch zu weit gefasst, um das beobachtete Phänomen in seiner Besonderheit zu fassen. Menschen tun sich gerne zusammen, Menschen grenzen sich gerne ab – soweit nichts neues. Im Grunde kann man alle losen oder festen Gemeinschaften eine tribalistische Grundlage unterstellen. Hacker, Piraten, Weird Twitter, die Netzgemeinde, Telekommunisten, Sifftwitter, 4chan, Prepper, Furrys, Cosplayer, Gamer, Bronies, etc. Alles „digitale Stämme“? Vielleicht. Aber wenn man das ohne genauere Prüfung behauptet, läuft der Begriff Gefahr, an Schärfe zu verlieren und wird den bisherigen Beobachtungen nicht mehr gerecht.28

Was unser Phänomen so besonders macht, ist dieser spezifische Bezug zur Realität, der sich zudem kongruent in der Netzwerkstruktur abbildet. Weltwahrnehmung und Gruppe – so scheint es – sind eins. Das ist das wesentliche Merkmal der „tribalen Epistemologie“.

Den Zusammenhang von Gruppenidentität und Wahrnehmungspsychologie, hat in den letzten Jahren vor allem Dan M. Kahan untersucht. Kahan und sein Team vom Cultural Cognition Project29 haben in verschiedenen experimentellen Studien gezeigt, wie sehr beispielsweise die politische Zugehörigkeit die Beurteilung von Argumenten und Fakten beeinflusst.

In einer Studie gab Kahan einer Gruppe von repräsentativ ausgesuchten Probanden vier Versionen einer Problemlösungsaufgabe.30 In zwei der Versionen ging es um Testergebnisse zu einer medizinischen Hautcreme und die Probanden sollten anhand der Daten einschätzen, ob die Creme hilfreich ist oder nicht. In der einen Version der Aufgabe zeigten die Daten, dass die Hautcreme eher schadet als nützt. In der anderen Version ging hervor, dass die Hautcreme die Situation verbessert. In den zwei anderen Aufgaben waren dieselben Daten aufgelistet, nur bezogen sie sich nicht auf die Wirksamkeit von Hautcremes, sondern auf die Wirksamkeit der politischen Maßnahme, das offene Tragen von Schusswaffen zu verbieten. Städte, die Schußwaffen gebannt hatten, hatten in der einen Version der Studie eine höhere, in der anderen Version eine niedrigere Kriminalitätsrate.

Alle Probanden wurden vor der Aufgabe unterschiedlichen Tests ausgesetzt; einerseits zu ihrer Zahlenkompetenz (numeracy) und andererseits zu ihrer politischen Einstellung. Es stellt sich heraus, dass die Zahlenkompetenz ein guter Vorhersagefaktor für den Lösungserfolg der Aufgabe ist, wenn die Zahlen in Bezug zur Wirksamkeit der Hautcreme interpretiert werden. Beziehen sich die Zahlen aber auf die Waffenbesitzregulierung, wiegt der Faktor der politischen Einstellung schwerer als der der Zahlenkompetenz. So weit, so wenig überraschend.

Das Überraschende ist nun, dass sich die Zahlenkompetenz bei polarisierenden Themen sogar negativ auswirkt. In der Waffenfrage war die ideologische Polarisierung bei Menschen umso deutlicher, je höher ihre Zahlenkompetenz war. Kahan interpretiert die Daten so, dass kognitive Kompetenzen in ideologischen Streitfällen nicht dafür eingesetzt werden, die eigene Einstellung mit der Welt der Fakten in Einklang zu bringen, sondern, dafür, die eigene Positionierung trotz Gegenbeweisen weiterhin zu rechtfertigen.

Kahan und seine Forscherkolleg/innen kommen zu einer verstörenden Schlussfolgerung: „Kultur schlägt Fakten“. Menschen sind intuitiv mehr daran interessiert ihren Identitätsrollen gerecht zu werden, als ein ungetrübtes Weltbild zu entwickeln und setzen ihre kognitiven Fähigkeiten deswegen für zweiteres ein. Kahan nennt dieses Phänomen „Identity protective cognition“, also „identitätsschützende Kognition“. Was der eigenen Identität gefährlich wird, wird mithilfe der eigenen intellektuellen Fähigkeiten einfach wegerklärt.31 Auffällig ist dieses Verhalten aber nur bei polarisierenden Themen, bzw. Themen, mit denen man sich sehr identifiziert – negativ wie positiv. Kahan konnte die Ergebnisse für verschiedene andere Themenbereiche bestätigen, zum Beispiel zur Frage des Klimawandels oder zur Frage nach Atommüll-Endlagerung.

Kahan hat dank seiner Forschung auch eine Theorie zu Fake News. Er glaubt nicht an die vorherrschende Erzählung, dass Fake News durch motivierte Kreise wie Wahlkampfteams, die russische Regierung oder enthusiastische Unterstützer/innen in die Öffentlichkeit eingeschleust werden, um diese zu manipulieren. Vielmehr glaubt er, dass es eine „motivierte Öffentlichkeit“ gibt, die einen Bedarf an Meldungen hat, die ihre Sichtweise bestätigen. Ein Bedarf, der größer ist als das Angebot an solchen Nachrichten.32 Fake News schließen gewissermaßen nur eine Marktlücke. Informationen dienen weniger als Wissensressourcen, denn als Identitätsressourcen – und da spielt es keine Rolle, ob sie wahr oder falsch sind.

Der rechte Stamm in unserer Untersuchung ist eine solche „motivierte Öffentlichkeit“. Zugehörigkeits- und Abgrenzungs-Signale spielen in ihrer Beurteilung von Fakten eine wesentlich größere Rolle, als Wahrhaftigkeit oder gar Plausibilität. Auch die Annahme, dass neue Informationen diese Gruppe in ihrem Denken umstimmen, oder entradikalisieren könnten, kann an dieser Stelle eine Absage erteilt werden. Richtigstellungen haben in so einem Klima zwar eine Chance wahrgenommen, aber nicht akzeptiert und erst recht nicht weiterverbreitet zu werden.

Tribale Institutionen in den USA

In seinem Text über die Tribale Epistemologie macht David Roberts eine weitere interessante Beobachtung, die auch gut auf die Situation in Deutschland übertragbar ist. Während die Massenmedien, die Wissenschaft und andere Institutionen sich als überparteilich präsentieren und verstehen, wird genau dieser Anspruch von der tribalen Rechten bestritten. Im Gegenteil wird von rechts unterstellt, dass die Institutionen eine liberale/linke Agenda fahren, dass sie mit dem politischen Establishment/Altparteien „unter einer Decke stecken“. Es wird folglich nicht nur die gegnerische Partei abgelehnt, sondern das gesamte politische, wissenschaftliche und mediale System wird als korrupt verworfen.33

Dass diese Verschwörungstheorien zwar falsch sind, aber einen gewissen wahren Kern haben, habe ich bereits anderswo ausgeführt.34 Tatsächlich ist es ja so, dass es in Medien, Politik und Wissenschaft einen gewissen liberalen Grundkonsens gibt, dem viele Bürger/innen skeptisch bis ablehnend gegenüberstehen.35

Statt aber die Institutionen reformieren zu wollen oder ihren Bias zu bekämpfen, verhelfen neue Kommunikationsstrukturen wie das Internet (aber nicht nur das Internet) dazu, kostengünstig alternative Medien und Institutionen zu etablieren. Genau das geschieht in den USA bereits seit den 90er Jahren kontinuierlich. Es hat sich dort eine Art rechte Parallelmedienlandschaft mit beachtlicher Reichweite und hohem Mobilisierungspotential gebildet. Das Entscheidende ist: da diese alternative Medienlandschaft den Anspruch der klassischen „Mainstreammedien“ zur Überparteilichkeit nicht anerkennt, versucht sie gar nicht erst diesem Ideal nachzueifern. Wir sehen diese Tendenzen auch in Deutschland, aber sie sind bei uns noch wesentlich weniger weit entwickelt.

In den USA begann die Abspaltung alternativ-tribaler Institutionen bereits mit den lokalen Talkradios, die sich nach rechts immer mehr radikalisierten. Rush Limbaugh, Sean Hannity und Glenn Beck waren die frühen Provokateure dieser wachsenden Szene. Seit Mitte der 90er kaufte der neue TV-Sender Fox News einige der „angry white men“ ein und machte sich daran, rechte Radikalrhetorik in den Mainstream zu tragen und wurde so zum medialen Ankerpunkt der Tea-Party-Bewegung.36 Doch noch während des Vorwahlkampfes wurde Fox News rechts von einem neuen Player überholt: der Website Breitbart News, die sich schon früh auf Donald Trump festlegte und die rechte Basis neu definierte – und vor allem auf ein neues Hauptthema einschwor: Migration.

Es verwundert deswegen nicht, dass sich diese Spaltung in den Medien anhand von Social-Media-Daten nachzeichnen lässt. In einer vielbeachteten Studie der Harvard Universität werteten Wissenschaftler/innen um Yochai Benkler 1,25 Millionen Nachrichten aus, die von insgesamt 25.000 Quellen während der Zeit des US-Wahlkampfs (vom 1. April 2015 bis zum Urnengang) auf Twitter und Facebook geteilt wurden.37


Erklärung: Die Größe der Knoten entspricht, wie häufig die Inhalte der Twitter-Accounts geteilt wurden. Der Ort der Knoten zueinander zeigt, wie oft sie von denselben Leuten zur selben Zeit geteilt wurden. Die Farben geben an, ob sie oft von Leuten geteilt werden, die entweder Clinton (blau) oder Trump (rot), oder beide/keinen (grün) retweeten.

Auch wenn die Metriken durchaus anders als in unserem Beispiel funktionieren, sind ihre Aussagen erstaunlich vergleichbar. Vernetzungsdichte und Polarisierung bilden sich in der Harvard-Studie genauso deutlich ab, wie in unserer Auswertung, wenn auch etwas anders. In der vorliegenden Polarisierung finden wir ebenfalls dieselbe, deutliche Asymmetrie: Fast alle traditionellen Medien befinden sich auf der linken, blauen Seite, während sich in Rot kaum ein Medium findet, das älter als 20 Jahre ist. Die meisten und wichtigsten sind sogar jünger als 10 Jahre.

Die Autor/innen der Studie folgern aus dieser Asymmetrie – ähnlich wie wir –, dass die Spaltung keine technische Ursache haben kann. Wäre sie technisch, hätten sich auf der linken wie auf der rechten Seite neue, polarisierende Medien herausgebildet. Und sie würden links eine genauso große Rolle spielen, wie zum Beispiel Breitbart News auf der rechten Seite.
Es gibt aber auch einen deutlichen Unterschied zu unseren Ergebnissen: Die rechte Seite ist trotz ihrer relativen Neuheit und Radikalität den traditionellen Medien auf der – in der Grafik und nicht notwendigenfalls politischen – linken Seite durchaus ebenbürtig. Es handelt sich also nicht um eine Polarisierung zwischen extrem links und extrem rechts, sondern zwischen moderat links und extrem rechts.

Da die linke Seite der Verteilung im Grunde das abbildet, was bislang das Bild der Öffentlichkeit repräsentierte – die traditionellen Massenmedien im Zentrum von den sie umschwärmenden kleineren Medien, wie Blogs und erfolgreiche Twitter-Accounts – ist es vielleicht falsch von einer Spaltung und Polarisierung im Ganzen zu sprechen. Vielmehr sollte man von einer „Abspaltung“ sprechen, denn hier entsteht etwas Neues in Abgrenzung zu etwas Altem. Die rechten Medien und ihre Öffentlichkeiten haben sich jenseits der etablierten Öffentlichkeit gebildet, um sich in Opposition zu ihr zu setzen. Sie haben sich abgespalten, nicht weil das Internet oder die Filterblasen das so bewirkt haben, sondern weil sie es so wollten.

Die Autor/innen der Studie kommen wie wir zu dem Schluss, dass diese Abspaltung folglich kulturelle und/oder ideologische Gründe haben muss. Sie analysieren die Themen der Rechten und zeigen auf, dass ihr Nachrichtenschwerpunkt auf Migration lag, aber auch auf der vermeintlichen Korruptheit von Hillary Clinton und das sie unterstützende Mediensystem, „the liberal Media“. Auch auch hier gilt: Fake News und politisch irreführende Nachrichten gehören zur Normalität und zu den meistverbreiteten Nachrichten dieser Abspaltung.

Es ist Vorsicht geboten, die beiden Analysen allzu eng zu vergleichen, dafür ist die politische und die Medienlandschaft in Deutschland und in den USA zu unterschiedlich. Dennoch drängt sich der Verdacht auf, dass wir es hier mit strukturgleichen Phänomenen zu tun haben.

Die Ähnlichkeiten der US-Abspaltung mit unserem rechten Stamm im Überblick:

  1. Abspaltung von der etablierten Öffentlichkeit
  2. Traditionelle Massenmedien verbleiben dabei auf der „anderen“ Seite.
  3. Themenschwerpunkt Migration und die eigene Opferinszenierung.
  4. Verstärkte Anfälligkeit für Fake News
  5. Neuheit der Medien-Kanäle

Wir können also vermuten, dass unsere fakenewsverbreitenden Twitter-Accounts Teil einer ähnlichen Abspaltung sind, wie wir sie in der Harvard-Studie noch deutlicher sehen können. Mehr noch: Man könnte an dieser Stelle spekulieren, dass die USA dieselben Abspaltungsprozesse lediglich früher durchgemacht haben und dass der Befund der Studie quasi dasselbe Phänomen wie unsere Beobachtungen zeigt, nur in einem späteren Stadium. Aus einem Stamm kann eine Parallelgesellschaft entstehen, mit eigenen Medien, eigenen Institutionen und nicht zuletzt: einer eigenen Wahrheit.

Das, was wir in den USA gesehen haben, wäre die Machtübernahme eines zur Parallelgesellschaft ausgewachsenen Super-Stammes. Es ist auszuschließen, dass die kleine Blase, die wir gefunden haben, bei der Bundestagswahl eine vergleichbare Wirkung hatte. Es ist aber nicht auszuschließen, dass der Stamm weiter wächst und gedeiht und irgendwann ähnlich disruptiv in Erscheinung tritt wie sein amerikanisches Pendant.

Dafür muss er aber eigene Strukturen entwickeln, die über die individuelle Vernetzungsstruktur einzelner Twitter-Accounts hinausgehen. In Ansätzen ist das bereits beobachtbar. Blogs wie Political Incorrect, Achgut und Tichys Einblick und vor allem die vielen erfolgreichen, rechten Facebook-Pages und -Gruppen können als „Tribale Institutionen“ gelesen werden. Sie verfügen noch lange nicht über die Reichweite und oft auch nicht über dieselbe Radikalität wie ihre amerikanischen Pendants, aber das kann eine Frage der Zeit sein.

Fazit

Der Traum der freien Vernetzung war ein naiver. Nimmt man alle vergesellschaftenden Zwänge weg, treten unsere prädispositiven Sozialisationsmuster nur umso deutlicher hervor. Menschen haben einen fest verdrahteten Hang, Gruppen zu bilden, sich zu identifizieren, sich abzugrenzen. Ja, wir sind freier in unserer Sozialisation denn je, aber das führt eben nicht zu mehr Individualismus, sondern paradoxerweise in vielen Fällen zu einer stärkeren Gruppenaffinität. Der Stammes-Trieb kann sich nur umso freier entfalten und kommt umso unbändiger zum Tragen. Und je länger ich darüber nachdenke, frage ich mich, ob die fremdbestimmten Kategorien und vorgegebenen Gruppenstrukturen der modernen Gesellschaft nicht auch eine friedensstiftende Zähmung des allzu menschlichen Tribalismus sind. Oder waren. Das Internet ist noch lange nicht fertig mit der Dekonstruktion der modernen Gesellschaft.38

Über die neue Rechte haben wir viel Neues erfahren. Sie ist nicht einfach eine Seite im politischen Kontinuum, sondern eine Abspaltung, das Abspreizen eines neuen Raums jenseits des herkömmlichen politischen Kontinuums. Das Internet ist nicht schuld an dieser Abspaltung, macht sie aber möglich und damit wahrscheinlich. Befreit von den Zwängen und Normalisierungsdynamiken des herkömmlichen Kontinuums, lassen sich „politisch inkorrekte“ Parallelrealitäten schaffen, die sich nicht mehr nur an die gesellschaftlichen Konventionen, sondern gar nicht mehr am Anspruch der Faktizität orientieren müssen.
Jonathan Haidt schreibt in „The Righteous Mind“, dass der Mensch nur ein einziges Argument braucht, um einen Glauben oder einen Nichtglauben zu rechtfertigen. Wenn ich etwas glauben muss (aber nicht will), reicht ein Gegenargument aus, tausend Argumente zu verwerfen. 99 von 100 Klimawissenschaftler sagen, der Klimawandel ist real? Der eine, der was anderes sagt, reicht mir, um die 99 anderen Meinungen zu verwerfen. Oder ich will etwas glauben, wogegen alle Fakten sprechen. Selbst wenn alle meine Einwände gegen die offizielle Version von 9/11 entkräftet werden – ein Argument findet sich immer, um den Glauben beizubehalten, dass es sich um einen „inside job“ handelte.

Das eine Argument ist der Grund, warum der rechte Stamm immun gegenüber den Richtigstellungen seiner Fake News ist, obwohl sie ihn erreichen. Es bleibt immer ein Argument über, um an seinem Narrativ – und somit an seinem Stamm – festzuhalten. Genau dafür wurde das Wort „Lügenpresse“ erfunden. Es impliziert mitnichten die komplette Ablehnung von allem, was die Massenmedien schreiben, sondern ist die Rechtfertigung dafür, der Presse nur das zu glauben, was in das eigene Weltbild passt und den Rest abzutun.39

Ließe man sich auf die tribalistische Sichtweise auf die Medienlandschaft ein (eure Medien vs. unsere Medien), dann würden die klassischen Massenmedien mit ihrer Selbstverpflichtung zu Wahrheit, Ausgewogenheit und Neutralität immer etwa zur Hälfte auf das Konto der Rechten einzahlen, während die rechten Medien ausschließlich auf ihr eigenes Konto buchen. An Überparteilichkeit glauben und danach zu handeln wird so zum entscheidenden strategischen Nachteil der traditionellen Massenmedien.

Die Rechte wird hier mit Sicherheit kontern, dass die tribalistischen Affekte und Strukturen, derer sie in diesem Text bezichtigt werden, doch auf die Linke ebenso zutreffen. Dafür gibt es aber keine Indizien. Eine Gleichsetzung der von uns beobachteten Gruppen jedenfalls verbietet sich aufgrund der deutlichen Datenlage. Das bedeutet allerdings nicht, dass es nicht vielleicht tribalistische Affekte auf der linken Seite gibt, oder sie sich als Reaktion auf die Rechte noch bilden. Auch links gibt es Glaubenssysteme, die stark identitätsstiftend wirken, und wenn Dan Kahan mit seiner Theorie der „Identity Protective Cognition“ recht hat, sollten sich auch auf der linken Seite mit den richtigen Themen ähnliche Effekte beobachten lassen.

Dieser Essay ist kein richtiger Forschungsbericht, sondern kann nur der Startpunkt einer Forschung sein. Es sind noch sehr viele Fragen unbeantwortet und auch einige von uns gemachte Annahmen sind noch nicht hinreichend belegt. Klar ist aber, dass wir hier auf etwas gestoßen sind, das zum einen eine hohe Aussagekraft für die momentane politische Situation in Deutschland hat. Zum anderen sagt es aber – das ist meine Einschätzung – auch etwas Grundlegendes über Politik und Gesellschaft im Zeitalter der digitalen Vernetzung aus.

Jede Politik wird – so es um polarisierende Themen geht – zur Identitätspolitik. Und Identitätspolitik ist hoch motivierend, kompromisslos und wenig bis gar nicht faktenorientiert.

Ein paar offene Forschungsfragen, die der Beantwortung harren:

  1. Können wir wirklich beweisen, dass der permanent auftauchende rechte Stamm strukturidentisch (und zumindest größtenteils accountidentisch) mit allen von uns aufgezeigten Erscheinungen ist? Wir haben gute Hinweise dafür, aber der Beweis steht noch aus. Es müsste die gesamte Gruppe durchmessen werden und dann gezeigt werden, dass die Fake-News-Accounts Teil dieser Gesamtgruppe sind.
  2. Wir haben in unseren Untersuchungen zwei spezielle Gruppen miteinander verglichen: rechte Fake-News-Verbreiter und diejenigen, die die Richtigstellungen zu Fake News verbreiten. Die Unterschiede sind wunderbar eindeutig, aber der Vergleich problematisch: Die Richtigsteller sind ebenfalls eine selbstselektierte Gruppe, also nicht repräsentativ. Zudem sind die Gruppen auch noch unterschiedlich groß. Aussagekräftiger wäre also der Vergleich der Fake-News-Gruppe mit einer randomisierten Vergleichsgruppe gleicher Größe.
  3. Facebook. Facebook ist in der deutschen politischen Debatte der wesentlich einflussreichere Player als Twitter. Können wir also dasselbe oder ähnliche Phänomene auf Facebook finden? Ich würde davon ausgehen, aber bewiesen ist das noch nicht.
  4. Um den Begriff „digitaler Stamm“ zu rechtfertigen, sollten weitere Stämme gefunden und erforscht werden. Es braucht dafür eine digitale Ethnologie. Gibt es im deutschen Sprachraum weitere Stämme, mit anderen Agenden, Ideologien oder Narrativen, die aber eine ähnliche Abspaltung und Radikalisierung zeigen? Einige Kandidaten wären die digitale Männerechtsbewegung, Sifftwitter und verschiedene Gruppen von Verschwörungstheoretikern. Dann: Wie unterscheiden sich digitale Stämme? Welche Typen von Stämmen lassen sich sinnvoll unterscheiden, etc.? Oder ist Tribalismus mehr eine Achse, auf der man verschiedene Gruppen verorten kann; gibt es verschiedene „Grade“ des Tribalismus und welche Metriken wären dafür sinnvoll?

Es gibt bereits einige Bemühungen zu einer digitalen Ethnologie, doch habe ich das Gefühl, dass ein interdisziplinärer Ansatz vonnöten ist, wenn es um digitale Stämme geht. Datenanalysten, Netzwerkforscher, Psychologen, Soziologen, Ethnologen und Programmierer – vielleicht sogar Linguisten – müssten zusammenarbeiten, um dem Phänomen auf den Grund zu gehen.

Ein andere, weniger wissenschaftliche Frage, ist die, wo das alles endet. Ist der digitale Tribalismus ein nachhaltiger Trend und wird er – wie in den USA geschehen – die Institutionen der modernen Gesellschaft weiterhin unter Druck setzen, sie vielleicht auf lange Sicht sogar zerstören?

Und dringend darauf aufbauend: Was können wir dagegen tun?

Kann man gegen die tribalistischen Reflexe aufklären? Kann man vor ihnen warnen, sie sogar sozial ächten? Oder müssen wir mit ihnen leben und neue Wege finden, sie friedlich zu kanalisieren?

Jonathan Haidt hat zwei Antworten für uns parat. Er vergleicht unsere moralische Entscheidungsmaschinerie mit einem Elefanten und seinem Reiter, wobei der Elefant intuitiv tut, wonach ihm gerade ist, und der Reiter immer nur nachträglich verrationalisiert und rechtfertigt, wo der Elefant nun schon wieder hingegangen ist. Eine erfolgreiche Strategie der Überzeugung besteht also nicht darin, den Reiter mit klugen Argumenten zu konfrontieren, sondern dafür zu sorgen, dass der Elefant einem wohlgesonnen ist. Zum Beispiel durch das Herstellen von persönlichen Vertrauensverhältnissen, um dann mit einer nichtkonfrontativen Argumentationsweise Wege aus der Identitätsfalle zu weisen.

Eine andere Antwort, die Haidt gibt, ist tatsächlich die Kraft der Institution. Institutionen setzen im besten Falle verschiedene Menschen und ihr Weltbild in Konkurrenz zueinander, so dass die verminderte Urteilskraft des Einzelnen ausgeglichen wird. Die Wissenschaft sei zum Beispiel so organisiert, dass einzelne Mitglieder die Erkenntnisse anderer Mitglieder herausfordern sollen. Solange sich immer jemand findet, der die eigene Sicht auf die Welt herausfordert, kann die Gefahr eingegrenzt werden, in der eigenen Fehlwahrnehmung stecken zu bleiben.

Jedoch verweist unsere Entdeckung des digitalen Tribalismus doch genau auf die Auflösung solcher „Checks & Balances“ und auf die Umarmung des unherausgeforderten Stammesdenkens. Tendenziell habe ich eher den Eindruck, dass die Erosion dieser Lösungsstrategie genau das Problem ist, mit dem wir heute kämpfen.

Einen Vorschlag zum persönlichen Umgang mit dem Phänomen hat, ohne sich tatsächlich auf die Forschung zu beziehen, Paul Graham gemacht. In einem kurzen Essay von 2009 mit dem Titel „Keep Your Identity Small“ rät er genau das: sich nicht allzusehr mit Themen und Debatten und Seiten in diesen Debatten zu identifizieren.40 Je weniger Labels man sich anhefte, desto weniger Identitätspolitiken würde man erlauben, das eigene Urteil zu trüben.

Allerdings ist auch dieser Ratschlag nur schwer zu generalisieren, denn es gibt durchaus legitime Identitätspolitiken. Identitätspolitik ist immer dann berechtigt und sogar notwendig, wenn sie gegen das Denken der Mehrheitsgesellschaft durchgesetzt werden muss, weil die Mehrheit die Ansprüche von Minderheiten nicht mitdenkt. Beispiele sind die Rechte von Homosexuellen oder Transsexuellen oder die Probleme, die durch institutionellen Rassismus entstehen. In diesen Fällen haben die Betroffenen schlicht nicht den Luxus, sich mit den Problemen nicht identifizieren zu können.

Eine gesellschaftliche Lösung des Problems müsste wohl wieder Vertrauen in übertribale/überparteiliche Institutionen herstellen und es ist fraglich, ob das mit den alten Institutionen überhaupt noch funktionieren kann. Letztlich war das Vertrauen in diese immer eine fragile Angelegenheit und wahrscheinlich wäre es schon viel eher zerbrochen, wenn es dazu Gelegenheiten gegeben hätte. Die Gelegenheit kam in Deutschland erst mit dem Internet, das es erlaubt, kostengünstig alternative Medienstrukturen zu etablieren. Neue Institutionen, die die Gesellschaft als Ganzes wieder in einen gemeinsamen Diskursrahmen einhegen sollen, müssten der neuen Agilität von Kommunikation unter den digitalen Bedingungen Rechnung tragen, sie sogar für sich zu nutzen wissen.

Eine Art auf den Tribalismus von Rechts zu reagieren, wäre natürlich, selbst tribalistischer zu werden. Eine ausgeprägte „Wir gegen Die“-Polarisierung war immer auch Teil des wichtigen antifaschistischen Kampfes und letztlich notwendiger Teil der politischen Folklore. Ich habe aber den Verdacht, dass die bloße Beschäftigung mit dem rechten, digitalen Stamm dazu führen kann, dass die Gegenseite – also große Teile der Restgesellschaft – sich unwillkürlich tribalisiert. Das heißt ebenso Kohäsion und Identifikation aus der Ablehnung des „Feindes“ zu ziehen. Damit würde die Gesellschaft dem rechten Stamm allerdings einen großen Gefallen tun, denn dann hätte sich seine Verschwörungstheorie (alle stecken unter einer Decke) in eine selbsterfüllende Prophezeihung verwandelt.

Das Problem des digitalen Tribalismus wird uns vermutlich erstmal nicht verlassen. Er wird weiterhin unsere Debatten transformieren und als Resultat auch unsere politischen Landschaften.

Fußnoten:

 

  1. Oder wenigstens wie es – etwas weniger naiv – Felix Stalder als „vernetzten Individualismus“ in Aussicht gestellt hat, wonach „… Menschen in westlichen Gesellschaften (…) ihre Identität immer weniger über die Familie, den Arbeitsplatz oder andere stabile Kollektive definieren, sondern zunehmend über ihre persönlichen sozialen Netzwerke, also über die gemeinschaftlichen Formationen, in denen sie als Einzelne aktiv sind und in denen sie als singuläre Personen wahrgenommen werden.“ Stalder, Felix: Kultur der Digitalität, S.144.
  2. Roberts, David: Donald Trump and the rise of tribal epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  3. Wir haben Twitter für unsere Analyse ausgewählt, weil es durch sein vergleichsweise offenes Format gut automatisiert auswertbar ist. Uns ist bewusst, dass Facebook gerade in Deutschland und gerade auch in rechten Kreise relevanter ist. Wir gehen aber davon aus, dass sich dort dieselben Phänomene abspielen, sodass sich die Erkenntnisse aus der Twitteranalyse auch auf Facebook übertragen lassen.
  4. Auswärtiges Amt: Schweden: Reise- und Sicherheitshinweise, http://www.auswaertiges-amt.de/sid_39E6971E3FA86BB25CA25DE698189AFB/DE/Laenderinformationen/00-SiHi/Nodes/SchwedenSicherheit_node.html (2017).
  5. Zu einer näheren Beschäftigung mit dem Begriff der Fake News siehe: Seemann, Michael: Das Regime der demokratischen Wahrheit II – Die Deregulierung des Wahrheitsmarktes. http://www.ctrl-verlust.net/das-regime-der-demokratischen-wahrheit-teil-ii-die-deregulierung-des-wahrheitsmarktes/ (2017).
  6. Das Projekt Hoaxmap verfolgt diese rechten Gerüchte und Fake News seit einiger Zeit: http://hoaxmap.org/.
  7. Vgl. Pariser, Eli: The Filter Bubble – How the New Personalized Web Is Changing What We Read and How We Think (2011).
  8. Die Datenbasis dieses Beispiels ist allerdings in mehrerer Hinsicht problematisch.
    1. Der Originalartikel der BILD-Zeitung ist gelöscht. Ebenso der @BILD_de-Tweet dazu und somit alle seine Retweets. Welche Artikel und Bezugnahmen es noch gab, die mittlerweile gelöscht sind, lässt sich nicht mehr rekonstruieren.
    2. Einige der Artikel sind über die Zeit geändert worden. Der Artikel von Spiegel Online war zum Beispiel am Anfang sehr viel reißerischer und wäre von uns vermutlich in der Anfangsphase als klare Fake News kategorisiert worden. Irgendwann, als sich herausstellte, dass es immer mehr Ungereimtheiten gibt, muss er abgeschwächt und relativiert worden sein. Wir wissen nicht mit welchen Artikeln das sonst noch so passiert ist.
  9. Dazu passend hat Eli Pariser, der Erfinder der Filterbubble erst kürzlich in einem Interview zu der Situation in den USA gesagt: “The filter bubble explains a lot about how liberals didn’t see Trump coming, but not very much about how he won the election.” https://backchannel.com/eli-pariser-predicted-the-future-now-he-cant-escape-it-f230e8299906 2017. Das Problem ist also auch laut Pariser eher, dass die linken die Rechten aus dem Blick verlieren, nicht andersrum.
  10. Vgl. Festinger, Leon: A Theory of Cognitive Dissonance, (1957).
  11. Ein spezieller Wortschatz (oder Slang) zeichnet wohl auch einen digitalen Stamm aus. Relative Worthäufigkeiten wurden auch andersrum bereits dazu benutzt, homogene Gruppen in sozialen Netzwerken ausfindig zu machen. Vgl. Studie: Bryden, John / Sebastian Funk / AA Jansen, Vincent: Word usage mirrors community structure in the online social network Twitter, https://epjdatascience.springeropen.com/articles/10.1140/epjds15 (2012).
  12. Nach Haidt, Jonathan: The Righteous Mind – Why Good People Are Divided by Politics and Religion, S. 115
  13. Damit war auch immer die These des Homo Oeconomicus aus der Wirtschaftswissenschaft gut begründbar.
  14. In diesem Zusammenhang sind auch die Forschungen von John Miller und Simon Dedeo interessant. Sie entwickelten eine evolutionär-spieltheoretische Computersimulation, in der Agenten ein Gedächtnis mitbringen, um das Verhalten anderer Agenten in der Vergangenheit in ihre Entscheidungsfindung einzubeziehen. Wissen konnte außerdem unter Generationen von Agenten vererbt werden. Es stellte sich heraus, dass die Agenten anfingen, wiederkehrende Muster in dem Verhalten anderer Agenten zu sehen und ihr Vertrauen auf die Homogenität dieser Muster zu verlagern. Diese „Stämme“ mit homogenen Verhaltensmustern kooperierten vollständig und waren schnell die erfolgreichsten Populationen. Setzten sich aber über viele Generationen durch Mutationen geringe Verhaltensänderungen durch, kam es zu einer Art Genozid. Ganze Populationen wurden ausgelöscht und eine Phase von Instabilität und Misstrauen folgte. Tribalismus scheint eine evolutionäre Strategie zu sein. Vgl. Dedeo, Simon: Is Tribalism a Natural Malfunction? http://nautil.us/issue/52/the-hive/is-tribalism-a-natural-malfunction (2017).
  15. Die These der Gruppenselektion (oder„Multi-Level-Selection“) ist bereits von Darwin ins Spiel gebracht worden, ist aber unter Biologen umstritten. Jonathan Haidt führt gute Argumente ins Feld, warum sie vor allem aus psychologischer Sicht, sehr viel Sinn ergibt. Vgl. Haidt, Jonathan: The Righteous Mind – Why Good People Are Divided by Politics and Religion, 210 ff.
  16. Vgl. auch Greene, Joshua: Moral Tribes – Emotion, Reason, and the Gap Between Us and Them (2013), S. 63.
  17. Maffesoli, Michel: The Time of the Tribes – The Decline of Individualism in Mass Society (1993).
  18. Quinn, Daniel: Beyond Civilization – Humanity’s Next Great Adventure. (1999)
  19. NEOTRIBES http://www.neotribes.co/en
  20. Godin, Seth: Tribes – We Need You to Lead Us (2008).
  21. „Lügenpresse“ kommt zum Beispiel in unserer Auswertung der Tweets der Fake-News-Verbreiter 226-mal vor, bei dem Rest 149. „Altparteien“ kommt sogar auf 235 vs. 24.
  22. “We’ve tried to do similar things to liberals. It just has never worked, it never takes off. You’ll get debunked within the first two comments and then the whole thing just kind of fizzles out.” Das sagt Jestin Coler gegenüber NPR. Er ist professioneller Fake-News-Entrepreneur, der während des US-Wahlkampfes viel Geld mit dem Streuen von Unwahrheiten verdient hat. Sein Zielpublikum seien die Trump-Anhänger, Liberale seien nicht so leicht zu ködern. Sydell, Laura: We Tracked Down A Fake-News Creator In The Suburbs. Here’s What We Learned. http://www.npr.org/sections/alltechconsidered/2016/11/23/503146770/npr-finds-the-head-of-a-covert-fake-news-operation-in-the-suburbs (2016).
  23. Der Unterschied zu Fake News liegt vor allem darin, dass es sich hier nicht um Behauptungen wider besseren Wissens handelte, sondern um Mutmaßungen, die meistens auch als solche Erkennbar waren. Aber der Untersuchung zu liebe tun wir einfach so, als wären falsche Mutmaßungen dasselbe wie Fake News.
  24. Die Ausrichtung der Grafik orientiert sich am Schwerpunkt der Fake-News-Verteilung.
  25. Unklar bleibt hingegen, ob sich mit linken Fake News zu anderen Themen ein digitaler Stamm nachweisen ließe. Große Verbreitung in linken Kreisen finden zum Beispiel falsche Zitate oder Bildmontagen zu Donald Trump. Solche Beispiele sind aber vor allem im englischen Sprachraum aufgefallen und es würde methodisch schwierig werden, hier ein sauberes Forschungsdesign für die deutsche Twittersphäre hinzubekommen. Ein interessantes, zu untersuchendes Beispiel im deutschen Wahlkampf wäre die Fake News (die wohl aber als satirischer Hoax gemeint war), Alexander Gauland hätte sich relativierend über Hitler geäußert. Vgl. Schmehl, Karsten: DIE PARTEI legt AfD-Spitzenkandidat Gauland dieses Hitler-Zitat in den Mund, aber es ist frei erfunden, https://www.buzzfeed.com/karstenschmehl/satire-und-luegen-sind-nicht-das-gleiche?bftwdenews&utm_term=.relgPQzB6#.dgbOgvyQw (2017).
  26. Es gibt nicht wenige Texte zu der tribalistischen, politischen Situation in den USA, in der Autor/innen auch bestimmten linken Kreisen tribalistische Tendenzen unterstellen. Vgl. Sullivan, Andrew: America Wasn’t Built for Humans. http://nymag.com/daily/intelligencer/2017/09/can-democracy-survive-tribalism.html (2017) und Alexander, Scott: I Can Tolarate Anything Except The Outgroup, http://slatestarcodex.com/2014/09/30/i-can-tolerate-anything-except-the-outgroup/ (2014).
  27. Dafür spricht auch, dass bereits bei anderen Ereignissen, ähnliche Phänomene nachweisbar waren. Siehe zum Beispiel die Tweetauswertungen zum Amoklauf von München letztes Jahr. Vgl. Gerret von Nordheim: Poppers Alptraum, http://de.ejo-online.eu/digitales/poppers-alptraum (2016).
  28. Ein Kandidat für einen Stamm, zu dem es bereits Untersuchungen gibt, ist „Sifftwitter“. Luca Hammer hat sich die Netzwerkstrukturen dieser Gruppe angesehen und seine Ergebnisse scheinen zumindest anschlussfähig an unsere Untersuchungen. Vgl. Walter, René: Sifftwitter – Mit den Trollen ums Datenfeuer tanzen. http://www.nerdcore.de/2017/05/09/sifftwitter-mit-den-trollen-ums-datenfeuer-tanzen/ (2017).
  29. Cultural Cognition Project (Yale Law School): http://www.culturalcognition.net/.
  30. Kahan, Dan M.: Motivated Numeracy and Enlightened Self-Government, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2319992 (2013).
  31. Kahan, Dan M: Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2973067 (2017).
  32. Was wiederum den Studien recht gibt, die Fake News in den USA vor allem als kommerzielles Phänomen einordnen. Vgl. z.B. Allcott/Gentzkow: Social Media and Fake News in the 2016 Election, https://www.aeaweb.org/articles?id=10.1257/jep.31.2.211 (2017).
  33. Roberts, David: Donald Trump and the Rise of Tribal Epistemology, https://www.vox.com/policy-and-politics/2017/3/22/14762030/donald-trump-tribal-epistemology (2017).
  34. Seemann, Michael: Die Globale Klasse – Eine andere Welt ist möglich, aber als Drohung. http://mspr0.de/?p=4696 (2016).
  35. Diesen Bias zu reflektieren hat neulich Richard Gutjahr aufgerufen. Dass die Medienschaffenden tatsächlich eine Filterblase gegen rechte Gedankengebäude haben, ist in unseren Daten nachgewiesen. Vgl. Gutjahr, Richard: Von Fake News, Filterblasen und digitaler Empathie, http://www.gutjahr.biz/2017/05/filterblase/ (2007).
  36. Tatsächlich verweist bereits Seth Godin in seinem 2008er Buch „Tribes“ auf das Beispiel Fox News. Fox News habe es geschafft, sich einen Stamm zu erschaffen. Vgl. God, Seth: Tribes – We need you to lead us, 2008, S. 48.
  37. Berkman Center: Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election, https://cyber.harvard.edu/publications/2017/08/mediacloud (2017).
  38. In diesem Zusammenhang sind auch die teilweise fürchterlichen Ereignisse zu deuten, die in Entwicklungs- und Schwellenländern die Einführung des Internets in breite Bevölkerungsschichten flankieren. Zum Zusammenhang der antimuslimischen Ressentiments in Burma mit Fake News und der wahnsinnig schnellen Popularisierung des Internet siehe zum Beispiel Frenkel, Sheera: This Is What Happens When Millions Of People Suddenly Get The Internet https://www.buzzfeed.com/sheerafrenkel/fake-news-spreads-trump-around-the-world?utm_term=.ldeLYlXJ8#.eyamPokbX (2017) und wie Gerüchte im Internet zu einem Genozid im Süd-Sudan führen könnten: Patinkin, Jason: How To Use Facebook And Fake News To Get People To Murder Each Other, https://www.buzzfeed.com/jasonpatinkin/how-to-get-people-to-murder-each-other-through-fake-news-and?utm_term=.fbDeo8pv0#.xe4EvW2xb (2017).
  39. Vgl. Lobo, Sascha: Die Filterblase sind wir selbst, http://www.spiegel.de/netzwelt/web/facebook-und-die-filterblase-kolumne-von-sascha-lobo-a-1145866.html, (2017).
  40. Graham, Paul: Keep Your Identity Small, http://www.paulgraham.com/identity.html (2009).


Veröffentlicht unter Demokratische Wahrheit Weltkontrollverlust
29 Kommentare

Das Regime der demokratischen Wahrheit IV – It’s the Culture, Stupid

Zurück zum Regime der demokratischen Wahrheit und der Frage: wie kann jemand, der offensichtlich lügt, einfach so damit davonkommen (Teil I)? Wir haben festgestellt, dass die neue Pluralität der Medien vielleicht auch ihre Schattenseiten hat (Teil II) und dass Trump schon während des Wahlkampfes eine gewisse Antifragilität (Teil III) gegen alle möglichen Skandale entwickelt hat und begonnen, diese Antifragilität zu analysieren.

Es ist diese Antifragilität, die nicht nur ihn, sondern auch seine Lügen schützt. Es scheint fast so, als würden die Menschen gar nicht merken, dass er lügt, als ob die Fakten viele Leute überhaupt nicht mehr erreichen. Trump-Anhänger/innen scheinen immun zu sein gegen Fakten, immun gegen die Wahrheit. Wir wollen an dieser Stelle aber alle Thesen verwerfen, die mit dem Bildungsgrad oder der Intelligenz der Trump-Supporter/innen argumentieren. Diese Immunität ist keine natürliche, sie ist eine hergestellte.

Eine populäre Erklärung dieser Immunität ist die vielzitierte Filterblase. Eli Pariser hat 2011 die Welt davor gewarnt, dass unser Social Media-Konsum dazu führt, dass wir die Welt nur noch personalisiert wahrnehmen. Filter, die vor allem aus unseren Freunden und Followings bei Facebook und Twitter bestehen, aber auch aus den Algorithmen der Plattformen, selektieren unsere Nachrichten vor und vermitteln uns so ein verzerrtes oder eingeschränktes Bild der Wirklichkeit.

Auf den ersten Blick ist die These schlüssig. Tatsächlich nehmen wir ja immer mehr Nachrichten über unsere Social Media-Streams wahr. Da wir uns vor allem mit Leuten vernetzen, die uns soziodemografisch und politisch tendenziell ähnlich sind, erschaffen wir einen Echoraum, der uns nur noch mit Nachrichten und Perspektiven auf das Weltgeschehen versorgt, die uns genehm sind. Die Konfrontation mit der anderen politischen Sichtweise auf die Welt bleibt aus. Haben sich also die Trump-Anhänger/innen in ihren Filterblasen gegen jegliche Faktizität abgeschirmt? Kann Trump also lügen, da die Wahrheit sowieso nicht bei seinen Supportern ankommt, da sie ständig weggefiltert wird?

Positive und negative Filtersouveränität

An der Harvard-Universität haben Wissenschaftler/innen rund um den Netzökonomen Jochai Benkler über 1.25 Millionen Social Media-Posts ausgewertet, die während der heißen Wahlkampfphase auf Twitter und Facebook veröffentlicht wurden.1 Während die Hillary Clinton-Unterstützer/innen vor allem die Angebote der etablierten Medien teilten und nur am Rande besonders linksalternative Angebote, teilten Trump-Unterstützer/innen zum größten Teil die eher neueren, internetbasierten, rechtsalternativen Medienangebote. Im Zentrum des rechtslastigen Netzwerkes befindet sich Breitbart News, das von Fox News, the Daily Caller, the Gateway Pundit, the Washington Examiner, Infowars, Conservative Treehouse und Truthfeed umgeben ist.

Medienquellen, nach ihrer Weiterverbreitung auf Facebook.

Die Ergebnisse machen stutzig. Leben also nur die Rechten in einer Filterblase, die eher Linken aber im Mainstream? Die Autor/innen der Studie machen darauf aufmerksam, dass diese Asymmetrie darauf hinweist, dass die krasse Polarisierung der Aufmerksamkeitsverteilung keine ursächlich technologische sein kann. Zwar gebe es Tendenzen zur politischen Polarisation durch Filterblasen, aber interessanter Weise nutzen fast nur die Trumpanhänger/innen Social Media, um den ungeliebten Gatekeeper loszuwerden. Auf Seiten Hillary Clintons sind Massenmedien nach wie vor tonangebend. Hätte die Polarisierung aber eine rein technologische Ursache, müssten sich die Muster auf beiden Seiten ähneln. Ist also die Filterblase doch nicht das Problem?

Die Verwirrung könnte daran liegen, dass die Filterblase ein etwas zu eindimensionales Konzept ist und uns eine falsche Vorstellung davon vermittelt, wie soziale Medien funktionieren. Ich habe etwa ein Jahr vor Pariser vorgeschlagen, lieber von “Filtersouveränität” zu reden. 2 In „Das Neue Spiel“ unterscheide ich positive von negativer Filtersouveränität. Positive Filtersouveränität ist die Fähigkeit, sich mittels digitaler Werkzeuge Informationsquellen selbstbestimmt zusammenstellen zu können. Negative Filtersouveränität hingegen ist, sich aktiv gegen bestimmte Informationsquellen abschirmen zu können; etwa durch Nichtfolgen von Feeds oder dem Blockieren von unliebsamen Nutzer/innen.

Positive Filtersouveränität kann zwar durchaus als die Herstellung einer Art Filterblase verstanden werden, eine hermetische Abschließung jedoch, wie Pariser sie suggeriert, erfordert zudem eine negative Filtersouveränität. Die aber ist in der Praxis kaum bewerkstelligbar.

Darauf weist der Medienforscher Sascha Hölig vom Hans Bredow-Institut hin. Die die Angst vor der Filterblase sei deswegen übertrieben. Zwar gebe es den Trend, sich über soziale Medien über die Wirklichkeit zu informieren, eine Abschottung gegenüber anderen Realitäts-Vermittlern finde aber nicht effektiv statt. „Auch wenn die Algorithmen in Facebook nur ein bestimmtes Spektrum abdecken, bekommt man in der Regel durch andere Quellen noch andere Nachrichten mit.3 Negative Filtersouveränität, so scheint es, ist derzeit nur sehr schwer herstellbar.

Das bedeutet für unsere Fragestellung, dass sie nur zur Hälfte beantwortet ist. Ja, es gibt eine effektivere Ausnutzung der Rechten ihrer positiven Filtersouveränität. Es gab anscheinend vor allem einen neuen Markt für News, die sich konkret in Opposition zu den Massenmedien definierten. Und so hat sich die Rechte in den USA eine alternative Medienwelt geschaffen, während die Linke ihre News nach wie vor aus den traditionellen Kanälen bezieht. Doch von Fakten und Mainstream-News abgekoppelt sind die Trump-Supporter/innen nicht. Zumindest nicht technisch. Das Regime der demokratischen Wahrheit basiert noch auf etwas anderem.

It’s the Culture, Stupid.

Wie die Autor/innen der Harvard-Studie sehe auch ich die Ursachen für die Realitäts-Spaltung nicht in der technischen Ebene, sondern in der kulturellen Dimension. 4

Und diese Kultur hat ihre Ursprünge in einer Zeit, als Trump noch ein mittelmäßig erfolgreicher Geschäftsmann war und das Internet ein Spezialwerkzeug für Nerds. Es waren zuerst die in den 90er Jahren gegründeten rechten Talkradio-Sendungen mit Hosts wie Rush Limbaugh, Sean Hannity und Glenn Beck, die lange vor algorithmisch generierten Medienrealitäten alternative Deutungen der politischen Wirklichkeit boten. Das Konzept ist einfach: Weiße, wütende Männer schreien ihren Frust über das liberale Amerika in ein Mikrofon: und das schon damals mit großem Erfolg. 5 Es war dann der ebenfalls erst in den 90ern von Rupert Murdoch gegründete Fernsehsender Fox News, der vielen der rechten Talkshowhosts dann im Fernsehn eine noch größere Reichweite und kulturelle Wirksamkeit verschaffte. in den 2000er Jahren spaltete Fox News Amerika in einer Weise, die neu war. Erst in diesem Umfeld konnte schließlich die Tea-Party-Bewegung groß werden, jener extremistische Arm der Republikaner, der in seiner sturen Totalverweigerung Obama alle Steine in den Weg legten, die er finden konnte.

Als schließlich die Deregulation des Wahrheitsmarktes mitte der 2000er voll einschlug, existierte bereits ein breites Publikum, auf das neue rechte Angebote aufbauen konnten. Die Harvard-Studie betont, dass die populären rechten Medien selten älter als 20 Jahre alt sind. Die digitalen News-Kanäle sind sogar selten älter 10 Jahre. Ab etwa 2005 fand die Transition der rechten Medienszene vom Massenmedium zum digitalen Outlet statt. Das Publikum der Radio-Hosts und das von Fox News fand sich alsbald auf Facebook und in den Kommentarbereichen der rechter Online-News-Medien wieder. Aus dem Publikum wurde eine Community.

Diese Transition gipfelte in einem Machtkampf zwischen Fox News und Breitbart während des Vorwahlkampfes. Rupert Murdoch war zunächst gegen Trump eingestellt und Fox News alles andere als der Pro-Trump-Sender, der er heute ist. Aber ähnlich wie die Republikanische Partei, hat sich der Sender durch seine Polarisierung selbst in eine Ecke manövriert, in der er sich nicht erlauben kann, es sich mit den Trump-Supportern zu verscherzen. Es gab einen Zeitpunkt im Vorwahlkampf, an dem Breitbart und seine Fans so mächtig wurden, dass sie Fox News auf ihre Linie zwangen.6 Erst seitdem ist Fox News auf Linie, hat dabei aber enorm an Relevanz verloren.

Der Aufstieg Breitbarts

Es war der endgültige Sieg von Breitbart News über die Deutungshoheit im rechten Lager. Breitbart bildet seitdem das neue Gravitationszentrum im rechten Medienspektrum – es hat die mit Abstand meisten Shares in der Harvard-Studie.

Die Website wurde 2007 von Andrew Breitbart gegründet, einem konservativen Verehrer Ronald Reagans. Über diese Verehrung kam er auch in Kontakt mit jetzigen Chefstrategen von Donald Trump – Steve Bannon. Bannon wurde nach Breitbarts Tod Chefredakteur und Herausgeber von Breitbart News und machte es zu dem, was es heute ist. Bannon beschreibt seine damalige Vorgehensweise so, dass er versuchte den regen Kommentarbereich, der die Seite ausmachte, mehr in das Zentrum zu stellen, das heißt Kommentatoren zu rekrutieren und Breitbart von einer Newssite mehr zu einer Community-Site zu machen.7

Bannon hat für die rechte Kultur eine interessante Schanierfunktion. Selbst ist er kulturell noch eher bei der Tea-Party und alten Massenmedien beheimatet (er war vorher Dokumentarfilmproduzent) und doch bereitete er mit Breitbart den Weg für das, was man heute die Alt-Right nennt. Er selbst bezeichnete Breitbart mal als „die Plattform der Alt-Right“, obwohl diese Zuordnung durchaus strittig ist. „Alt-Right“ ist ein schwammiger Begriff, der ein sehr heterogenes Feld an politischen Bewegungen abdeckt, die vor allem mit der Internetkultur assoziiert werden.

Der Begriff kam aber eigentlich schon 2010 im Umfeld von Richard Spencer und seinem völkischen „National Policy Institute“ auf. Spencer ist sowas wie der amerikanische Außenposten „Identitären Bewegung“ und hat viele der neurechten Theorien wie den Ethnopluralismus aus Europa nach USA importiert. Richard Spencer nennt sich selbst einen „White Nationalist“ und ist in dieser und anderen Hinsichten sehr viel weiter rechts, als sich die meisten Breitbart-Leser/innen verorten würden.

Milo Yiannopoulos, damaliger Mitarbeiter und (bis vor kurzem) der Star von Breitbart News, hat in einem Artikel zur Alt-Right klar gemacht, dass er sich selbst dort nicht einordne und viele in der Alt-Right ihn auch nicht als einen der Ihren akzeptieren würden. 8 Die Grenzen verlaufen offensichtlich fließend und jeder hat eine andere Vorstellung davon, wo die Alt-Right anfängt und wo sie aufhört.

In einem umfangreichen Dossier hat M. Ambedkar einen guten Überblick der Alt-Right bewerkstelligt, inklusive einer hilfreichen Karte, in der die unterschiedlichen Strömungen abgebildet sind. Es wird klar, dass es keinesfalls eine konsistente Erzählung der Alt-Right gibt. Während Spencer und das National Policy Institute im Quadranten links oben angesiedelt sind, interessieren wir uns eher für die rechte Seite. Da finden wir oben die „Economic Nationalists“ zu denen Donald Trump selbst gezählt werden kann, sowie auch sein heutiger engster Berater Steve Bannon.

Karte der Alt-Right, via M. Ambedkar

Yiannopoulos hat Ambedkar hingegen in in den Quadranten rechts-unten eingeordnet. Der Name transhumanism/right-accelerationism/scientism/libertism-Block wirkt recht diffus, soll aber den Arm der Alt-Right umschreiben, der vor allem aus der Internetkultur hervorgegangen ist. Man könnte sagen, dass Breitbart eigentlich vom oberen Quadranten mit der Zeit immer weiter Richtung des unteren Quadranten gewandert ist. Und der Grund ist nicht nur die Ver-Communityisierung durch Bannon, sondern vor allem Yiannopoulos und ein ganz spezielles Ereignis.

Gamergate: Konsolidierung der Bewegung

Breitbart und Yiannopoulos haben ihre größte Popularisierung im Zuge der Gamergate-Affäre erlebt. Gamergate nannte sich 2014 der gewaltsame Abstoßungsprozess der vornehmlich männlich dominierten Hardcore-Gamerszene gegen den kulturellen Wandel in der Spieleindustrie. In den Jahren zuvor hatte sich der Markt für Spiele geöffnet und zunehmend weibliche Spielekundschaft angezogen, das Spielepublikum wurde diverser, was auch einen kulturellen Wandel innerhalb der Branche nach sich zog. Der tatsächliche Anlass der Kontroverse war schließlich nichtig, wesentlicher war das, was sich in der Szene angestaut hatte. Massen an frustrierten, männlichen Nerds griffen Frauen an, die entweder in der Spieleindustrie arbeiteten, Spielejournalistinnen waren oder aber feministische Kritik an der Gaming-Kultur formulierten. Vordergründig ging es den Gamergatern um „Ethik im Spielejournalismus“9, eigentlich aber um einen Backlash gegen den progressiven Teil der Spielekultur und ein Niederschreien jeder Form von feministischer Kritik.

Bis weit ins Jahr 2015 hinein entlud sich ein nicht enden wollender Schwall an organisiertem Hass. Konkret bekamen die Frauen es mit etlichen Einschüchterungsversuchen, Mord- und Vergewaltigungsdrohungen, konkreten Bombenalarmen bei Veranstaltungen, dem Lancieren von polizeilichen Sondereinsatzkommandos in Privatwohnungen durch Fehlalarme (so genanntes Swatting) und vielem mehr zu tun. Viele Frauen mussten sich aus dem Onlineleben zurückziehen, sie mussten in andere Städte ziehen oder ihren Job aufgeben. Viele leiden bis heute unter den psychische Folgen. Gamergate war der erste kulturelle Bürgerkrieg im Netz.

Zu einem der prominentesten Vorkämpfer und Idolen der Gamergater wurde Milo Yiannopoulos, der auf Breitbart News das Geschehen zeitnah und scharf kommentierte und die Gamergate-Massen wieder und wieder aufhetzte. Seitdem gilt er als “Meistertroll” und Wunderwaffe gegen Feminismus und alles Progressive. Jedenfalls bis zu seinem Fall vor ein paar Wochen. Man kann sagen, dass Gamergate das entscheidende Politisierungsmoment der jungen, amerikanischen Nerdgeneration war, das zum Aufstieg dessen geführt hat, was wir heute Alt-Right nennen.

Als dann im Sommer 2015 Donald Trump mit seiner Präsidentschaftskampagne an den Start ging, stand eine militante, rechts politisierte Nerdkultur bereits in den Startlöchern. Breitbart hatte sich früh auf Trump als favorisierten Kandidaten eingeschoßen und spätestens durch die euphorische Ironisierung auf r/The_Donald wurde er schließlich zum Helden der Gamergater erkoren. Dass Steve Bannon ab Mitte 2016 dann das Kampagnenmanagement übernahm, war nur noch folgerichtig. Trump war Profiteur von etwas geworden, dass er selbst gar nicht verstand. Aber das rechte Mediensystem und die rechte Netzkultur verstanden ihn, darauf kam es an. Sie verstanden sein Überschreiten jeglicher Normen, seine Ablehnung von Political Correctness, seine kaum getarnter Rassismus und seine öffentlich zelebrierter Sexismus. Ohne Frage: Er war ihr Kandidat.

Fazit

Es ist an der Zeit, festzuhalten, dass das Regime der demokratischen Wahrheit weder von Trump installiert wurde, noch von ihm betrieben wird. Es ist vielmehr diese Struktur aus Medien, Community und angeschlossenen Wertesystemen, die sich lange vor und völlig unabhängig von seiner Präsidentschaftskandidatur entwickelt hat. Diese medial-kulturelle Struktur ist die Basis, der Resonanzraum von Trumps Antifragilität. Sie ist es, die verhärtet wenn Trump angegriffen wird. Sie ist es, die nach jedem Angriff gestärkt dasteht.

Im nächsten Teil werden wir uns tiefer in die Kultur, die Ideologie und die Strategien der Alt-Right hineinbegeben. Es wird um die so genannte Trolling-Culture gehen, wo sie herkommt und wie sie funktioniert. 4Chan ist ist der Ort, an dem diese neue rechte Bewegung ihre Taktiken entwickelt und erprobt hat, die sie nun erfolgreich einsetzt, um ihre Narrative durchzusetzen und sich gegen den „liberalen Mainstream“ zu immunisieren.

  1. http://www.cjr.org/analysis/breitbart-media-trump-harvard-study.php
  2. Es ist im Grunde ja ein zusätzlicher Freiheitsgrad, sich seine personalisierte Weltsicht selbst zusammenzustellen zu können.
  3. https://www.heise.de/newsticker/meldung/Medienforscher-Angst-vor-der-Filterblase-ist-uebertrieben-3632255.html?wt_mc=nl.ho.2017-02-23
  4. Es ist, wie Clay Shirky sagt: „Kommunikationsmittel werden erst dann sozial interessant, wenn sie technisch langweilig werden.“ Das Zitat habe ich aus dem Buch, „Kultur der Digitalität“ von Felix Stalder entnommen, in der er sich an einer Kulturwissenschaftlichen Analyse der digitalen Kultur wagt. Er konzentriert sich dort allerdings sehr auf die progressiven, eher linken und aufklärerischen Aspekte der Digitalkultur. Die Analyse der rechten, antiaufklärerischen Digitalkultur steht aber dringend an und dieser Essay kann gerne als ein Beitrag dazu verstanden werden.
  5. Darauf macht Nils Markwardt in seinem lesenswerten Essay auf Zeit Online aufmerksam. http://www.zeit.de/kultur/2017-03/donald-trump-journalismus-medien-usa-populismus
  6. Siehe dazu diese gute Analyse von VOX. https://www.youtube.com/watch?v=UYMIgnw2FPU&feature=youtu.be
  7. Er äußert das zum Beispiel in einem Podcast, bei dem er damals schon als Kampagnenmanager von Trump interviewt wurde: http://www.breitbart.com/radio/2016/11/02/trump-campaign-ceo-stephen-k-bannon-speaks-with-breitbart-news-daily-to-celebrate-show-anniversary/
  8. Yiannopoulos: An Establishment Converservative Guide to the Alt-Right: http://www.breitbart.com/tech/2016/03/29/an-establishment-conservatives-guide-to-the-alt-right/
  9. Sie hatten sich Verschwörungstheorien zurechtgelegt, dass Spielereviews für Geld und/oder sexuellen Gefälligkeiten erfolgen und im Endeffekt die gesamte Branche durch die Frauen korrumpiert sei.


Veröffentlicht unter Demokratische Wahrheit Kontrollverlust Queryology Weltkontrollverlust
2 Kommentare

Das Regime der demokratischen Wahrheit (Teil III) – Antifragilität und euphorische Ironisierung

Wir haben im ersten Teil eine neue Art der politischen Lüge identifiziert und sie “demokratische Wahrheit” genannt. Im zweiten Teil haben wir sie genauer definiert und festgestellt, dass die durch das Internet veränderte Medienlandschaft der ideale Nährboden der demokratischen Wahrheit ist. Doch wie wirkt der Mechanismus der demokratischen Wahrheit nun genau und wie organisiert er seine Öffentlichkeit? In diesem Teil wollen wir versuchen, Trumps Strategie seiner Unangreifbarkeit freizulegen.1

Als Mitt Romney 2012 in einer kleinen Wahlkampfveranstaltung sagte, dass er sich in seiner Präsidentschaft nicht um die 47 % Transferempfänger kümmern wolle, war ihm nicht klar, dass jemand den Ton mitgeschnitten hatte. Als die Aufnahme veröffentlicht wurde, stürzten sich die Medien darauf, der Skandal nahm seinen Lauf. Romneys Kampagne war ruiniert. So läuft das in den USA. Das Mediensystem ist unerbittlich, man darf sich keine Fehler erlauben, die Medien zerstören einen sofort.

Donald Trump wurde zerstört. Jede Woche mindestens einmal, den gesamten Wahlkampf über. Und durchaus zu recht, denn die Skandale sprudelten fast täglich in die Medien. Ein Skandal in der Größe von Mitt Romneys Ausrutscher hätte es bei Trump wahrscheinlich nicht mal in das Ressort Vermischtes geschafft. All die dunklen Machenschaften die auftauchten, seine Angriffe auf Richter, republikanische Ikonen, Kriegshelden und Journalist/innen. Seine Weigerung seine Steuer zu veröffentlichen, seine Pleiten, seine täglichen, dreisten Lügen, seine Ignoranz und sein komplettes Unwissen. Dazu Anschuldigungen und Gerichtsprozesse zu Betrug, Vorteilsnahme und sexuellen Belästigungen und schließlich das Access Hollywood Tape, in dem er noch selbst mit seinen sexuellen Übergriffen prahlt.

Und jedes Mal wurde er zerstört. So war es zu lesen. “Trump ist erledigt!” “Das wars!” “Das ist das Ende seiner Kampagne!” “Jetzt aber wirklich!” “Das überlebt er nicht!” “Zerstört!” “Trump has been destroyed!” Ständig! überall!

Es gibt nur ein Problem: Trump wurde nicht zerstört. Kein einziges Mal. Hier und da hat er kurzfristige Einbußen in den Umfragen hinnehmen müssen, Leute wendeten sich von ihm ab, doch sein Schaden war nie nachhaltig. Trump ist aus Teflon, nichts bleibt kleben. Er ist resistent noch gegen die schlimmsten Skandale. Es ist heute schwer vorstellbar, was Trump noch anstellen müsste, um wirklich nachhaltig die Zustimmung seiner Unterstützer/innen zu verlieren.

Hier – in dieser Resilienz – liegt das Geheimnis der “demokratischen Wahrheit” verborgen. Wer nach dem Access Hollywood-Video nicht den Hut nehmen muss, kann sich auch erlauben, vom blauen Himmel zu erzählen, während es in Strömen regnet. Um das Geheimnis aber zu lüften, müssen wir genau analysieren, wie Trump es geschafft hat, derart unangreifbar zu werden.

Wie man Multiresistenz herstellt

In meinem Buch „Das Neue Spiel“ schlage ich als zentrale Strategie gegenüber dem Kontrollverlust vor, sich selbst und die eigenen Strategien möglichst antifragil zu gestalten.2 Dennoch hat es etwas gedauert, bis ich gemerkt habe, dass Donald Trump das perfekte Beispiel dafür ist.

Das Konzept habe ich von Nassim Taleb übernommen, der es in seinem Buch Antifragility dargelegt hat. Taleb unterscheidet drei Modi der Resilienz. Wenn ein System so empfindsam ist, dass es bei unerwarteten Ereignissen zusammenbricht, dann nennt er es „fragil“. Wenn Ereignisse zwar stören, aber das System im großen und ganzen standhält, ist es „robust“. Wenn das System aber umso besser funktioniert, je mehr Stress es ausgesetzt wird, dann spricht Taleb von einem „antifragilen System“. Antifragilität ist wie die Hydra, der zwei neue Köpfe wachsen, wenn man einen abschlägt.

Trump wachsen keine weiteren Köpfe, aber er scheint auf die ihn umwehenden Skandale doch auf eine Art zu reagieren, die man antifragil nennen muss.3 Seine Anhänger/innen scheinen ihm nicht nur alles zu verzeihen, sondern jedes mal mehr. Trumps Satz, dass er am helligten Tag jemanden auf der 5th Avenue erschießen könnte, ohne dass es ihn Stimmen kosten würde, war tatsächlich ernst gemeint und vermutlich wollte er Lob dafür ernten, dass er es trotzdem nicht tut.

In der Realität funktioniert Antifragilität nicht ganz so plakativ wie bei der Hydra, sondern ist ein mehrschichtiger Prozess komplexer, adaptiver Systeme. Antifragilität ist immer eine Doppelstrategie: ein robuster Kern plus eine volatile Variable. Ein Beispiel ist die Barbell Strategie in der Finanzwelt. Einerseits investiert man sehr konservativ, sichert sich gegen alle Risiken ab, andererseits behält man sich vor, schnell auf die volatile Gelegenheiten zu setzen. Es geht darum, einerseits dem Kontrollverlust gelassen entgegensehen zu können, andererseits seine Chancen für sich nutzen zu können.

Schritt eins: Die Katastrophe tritt ein. Das System hält stand (wenn auch etwas beschädigt).

Schritt zwei: Aus der Katastrophe lernen. Sein System umgestalten, dass Katastrophen noch weniger Schaden anrichten können.

Das klassische Beispiel für ein antifragiles System ist das Immunsystem. Ohne ständige Störung des Immunsystems durch Angreifer, wäre es nicht effektiv. Jede Störung ist ein Training. Das Immunsystem funktioniert besser, wenn es herausgefordert wird.

Ein anderes Beispiel – die Gegenseite quasi – sind multiresistente Bakterien. Muliresitenz ist eine Eigenschaft, die erst durch mehrfache, verfehlte Vernichtung ausgebildet wird.

Natürlich zerstört ein Antibiotikum einen Großteil der Population (Schritt eins), aber wenn die übriggebliebene Population wieder gedeiht, ist sie resistent gegen das Antibiotikum (Schritt zwei). Dieses Video vermittelt eine gute Vorstellung von dem Prozess.

Wie funktioniert Antifragität nun bei Trump? Zunächst hat Trump von Anfang an eine außergewöhnlich robuste Basis von Anhänger/innen. Als Trump seinen Hut ins Rennen warf, haben fast alle gelacht. Nur ein winziger Kern von Leuten war von ihm überzeugt, obwohl – oder gerade weil sie ihn kennen. Wenn er also gegen die Regeln verstieß, waren alle anderen erschrocken, seine Basis nahm es aber hin, bejubelte den Regelverstoß sogar.

In der traditionellen Medienlandschaft wäre die Geschichte nach dem ersten Skandal trotzdem zu Ende gewesen. Trump wäre in der Öffentlichkeit(TM) zerstört gewesen, seine Basis als Spinner abgetan. Niemand mit professionellen Background hätte ihn mehr ernst genommen. Die Medien hätten sich nach anfänglicher Skurilitätsberichterstattung von dem Clown abgewendet, wären weitergezogen und das hätte auch die potentiellen Wähler dezimiert. Aus den Augen aus dem Sinn.

Doch hier wird die der Deregulierung des Wahrheitsmarktes aus Teil II wichtig: Es hatte sich bereits eine sehr heterogene, alternative Medienlandschaft entwickelt, die die Andersheit von Trump nicht nur goutierte, sondern mehr und mehr feierte. Hier fand sein Anecken Fans, hier gab man seiner Regelaversion Raum.

Breitbart, 4Chan, 8Chan, diverse rechte Subreddits, Info War, Stormfront, etc. waren längst da, als Trump antrat. Und sie sollten im Laufe des Wahlkampfes jenen medialen Raum aufspannen, der es Trump erlaubte, die medialen Angriffe auf ihn in antifragile Resilienz umzumünzen.

Skandale liefen nun so ab:

Schritt eins: Die Massenmedien enthüllen einen Skandal/Trump sagt etwas unglaublich dummes, etc. Einige Trump-Supporter wenden sich ab. Leute aus der eigenen Partei distanzieren sich. Trump verliert an in den Umfragewerten. Aber die Basis bleibt. Sie hat sich nicht nur an sein Anecken gewöhnt, es ist das, was sie schätzt.

Schritt zwei: Eine Gegen-Medienfront beginnt sich zu bilden, die Trump erbittert verteidigt. Je härter die Angriffe, umso emphatischer wird für ihn gestritten. “Das wird man ja wohl noch sagen dürfen!”, “Lockeroomtalk!”, “Lügenpresse!”, “Liberal Media Bias!”.

Die alternativen Medien richten sich unter dem Druck gegen Trump auf seine Gegner aus und nutzen die vorhandene Öffentlichkeit des Skandals, um mehr Menschen ihre alternative Deutung der Ereignisse anzubieten.

Dieser Vorgang wiederholt sich mit jedem Skandal, etliche Male also. Das hat zwei Effekte: mit jedem Angriff wächst die Community (und damit die Rezipienten der alternativen Weltdeutungen) und die vorhandene Basis härtet sich gleichzeitig gegen jeden weiteren Angriff ab. Es ist ein iterativer Prozess, der Skandal für Skandal Resilienz und Wachstum fördert.4

Am Ende des Wahlkampfes wurde das Breitbandantibiotikum der höchsten Stufe gegen Trump ausgerollt: Fast die komplette Phalanx aller traditionellen Medienhäuser in den USA hatte sich öffentlich für Hillary Clinton ausgesprochen. Selbst jene hatten sich für sie ausgesprochen, die traditionell den republikanischen Kandidaten unterstützen und auch jene, die noch nie einen Kandidaten endorsed hatten.

Es reichte nicht.

Von Raids und Brigades

An keinem Ort ist der Mechanismus der Antifragilität klarer zu beobachten, als in r/The_Donald. r/The_Donald kann als inoffizielle Online-Wahlkampf-Zentrale der Trumpkampagne gelten. Ihr Einfluss ist kaum zu unterschätzen. Dennoch soll es uns hier nur als ein Fallbeispiel dienen, um Antifragilität in Aktion zu analysieren.5

Bei r/The_Donald handelt es sich um eine Art Forum, ein so genanntes Subreddit der beliebten Community-Newssite Reddit.com. Hier kann jeder User zu jedem Thema ein Subreddit anlegen. r/The_Donald entstand bereits kurz nach dem Beginn der Trumpkamapagne im Juni 2015. Es dümpelte zunächst gemächlich vor sich hin und kam – ähnlich wie die Trump-Kampagne selbst – erst so richtig in Fahrt, nachdem es angegriffen wurde. Auf Reddit gibt es gelegentliche Angriffe von Subreddits untereinander, „Brigade“ genannt. Dabei verabreden sich User eines Subreddits zum massenhaften Einfall in ein anderes Subreddit, um dort zu trollen und die Votingfunktion dafür zu gebrauchen, Beiträge gegen den Willen der Community hoch oder runter zu voten. The_Donald war zunächst mehrfach Opfer von Brigades aus r/politics, später zunehmend von r/SandersForPresident, also dem Subreddit im Support des Demokraten Bernie Sanders.

Die wichtigste initiale Wachstumsphase erlebte r/The_Donald allerdings durch den Einfall von externen Trollhorden. Die /pol/ Sektionen der berüchtigten ImageBoards 4Chan und 8Chan wurden auf The_Donald aufmerksam und verabredeten „Raids“, also Angriffe, wo es wiederum darum ging, Verwirrung zu stiften und zu trollen. Viele der Angreifer aber blieben, übernahmen das Subreddit quasi und brachten ihre Trollstrategien in ein. Im Verlauf des Februars 2016 vervierfachte r/The_Donald seine Subscriberzahlen.

In derselben Zeit kam „Cis“ zu r/The_Donald, der bereits eine einschlägige Vorgeschichte in r/TheRedPill hatte, ein ideologiegeladenes Forum für PickUp-Artists.6 Als er die Moderation von r/The_Donald übernahm, änderte er die Moderationsstandards so, dass offener Rassismus, Sexismus und sonstige Menschenfeindlichkeit geduldet wurde. Zwar wurde gegen bekennende Nazis und White-Supremacists durchgegriffen, aber ansonsten wurde jede verbale Entgleisung gegen jede Minderheiten gerne hingenommen.

Dafür wurde eine andere Regel eingeführt und strikt durchgesetzt: Man durfte von nun an nur und ausschließlich in Support für Donald Trump posten. Jede Kritik und jede Ablehnung wurde mit Verbannung bestraft. Was zunächst eine Art Anti-Trollmaßnahme gegen Raids und Brigades war, stieß einen interessanten gruppenpsychologischen Effekt der freiwilligen Gleichschaltung an.

Man hätte davon ausgehen können, dass eine solche direkte Einschränkung der Redefreiheit einen Aufschrei und ein Abwandern bewirkt haben könnte, gerade weil vor allem diese Zielgruppe Redefreiheit so gerne vor sich her trägt. Aber stattdessen passierte etwas ganz anderes: Trump wurde nicht nur gelobt, sondern grotesk in den Himmel gefeiert. Er war jetzt der „God Emperor“, der die Welt vom Bösen befreien wird. In der Meme-Welt von r/The_Donald war Trump der Superheld mit göttlichen Eigenschaften. Ab einem bestimmten Punkt schlug die ironische und reale Verehrung ineinander über, so dass niemand diese Grenze noch wirklich ziehen konnte.

Dies erlaubte eine sehr spezielle Stimmung zu erzeugen: eine ironische Euphorie oder besser: euphorische Ironisierung. Eine Euphorie, die sich bald ins grotesk-hysterische steigerte und allen Bezug zur Realität verlor, aber gleichzeitig mit einer eingebauten “plausible Deniability” daherkam: denn, es war ja alles nur Spaß. Oder?

Der Verwischung dieser Grenze sei Dank begannen Mechanismen zu greifen, die Elias Canetti in Masse und Macht beschreibt. Völlige Entgrenzung, der Verlust von Individualität und Vernunft durch das Aufgehen des Einzelnen in der Masse, die damit einhergehenden Großmachtsphantasien.

Dafür sorgten auch die gruppendynamischen Klickübungen: r/The_Donald war bald in der gesamten Reddit-Community berüchtigt, weil sie regelmäßig den Trending-Algorithmus austricksten, um mit ihren Beiträgen bei Reddit auf die Startseite zu kommen. Dabei wird ein Beitrag „gepinnt“, so dass er innerhalb des Subreddits oben bleibt. Dann werden die User dazu aufgerufen, den Beitrag in möglichst kurzer Zeit möglichst oft positiv zu bewerten. Der Ausruf „High Energie!“ bezieht sich auf diese Praxis und dürfte seinerseits die Euphorie immer wieder befeuert haben.

Dieser Sumpf aus masseninduziertem Wahnsinn war die Brutstätte vieler Meme, die dann in den anderen rechtsalternativen Outlets und vor allem auf Social Media einen enormen Effekt hatten. Es entstanden auch eine Menge Fake-News und Verschwörungstheorien. Hier verbreitete sich die Geschichte, dass 4Chan den Bericht des britischen Ex-Spions Christopher Steele mit falschen Fakten lanciert hätte.7 Etliche Gerüchte über Hillary Clinton, basierend auf den E-Mails die Wikileaks veröffentlichte, nahmen von hier ihren Ausgang – inklusive der Verschwörungstheorie „PizzaGate“8

Es ist kein Zufall, dass aus dem Subreddit so haarsträubend realitätsfremde Theorien kamen. In der aufgeheizten Stimmung, die jeglichen Widerspruch und jede rationale Intervention ins leere laufen ließ, kreierten diese Menschen ihr ganz eigenes Realitätsfeld. Durch einen kollektiven Akt rationaler Selbstaufgabe hatte der Trump-Zug tatsächlich keine Bremsen mehr. Wenn der Wahnsinn des Regimes der demokratischen Wahrheit ein heißes Zentrum hatte, dann war es r/The_Donald.

Fazit

r/The_Donald soll an dieser Stelle nur als Fallbeispiel dienen. Das Forum war mit Sicherheit ein wichtiger Faktor bei der Herstellung der antifragilen Gegenöffentlichkeit, doch ohne das ganze Ökosystem aus rechten, verschwörunsgtheoretischen Medienoutlets, der russischen Propaganda-Maschinerie, sowie den FakeNews-Frabrikanten wäre auch r/The_Donald niemals so einflussreich gewesen. r/The_Donald war sicher eines der wesentlichen Hubs, der Narrative entwickelte und die Memes in Umlauf brachte. Es war aber Teil von etwas größerem, einem kulturellen Resonanzraum, der wesentlich älter ist und den wir heute vage mit dem Namen “Alt-Right” referenzieren.

Das Regime der demokratischen Wahrheit basiert auf einer Struktur, die bereits vor Trumps Kampagne entstand und ohne deren Echoraum und ohne deren zuvor entwickelten Strategien und Ideologien es r/The_Donald gar nicht gegeben hätte.

Im nächsten Teil werden wir also tiefer eintauchen in die rechte Medienszene. Breitbart, die Alt-Right und wie ein Ereignis dazu führte, dass sich eine Trollarmee bildete, die bis heute den Resonanzraum von Trumps Antifragilität bildet.

Hier geht es zu Teil IV >>>>

  1. An dieser Stelle sei kurz angemerkt, dass wir nicht die Theorie verfolgen, dass Trump – im Schatten seiner offensichtlichen geistigen Beschränktheit – so etwas wie ein heimliches Genie sei. Was wir hier als Trumps Strategie darlegen, ist nicht seine Strategie im engeren Sinne, sie ist nicht von ihm erdacht oder geplant. Trumps Strategie entsteht außerhalb von Trump, die längste Zeit sogar außerhalb seines Kampagnenteams. Und sie wird auch außerhalb seiner Verfügungsgewalt implementiert von Kräften, die er zunächst überhaupt nicht auf den Schirm hatte. Jedenfalls bis zur Übernahme der Wahlkampfleitung durch Steve Bannon im Sommer 2016. Aber auch mit Bannon ändert sich nichts wesentliches, sondern nur die Tatsache, dass Trumps inoffizielle Wahlkampfstrategie seine offizielle Wahlkampfstrategie wurde.
  2. Seemann, Michael: Das Neue Spiel – Strategien für die Welt nach dem digitalen Kontrollverlust, S. 162 ff
  3. Taleb persönlich bezeichnete Trump als antifragil. https://www.nytimes.com/2017/02/28/magazine/how-the-trolls-stole-washington.html
    Taleb ist eine interessante Figur. Ein interessanter Theoretiker aber selbst ebenfalls ein grandioser Narzist und Polemiker. Auch wenn er versucht, es zu verbergen, aber sein Support für Trump wurde mit der Zeit immer offensichtlicher.
  4. Die Strategie kann als eine Art Troll-Judo verstanden werden. Hier wird die Mechanik anhand von Milo Yiannopoulos erläutert: http://observer.com/2017/02/i-helped-create-the-milo-trolling-playbook-you-should-stop-playing-right-into-it/
  5. Ein Großteil der Beobachtungen stammen aus diesem Vice-Artikel: https://motherboard.vice.com/en_us/article/what-is-rthedonald-donald-trump-subreddit
  6. Wir werden einige der Stränge der Alt-Right in späteren Beiträgen genauer nachzeichnen.
  7. http://gizmodo.com/4chan-idiots-claim-they-invented-the-trump-piss-report-1791067589
  8. Dabei handelt es sich um die Theorie, dass immer wenn Clintons Wahlkampfmanager John Podesta das Wort „Pizza“ in seinen E-Mails schrieb, er in Wirklichkeit codiert über organisierten Kindesmißbrauch redet. Überzeugt davon, einen Ring Kinderschänder zu sprengen, stürmte ein Mann bewaffnet das washingtoner Pizza-Restaurant Planet Pingpong. https://en.wikipedia.org/wiki/Pizzagate_conspiracy_theory


Veröffentlicht unter Das Neue Spiel Demokratische Wahrheit Weltkontrollverlust
3 Kommentare

Das Regime der demokratischen Wahrheit (Teil II) – Die Deregulierung des Wahrheitsmarktes

Im ersten Teil dieser Reihe haben wir uns mit den spezifischen Lügen der Trump-Regierung beschäftigt und sie gegen die herkömmliche politische Lüge einerseits und die machtvolle, diktierte Wahrheit in autokratischen Systemen andererseits abgegrenzt. Und wir haben uns entschlossen, die spezifische Weise des Lügens der Trump-Regierung “demokratische Wahrheit” zu nennen.

Es wird Zeit, diesen Begriff etwas genauer zu fassen. “Demokratie” war schon immer ein umstrittener Begriff – ein politischer Kampfbegriff – aber dabei immer positiv konnotiert. Jeder will Demokrat sein. Selbst die autoritärsten Systeme nannten sich mit Freude Demokratie. In seiner banalsten Deutung übersetzt man Demokratie schlicht mit Volksherrschaft und insofern man als Herrscher plausibel machen kann, dass das Volk schon auf der eigenen Seite ist, fällt es nicht schwer die Grenze zwischen Autokratie und Demokratie zu verwischen. Wir verwenden also den Begriff in „demokratische Wahrheit“ nicht ohne einen augenzwinkernden Verweis auf diese Begriffsgeschichte. Aber wesentlicher noch ist, dass Trumps Wahrheitsverständnis tatsächlich die Funktionsweise von Demokratie zugrunde zu liegen scheint.

Als Donald Trump von Bill O’Reilly auf Fox News gefragt wurde, warum er – ohne irgendwelche Hinweise darauf zu haben – an der These festhalte, dass es zu Wahlbetrug zugunsten Hillary Clintons gekommen sei, weist er darauf hin, dass es doch eine Menge Leute gibt, die so denken. Eine Menge Leute denken das, also ist es wahr. Die Menge an Leuten, nicht die Evidenz von Beweisen, bestimmen die Wahrheit. Deswegen ist die Veröffentlichung seiner Steuererklärung ebenfalls nicht notwendig. Wenn die Leute ihn auch ohne Veröffentlichung ins Weiße Haus gewählt haben, sei die Wahrheit doch bereits entschieden. Für Beweise interessieren sich nur Journalisten.

Trumps Auffassung nach wurde nicht nur eine Person und eine Policy ins Weiße Haus gewählt, sondern eine Wahrheit. Die bislang gültige Wahrheit der Fakten, Experten, Beweise, Wissenschaft und Journalismus wurde abgewählt und eine andere Wahrheit, die demokratische Wahrheit, die Wahrheit des Volkes – hat Einzug gehalten.

Es ist nicht ganz leicht, dieser Argumentation zu widersprechen. Seine offensichtlichen Lügen und seine tiefsitzende Unehrlichkeit waren ja tatsächlich keine Hindernisse, ihn zu wählen und man könnte argumentieren, dass sie dadurch demokratisch legitimiert sind. Und auch nach der Wahl zeigen die Umfragen, dass 49 % der registrierten Wähler die Trump-Regierung vertrauenswürdig finden und nur 48% für nicht Vertrauenswürdig. In derselben Umfrage wurden die Massenmedien dagegen nur zu 39% als vertrauenswürdig eingestuft, während 53 % der Meinung waren, dass sie unglaubwürdig seien.

Wenn man dazu bedenkt, dass Steve Bannon die Presse als „opposition Party“ bezeichnet, die die Wahl nun mal verloren habe und deswegen jetzt mal den Mund zu halten habe, wird diese Weltsicht noch klarer. Die demokratische Wahrheit des Volkes hat die Oligarchie (bestenfalls Meritokratie) des liberalen Medienmainstreams besiegt. Daraus folgt für Trump, dass er Wissenschaftler/innen und Journalist/innen den Mund verbieten kann, bzw. dass diese einen illegitimen Machtanspruch formulieren, wenn sie ihm widersprechen. Er ist gewählt und nicht sie. Und wenn er die Wahrheit des Volkes repräsentiert, dann sind die, die diese trotz Wahl nicht anerkennen, folglich “Feinde des Volks”, “enemy of the people”.

Man kann diese Weltanschauung als rein strategisches Ablenkungsmanöver abtun oder sie als schlichten Größenwahn verbuchen. Dann fällt es leicht, entsprechende Parallelen in der Geschichte zu finden und man kann argumentieren, dass das alles einem Standardmuster innerhalb autoritärer Herrschaft folgt. Man kann aber auch einen anderen Weg gehen, die Idee der demokratischen Wahrheit als Ideologie ernst nehmen und fragen, woher sie kommt, wie sie entstehen hat können. Dies ist der Weg, den dieser Text gegen will.

Die Entfesselung der Öffentlichkeit

Meine These ist, dass die demokratische Wahrheit ihre Wurzeln in der Demokratisierung der Öffentlichkeit hat. So haben wir damals die Auswirkungen des Internets tatsächlich genannt: Demokratisierung. Das Internet habe die Öffentlichkeit demokratisiert, pflegte ich zum Beispiel zu sagen und ich meinte damit, dass auf einmal jeder und jede eine Stimme hat in dieser Welt. Dass es auf einmal niemanden mehr gab, der einen effektiv davon abhalten konnte, Öffentlichkeit zu generieren. Sprechen, ohne gefragt werden zu müssen.

Das war das, was mich am Internet faszinierte, weswegen ich 2005 Blogger wurde und warum mich die Fragen von Öffentlichkeit und Technologie nie losgelassen haben. Ganz offensichtlich war Brechts Radiotheorie wahr geworden. Bertolt Brecht hatte am Beispiel des Rundfunks davon geträumt, dass ein wahrhaftiges Volksmedium auch einen Rückkanal bräuchte. Darauf aufbauend entwickelte Hans Magnus Enzensberger eine marxistsische Medientheorie, in der er zwischen repressivem und emanzipativen Mediengebrauch unterschied. Die Massenmedien, weil in den Händen weniger, waren demnach repressive Medien, während solche, deren Produktionsmittel gesellschaftlich erschlossen waren, als emanzipativ gelten könnten. In etwa das meinten wir, als wir von der Demokratisierung der Öffentlichkeit träumten.

Demokratisierung bedeutet also in diesem Zusammengang eine Art Umverteilung. Hatten zunächst nur wenige Zugang zur Öffentlichkeit – die Presse, die Sender, die Redakteure, die Politiker, die Intellektuellen – so veränderte das Internet die Startvoraussetzungen. Jeder mit Internetanschluss konnte teilnehmen in dieser neuen Öffentlichkeit. Das waren immer noch nicht alle, aber wahnwitzig viel mehr und potentiell alle.

Zum anderen bedeutet diese Umverteilung auch eine Krise des Journalismus als Institution. Wir feierten damals den Tod des Gatekeepers. Niemand kann mehr bestimmen, was öffentlich ist und was nicht. Das Tor ist nun offen, der Mittelsmann herausgeschnitten. Das – vor allem das – versuchte ich mit dem Begriff „Kontrollverlust“ zu fassen – als positive Vision. Durch das Internet brauchen wir keine Vermittler mehr, wir können nun alle direkt miteinander sprechen. Und wir können gemeinsam – kollaborativ – an der Wahrheit arbeiten, so wie an einer gigantischen Version der Wikipedia.

Die Demokratisierung ging einher mit einer Deinstitutonalisierung, was letztlich eine Dezentralisierung und Enthierarchisierung bedeutete und somit eine breitere Verteilung von Macht. Oder mit Enzensberger gesprochen: der emanzipative Mediengebrauch siegte über den repressiven Mediengebrauch.

Es war eine aufklärerische Vision. Über jedes Massenmedium kann nun ein Watchblog wachen und Einschätzungen darüber geben, wie wahr oder unwahr die Bild, die Süddeutsche, oder die Tagesschau berichten. Open Source Wahrheit: Jede/r konnte alles überprüfen, jede/r konnte mitarbeiten an der Wahrheit, tausend Augen konnten nicht irren. Wie sollte diese Entwicklung denn bitte nicht in die totale Aufklärung führen, in die aufgeklärte Aufklärung und gar die noch aufgeklärtere Aufklärung, die sich noch in ihrer dritten Instanz über sich aufgeklärt. Die Wahrheit wird jetzt noch wahrer, noch überprüfter und gegengecheckter. Eine fünfte Gewalt, die die vierte Gewalt im Auge behält, während sie von einer sechsten Gewalt überwacht wird. Wenn überhaupt irgendwas unwahr ist, dann aus einem Mangel an Demokratie. Wahrheit und Demokratie waren eins; je Demokratie, desto Wahrheit.

Die Realexistierende demokratisierte Öffentlichkeit

Ich bleibe dabei: Die Demokratisierung der Öffentlichkeit durch das Internet ist und bleibt die radikalste Revolution unserer Zeit. Doch wie bei jeder Revolution ist es naiv zu glauben, dass sie nur positive Effekte kennt. Meinungsfreiheit von einem abstrakten Recht zu einer tatsächlichen Praxis zu machen, war ein enormes Sozialexperiment mit unvorhersehbaren Folgen. Und wir schwenken gerade erst in die Periode ein, in der uns die ersten Untersuchungsgergebnisse vor den Latz geknallt werden.

Beim Auswerten der Daten dann der Schock: Enzensbergers Medientheorie entpuppte sich mehr als Milton Friedmann, denn Marx. Jedenfalls gleicht die Demokratisierung der Medienöffentlichkeit in ihrer Praxis mehr einer Deregulierung des Wahrheitsmarktes. Die Ergebnisse zeigen im Einzelnen genau die selben Auswirkungen, die wir von jeder Marktderegulierung kennen: Kostendruck bei den Marktführern, das Auftauchen von neuen Wettbewerbern und schließlich die Ausnutzung von Lücken im Systems durch “bad Actors”. Aber der Reihe nach:

1. Die traditionellen Massenmedien haben überlebt. Das ist nicht selbstverständlich. Ich selbst habe große Zweifel gehabt, ob die institutionellen Medien mit ihrem organisatorischen Wasserkopf und ihrer Unflexibilität in dieser neuen Umwelt überhaupt überlebensfähig sein werden. Sie waren es offensichtlich. Es war schmerzhaft. Es gab enorme Kosteneinsparungen und heftige Marktbereinigungen und immernoch stehen die Redaktionen unter hohem Kostendruck. Gleichzeitig mussten die Redaktionen sich teils radikal umstrukturieren und umgewöhnen, neue Methoden, Geschäftsmodelle und Techniken adaptieren. Aber im Großen und Ganzen scheint sich das System auf einem niedrigeren Niveau zu stabilisieren.

2. Der Aufstieg der Nische. Der damalige Chefredakteur der Wired, Chris Anderson, sprach Anfang der 2000er vom sogenannten Longtail. Während sich aufs Massenpublikum gerichtete Anbieter auf die Bestseller konzentrieren, können im Zeitalter der digitalisierten Märkte vor allem auch Nischenanbieter profitieren. Wenn Lagerung und Distribution geringe oder keine Kosten verursachen, ist auch das Bedienen jeder noch so kleinen Nische profitabel.

Das ist genau so eingetreten und hat zu der enormen Medienvielfalt geführt, in der wir heute leben und aus der auch dieses Blog seine Existenzberechtigung zieht. Es hat aber auch dazu geführt, dass egal wie absurd ein Weltbild oder eine Verschwörungstheorie ist, sie ihre eigene Medienöffentlichkeit erzeugen kann und es deswegen unweigerlich auch tut. Und das verändert die gesamte Mechanik der Informationssysteme.

Früher hatten wir ein Mediensystem in dem wenige Akteure darum konkurrierten, den besten und schnellsten Zugang zu einer von ihnen unabhängigen, gemeinsamen Realität herzustellen. Bestenfalls die Perspektive auf diese Realität eignete sich als Differentiator. Heute haben wir ein System, das mit tausenden alternativen Wahrheiten aufwartet und das dazu passende Publikum sucht – und erzeugt.

Und es gibt kaum eine alternative Wahrheit, die im Internet nicht sein Publikum gefunden hat. Von den Flat-Earthern, den Chemtrailphobikern, allen Arten von Verschwörunsgtheoretikern, den Reichsbürgern bishin zu den radikalisierten Anhängern von Pegida oder den Subkulturen wie der Alt-Right in den USA. In dieser zerklüfteten und deregulierten Medienumwelt generiert jede Wahrheit ihren Echoraum, um ihre Narrative zu züchten.

3. Auch Fake-News sind Ergebnis des Experiments. Doch zuvor wird es Zeit, den Begriff etwas genauer zu fassen.

Es wurde viel über den Begriff “Fake-News” geschimpft und viele meinen, spätestens seit Trump ihn beständig nutzt, um unliebsame Berichterstattung zu diskreditieren, sei er verbrannt. Claire Wardle weist in ihrer Analyse hingegegen darauf hin, dass wir so nur in die Verlegenheit kommen, „Fake-News“ in Air-Quotes zu nutzen, weil wir ja doch einen Begriff für dieses Medienphänomen brauchen.

Wardle hat zur versachlichung der Diskussion eine hilfreiche Taxonomie erstellt, die die verschiedenen Arten der unwahren Nachrichten aufdröselt. Entscheidende Kriterien seien die Arten des Inhalts, die Motivation der Hersteller der Informationen und die Wege, wie diese verbreitet wird.
Original Claire Wardle

Ich schlage deswegen eine enge Definition von “Fake-News” vor. Erstens will ich den Begriff nur auf das beziehen, was bei Wardle „Fabricated Content“ heißt, also Inhalt, der komplett ausgedacht ist. Nicht mal Verschwörungstheorien würde ich dazu zählen, da diese sich fast immer auf reale Ereignisse beziehen. Zweitens werden Fake-News explizit zur Zirkulation auf Social Media hergestellt, indem es deren spezifische psychologische Mechanismen ausnutzt. Das schließt alle arten von klassischen Medieninhalte aus, egal, wie ausgedacht sie sind. Drittens ist die Intention immer eine manipulative, keine provokative oder satirische. Der Postillion ist somit draußen, genauso wie der klassische Internet Hoax, der aber als ihr experimenteller Vorfahre gelten kann.

Fake News sind deswegen aber auch nicht einfach Propaganda. Es ist sicher richtig, dass ein teil der Fake-News zu propagandazwecken in Umlauf gebracht wird. Es ist aber auch bezeichnend, dass die meisten Verbreiter von Fake-News eher ein kommerzielles Interesse verfolgen. Der Traffic lässt sich schließlich prima monetarisieren.

Die Fake-News hat weniger was mit Journalismus zu tun, als mit Internetkultur. Ihr Ursprung ist nicht die Ente, sondern der Hoax. Schon seit 20 Jahren, werden extra zu diesem Zweck hergestellte Geschichten erfunden. Einer der bekanntesten war die Meldung der Bonsai-Kittens – eine erfundene Story, dass Japaner Katzenbabies in Einmachgläsern aufziehen, um quadratisch praktische Kittens zum Ins-Regal-Stellen zu haben. Der Aufschrei im Netz war riesig. Im Grunde sind Fake-News nichts anderes, als monetarisierte und/oder politisch instrumentalisierte Hoaxes. Die Mechanik wurde genommen und ein Geschäftsmodell dafür gefunden.

Fake-News haben sich ihre Verbreitungsmechanismen beim Hoax abgeschaut. Sie triggern den Confirmation Bias indem sie an bestehende kulturelle Narrative und gängigen Vorurteilen anknüpfen, am effektivsten bei genau getargeteten Meinungsträgern. Sie bringen ihren Blutdruck zum kochen und verleiten dazu, die Nachricht sofort weiterverbreiten zu wollen. „Jetzt kommt alles Raus! Clinton hat schon damals Uran an die Russen verkauft, während sie Leute umbrachte! Kein Wunder, dass der Papst Trump unterstützt! Die spinnen doch, die Japaner!“

Mark Zuckerberg hat erst kürzlich in seinem offenen Brief darauf hingewiesen (oder sagen wir zugegeben?), dass die Mechanismen in sozialen Netzen dazu führen, dass besonders aufmerksamkeitsheischende Überschriften eine übergroße Verbreitung fänden. Genauere Analysen weisen darauf hin, dass oft der Inhalt des Artikels gar nicht gelesen wird.

Fake-News-Produzenten haben die Lücke im System entdeckt und nutzen sie aus. Wenige initiale Kosten pro kreiertem Beitrag und durch einfache und kostenfreie psychologische Tricks virale Verbreitung führen zu maximalem Impact und Profit. Fake-News sind im großen und ganzen auf Menschliche Biases optimierter Spam, jedoch haben sie verheerende gesellschaftliche Folgen. Fake News sind im Mediensystem wie die Credit Default Swaps im Finanzsystem. Auf eine Weise verpackter Bullshit, der das System zur Transaktion verleitet, ohne preis zu geben, mit was man es eigentlich zu tun hat.

Fazit

Fake-News ist nicht der Begriff dafür, dass jetzt die Lüge oder die Falschnachricht in unser Mediensystem Einzug gehalten hat, sondern ist ein Symptom der Deregulierung des Wahrheitsmarktes und der Krise des institutionellen Journalismus.

Die Demokratisierung der Öffentlichkeit hat ein Umfeld geschaffen, in dem sich die Wahrheitsproduktion in einer ungekannten Freiheit entfalten konnte. Eine Umwelt, in der an jeder Redaktion und allen Safe-Guards vorbei Wirklichkeiten erschaffen und verbreitet werden konnten, die auf das Verbreitungssystem, statt auf den Wahrheitsgehalt optimiert sind. Das macht sie erfolgreicher, als traditionelle journalistische Produkte.

Das Regime der demokratischen Wahrheit ist durch die Deregulierung des Wahrheitsmarktes möglich – vielleicht sogar wahrscheinlich geworden. Es folgt aber noch lange nicht zwingend daraus. Um den Zusammenhang zwischen liberalisierter Wahrheitsproduktion und seiner effektiven Instrumentalisierung zu verstehen, müssen wir zurückkehren zu Trump und seine Strategien unter die Lupe nehmen. Das werden wir im nächsten Teil machen.

Hier geht weiter es zu Teil III >>>>


Veröffentlicht unter Das Neue Spiel Demokratische Wahrheit Kontrollverlust Queryology Weltkontrollverlust
12 Kommentare