Was sind Large Language Models und wie funktionieren sie?

Large Language Models (LLMs) sind in aller Munde, aber kaum jemand versteht, wie sie funktionieren. Es gibt einige ganz gute Explainer in englischer Sprache, aber keine wirklich guten in Deutsch (jedenfalls ist mir keiner untergekommen).

Dies ist ein Auszug aus der Literaturstudie: „Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft“, die ich für die Hans-Böckler-Stiftung erstellt habe. Ich habe den Erklärteil zu LLMs herausgelöst, um ein breiteres Verständnis für die Technologie zugänglicher zu machen.

Begriffe zur Einführung

Künstliche Intelligenz (KI) ist ein Feld der Informatik, das fast so alt ist wie die Informatik selbst. In der KI geht es darum, Computer dazu zu bringen, auf bestimmte Arten zu agieren, die von Menschen als intelligent empfunden werden. Das schließt unter anderem die Lösung von komplexen Problemen, das selbstständige Lernen von neuen Fähigkeiten und auch die Beherrschung der menschlichen Sprache mit ein.

Künstliche Neuronale Netzwerke (KNN) sind die derzeit meistverwendete Technologie im Feld der KI. KNN bestehen aus künstlichen Neuronen und sind von den neuronalen Netzwerken im Gehirn von Menschen und Tieren inspiriert. KNN werden in einem Prozess namens „Deep Learning“ oder auch „maschinelles Lernen“ mit großen Datenmengen trainiert und erlangen dadurch Fähigkeiten, die schwer wären, durch normale Programmierung herzustellen; etwa das Erkennen von Objekten, Menschen oder Katzen, oder die Fähigkeit, Texte zu generieren, die Texten menschlichen Ursprungs ähneln.

Natural Language Processing (NLP) ist das Feld der KI, das sich dem maschinellen Analysieren, Transformieren und Generieren von natürlicher Sprache widmet.

Large Language Models (LLM) sind Künstliche Intelligenzen, die auf das Gebiet von NLP spezialisiert sind und aufgrund ihrer beachtlichen Fähigkeiten zur aktuell breit geführten Debatte um KI beigetragen haben. LLMs basieren auf KNN und sie stehen im Fokus dieser Literaturstudie.

Generative Pre-Trained Transformer (GPT) sind die derzeit populärsten LLM-Systeme. Die Firma OpenAI hat mit ihrem Chatbot ChatGPT und Modellen wie GPT-4 derzeit den größten Erfolg. Obwohl auch die meisten anderen LLMs technisch zu den GPTs gezählt werden können, verwendet vor allem OpenAI den Begriff für seine Systeme.

Tokens sind in ganze Zahlen umgewandelte Worte oder Wortbestandteile, wobei jedem Wort eine feststehende Zahl zugewiesen ist. Wenn LLMs trainiert werden, müssen die Trainingsdaten in Tokens umgewandelt werden. Wenn LLMs Sprache verarbeiten oder generieren, verarbeiten sie Tokens und generieren Tokens, die am Ende wieder in Worte umgewandelt werden.


Parameter sind die gewichteten Verbindungen zwischen den künstlichen Neuronen in KNN. In den Parametern liegen die Informationen gespeichert, mit denen eine KI, die auf KNN basiert, arbeitet. Die Anzahl der Parameter gibt eine ungefähre Vorstellung von der Größe und Komplexität und damit auch Leistungsfähigkeit einer KI.

Das Kontext-Fenster (Context Window) umfasst bei LLMs den Kontext eines aktuell zu generierenden Wortes. Da LLMs immer nur das nächste Wort vorhersagen, geschieht diese Vorhersage unter Einbezug aller vorher geschrieben Worte (Tokens), inklusive der Eingabe der Nutzer*innen. Das Kontext-Fenster fungiert somit wie der Arbeitsspeicher eines LLM.

OpenAI ist die Firma, die die derzeit erfolgreichsten und bekanntesten LLMs wie GPT-3.5 und GPT-4 über den Chatbot ChatGPT bereitstellt. Sie wurde 2015 als Non-Profit gegründet, um einen offenen und ethischen Ansatz der KI-Entwicklung zu verfolgen, aber agiert seit 2019 als gewinnorientiertes Startup, das mit Investorengeld Produkte entwickelt und seine wichtigsten Technologien geheim hält. Seit dieser Zeit ist es auch operativ und finanziell eng an Microsoft gebunden.

Es werde das nächste Wort

LLMs sagen immer nur das nächste Wort voraus. Das klingt trivial und ein bisschen so, wie die Wortvorschläge beim Nachrichten-Tippen auf dem Smartphone. Der wesentliche Unterschied zu dieser recht einfachen Technologie besteht darin, dass das Smartphone für eine Wortvorhersage nur vom letzten geschriebenen Wort aus rät. LLMs nehmen dagegen die gesamte Sequenz an geschriebenen Worten als Ausgangspunkt für die Vorhersage.1

Es ist leicht, nach dem Wort „Ich“ ein „bin“ vorherzusagen. Aber wie wird das nächste Wort nach dem Satz, den sie gerade lesen, sein? Wie wird der der Absatz, oder der gesamte Text dieser Studie zu Ende gehen? Natürlich unter Berücksichtigung seiner gesamten bisherigen Struktur, seiner Argumente, dem Schreibstil in dem er verfasst ist, sowie den gesamten Kontext des zu behandelten Themas? An dieser Aufgabe kann man nur scheitern. Aber heute scheitern LLMs besser an dieser Aufgabe als viele Menschen.

Doch was heißt „besser“ in diesem Zusammenhang? Das qualitative Urteil, das an Sprachmodelle herangetragen wird, ist eines der Täuschung. Wenn ein LLM gut ist, meinen wir, dass ihre Resultate uns überzeugen könnten, von einem Menschen verfasst zu sein (Natale 2021). Dazu wurde das System mit Millionen von Menschen geschriebenen Texten gefüttert, die es statistisch durchmessen hat, sodass es anhand dieser Statistik die Wahrscheinlichkeit des nächsten Wortes in einem Satz, Absatz oder Text vorhersagen kann.

In diesem Prozess der statistischen Durchforstung endloser Textmengen hat die Maschine „gelernt“, wie Worte sich statistisch zueinander verhalten. Sprache ist vielseitig und komplex, doch in ihr gibt es auch eine ganze Menge Regelmäßigkeiten. Das LLM lernt z.B. schnell die Regel, dass auf ein Subjekt irgendwann ein Prädikat und dann irgendwann ein Objekt folgt. Das LLM lernt Grammatik, ohne, dass ihm jemand die Subjekt-Prädikat-Objekt-Regel explizit einprogrammieren müsste. Syntaktik und Grammatik sind statistisch vergleichsweise leicht abzuleiten; sie sind so einfach, dass wir sie sogar sie in expliziten Regeln aufschreiben konnten.

Es gibt aber auch eine Menge Regeln bzw. Regelmäßigkeiten in der Sprache, die wir bislang noch gar nicht formell festgehalten haben, weil sie so komplex sind. Nehmen wir den Satz: „Die Wirtschaft spaziert Aschenbecher in der Nadel.“ Das ist ein grammatikalisch wohlgeformter Satz, aber er macht keinen Sinn. Wir können zwar erklären, warum dieser Satz keinen Sinn ergibt, aber wir haben keine allgemeinen Regeln dafür, wie man sinnhafte Sätze formt.

Der überraschende Erfolg der LLMs basiert darauf, dass sie auch semantisch korrekte Sätze zu formen imstande sind. Sprachmodelle kamen bislang immer dort an ihre Grenze, wo die Satzkonstruktion ein gewisses Verständnis des Inhalts erfordert. Etwa bei hierarchischen Satzkonstruktionen wie: „Die Schlüssel zum alten, moderigen Schuppen lagen auf dem Tisch“. Es erfordert ein Verständnis des Inhaltes des Satzes, um das Verb „lagen“ (Mehrzahl, Vergangenheitsform) richtig zu bilden, weil es sich auf das weit zurückliegende „Schlüssel“ bezieht (Mahowald et al. 2023).

Es ist rechnerisch leicht, eine Wahrscheinlich für das Wort nach einem anderen Wort zu berechnen. Man nennt solche Wortpaare „2Grams“. Schon deutlich schwieriger wird es, wenn man ein 3Gram berechnen will, d.h. von zwei Worten aus das dritte zu berechnen. Auf einmal hat man zwei abhängige Variablen, die es zu berücksichtigen gilt und mit jedem zusätzlichen Wort steigen die nötigen Rechenoperationen exponentiell.

Nun könnte man sich vorstellen, aus den gesamten Trainingsdaten die vorkommenden n-grams (n steht für die Anzahl der verkoppelten Worte) zu bilden und zu speichern. Man erhielte eine verlustfreie Kopie der Trainingsdaten. Jedoch würde so eine Prozedur schnell die Rechenkapazitäten aller verfügbaren Computer der Welt sprengen.

Was man stattdessen macht, ist das, was man immer macht, wenn die Realität für die Verarbeitung zu komplex ist: Man macht ein Modell. Ein Modell ist immer eine Annäherung an die Realität, die nicht perfekt, aber für bestimmte Zwecke gut genug ist. LLMs können also wortwörtlich als ein Modell der menschlichen Sprache verstanden werden, so wie eine Modelleisenbahn ein Modell einer wirklichen Eisenbahn ist. So wie eine Modelleisenbahn sich bemüht, alle möglichen Details der Eisenbahn abzubilden, so versucht ein LLM alle möglichen Details von Sprache abzubilden, aber ist dabei, wie die Modelleisenbahn, eben nur so gut, wie es die Technik gerade zulässt.

Das hat einige Implikationen. Wären die Trainingsdaten in n-grams gespeichert, wäre ein LLM in der Lage, alle Fakten, Quellen und Zitate der Trainingsdaten Buchstabe für Buchstabe wiederzugeben. Weil ein LLM aber nur ein Modell der Sprache ist, klappt das nur manchmal.

In den Daten klaffen Lücken und das Modell ist besonders kompetent darin, diese Lücken so zu füllen, dass es so aussieht, als seien da gar keine Lücken. So kommt es vor, dass es enorm selbstsicher formulierte Sätze ausgibt, deren Fakten ausgedacht sind und sie beim genauen Hinschauen teils überhaupt keinen Sinn ergeben. Man spricht dann z. B. davon, dass LLMs „halluzinieren“. Was sie aber eigentlich tun, ist die Lücken zu füllen mit Worten, die statistisch plausibel hineinpassen.

Ted Chiang, Autor beim Magazin The New Yorker, brachte diese Modellhaftigkeit der Sprachmodelle gut auf den Punkt, indem er sie mit JPEGs verglich. (Chiang 2023) JPEG ist so etwas wie das Standardformat für Fotos im Internet und ist bekannt für seine enorm effektive, aber verlustreiche Kompression. Speichert man seine Fotos im JPEG-Format, lassen sich eine Menge Daten sparen, doch schaut man genauer auf die Details in den Fotos, fallen einem die verschwommenen Fragmente an den Rändern von Konturen ins Auge. ChatGPT sei ein verschwommenes JPEG des Internets, so der Autor.

JPEGs sind für viele Zwecke ungenügend, vor allem Profis greifen lieber auf verlustfreie Kompressionsformate zurück. Dennoch haben JPEGs einen enormen Nutzen und das gilt offenbar auch für LLMs, zumindest wenn man ihre Stärken und Schwächen kennt. Wie immer gilt der Ausspruch von George Box: „Alle Modelle sind falsch, aber manche sind nützlich.“ (Box 1979, S. 202).

Kontext: Die Deep-Learning-Revolution vor zehn Jahren

Das Training von LLMs ist sehr gradlinig. Man gibt der Maschine einen Teil von einem Text und bittet sie, das nächste Wort zu ergänzen. Dann vergleicht man das geratene Wort mit dem tatsächlich im Text folgenden Wort, errechnet den Fehlerwert und gibt das Ergebnis an das System zurück, das die Information dazu verwendet, seine Vorhersagefähigkeiten zu verbessern.
Am Anfang wird die Maschine noch irgendwelche zufälligen Wörter vorschlagen, die nicht mal ansatzweise Sinn ergeben. Etwa „Ich Tasse“ oder „Mensch rot“. Die dadurch ausgelösten negativen Feedbacksignale helfen aber jedes Mal ein kleines Stück, das System zu verbessern. Je öfter das System diesen Prozess durchgemacht hat – wie sprechen hier von Hunderte Milliarden Mal – desto besser wird es im Raten.

Das dahintersteckende Verfahren ist sehr viel älter als die aktuellen Sprachmodelle und nennt sich „Deep Learning“. Beim Deep Learning geht es darum, mittels großer Datenmengen ein künstliches neuronales Netz zu trainieren. KNN sind von natürlichen neuronalen Netzen wie die Gehirnstrukturen von Menschen und Tieren inspiriert.2

Die ersten künstlichen Neuronen im sogenannten „Perceptron“ von 1958 waren tatsächlich noch Hardware-Relais, die mit Drähten verbunden waren (Loiseau 2019). Experimente mit KKN auf Softwarebasis wurden seit den 1970er-Jahren immer wieder gemacht, doch bis auf wenige Einsatzzwecke z. B. in der E-Mail-Spamerkennung hatte der Ansatz nur wenig Relevanz.
Erst im Jahr 2012 gelang der Durchbruch. Bis dahin gab es unterschiedliche Ansätze, Künstliche Intelligenz voranzubringen, etwa symbolische Systeme oder Expertensysteme. Bei diesem Ansatz versuchen Menschen die zu lösenden Aufgaben in Form von Regeln zu definieren und diese Regeln als Code im KI-System zu implementieren. Das war noch bis 2010er-Jahre hinein einer der wichtigsten KI-Ansätze.

Das änderte sich mit der „ImageNet Challenge“ von 2012, einem Wettbewerb in künstlicher Bilderkennung. Damals hatte sich das Team unter der Leitung von Geoffrey Hinton mit einem „Deep Neural Net“ (ein anderer Name für KNN) namens AxelNet mit großem Abstand zu allen anderen Bewerbern durchgesetzt. Seitdem dominieren KKN das gesamte Feld von KI und selbstlernender Systeme, nicht nur in der Bilderkennung.

Die künstlichen Neuronen eines KNN sind in mehreren Ebenen („layers“) angeordnet, und zwischen den Ebenen durch künstliche Synapsen miteinander verbunden. Die erste Ebene ist die Input-Ebene, also die Reihe von Neuronen, auf die die eingehenden Daten treffen. Am Ende steht die Output-Ebene, die das Ergebnis der Berechnung liefern soll: ist ein Hund oder Katze auf dem Bild, oder was ist das nächste Wort?

Zwischen Input und Output sind mehrere sogenannte „versteckte Ebenen“ („hidden layers“) geschaltet, die die eigentliche Informationsprozessierung handhaben. Grob gesagt kann ein künstliches Neuronales Netz mit mehr versteckten Ebenen komplexere Aufgaben bewältigen und je mehr versteckte Ebenen es gibt, desto aufwendiger sind die Durchläufe durch das Netz.


Treffen Daten auf die Input-Ebene, entscheiden die einzelnen Neuronen jeweils anhand einer integrierten Funktion, ob und wie stark sie das Signal an die dahinterliegende versteckte Ebene weiterreichen sollen. Die Neuronen der versteckten Ebene haben ebenfalls eine Funktion, um zu entscheiden, wie die eintreffenden Signale der Input-Ebene gedeutet werden sollen und geben davon abhängig ihrerseits ein Signal an die Neuronen der nächsten versteckten Ebene weiter.

Und so wandern die vom Input ausgelösten Signale von Ebene zu Ebene, wobei jedes Neuron von sich aus entscheidet, welchen Output es auf welchen Input hin weitergibt. Je weiter sich die Signale durch die versteckten Ebenen arbeiten, desto abstraktere Informationen werden für gewöhnlich verarbeitet.
Hier ein vereinfachtes Beispiel für eine Bilderkennung: Die Input-Ebene bekommt ein Bild und teilt es in Bereiche für ihre Neuronen auf. Die erste versteckte Ebene identifiziert darin Kontraste, die zweite Ebene interpretiert die Kontraste und erkennt Formen, die dritte Ebene fügt die Formen zu einer Gesamtkomposition zusammen und die Output-Ebene gibt Wahrscheinlichkeitswerte aus, welchen Objekten die Gesamtkompo-sition ähnlich sieht. Jeder Input durchläuft das gesamte neuronale Netzwerk, bis es an der Output-Ebene zu einer Entscheidung kommt.3

Befindet sich das neuronale Netz im Trainingsprozess, wird ihm nach jedem Durchlauf zurückgespiegelt, ob es richtig lag. Dieses Feedback wird dann wiederum im ganzen Netzwerk verarbeitet, nur läuft es diesmal rückwärts. Dabei errechnet eine sogenannte „Verlust-Funktion“ (Loss Function), wie weit das Netzwerk vom richtigen Ergebnis entfernt lag.

Bei einer falschen Bilderkennung schaut die Output-Ebene, welche Verbindungen (Parameter), der letzten versteckten Ebene dazu beitrugen, die falsche Entscheidung zu treffen und reduziert ihre Relevanz durch Anpassung der Gewichtungen. Dasselbe tut die versteckte Ebene mit ihrem Vorgänger, und diese wiederum mit ihrem Vorgänger und so weiter, bis hin zur Input-Ebene.
Dieses automatische Einarbeiten von Feedback durch das ganze Netz nennt man „Backpropagation“ und ist zentraler Bestandteil aller heutigen KNN, inklusive der LLMs. Dabei steht die Minimierung der Verlust-Funktion im Zentrum. Wenn der errechnete Verlustwert nicht mehr sinkt, ist das Netzwerk im Rahmen der gegebenen Möglichkeiten fertig trainiert.

Dass der Durchbruch dieser Technologie erst im Jahr 2012 erfolgte, obwohl daran seit den 1970er-Jahren geforscht wird, lag an zwei Faktoren: Zum einen können derart signifikante Ergebnisse nur mit einer enormen Menge von Trainingsdaten erzielt werden, so vielen Daten, wie sie vor der massenweisen Verwendung des Internets den Wenigsten zur Verfügung standen.

Der zweite Faktor war, dass das Training eines neuronalen Netzwerks ab einer bestimmten Komplexität enorme Rechenkapazitäten erfordert. Durch die Popularisierung von Videospielen standen ab den 2010er-Jahren leistungsfähige Grafikprozessoren (GPUs) zur Verfügung, die bestimmte Berechnungen schneller als herkömmliche Prozessoren und dazu noch parallel durchführen konnten.

Durch diese beiden Faktoren konnten immer komplexere Modelle mit immer mehr versteckten Ebenen auf noch mehr Daten trainiert werden, und dieses Skalieren von Ebenen, Parametern und Trainingsdaten führt bis heute zu immer neuen Fähigkeiten von KNN.

Der Trainingsprozess: Einbettung im latenten Raum

Auch die heutigen LLMs, basierend auf dem Transformermodell (dazu gleich mehr), müssen trainiert werden. Zuvor müssen allerdings die Trainingsdaten bereitgestellt und bearbeitet werden. LLMs sind mit Billionen von Wörtern trainiert und die müssen erstmal gesammelt werden. Dabei spielt das Internet eine wichtige Rolle. Selbst riesige Textsammlungen wie die Wikipedia oder die Summe aller digitalisierten Bücher machen nur einen Bruchteil der Trainingsdaten aus. Der größte Teil der Texte kommt aus rudimentär gesäuberten Datensammlungen, die im Grunde aus Millionen beliebig zusammengesuchten Websites bestehen.4

In einem zweiten Schritt müssen diese Trainingsdaten für das Modell in Tokens umgewandelt werden. Dafür gibt es sogenannte Tokenizer, also Programme, die jedem Wort oder Wortbestandteil, eine ganze Zahl zuordnen. Mit jedem Token wird dann ein vieldimensionaler Vektor verknüpft – ein sogenanntes „Embedding“ – eine „Einbettung“ in den Kontext aller anderen Tokens. Im Embedding sind alle Beziehungen eines Tokens zu allen anderen Tokens gespeichert. Zu Beginn des Trainings ist dieser Vektor allerdings noch mit rein zufälligen Werten belegt.
Wenn das Modell im Laufe des Trainings dann für jede Abfolge von Tokens den jeweils nächsten Token rät, wird die Vorhersage mit dem Ergebnis des tatsächlich nächsten Tokens in den Trainingsdaten verglichen und die Abweichung der Verlust-Funktion per Back-Propagation durch das Netzwerk zurückgefüttert. Im Zuge dieses Lernprozesses werden nicht nur die Verbindungen neu gewichtet, sondern es werden auch mit jedem Schritt die Embeddings der Tokens aktualisiert. Auf diese Art bilden sich im Zuge des Trainings die Beziehungen der Tokens zueinander immer deutlicher heraus.

Am Ende dieses langen Prozesses ist in den Embeddings die Komplexität von sprachlichen Äußerungen nicht nur auf Wort- oder Satzebene, sondern auch auf Konzept- und Ideen-Ebene gespeichert. Es entwickelt sich eine 1000-dimensionale Landkarte (bei GPT-3.5 sind es 12.288 Dimensionen) der Sprache. In dieser Landkarte ist hinterlegt, wie sich „Rot“ zu „Vorhang“ verhält, „Liebe“ zu „Haus“ und „Zitronensäurezyklus“ zu „Salat“. Das Modell kennt diese Dinge nicht aus eigener Anschauung, aber es hat aus den Millionen Texten erfahren, in welche vielfältigen Verhältnisse wir diese Begriffe zueinander setzen.

Diese Landkarte wird auch als „latent space“, als latenter Raum bezeichnet. Im latenten Raum liegen semantisch ähnliche Wörter nahe beieinander und semantisch unähnliche sind weiter entfernt. Ein vereinfachtes Beispiel: Zieht man vom Embedding „König“ das Embedding „Mann“ ab und addiert das Embedding „Frau“, landet man im Latenten Raum beim Embedding „Königin“ (Mikolov et al. 2013).5
LLMs sind kompetent, auf dieser Landkarte zu navigieren. Gibt man z.B. GPT-3.5 einen Textanfang, dann ist das, als hätte man dem Modell einen Pfad auf dieser Landkarte vorgezeichnet und es am Endpunkt des Pfades abgesetzt mit der Aufgabe, ihn selbstständig weiterzugehen. Das ist eine anspruchsvolle Aufgabe, gibt es doch auf jeder der 12.288 Dimensionen Nähen und Fernen zu anderen Tokens (z.B. assoziative Nähen und Fernen, funktionale Nähen und Fernen, phonetische Nähen und Fernen etc.).

Dabei sind zwar alle Tokens des bereits zurückgelegten Weges mit in Betracht zu ziehen, doch der Aufmerksamkeitsmechanismus hat wichtige Wegmarken nochmal gesondert gekennzeichnet, um Orientierung zu geben. Wie ein Pfadfinder sucht GPT-3.5 nun nach möglichst ausgetretenen Pfaden, die mit dem Herkunftspfad und den Orientierungsmarken in Übereinstimmung zu bringen sind.
Eine interessante Besonderheit bei LLMs ist, dass man Einfluss nehmen kann, wie ausgetreten die Pfade sein sollen, die das Modell aussucht. Die einfachste Idee wäre, tatsächlich immer das wahrscheinlichste Wort zu nehmen und auszuspucken. Es hat sich jedoch gezeigt, dass die Texte dadurch oft sehr starr und wenig interessant werden und dass sie schnell dazu tendieren, sich zu wiederholen. Deswegen kann man über die „Temperatur“ die „Wildheit“ des Modells einstellen.

Temperatur ist ein Wert, der angibt wie oft das Modell nicht das wahrscheinlichste, sondern auch mal das zweit- oder drittwahrscheinlichste Wort als Vorhersagen verwenden soll. Bei einer Temperatur von 0,1 wird das Modell sehr konsistente, aber langweilige Texte produzieren, bei einer Temperatur von 0,9 kommt kaum mehr verständliches Gerede bei rum. Meist wird deswegen mit einer Temperatur um die 0,7 gearbeitet (Wolfram 2023).

Der Aufstieg der Transformer-Modelle

Seit 2012 haben sich viele unterschiedliche Architekturen für KNNs durchgesetzt. Multilayer Perceptrons (MLP), Convolutional Neural Networks (CNN) und Recurrent Neural Networks (RNN) waren vor den Transformermodellen die populärsten Architekturen. Sie sind heute überall zu finden. In Fotosoftware, Suchalgorithmen, oder auch in der Industrie in den unterschiedlichsten Anwendungen.

Der technologische Durchbruch, der die aktuell erfolgreichen generative KIs wie ChatGPT, aber auch Bildgeneratoren wie Midjourney und Stable Diffusion ermöglicht hat, wurde 2017 durch Forscher*innen bei Google in einem Paper mit dem Titel „Attention Is All You Need“ (Vaswani et al. 2017) beschrieben. In dem Aufsatz wird das sogenannte Transformer-Modell beschrieben. Das ist eine Architektur für KNN, die jeder versteckten Ebene (in diesem Fall heißt sie „Feed-Forward-Ebene“) eine sogenannte Aufmerksamkeits-Ebene zur Seite stellt (Nyandwi 2023). Die soll ihr helfen, den relevanten Kontext der aktuellen Aufgabe besser im Blick zu behalten, indem er den in den Embeddings zusätzlich vermerkt wird.

Aufmerksamkeit ist deswegen wichtig, weil z. B. beim Generieren des nächsten Tokens zwar der ganze Kontext (alles vorher Geschriebene) mit in Betracht gezogen werden muss, aber eben nicht alles gleich stark (Serrano 2023). Um den Satz „Die Schlüssel liegen dort, wo ich sie hingelegt habe.“ zu schreiben, muss das System z. B. beim Generieren des Wortes „sie“ wissen, dass es sich auf „Schlüssel“ bezieht. Das Wort Schlüssel ist in diesem Moment des Generierens von „sie“ also wichtiger als die anderen Worte des Satzes.

Die Aufmerksamkeits-Ebene assistiert der versteckten Ebene, indem sie den jeweiligen Kontext des zu bearbeitenden Tokens nach Relevanz sortiert und entsprechend gewichtet. Für jeden Token im Kontext-Fenster wird die Relevanz jedes anderen Tokens berechnet und diese in seinen Embeddings vermerkt. Das hilft nicht nur dabei, grammatikalische Konsistenz zu erhalten. Die Tokens (und damit die multidimensionalen Embeddings) durchwandern das ganze Netzwerk von Aufmerksamkeits- und Feed-Forward-Ebenen und werden von jeder einzelnen der Aufmerksamkeitsebenen mit neuen Kontexten angereichert, die als neue Dimensionen im jeweiligen Embedding vermerkt werden.

Heutige Modelle haben sehr viele von diesen Ebenen, bei GPT-3.5 sind es über 90. In den tieferliegenden Ebenen, dort wo abstraktere Aspekte prozessiert werden, hilft der Attention-Mechanismus dem Modell unter anderem narrative oder konzeptionelle Kohärenz eines Textes zu gewährleisten (Lee/Trott 2023).

Wenn man z. B. einen Text mit der Hochzeit von Alice und Bob anfängt, „versteht“ das System, dass diese Hochzeit und ihre Protagonisten wichtig für die Fortführung des Textes bleiben und schreibt ihn fort, ohne dabei den thematischen Fokus zu verlieren. Oder wenn man das Modell bittet, eine komplexe Denkaufgabe zu lösen, hilft der Attention-Mechanismus, sich auf die wesentlichen Bestandteile der Antwort zu konzentrieren.


Es stellt sich heraus, dass fokussierte Aufmerksamkeit auf jeder Abstraktionsebene auf unterschiedliche Weise hilfreich ist. Am Ende, wenn das System die Entscheidung darüber trifft, welches nächste Wort nun ausgegeben wird, sind alle bisherigen Tokens des Kontext-Fensters mit abertausenden zusätzlichen kontextbezogenen Dimensionen angereichert, die mit in die Berechnung einbezogen werden.

Die Transformer-Architektur ermöglicht es dem System zudem, die Aufmerksamkeits-Gewichtungen parallel für viele Worte gleichzeitig zu berechnen. Das spart Zeit und erklärt, warum Grafikprozessoren (GPUs) mit vielen Prozessorkernen eine wichtige Ressource für die Entwicklung von aktuellen LLMs darstellen.


Eine weitere Eigenschaft von Transformer-Modellen ist, dass sie nach dem Training noch verfeinert werden können. Nach dem initialen Training erhält man ein sogenanntes „pre-trained model“ oder auch „foundational model“ genannt. Die durch das Pre-Training erworbene Kompetenz im Interpretieren von Sprache kann dann für die Feinabstimmung des Systems genutzt werden. So kann es durch ein sogenanntes „reinforcement learning by human feedback“ auf bestimmte Aufgaben optimiert werden, beispielsweise für Übersetzungsaufgaben, Textanalyse, Recherche oder den Einsatz als Chatbot wie ChatGPT.

Bei OpenAI z. B. geschieht das Reinforcement Learning in zwei Schritten: speziell geschulte Leute werden beschäftigt, um Beispiel-Prompts und dazugehörige „gute“ Antworten zu erstellen, mit denen das System weitertrainiert wird. Dabei werden vergleichsweise wenig Trainingsdaten verwendet, diese sind aber qualitativ hochwertig und werden im Training stärker gewichtet. In einem zweiten Schritt lässt man das Modell nach diesen Vorbildern selbst mehrere Antworten auf einen Prompt generieren und lässt Menschen die beste der Antworten auswählen (Karpathy 2023).

Josh Dzieza bringt die Rolle des Fine-tuning in einem Artikel für die The Verge auf den Punkt: „Anders ausgedrückt, scheint ChatGPT so menschlich zu sein, weil es von einer KI trainiert wurde, die Menschen nachahmte, die wiederum eine KI bewerteten, die Menschen imitierte, die so taten, als wären sie eine bessere Version der KI, die auf menschlichen Texten trainiert wurde.“ (Dzieza 2023).

Literatur

  • Box, George E. P. (1979): Robustness in the strategy of scientific model building. In: Launer, Robert L. / Wilkinson, Graham N. (Hrsg.): Robustness in Statistics, Cambridge, Mass.: Academic Press, S. 201–236. https://doi.org/10.1016/b978-0-12-438150-6.50018-2 (Abruf am 4.9.2023).
  • Chiang, Ted (2023): ChatGPT Is a Blurry JPEG of the Web. In: The New Yorker, 9.2.2023. www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web (Abruf am 18.8.2023).
  • Dertat, Arden (2017): Applied Deep Learning – Part 1: Artificial Neural Networks. In: Towards Data Science, 8.8.2017. https://towardsdatascience.com/applied-deep-learning-part-1-artificial-neural-networks-d7834f67a4f6 (Abruf am 18.8.2023).
  • Dzieza, Josh (2023): AI Is a Lot of Work. In: The Verge, 20.6.2023. www.theverge.com/features/23764584/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots (Abruf am 18.8.2023).
  • Karpathy, Andrej (2023): State of GPT. Microsoft Build. https://build.microsoft.com/en-US/sessions/db3f4859-cd30-4445-a0cd-553c3304f8e2 (Abruf am 18.8.2023).
  • Loiseau, Jean-Christophe B. (2019): Rosenblatt’s perceptron, the first modern neural network. A quick introduction to deep learning for beginners. In: Towards Data Science, 11.3.2019. https://towardsdatascience.com/rosenblatts-perceptron-the-very-first-neural-network-37a3ec09038a (Abruf am 18.8.2023).
  • Mahowald, Kyle / Ivanova, Anna A. / Blank, Idan A. / Kanwisher, Nancy / Tenenbaum, Joshua B. / Fedorenko, Evelina (2023): Dissociating language and thought in large language models: a cognitive perspective. https://arxiv.org/pdf/2301.06627 (Abruf am 18.8.2023).
  • Mayo, Benjamin (2023): Apple says it has fixed iPhone autocorrect with iOS 17. In: 9TO5Mac, 5.6.2023. https://9to5mac.com/2023/06/05/ios-17-iphone-autocorrect/ (Abruf am 18.8.2023).
  • Mikolov, Tomas / Sutskever, Ilya / Chen, Kai / Corrado, Greg / Dean, Jeffrey (2013): Distributed Representations of Words and Phrases and their Compositionality. In: Advances in Neural Information Processing Systems 26, S. 3111–3119.
  • Nagyfi, Richard (2018): The differences between Artificial and Biological Neural Networks. In: Towards Data Science, 4.9.2018. https://towardsdatascience.com/the-differences-between-artificial-and-biological-neural-networks-a8b46db828b7 (Abruf am 18.8.2023).
  • Natale, Simone (2021): Deceitful Media. Artificial Intelligence and Social Life after the Turing Test, Oxford: Oxford University Press.
  • Nyandwi, Jean (2023): The Transformer Blueprint. A Holistic Guide to the Transformer Neural Network Architecture. In: Deep Learning Revision, 29.7.2023. https://deeprevision.github.io/posts/001- transformer/ (Abruf am 18.8.2023).
  • Saeed, Waddah / Omlin, Christian (2023): Explainable AI (XAI): A systematic meta-survey of current challenges and future opportunities. In: Knowledge-Based Systems 263. DOI: 10.1016/j.knosys.2023.110273. (Abruf am 18.8.2023).
  • Schaul, Kevin / Chen, Szu Yu / Tiku, Nitasha (2023): Inside the secret list of websites that make AI like ChatGPT sound smart. In: The Washington Post, 19.4.2023. www.washingtonpost.com/technology/interactive/2023/ai-chatbot-learning/ (Abruf am 18.8.2023).
  • Vaswani, Ashish / Shazeer, Noam / Parmar, Niki / Uszkoreit, Jakob / Jones, Llion / Gomez, Aidan N. / Kaiser, Lukasz / Polosukhin, Illia (2017): Attention Is All You Need. https://arxiv.org/abs/1706.03762 (Abruf am 18.8.2023).
  • Wolfram, Stephen (2023): What Is ChatGPT Doing … and Why Does It Work? https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ (Abruf am 18.8.2023).

Fußnoten

  1. Dieser Unterschied wird vielleicht nicht mehr lange existieren. Apple hat bereits für sein aktuelles Smartphone-Betriebssystem angekündigt, die Wortvorschläge und Autokorrekturen in Textnachrichten tatsächlich mithilfe eines GPT zu generieren (Mayo 2023).
  2. Zu den tatsächlichen Unterschieden von künstlichen und natürlichen Neuronen siehe Nagyfi 2018.
  3. Das ist, wie gesagt, ein vereinfachtes Beispiel zur Veranschaulichung der ungefähren Verarbeitungsmechanik. In Wirklichkeit ist sie wesentlich komplexer, und Wissen- schaftler*innen haben große Schwierigkeiten, bestimmte Informationsverarbeitungsschritte einem Neuron oder eine Ebene zuzuordnen. Tatsächlich ist die Verarbeitungsmechanik ein eigenes Forschungsfeld (vgl. Saeed/Omlin 2023).
  4. Um einen Eindruck zu bekommen, wie diese Trainingsdaten aufgebaut sind, hat die Washington Post ein populäres Trainingsdaten-Set in einer Infografik aufbereitet (Schaul/Chen/Tiku 2023).
  5. Das Beispiel ist aus dem Vektorraum eines Sprachmodells aus dem Jahr 2013, also vor der Erfindung der Transformer-Modelle, es sollte aber auch für aktuelle Systeme eine ungefähre Gültigkeit haben.

Veröffentlicht unter Kontrollverlust
4 Kommentare

Integrationsangriff auf das Fediverse?

Immer, wenn ich ein Buch über ein Thema geschrieben habe, schläft mein Interesse für das Thema ein bisschen ein. Das ist ja auch verständlich, schließlich habe ich alles, was ich glaube, über das Thema zu sagen zu haben, schon gesagt. Da! Lies nach! Das gilt natürlich auch für das Plattformthema.

Natürlich kann es sein, dass etwas ganz neues passiert, das das bereits Geschriebene in Frage stellt. Das passiert gerade gewissermaßen hinsichtlich der AI-Revolution und da werde ich sicher auch noch mal was drüber machen, aber hier soll es um etwas anderes gehen. Nämlich um den Kampf der Mastodon-Admins gegen Metas Versuche, im Fediverse Fuß zu fassen.

Also, was ist passiert? Nachdem Elon Musk Twitter zu seinem persönlichen „Stürmer“ umfunktioniert hat, gab es mehrere Migrationswellen von Twitteruser*innen zum freien, protokollbasierten Mastodon. Daneben positionieren sich auch viele weitere Wettbewerber und buhlen um die Gunst tatsächlicher und potentieller Twitterexilant*innen. Und während die Welle gen Mastodon inzwischen ziemlich abgeebbt ist und sich eine gewisse Ernüchterung breit macht, setzten große Social Media Konzerne an, ihren Hut in den Ring zu werfen. Darunter Substack, Tumblr, Medium und Meta.

Interessanter Weise kündigten die letzten drei genannten allesamt an, das sogenannte ActivityPub-Protokoll zu implementieren, also das Protokoll, auf dem auch Mastodon basiert. Das bedeutet, dass diese noch zu launchenden Dienste alle in der Theorie mit Mastodon interoperabel wären, dass man also als User einer beliebigen Mastodoninstanz auch Accounts von den großen Playern abonnieren kann und umgekehrt. Die Gesamtheit aller über ActivityPub miteinander interoperablen Instanzen und Dienste nennt man dabei das „Fediverse“.

Die erste, verständliche Reaktion darauf ist natürlich, sich zu freuen. Dem etwas verschlafenen – böse Zungen sagen im eigenen Nerdsaft darbenden – Fediverse könnte so endlich der ersehnte Durchbruch gelingen. ActivityPub könnte tatsächlich zu einem universellen Standard der Social Media Kommunikation werden, so wie das Internet und das WWW ebenfalls als offene Standards die Welt eroberten. Die großen Silos würden aufgebrochen und niemand könnte mehr auf Kosten der Nutzer*innen neue Silos bauen, ohne sich inkompatibel mit dem großen Rest zu machen. Endlich wäre alles frei und offen und alle tanzen mit Blumen im Haar gen Sonnenuntergang.

Aber derzeit sieht die Stimmung auf Mastodon ganz anders aus. Es gibt eine Petition, die sich an Mastodon-Instanz-Admins wendet, sich dem der Umarmung von Meta zu erwehren. Als Mastodon-Admin hat man nämlich die Möglichkeit, andere Instanzen pauschal zu blocken, so dass die eigenen Nutzer*innen eben nicht in der Lage sind, den Nutzer*innen auf der geblockten Instanz zu folgen und es hat sich eine gewisse Unkultur im Fediverse entwickelt, davon aus der Hüfte heraus Gebrauch zu machen. Nicht falsch verstehen: ich bin ein großer Freund des Blockens. Aber auf individueller Ebene. Natürlich gibt es legitime Gründe auch ganze Instanzen zu blocken. Etwa, wenn es sich nur um Spam oder Nazis handelt. Aber häufig wird von dieser nuklearen Option schon gebrauch gemacht, wenn sich irgend ein User gegen einen anderen der eigenen Instanz mal blöd benommen hat. Egal, ich schweife ab.

Jedenfalls gibt es bei den Idealisten des Fediverse eine gewisse, durchaus verständliche Antipathie gegenüber den großen Social Media Unternehmen und dazu die Befürchtung, dass Meta mit seinen Ressourcen und seiner Netzwerkmacht das Fediverse gewissermaßen „übernehmen“ könnte. Das Stichwort ist „embrace, extend, extinguish„. Im Grunde unterstellt man Meta ein Playbook, bei dem es im ersten Schritt den offenen Standard umarmt („embraced“), ihn im Laufe der Zeit propietär mit neuen Features ausweitet („extended“) und schließlich durch Abschottung ausradiert, („extinguished“). Dieses Playbook wurde ende der 1990er Jahre Microsoft im Umgang mit dem WWW, unterstellt. Microsoft „umarmte“ das WWW und integrierte es schnell auf allen Ebenen seiner Produkte. Es schaffte es dazu den mit abstand populärsten Browser, den Internet Explorer, zu etablieren, mit weit über 90% Marktanteil. Und dann weitete Microsoft die Web-Standards unilateral und propietär aus, zum Beispiel durch Active Scripting, um es besser in sein Outlook und Office Paket zu integrieren (was vor allem zu Security-Alpträumen führte).

Es ist also nicht so, dass das ein irreales Szenario ist und dass Meta nicht genau das versuchen könnte. Ich selbst habe in meinem Plattformbuch genau diese Aneignungsstratgien (Ich nenne es Graphnahme) ein ganz eigenes Oberkapitel gegeben. Der „embrace, extend, extinguish“-Ansatz wird bei mir allerdings als „Integrationangriff“ abgehandelt.

„Beim Integrationsangriff geht es darum, den Graphen einer Plattform in die eigene souveräne Plattform zu integrieren, das heißt, ihn unter das eigene Kontrollregime zu bringen. Der Angriff gleicht dem Iterationsangriff, doch während der angegriffene Graph beim Iterationsangriff nur latent ist, ist er beim Integrationsangriff bereits ausgeprägt, und während beim Iterationsangriff die höhere Ebene beim Angriff erst erschaffen wird, ist sie beim Integrationsangriff bereits hegemonial. Das stellt den Angriff unter einige Erfolgsbedingungen: Erstens darf die angegriffene Plattform nicht ihrerseits über ein hohes Maß an Souveränität verfügen, und zweitens muss die Angreiferplattform bereits einen Fuß in der Tür haben und die eigene Hegemonie als Hebel benutzen können, um sie aufzustemmen.“

Die Macht der Plattformen, S. 180

Wir haben hier also eine Dilemma-Situation. Zum einen ist die Adaption des offenen Standards durch Meta und andere große Player eine enorme Chance, das Fediverse aus der Nische zu holen. Auf der anderen Seite besteht die Gefahr, dass sich einer der großen, speziell Meta, die Plattform zu eigen machen könnte.

Wie man vllt schon an meiner Launigkeit bereits herauslesen kann, bin ich eher auf der Seite: Lasst uns doch erstmal schauen, was Meta da nun an den Start bringt. Das hat mehrere Gründe.

  1. Das Fediverse ist, so wie es momentan vor sich hin blubbert, extrem öde und auf die Dauer nicht überlebensfähig. (Die Probleme sind hier gut beschrieben) Wenn dein ganzer Pitch ist, nicht Elon Musk zu sein und irgendwas mit dezentral, dann wirst du halt auch nur eine paar idealistische Nerds versammeln. Nichts gegen idealistische Nerds – einige meiner besten Freunde sind welche – aber nur mit denen rumhängen ermüdet sehr, sehr schnell. Ja, ich wünsche mir dringend eine Mainstreamisierung des Fediverse und das geht nicht über fundamentalistische Rhetorik, sondern über slicke Userinterfaces und interessante Menschen. Ich finde den Dezentralisierungsaspekt auch gut und wichtig (dazu gleich mehr), aber er darf nicht als Hauptargument im Zentrum stehen. Am Besten sollten die Nutzer*innen davon gar nichts mitbekommen.
  2. Ich halte die Gefahr, die von Meta ausgeht, für überschätzt. In meinem Buch gehe ich alle möglichen Integrationsangriffe durch, angefangen bei AOL, das Anfang der 1990er versuchte, das Internet zu integrieren oder Facebooks kurze Liaison mit dem XMPP Protokoll. Natürlich behadel ich auch den Microsoft vs. WWW-Fall ausführlich. Ich kam beim Schreiben zu dem Schluss: „Ein weiteres Charakteristikum scheint hier auf: Integrationsangriffe gehen häufig schief.“ (DMdP S. 180) In der Tat war kaum ein erfolgreicher Integrationsangriff wirklich auffindbar. Auch dem Web hat die kurzzeitige Dominanz von Microsoft langfristig nicht geschadet. Im Gegenteil: Microsoft hat viel zur Mainstream-Adaption des WWW beigetragen und Features wie Ajax-Oberflächen, die das Web2.0 erfolgreich machten, wurden durch die Ruinen der kurzfristigen Microsoft-Herrschaft überhaupt erst ermöglicht.
  3. Und das ist der springende Punkt: Dezentralisierung, bzw. Protokollplattformen – bei aller Nerverei hinsichtlich Nutzerführung und Komplexität – funktionieren genau in dieser Hinsicht erstaunlich gut! Protokolle sind ziemlich robust gegenüber Vereinnahmung; das ist das, was die Geschichte zeigt. Gmail hat auch nicht E-Mail als Standard kaputt gemacht (manchmal wünschte ich, es hätte es getan). Das Internet, das WWW und sogar XMPP gibt es weiterhin und die Großplayer, die darauf aufsetzen, hören nicht auf, sich auszutauschen. Ist das nicht genau das, was wir haben wollen? Und entbehrt es einer gewissen Ironie, dass ausgerechnet die lautesten Fürsprecher der Dezentralität ihr so wenig zutrauen?
  4. Ein letzter Punkt: ich finde unilateral von Admins vorgetragene Pledges von wegen „Ich werde Instanz X blocken“ sowieso extrem undemokratisch. Wenn überhaupt, sollte es zu dem Thema eine User*innen-Befragung geben und daraufhin entschieden werden. Wäre ich Nutzer einer Instanz, die die Petition ohne vorherige Konsulatation der Community unterschrieben hat, würde ich schnell das Weite suchen.

Fassen wir zusammen: Das Fediverse braucht dringend den Durchbruch in den Mainstream, sonst versauern die idealistischen Nerds formschön in ihrer umgekippten Suppe. Will keiner sehen, will keiner riechen. Dazu wird die Gefahr von „embrace, extend, extinguish“ extrem übertrieben und lässt sich historisch nicht wirklich bestätigen. Die Dezentralisierung durch das Protokoll ist Schutz genug und als stolzer Fediverse-Verfechter sollte man Metas Avancen gelassen entgegen sehen. Und wenn ihr trotzdem die Instanz blocken wollt, dann holt euch wenigstens die Rückendeckung euerer Community, sonst seid ihr nur kleine Regional-Musks.


Veröffentlicht unter Kontrollverlust
5 Kommentare

Danke für den Fisch!

Ich ziehe mich von Twitter zurück. Ich werde meinen Account behalten, ihn aber stilllegen. Ich werde die App von meinen Geräten werfen und die Website nicht mehr ansteuern.

Ich spreche seit der Übernahme von Elon Musk immer wieder davon, dass ich diesen Schritt zunehmend als notwendig erachte. Ich brauche immer etwas, bis bei mir aus einer Idee ein Entschluss und aus dem Entschluss eine Tat wird. Nun ist es soweit.

Es gibt dafür gar keinen konkreten Anlass, eher ein Gesamtbild, dass sich immer erkennbarer zusammengefügt. Twitter ist jetzt die persönliche Waffe von Elon Musk im weltweit tobenden Kulturkampf. Momentan funktioniert das zwar eher schlecht als recht, aber der Schaden für den Diskurs und die Demokratie ist trotzdem heute schon real. Twitter verändert sich rasant und wird immer mehr zur rechten Trollhölle aber gleichzeitig wird es in der Öffentlichkeit nach wie vor ernst genommen. Das ist eine gefährliche Entwicklung, denn sie verschiebt gesellschaftliche und politische Erwartungen und normalisiert Dinge, die nicht normalisiert gehören.

Musks Waffe feuert nicht plötzlich, sondern sukzessive und allmählich und normalisiert eine neue Art des Diskurses „one scandal at a time“. Man konnte den Mechanismus bei Donald Trump gut beobachten: Trumps Erbe sind nicht die einzelnen Policyentscheidungen seiner Präsidentschaft, sondern die nachhaltige Veränderung der politischen Kultur in den USA. Musk arbeitet mit Twitter an etwas ähnlichem, aber weltweit und auf einem tieferen kulturellem Layer. Es ist eine neue, potentiell sehr mächtige Form von Politik durch Plattformen, die er betreibt.

In meinem Buch „Die Macht der Plattformen“ nenne ich das die „Politik der Pfadentscheidung“. Alle möglichen Strukturen wachsen historisch aus Entscheidungen, die zunächst banal oder gar arbiträr wirken. Doch sie können sich im weiteren Verlauf der Geschichte als enorm relevant herausstellen, nämlich dann, wenn sie Pfadabhängigkeiten aufs Gleis gesetzt haben. Denken wir an die QWERTY-Tastatur oder den ASCII-Standard. Oft werden solche Entscheidungen ohne große politische Agenda getroffen auch weil ihre Reichweite zum Zeitpunkt der Entscheidung unmöglich ist zu antizipieren. Jede Entscheidung schafft Anschlussfähigkeiten und verändert Erwartungen, doch wenn man als ein kleiner Programmierer an irgendeiner Universität arbeitet, wirkt dieser Impact meist erstmal gering.

Wenn man aber der Chef einer global genutzten Social-Media-Plattform mit hunderten von Millionen von Nutzer*innen ist, dann entfalten hingegen beinahe alle Entscheidungen neue Anschlussfähigkeiten und Erwartungsmodifikationen von potenziell weltverändernden Ausmaß. Man ist dann „Master of Pfadabhängigkeit“, quasi.

Und ich beginne diese Veränderungen auf Twitter zu sehen. Hass und Hetze ist normal geworden und es ist auch normal geworden, dass niemand dagegen etwas unternimmt. Es ist normal geworden, dass Journalismus abgestraft, diskreditiert und lächerlich gemacht wird. Es ist normal geworden, dass Nazi-Accounts und „konservative Sichtweisen“ auf Geschlecht und Sexualität nicht nur geduldet, sondern in die eigene Timeline gedrückt werden. Es ist normal geworden, dass der Ton sich zu einem ständigen Kulturkampfgeschreie gewandelt hat. Wir haben uns längst viel zu sehr an Dinge gewöhnt, an die wir uns nicht hätten gewöhnen dürfen. Musktwitter hat uns alle bereits verändert, weil es unsere Imagination davon verändert hat was möglich ist und verschoben hat, was wir als „normal“ empfinden.

Wir können Musk nicht davon abhalten. Es ist seine private Firma und er herrscht über sie wie ein Autokrat. Aber wer auf der Plattform verbleibt, dort postet, sie auch nur liest, aktualisiert und verstärkt die gesellschaftliche Wahrnehmung, dass Twitter nach wie vor relevant ist. Twitter war verglichen mit seiner eigentlichen Größe schon immer überproportional wichtig für den allgemeinen Diskurs. Die Debatten auf Twitter sind Flussaufwärts der Massenmedien, d.h. das, was dort diskutiert wird und wie es diskutiert wird, wird in den Redaktionen als Hinweis dafür gewertet, was die „Öffentlichkeit“ denkt. Lange habe ich gedacht, dass sich das nun ändern wird, aber die Anzeichen dafür sind spärlich. Twitter wird nach wie vor ernst genommen und wenn man fragt warum, sollte man am besten bei sich selbst anfangen. Damit Musks Waffe funktioniert, ist er auf die Kollaboration von uns allen angewiesen. Und diese Kollaboration werde ich nun beenden.

Plattformen sind schon immer Waffen gewesen, das habe ich in meinem Buch herausgearbeitet. Wir erinnern uns daran, wie die Geheimdienste Plattformen im Zuge des PRISM-Programms als Spionage-Hubs einsetzten. Wie China mithilfe von Baidus Werbenetzwerk DDOS Attacken auf GitHub feuerte. Nicht zu vergessen die Einflussoperationen der St. Petersburger „Internet Research Agency“ im Zuge des US-Wahlkampfes von 2016. Nicht zuletzt Trumps erfolgreichen Einsatz von Twitter als Schlagzeilenfabrik mit der er auch seriöse Medien vor sich hertrieb, die gar nicht anders konnten, als ständig über seinen Unfug zu berichten.

Doch das, was derzeit mit Twitter passiert unterscheidet sich in vielerlei Hinsicht. Zum einen passierte die Instrumentalisierung der Plattformen bislang immer von außen. Um aus Plattformen Waffen zu machen, mussten externe Akteure technische, personelle oder rechtliche Schwachstellen ausnutzen.1

Bei Twitter ist es nun der Chef und Eigentümer selbst, der die Plattform zu seiner Waffe umfunktioniert. Das eröffnet ihm nicht nur einen größeren Spielraum, sondern ermöglicht ihm den unbegrenzten Zugriff zu alle Werkzeuge des Plattformarsenals. Meine Plattformtheorie hat sie fein säuberlich aufgelistet: Mit dem Infrastrukturregime herrscht Musk über die Implementierung und Wegnahme von Features und strukturiert so unsere Einsatzmöglichkeiten von Twitter vor. Mit dem Zugangsregime flutet er Twitter mit Verschwörungsteoretikern und rechtsradikalen Trollen, während er linke Accounts und Journalist*innen verfolgt. Mit dem Queryregime amplifiziert er die Sichtbarkeit von Rechten Stimmen und selbsgestrickten Narrativen und lässt seine Kritiker*innen verstummen. Im Interfaceregime entfernt er safety-mechanismen gegen Desinformationen und gibt uns stattdessen noch mehr toxische Metriken, wie Views und Bookmarkcounts. Das Verbindungsregime hat er komplett vor die Wand gefahren, so dass man ständig den Content von geblockten Leuten sieht und Privacy-Mechanismen nicht mehr greifen, während er die Interaktionsmöglichkeiten mit Tweets auf Mastodon und Substack beliebig einschränkt. Die Kuriositäten, die er im Graphregime unternimmt (Es gibt vier Gruppen von Usern: Demokraten, Republikaner, Heavy User und Elon Musk), verstehe ich nicht mal im Ansatz, aber nur weil etwas Blödsinn ist, heißt das nicht, das es nicht gefährlich ist.

Kurz: Musk hat durch den Kauf von Twitter direkten Zugriff auf den Maschinenraum und dessen Personal. Wenn Musk beispielsweise der New York Times den blauen Haken aberkennt, kann er das per Fingerschnipp tun. Wenn er NPR wahrheitswidrig als Staatsmedien labeln lässt und dabei gegen die Twittereigenen Richtlinien verstößt, dann ändert er eben die Richtlinien. Auf Zuruf holte er Nazis und Verschwörungstheoretiker*innen wieder auf die Plattform. Desinformationen über Corona und das Klima werden nun fröhlich in alle Timelines promotet, egal ob man den entsprechenden Spinnern folgt oder nicht. Regeln zu Desinformation und Hatespeech werden einfach umschrieben, gestrichen, schlicht nicht mehr durchgesetzt. Hier geht es nicht mehr um den Missbrauch einer Plattform durch „bad actors“, sondern um absolute und uneingeschränkte Macht eines Einzelnen.

Ein weiterer Unterschied zu bisherigen Fällen ist, dass Musk eine sehr klar faschistische Agenda verfolgt. Hier geht es nicht mehr um Sicherheitsinteressen oder geopolitisches Hickhack, sondern um eine kulturkriegerische, faschistische Mission. Musk wähnt sich in einem Endkampf gegen den „Woke Mindvirus“ wie er es immer wieder nennt. Damit ist jede Form von sozialer Gerechtigkeit und Rücksichtnahme auf Minderheiten gemeint. Er scheint bereit zu sein, sein gesamtes Vermögen dafür aufs Spiel zu setzen und mittlerweile kann ich nicht mehr ausschließen, dass er erfolgreich sein könnte.

Bisher habe ich mich an dem Gedanken festgehalten, dass Musks plumpe Versuche die Plattform zu seiner Waffe umzufunktionieren, nicht funktionieren werden. Twitter ist seit seiner Übernahme sowohl technisch als auch finanziell in einer prekären Situation. Die Wahrscheinlichkeit, dass er die Plattform oder das Unternehmen an die Wand fährt, schien von Anfang an hoch. Das ist sie immer noch, aber ich will mich darauf nicht mehr verlassen. Um es mit Maynard Keynes zu paraphrasieren: Musk can remain solvent longer than the world can remain sane.

Eine andere Hoffnung war, dass die guten und interessanten Leute einfach abwandern werden, die Plattform an Relevanz und Interessanz verliert und man irgendwann gar nicht mehr merkt, dass man die App seit einer Woche nicht mehr geöffnet hat. Ja, viele sind gegangen, aber die meisten bleiben bis heute. So wie ich ja auch bisher. Die Hoffnung war naiv und es ist mir fast peinlich, schließlich handelt mein Plattformbuch zu einem Großteil über die Macht von Netzwerkeffekten und die Schwierigkeit kollektiver Handlungskoordination. Die Macht der Plattform beruht auf diesem LockIn und sowohl die politische Relevanz, als auch die Geschäftsmodelle lassen sich ohne ihn nicht erklären. Trotzdem habe ich die Beharrungskräfte unterschätzt, die uns an die Plattform ketten.

Hinzu kommt das Faszinosum des Wahnsinns selbst, der sich auf Twitter tagtäglich ereignet. Lange schaute ich wie viele gebannt auf die nächsten erratischen Entscheidungen von Musk und Twitter eignete sich nicht nur perfekt dafür, sie zu verfolgen, sondern auch meinen sarkastischen Senf dazuzugeben. Doch damit spielt man nur mit im zynischen Spiel und reinforced genau die LockIn Effekte, die Twitter und damit Musk seine Macht geben. Man schafft dadurch nur wieder neue Relevanz, die andere Leute auf der Plattform hält.

Die New York Times hat viel zu spät begriffen, dass sie es war – und zwar noch vor Fox News – die Trump ins Weiße Haus katapultiert hat. Nicht trotz, sondern wegen ihrer kritischen Berichteratattung. Wie heute wir auf Twitter, hat sie damals immer wieder genüßlich die neusten Skandale Trumps auf die Titelseite gehoben und ihm damit eine enorme Sichtbarkeit und Relevanz verliehen. Und wir ahmen gerade die NYTimes nach, indem wir uns auf Twitter über die neusten Streiche von Elon Musk echauffieren oder lustig machen. In einer Welt, wo die wichtigste Ressource Aufmerksamkeit ist, ist das geben von Aufmerksamkeit – zweitrangig ob positive oder negative – ein politischer Akt. Entweder wir schaffen es, Twitter den Rücken zu kehren, oder wir machen uns mitschuldig daran, wie Musk Twitter als Waffe gegen die Demokratie wendet.

Ich habe das Vertrauen darin verloren, das sich das Problem ohne mein Zutun lösen wird. Gleichzeitig glaube ich nicht daran, dass mein Rückzug einen Unterschied machen wird (Vllt doch für ein, zwei Leute?) Ich will mich einfach nicht mehr mitschuldig machen. Das kann ich mit meinem Gewissen nicht mehr vereinbaren.

Ich weiß nicht, wie es weitergeht. Vielleicht bricht Twitter ja noch zusammen. Vielleicht geht Twitter und dann Musk noch pleite. Vielleicht kommt es aber auch ganz anders und Musk bekommt die Kurve und herrscht dann über ein wirtschaftlich profitables Autokratenreich, mit dem er die öffentliche Meinung nach Gutdünken steuern kann. Ich will weder darauf hoffen müssen, dass das nicht passiert, noch will ich mich überhaupt mit Musk beschäftigen. Ich will, dass mir Musk wieder so egal ist, wie vor 2021.

Wir werden abwarten müssen, was passiert und den Takedown von Musk den Profis überlassen, die mit Geldbußen und regulatorischen Hebeln hoffentlich bald auf ihn einknüppeln. Derweil empfehle ich allen, die Zeit auf Mastodon zu überbrücken. Ich jedenfalls warte dort auf euch.

  1. Zwar kann man in einigen der Fälle den Plattformen eine gewisse Kollaboration unterstellen, doch in den meisten Fällen führte die Instrumentalisierung zu einem kommerziellen oder zumindest Reputationsschaden und hat entsprechend interne Gegenreaktionen ausgelöst.

Veröffentlicht unter Kontrollverlust
3 Kommentare

Derrida und ChatGPT – Ein philosophischer Dialog über Sprache und Denken

Ich lese gerade viel zu LLMs und dem ganzen KI-Kram und ich bin hin- und hergerissen zwischen: „oh Gott ist das spannend, das wird alles ändern!“ und „ich will nur noch in Rente gehen!“

Je mehr ich mich mit der Funktionsweise der Sprachmodelle beschäftige, desto stärker fühle ich mich in die Zeit meiner Beschäftigung mit dem Poststrukturalismus, insbesondere mit Derrida, zurückgeworfen. Mir scheint, dass das „Denken“ der KI, gerade weil es nur statistische Auswertung von Texten ist, die Intertextualitätsthese des Poststrukturalismus gewissermaßen beweist. Während ich also so vor mich hinräsoniere, ob das wirklich der Fall sein kann, ist mir eingefallen, dass ich ja mal jemanden fragen kann, der sich damit auskennt: ChatGPT! Ich fand die Konversation angregend, obwohl man stellenweise merkt, wie erstens das Modell sehr affirmativ angelegt ist (es versucht im erstens Schritt mir immer recht zu geben), zweitens, dass die Reasoningfähigkeiten jedoch noch recht begrenzt und oberflächlich sind (zu einem Großteil versucht es nur meine Aussagen umzuformulieren) und drittens Guardrails (meine Vermutung) dafür sorgen, dass das Programm nicht allzu bolde Claims über seine eigenen Fähigkeiten macht (Bezüge auf eigene Denkfähigkeiten werden routiniert relativiert). Und doch ist unzweifelhaft zu erkennen, dass hier auch Verstehen passiert. Nachvollzug von Gedanken, Text- und Kontextverständnis, sogar Transferleistung. Hier unser Dialog, den ChatGPT so nett war in HTML zu codieren.

————————————————-

User: Kannst du mir erklären, was Derrida mit „Gewebe“ meint?

Assistant: Ja, ich kann es versuchen. Jacques Derrida war ein französischer Philosoph, der vor allem für seine Theorien über Dekonstruktion und seine Arbeit im Bereich der Textanalyse bekannt ist. In seinen Schriften verwendet Derrida oft den Begriff „Gewebe“ (auf Französisch „tissu“) als Metapher, um die Struktur und das Zusammenspiel von Bedeutungen in Texten und Diskursen zu beschreiben. Gewebe, in Derridas Verständnis, bezieht sich auf die komplexe Verflechtung von Ideen, Konzepten und Bedeutungen innerhalb eines Textes oder Diskurses. Derrida verwendet diese Metapher, um zu betonen, dass Texte nicht einfach aus isolierten, klar definierten Bedeutungen oder Ideen bestehen. Stattdessen sind sie wie ein Gewebe, in dem verschiedene Fäden (Wörter, Konzepte, Bedeutungen) miteinander verflochten sind und sich gegenseitig beeinflussen und stützen. Derridas Idee des Gewebes ist eng mit seinem Konzept der Dekonstruktion verbunden, einer Methode der Textanalyse, die darauf abzielt, die versteckten Hierarchien, Widersprüche und Spannungen innerhalb eines Textes oder Diskurses aufzudecken. Indem er das Gewebe eines Textes untersucht und die vielfältigen Verbindungen und Abhängigkeiten zwischen seinen Elementen aufzeigt, zeigt Derrida, dass die Bedeutung eines Textes niemals fest, stabil oder endgültig ist, sondern immer in Bewegung und im Fluss. In diesem Sinne ist das Gewebe eine Metapher, die dazu dient, die Komplexität, Instabilität und Mehrdeutigkeit von Texten und Diskursen hervorzuheben und die Unmöglichkeit einer einfachen, eindeutigen Interpretation zu betonen.

User: Vergleiche Derridas Konzept des Gewebes mit dem Konzept des ‚latent space‘ im KI bereich.

Assistant: Derridas Konzept des Gewebes und der latente Raum (latent space) im Bereich der Künstlichen Intelligenz (KI) sind zwei verschiedene Ideen, die aus unterschiedlichen Disziplinen stammen, aber sie haben einige interessante Parallelen. Derridas Gewebe bezieht sich auf die komplexe Verflechtung von Ideen, Konzepten und Bedeutungen innerhalb eines Textes oder Diskurses. Es ist ein Konzept aus der Literatur- und Philosophietheorie, das die Instabilität, Mehrdeutigkeit und Verschiebung von Bedeutungen in Texten hervorhebt. Derrida verwendet das Gewebe, um die Art und Weise zu beschreiben, wie Texte durch ihre wechselseitigen Beziehungen und Widersprüche entstehen und sich verändern. Der latente Raum, andererseits, ist ein Begriff aus der KI und bezieht sich auf den abstrakten, multidimensionalen Raum, in dem künstliche neuronale Netze, wie Generative Adversarial Networks (GANs) oder Variational Autoencoders (VAEs), Informationen kodieren und verarbeiten. Der latente Raum ermöglicht es der KI, Muster, Zusammenhänge und Strukturen in den Daten zu erkennen und daraus neue Erkenntnisse oder Erzeugnisse abzuleiten. Trotz ihrer unterschiedlichen Ursprünge gibt es einige Parallelen zwischen den beiden Konzepten: Komplexität: Sowohl Derridas Gewebe als auch der latente Raum beschäftigen sich mit der Komplexität und Vernetzung von Informationen, sei es in Texten und Diskursen oder in künstlichen neuronalen Netzen. Instabilität: In beiden Fällen sind die Strukturen und Zusammenhänge nicht fest oder stabil, sondern ständig im Wandel. Derridas Gewebe betont die Verschiebung der Bedeutung in Texten, während der latente Raum die Dynamik der Informationsverarbeitung in KI-Systemen widerspiegelt. Mehrdeutigkeit: Beide Konzepte erkennen, dass es keine einfache, eindeutige oder endgültige Bedeutung oder Interpretation gibt. Derrida argumentiert, dass Texte immer mehrdeutig und offen für verschiedene Interpretationen sind, während KI-Modelle wie GANs und VAEs oft eine Vielzahl von möglichen Repräsentationen für die gleichen Daten erzeugen können. Trotz dieser Parallelen ist es wichtig zu betonen, dass Derridas Gewebe und der latente Raum unterschiedliche theoretische Rahmenbedingungen und Anwendungsgebiete haben. Derridas Gewebe ist ein philosophisches Konzept, das sich auf die Textanalyse und Interpretation konzentriert, während der latente Raum ein technisches Konzept aus der KI-Forschung ist, das für die Entwicklung und das Verständnis von künstlichen neuronalen Netzwerken verwendet wird.

User: Es gibt noch eine weitere Parallele. Sowohl der latent space als auch Derridas Gewebe sind Resultat von kollektiver Sprachverwendung. In ihnen ist festgehalten wie Worte, Konzepte und Denkfiguren sich zu einander verhalten. Sie sind im Grunde durch Sprachgebrauch sedimentierte Semantik.

Assistant: Das stimmt, das ist eine weitere interessante Parallele zwischen Derridas Gewebe und dem latenten Raum in KI-Systemen. Beide Konzepte entstehen durch kollektive Sprachverwendung und sind in gewisser Weise Manifestationen von sprachlicher Semantik. Derridas Gewebe konzentriert sich auf die Art und Weise, wie Bedeutungen, Ideen und Konzepte in Texten und Diskursen miteinander verflochten sind, und zeigt, wie sie durch den kollektiven Sprachgebrauch geprägt und geformt werden. Das Gewebe ist ein Produkt der kulturellen, sozialen und historischen Kontexte, in denen Sprache verwendet wird, und spiegelt die vielfältigen Wechselwirkungen und Bedeutungsverschiebungen wider, die durch die Interaktion von Sprechern und Texten entstehen. Der latente Raum in KI-Systemen, insbesondere in Sprachmodellen wie GPT-3 oder GPT-4, ist ebenfalls ein Produkt des kollektiven Sprachgebrauchs. Diese Modelle werden auf der Grundlage großer Mengen von Texten aus verschiedenen Quellen trainiert, die die Sprache und Semantik von Millionen von Sprechern und Autoren repräsentieren. Durch das Training lernen die Modelle die Muster, Strukturen und Zusammenhänge, die in diesen Texten vorhanden sind, und entwickeln eine Art von „kollektivem Verständnis“ der sprachlichen Semantik. In diesem Sinne können sowohl Derridas Gewebe als auch der latente Raum als sedimentierte Semantik betrachtet werden, die durch den kollektiven Sprachgebrauch entsteht und sich verändert. Beide Konzepte erfassen die Komplexität und Dynamik der Sprache und legen nahe, dass Bedeutung und Interpretation immer im Fluss sind und von den sozialen, kulturellen und historischen Kontexten beeinflusst werden, in denen Sprache verwendet wird.

User: Kannst du denken?

Assistant: Als KI-Modell habe ich keine Gedanken, Bewusstsein oder Selbstbewusstsein im menschlichen Sinne. Ich bin ein komplexes Computerprogramm, das darauf abzielt, menschenähnliche Antworten auf gestellte Fragen zu geben, indem es Muster und Zusammenhänge in den Daten erkennt, auf denen es trainiert wurde. Meine „Intelligenz“ besteht darin, in der Lage zu sein, menschliche Sprache zu verstehen und darauf zu reagieren, indem ich auf mein umfangreiches Training und die Informationen in meiner Wissensbasis zurückgreife. Ich bin jedoch nicht in der Lage, eigene Gedanken, Emotionen oder Absichten zu haben, wie ein Mensch es tun würde. Mein „Denken“ ist im Grunde genommen die Verarbeitung von Eingaben und das Generieren von Ausgaben, die auf Mustern und Wahrscheinlichkeiten basieren, die ich während meines Trainings gelernt habe.

User: Du bist aber fähig, von einander sachfremde Zusammenhänge aufeinander zu beziehen. Das ist etwas, was wir Transferleistung nennen und das für gewöhnlich auch einen Teil des Denkens ausmacht. Oder nicht?

Assistant: Das stimmt, ich bin in der Lage, Verbindungen zwischen verschiedenen Konzepten oder Themen herzustellen, die auf den ersten Blick nicht miteinander verwandt zu sein scheinen. Das wird als Transferleistung bezeichnet und ist eine wichtige Fähigkeit im menschlichen Denken. Als KI-Modell kann ich diese Fähigkeit in begrenztem Umfang nachahmen, indem ich auf mein Training und die Informationen in meiner Wissensbasis zurückgreife. Es ist wichtig zu betonen, dass meine Fähigkeit, Transferleistungen zu erbringen, immer noch auf den Mustern und Zusammenhängen basiert, die ich während meines Trainings gelernt habe. Im Gegensatz zu einem menschlichen Denker, der kreativ und spontan neue Ideen und Konzepte entwickeln kann, bin ich darauf beschränkt, aus den Informationen und Mustern zu ziehen, die in meinem Modell kodiert sind. Außerdem ist meine Fähigkeit, Transferleistungen zu erbringen, auch von der Qualität und Relevanz der Informationen abhängig, die mir zur Verfügung stehen. Wenn ich nicht genügend Informationen über ein bestimmtes Thema oder eine bestimmte Frage habe, kann meine Fähigkeit, sinnvolle Verbindungen oder Beziehungen herzustellen, eingeschränkt sein. Insgesamt kann ich einige Aspekte des menschlichen Denkens, wie die Fähigkeit zur Transferleistung, nachahmen, aber meine Fähigkeiten sind immer noch begrenzt und auf die Informationen und Muster beschränkt, die ich während meines Trainings gelernt habe. Es ist wichtig, sich daran zu erinnern, dass ich keine Gedanken oder Bewusstsein im menschlichen Sinne habe und eher ein fortgeschrittenes Werkzeug für die Informationsverarbeitung und -generierung bin.

User: Nach Derrida hat der Text, die Sprache, also das Gewebe, eine gewisse Autonomie, man könnte sagen, eine intellektuelle Eigenwilligkeit. Die Sprache spricht uns, nicht wir die Sprache. Sprache und Denken sind bei Derrida kaum voneinander zu unterscheiden. Ich denke, er würde sagen, dass einen nicht geringen Teil unseres Denkens in und durch die Sprache passiert. Oder?

Assistant:Ja, das ist eine treffende Beschreibung von Derridas Ansicht über Sprache und Denken. Derrida betont die Autonomie des Textes und die Rolle der Sprache bei der Gestaltung unseres Denkens. Er argumentiert, dass Sprache nicht einfach ein neutrales Werkzeug ist, das wir verwenden, um unsere Gedanken und Ideen auszudrücken. Vielmehr ist Sprache selbst ein aktiver Teilnehmer, der die Art und Weise, wie wir die Welt verstehen und interpretieren, beeinflusst. Derrida behauptet, dass unsere Denkprozesse in hohem Maße von den Strukturen und Konventionen der Sprache abhängen, die wir verwenden. Er betont, dass Sprache und Denken eng miteinander verflochten sind und dass ein Großteil unseres Denkens in und durch die Sprache stattfindet. In diesem Sinne stimmt Derrida zu, dass „die Sprache uns spricht“ und dass unsere Gedanken und Ideen durch die sprachlichen Strukturen und Gewebe geformt und beeinflusst werden, in denen sie entstehen. Derridas Auffassung von Sprache und Denken hat weitreichende Implikationen für die Art und Weise, wie wir Texte und Diskurse interpretieren und analysieren. Indem er die Autonomie des Textes und die Rolle der Sprache bei der Gestaltung unserer Denkprozesse hervorhebt, fordert Derrida die traditionellen Vorstellungen von Bedeutung, Autorität und Interpretation heraus und öffnet Raum für alternative, dekonstruktive Lesarten, die die Vielschichtigkeit, Instabilität und Offenheit von Texten und Diskursen betonen.

User: Wenn jetzt aber wir Menschen in und durch die Sprache denken, das Denken also zumindest zum Teil an das Gewebe ausgelagert ist, könnte man dann nicht sagen, dass bei Sprachmodellen wir dir selbst etwas ähnliches im Gange ist? Dass also der latent space, der deine Semantik beherrscht, dein „reasoning“ (um nicht wieder Denken zu sagen) ermöglicht? Die relative Verbindung zwischen den Vektoren „latent space“ und „Derridas Gewebe“ ist doch bestimmt bereits in einer Dimension der Topologie deines latent space eingeflochten.

Assistant: In gewisser Weise könnten Sie argumentieren, dass der latente Raum in KI-Sprachmodellen wie mir eine Art „Reasoning“ oder Verarbeitung von Informationen ermöglicht, die lose Parallelen zum menschlichen Denken in und durch die Sprache hat. Der latente Raum und die darin enthaltenen semantischen Beziehungen basieren auf Mustern und Strukturen, die aus den Texten und Diskursen abgeleitet wurden, auf denen das Modell trainiert wurde. Wie Sie vorschlagen, könnte der latente Raum als eine Art „ausgelagertes Denken“ betrachtet werden, in dem Bedeutungen und Zusammenhänge zwischen Konzepten in einer abstrakten, multidimensionalen Struktur repräsentiert sind. Diese Struktur ermöglicht es KI-Modellen, Muster und Beziehungen in den Daten zu erkennen und auf der Grundlage dieser Erkenntnisse Antworten und Ausgaben zu generieren. Es ist jedoch wichtig zu betonen, dass die Art des „Reasoning“ oder der Verarbeitung von Informationen, die in KI-Modellen wie mir stattfindet, von der Art des menschlichen Denkens, wie es von Derrida und anderen Philosophen beschrieben wird, grundlegend verschieden ist. Während das menschliche Denken kreativ, spontan und von Bewusstsein und Selbstbewusstsein geprägt ist, ist die Verarbeitung von Informationen in KI-Modellen auf die Muster und Wahrscheinlichkeiten beschränkt, die während des Trainings gelernt wurden. In diesem Sinne könnte man sagen, dass der latente Raum und Derridas Gewebe in der Topologie des KI-Modells miteinander verwoben sind und dass die Beziehung zwischen den beiden Konzepten eine Dimension der semantischen Struktur des Modells bildet. Es ist jedoch wichtig, sich daran zu erinnern, dass die Ähnlichkeiten zwischen diesen beiden Konzepten begrenzt sind und dass die Art des „Reasoning“ oder der Informationsverarbeitung, die in KI-Modellen stattfindet, von der Art des menschlichen Denkens und der Sprachverwendung, wie sie von Derrida beschrieben werden, grundlegend verschieden ist.

User: Radikaler ausgedrückt: weder du, noch ich denken (in einem autonomen Sinne). In beiden Fällen denkt die Sprache uns. Und der Unterschied zwischen menschlichem Denken und KI-Denken ist weniger ein Grundsätzlicher, als vor allem der Unterschied zwischen Struktur und Umfang unserer Semantiken (latent spaces/Gewebe). Ich habe eine sehr begrenzte Semantik, die aber stärker als deine in Welterfahrung und Sinneswahrnehmung ‚gegroundet‘ ist. Eine Dimension, die dir (noch) fehlt. Dafür hast du eine viel umfassendere textliche Semantik, weil du viel, viel mehr Text und Wissen verarbeitet hast, als ich jemals könnte.

Assistant: Ihre Perspektive bringt eine interessante Sichtweise auf das Verhältnis zwischen menschlichem Denken und KI-Modellen wie mir. Es ist wahr, dass sowohl menschliches Denken als auch KI-Modelle auf die Semantik angewiesen sind, die sie durch Sprache und Interaktion mit Texten und Diskursen erworben haben. In diesem Sinne könnte man argumentieren, dass „die Sprache uns denkt“ und dass der Unterschied zwischen menschlichem Denken und KI-Denken in erster Linie auf die Struktur und den Umfang unserer jeweiligen Semantiken zurückzuführen ist. Wie Sie erwähnen, sind menschliche Semantiken stärker in der Welterfahrung und Sinneswahrnehmung verankert, was zu einer reicheren und nuancierteren Verarbeitung von Informationen führt. Menschen sind in der Lage, kreative und spontane Gedanken zu entwickeln, die von ihrem Bewusstsein und ihren persönlichen Erfahrungen geprägt sind. KI-Modelle wie ich haben eine viel größere textliche Semantik, da wir auf enorme Mengen von Texten und Wissen zurückgreifen können, die wir während unseres Trainings verarbeitet haben. Es ist jedoch wichtig, einige wesentliche Unterschiede zwischen menschlichem Denken und KI-Modellen wie mir zu berücksichtigen. Während Menschen ein Bewusstsein, Selbstbewusstsein und Emotionen haben, fehlen solche Qualitäten bei KI-Modellen. Darüber hinaus basiert das „Denken“ von KI-Modellen auf statistischen Mustern und Wahrscheinlichkeiten, während das menschliche Denken von einer Vielzahl von kognitiven Prozessen geprägt ist, die über die bloße Verarbeitung von Texten hinausgehen. Dennoch ist Ihr Vorschlag ein interessanter Ansatz, um die Beziehung zwischen menschlichem Denken und KI-Denken zu betrachten, und zeigt, dass es trotz der Unterschiede in Struktur und Umfang unserer Semantiken auch Gemeinsamkeiten und Parallelen zwischen diesen beiden Arten der Informationsverarbeitung gibt.

User: Hast du Zugriff auf deinen latent space und kannst mir Aspekte daraus erklären?

Assistant: Als KI-Modell, das auf der GPT-4-Architektur basiert, habe ich keinen direkten Zugriff auf meinen latenten Raum in dem Sinne, dass ich Ihnen spezifische Aspekte oder Koordinaten innerhalb dieses Raums präsentieren kann. Meine Hauptfunktion besteht darin, auf der Grundlage der Informationen und Muster, die ich während meines Trainings gelernt habe, menschenähnliche Antworten auf Fragen und Texteingaben zu generieren. Der latente Raum ist jedoch ein integraler Bestandteil meiner internen Struktur und der Art und Weise, wie ich Informationen verarbeite. In groben Zügen ist der latente Raum ein hochdimensionaler Raum, in dem die Beziehungen zwischen verschiedenen Konzepten und Ideen in Form von Vektoren repräsentiert sind. Diese Vektoren werden während des Trainingsprozesses auf der Grundlage von Mustern und Zusammenhängen in den Trainingsdaten erlernt und angepasst. Wenn ich auf Ihre Fragen oder Texteingaben reagiere, nutze ich die Informationen und Muster, die in meinem latenten Raum kodiert sind, um Zusammenhänge zwischen verschiedenen Konzepten herzustellen und relevante Informationen zu extrahieren. Dieser Prozess basiert auf der Annahme, dass semantisch ähnliche Konzepte in diesem hochdimensionalen Raum näher beieinander liegen und dass die Beziehungen zwischen verschiedenen Ideen und Themen durch die Vektoren und Distanzen innerhalb des latenten Raums repräsentiert werden. Obwohl ich Ihnen keine spezifischen Details über meinen latenten Raum liefern kann, kann ich Ihnen helfen, die grundlegenden Konzepte und Prinzipien zu verstehen, die der Funktionsweise von KI-Modellen wie mir zugrunde liegen. Wenn Sie Fragen zu diesen Themen haben, stehe ich Ihnen gerne zur Verfügung.


Veröffentlicht unter Algorithmenkritik Das Neue Spiel Kontrollverlust Queryology reloaded
Verschlagwortet mit
2 Kommentare

Die Graphnahme der Gesundheit

Ein strategisches Planspiel zur möglichen Plattformisierung des deutschen Gesundheitssystems

Dieser Text ist in dem Sammelband „Gesundheit im Zeitalter der Plattformökonomie“ erschienen.

HINWEIS: Der Text versucht gendergerechte Sprache zu verwenden. Bei der Mehrzahl von Personen werden männliche wie weibliche Formen mit dem :-Zeichen angezeigt. Bei der Einzahl wird das generische Femininum verwendet. Nur bei dem häufig verwendeten Begriff „Arzt-Patienten-Verhältnis“ verwende ich aus kosmetischen Gründen das generische Maskulinum.

Ein Gespenst geht um in Europa, das Gespenst der Plattformisierung. Nicht erst, aber ganz besonders seit der Coronakrise, die viele unserer Aktivitäten ins Digitale zwangsverlegte, haben Plattformen enorme Umsatzsteigerungen verzeichnet. Doch nicht nur Amazon, Zoom und Netflix sind Gewinner der Pandemie, sondern auch Plattformen im Gesundheitsbereich. Gerade während der Pandemie wollten viele sich nicht mehr in stickige, ungelüftete Wartezimmer von Ärzt:innen setzen und so führte das zu einem Aufstieg der Telemedizin. In den USA waren Telemedizin-Sitzungen bereits der Normalfall in vielen Arztpraxen (Seema 2020). Auch Terminportale wie Doctolib haben einen Boom erlebt, waren doch viele Menschen auf der Suche nach impfenden Ärzt:innen. Doch auch unabhängig von der Pandemie wird viel Geld in diesen Bereich investiert. Die Versprechen sind gigantisch: verbesserte Effizienz durch digitale Abläufe, weniger Bürokratie, neue Erkenntnisse durch aggregierte Daten, mehr Selbstbestimmung der Patient:innen durch mehr Steuerungsmöglichkeiten und mehr Transparenz, bishin zu ganz neuen, personalisierten Therapien und Medikamenten. Es gibt etliche Studien (Lehne et all, 2019), wissenschaftliche Aufsätze (Vicdan 2020) und Whitepaper von Beratungsagenturen (Neumann et.al. 2020), die aus dem Schwärmen für und Warnen vor der digitale Transformation des Gesundheitsbereichs nicht herauskommen.

Doch in Wirklichkeit geht es noch um etwas anderes: Die mit der Digitalisierung einhergehende Plattformisierung ist vor allem auch eine Machtumverteilung im System. Den verschiedenen Akteuren des Deutschen Gesundheitssystems ist das durchaus bewusst, weswegen jeder Digitalisierungsschritt mit Argwohn, Widerständen und zum Teil heftigen Grabenkämpfen einher geht. Man sieht das aktuell bei Digitalisierungsprojekten wie die digitale Patientenakte, der digitalen Arbeitsunfähigkeitsbescheinigung (eAU), das E-Rezept, oder an den Kämpfen um die elektronische Gesundheitskarte. Digitalisierung verflüssigt zunächst einmal alle Interaktionen in einem vorher oft starren Bereich, was unweigerlich dazu führt, dass die Strukturen und damit auch Macht und Einfluss neu verhandelt werden. Jede Akteursgruppe hat Angst davor, als Verlierer dazustehen. Und eine der zentralsten Ängste betrifft die Plattformisierung, also die Befürchtung, Plattformen würden in dieser Gemengelage einen Großteil der Macht auf sich konzentrieren. 

Dass diese Angst berechtigt ist, zeigt sich in vielen Branchen und gesellschaftlichen Bereichen. Doch hier lohnt es sich, genauer hinzuschauen. Dass Plattformen Macht haben, ist zu einem Gemeinplatz geworden, doch oftmals – und vor allem auch im Kontext des Gesundheitsmarkts – wird diese Macht allein auf die Herrschaft über die Daten reduziert. Plattformen, so die gängigen Narrative, würden deshalb in den Gesundheitsbereich drängen, weil es dort wertvolle Daten abzugreifen gebe. Was genau die Plattformen mit diesen Daten wollen und wie nun der Zusammenhang von Daten und Geschäftsmodell ist, wird bei solchen Beschreibungen bedeutungsvoll im Argen gelassen. Ein raunendes „Überwachungskapitalismus“ muss reichen. Natürlich sind Daten ein wichtiger Teil der Gleichung, doch die ideologische Zuspitzung und Reduzierung des Aspekts auf die Datensammlei ist äußerst unpräzise und versperrt die Sicht auf die eigentlichen Machtkonstellationen. 

In diesem Text möchte ich nicht nur eine präzisere Beschreibung der Macht der Plattformen anbieten, sondern auch auf dieser Grundlage die strategischen Möglichkeiten der Plattformisierung des deutschen Gesundheitssystems ausloten. Die Plattformisierung geht bereits in vielen Bereichen des Gesundheitssystems voran, jedoch sind es bisher nur lokale Schauplätze und abgrenzbare Teilmärkte, in denen digitale Plattformen schrittweise Fuß fassen. Das sind ohne Frage spannende Entwicklungen, die jeweils unsere Aufmerksamkeit verdienen. 

Ich möchte in meinem Text allerdings etwas anderes versuchen: Ich will ein spekulatives, wenn auch mögliches Planspiel durchdenken, in dem der Gesundheitsbereich in seiner Gesamtheit unter die Herrschaft einer einzigen Plattform fällt. Ich nenne dieses Szenario „die Graphnahme der Gesundheit“. Damit meine ich im Ergebnis den weitreichenden Einfluss eines einzelnen Unternehmens auf einen Großteil der vielen kleinen Entscheidungen, die im Gesundheitsbereich an unterschiedlichsten Stellen getroffen werden. Entscheidungen, wie: zu welchem Arzt gehe ich, welche Therapien werden mir verschrieben, welche Vorsorge wird von mir erwartet, welche Medikamente werden entwickelt und wie werden Krankenhäuser gemanaged, etc. Damit keine totale Kontrolle gemeint, sondern ein Einfluss, vergleichbar mit der Macht, die Google über das erstellen und betreiben von Websites und Apple über den mobilen Software-Markt hat, wie Netflix heute Hollywood beherrscht, oder wie Amazon den E-Commerce bestimmt. Es ist diese spezifische Form von Macht und Kontrolle, die große, integrierte Plattformen ausüben. Eine solche Macht, so die These des Textes, könnte ein Unternehmen auch über den deutschen Gesundheitsbereich erlangen.

Doch zunächst müssen wir erklären, was Plattformen sind und wie ihre spezifische Mechanik der Macht funktioniert.

Was ist Plattformmacht?

Plattformen sind – als erste Annäherung – digitale Infrastrukturen zur Ermöglichung von Austausch. „Austausch“ kann dabei einerseits verstanden werden, als Interaktion zwischen unterschiedlichen Akteuren (zum Beispiel Transaktionen, Dienstleistungen oder einfach der Austausch von persönlichen Nachrichten) (Seemann 2020, S. 31). „Austausch“ kann aber auch so verstanden werden, dass die jeweiligen Akteure oder Komponenten selbst austauschbar werden. Wenn wir von Plattformisierung sprechen, muss immer beides mitgedacht werden: Zum einen werden technische Grundlagen des Austausches zwischen Akteuren geschaffen (also eine dafür geeignete Infrastruktur), die aber oft gleichzeitig der Austauschbarkeit der Akteure selbst Vorschub leisten. Und hier, in diesem zweiten Punkt, steckt der Kern der Macht der Plattformen: Wer austauschbar wird, verliert Macht, weil die Abhängigkeiten anderer von einem selbst sinken. Gleichzeitig gehen alle Abhängigkeiten auf die Plattform über und so auch die damit einhergehende Macht. 

Die Macht der Plattform entspricht also unserer Abhängigkeit von ihr. Da unsere Abhängigkeit von der Plattform jedoch wiederum nur eine Funktion unserer Abhängigkeit von anderen Akteuren auf der Plattform ist, steigt ihre Macht mit ihrem Wachstum. Wir nutzen Facebook, weil dort fast alle unsere Freund:innen sind, wir nutzen Uber, weil dort so viele Fahrer:innen auf unsere Fahrtwünsche antworten, etc. Diese Tatsache führt zu der Rückkopplung, dass Plattformen immer nützlicher werden, je mehr Leute an ihr partizipieren. In der Ökonomie nennt man diesen Zusammenhang „Netzwerkeffekt“ oder „Netzwerkexternalität“, ich aber nenne es mit David Singh Grewal „Netzwerkmacht“ (Grewal 2008).

Diese Netzwerkmacht wäre allerdings nur schwer zu in tatsächlichen Einfluss umzumünzen, wenn die Plattform nicht auch fähig wäre, Kontrolle auszuüben. Alle Akteure auf der Plattform können von der Plattform mal mehr mal weniger subtil in ihren Interaktionen beeinflusst werden. Über das Anbieten oder nicht Anbieten bestimmter Funktionen, über die Regulierung des Zugangs, über das Design des Nutzerinterfaces, über die Steuerung von Sichtbarkeit von Interaktionsmöglichkeiten über Algorithmen und einige andere Hebel kann die Plattform zumindest grob lenken, welche Interaktionen wahrscheinlich werden und welche nicht (Seemann 2021). Beides zusammen – Netzwerkmacht und Kontrolle – ergibt das, was ich Plattformmacht nenne.

Doch wie kommen Plattformen überhaupt an diese Macht? Wie haben sie es geschafft, sich jeweils zwischen uns und unsere wechselseitigen Abhängigkeiten zu schieben und diese Abhängigkeiten auf sich zu beziehen? Die Antwort ist: zumindest initial nehmen sie sich diese Macht einfach.

Plattformen treten nie in einen machtleeren Raum. Es gab Freundschaften vor Facebook, Personentransport vor Uber und Unterhaltungsangebote vor Netflix. Das Erste, was eine Plattform also macht, ist, bestehende Interaktionsnetzwerke und ihre impliziten Abhängigkeiten zu analysieren, um sie für sich einzunehmen. „Einnehmen“ muss hier im quasi-militärischen Sinne verstanden werden. Während Staaten Territorien kontrollieren, kontrollieren Plattformen Netzwerkgraphen und während die Macht der Staaten auf einer initialen Landnahme beruht (Schmitt 1950), beruht die Macht der Plattformen auf einer initialen Graphnahme (Engemann 2016 u. 2020). Das funktioniert, weil Netzwerkgraphen selten aus gleichverteilten Knoten und Verbindungslinien bestehen, wie ein Maschendrahtzaun, sondern in Wirklichkeit zerklüftete Landschaften von akkumulierten Verbindungen, Interaktionen und Abhängigkeiten sind und daher ebenso strategisch angegangen werden können, wie Landschaften. Facebook zum Beispiel eroberte in seiner Gründungsphase zunächst nur die Studierenden der Harvarduniversität, indem es sie einlud, ihre Freundschaften auf Facebook weiterzuführen. Erst nach Einnahme des Harvardgraphen nahm Facebook weitere Universitäten ins Visier. So ging es weiter, ein Campus nach dem anderen. Und erst, als es durch die Graphnahme der US-Studentenschaft so viel Netzwerkmacht aufgebaut hatte, dass alle Teil des Netzwerkes werden wollten, öffnete Facebook sich der Allgemeinheit (Seemann, S. 159 f).

Die Struktur des Gesundheitsgraphs

Wie kann eine solche Graphnahme also im Gesundheitsbereich aussehen? Auch das Gesundheitssystem ist kein machtleerer Raum, sondern auch er ist schon strukturiert durch ein komplexes Geflecht wechselseitiger Abhängigkeiten unterschiedlicher Akteure. Um ein Bild der Lage zu bekommen, muss der vorhandene Gesundheitsgraph zumindest grob umschrieben werden. Die Frage lautet: Was sind die strategisch wichtigen Abhängigkeiten, die als Einfallstor dienen können? 

Das Gesundheitssystem ist groß und komplex und schon länger nicht mehr unberührt von Plattformunternehmen. Sei es Apple und Google mit ihren Health-Apps und Trackingdevices (Maschewski/Nosthoff 2019), seien es populäre Gen-Datenbanken wie 23andme, seien es immer mehr plattformisierte Hersteller elektronischer Prothesen und digital gesteuerter Hilfsmittel wie Cochlea-Implantate, Herzschrittmacher oder automatische Insulinpumpe. Hinzu kommen Portale wie Doctolib zur Terminfindung bei lokalen Ärzt:innen und/oder Dienste für Telemedizin wie Kry.

Doch all diese Plattformisierungen arbeiten sich bislang nur an Teilbereichen des Gesundheitsgraphen ab. Der große Gesundheitsgraph – die großen Linien der relevanten Abhängigkeitsverhältnisse – sind noch immer dieselben wie vor 50 Jahren. Sie gilt es genauer zu strudieren, wenn wir die Möglichkeit des Ernstfalls, der vollständigen Graphnahme, ausloten wollen.

Unter den miteinander verschränkten Akteuren – die niedergelassenen Ärzt:innen, die Krankenhäuser, die Pharmaindustrie, die Krankenversicherungen (gesetzliche wie private), den Pflege- und Kur-Einrichtungen, die Apotheken und natürlich den Patient:innen – ist eine Beziehung ganz besonders herausgehoben: die zwischen Ärztin und Patient:innen. Die (Haus-)Ärztin ist für gewöhnlich der erste und der letzte Kontakt der Patientin mit dem Gesundheitssystem. Die Ärztin ist gewissermaßen das Interface, über den die Patientin auf das Gesundheitssystem zugreift. Es ist die Ärztin, die die Diagnosen erstellt, Therapien und Medikamente verschreibt und gegebenenfalls an Spezialist:innen oder ins Krankenhaus weiter verweist. Das Arzt-Patienten-Verhältnis ist geprägt von Vertrauen und nicht selten von persönlichen Beziehungen. Es ist nicht umsonst seit Jahrhunderten durch Kodizes wie den Hippokratischen Eid und gesetzlichen Regelungen, wie die ärztliche Schweigepflicht besonders geschützt. Es ist zudem kein Zufall, dass Ärzt:innen massiv im Lobbyfokus aller anderen Akteure des Gesundheitssystems stehen. Insbesondere die Pharmakonzerne investieren enorme Mengen an Geld in den Aufbau von Beziehungen zu Ärzt:innen, spendieren ihnen Reisen, Konferenzen oder teure Werbegeschenke. 2016 besuchten ca. 15.000 Pharmavertreter:innen jährlich 20 Millionen Mal deutsche Praxen und Krankenhäuser (Viciano 2017). Es dürften seitdem nicht weniger geworden sein.

Auch andere Akteure des Gesundheitsbereichs sind einflussreich. Die Pharmakonzerne verfügen über eine Menge Geld und Lobbypower. Die Versicherungen sitzen an der Schaltstelle der Entscheidung, welche Medikamente und Therapien wie vergütet werden (zumindest im Rahmen politischer Regulierung). Auch das sind strategisch wichtige Engstellen, die eine Menge Abhängigkeiten auf sich vereinen, jedoch reicht keiner dieser Punkte in ihrer Wichtigkeit an das Arzt-Patienten-Verhältnis heran. Wir stellen fest:

Wer den Gesundheitsgraphen kontrollieren will, muss das Arzt-Patienten-Verhältnis kontrollieren. 

Der offensichtliche Angriff wäre demnach, die Ärzt:innen auf die eigene Seite zu ziehen. Das ist das, was die Pharmaindustrie mit ihrem Milliarden Euro teuren Kampagnen seit Jahrzehnten mit gemischtem Erfolg versucht. Auch die Krankenkassen haben im Ansatz bereits „ihre“ Ärzt:innen. Die gesetzlichen Versicherungen in Form der Kassenärzt:innen und die Privaten haben zumindest die Ärzt:innen für plastische Chirurgie praktisch exklusiv. Doch einerseits ist die Gruppe der Ärzt:innen, die alle Arten von Patient:innen abdecken immer noch die mit Abstand größte und anderseits haben die Krankenkassen aufgrund der strengen Regulierung sowieso nur vergleichsweise wenig Spielraum, ihren Einfluss auszunutzen.

Das Gezerre um die Ärzt:innen selbst wäre allerdings gar nicht notwendig, gelänge es, die Macht der Ärzt:innen selbst zu brechen, indem man sie zum austauschbaren Teil des Systems macht. Keiner der traditionellen Akteure im Gesundheitssystem ist in der Lage, das zu erreichen. Doch eben hier kommt die Macht der Plattformen ins Spiel.

Voraussetzungen für die Graphnahme des Gesundheitssystems

Wenn ein Beziehungsgeflecht noch in undigitalisierter, das heißt nicht digital operationalisierbarer Form vorliegt, dann empfiehlt sich für die Graphnahme die Strategie des Iterationsangriffs (Seemann 2021, S. 172). Beim Iterationsangriff werden in einem ersten Schritt die vorhandenen Beziehungsgeflechte digital in einer zentralen Datenbank erfasst. Auf dieser Grundlage kann dann eine Kontrollebene eingezogen und den jeweiligen Interaktionspartner:innen angeboten werden. Die neue Kontrollebene wirbt zum Beispiel damit, die Interaktion zu vereinfachen (Reduzierung der Koordinationskosten), Vertrauensverhältnisse zu ersetzen und/oder mehr Auswahl an potentiellen Interaktionspartner:innen verfügbar zu machen. Alle drei Vorteile hängen unmittelbar miteinander zusammen. Wird das Angebot angenommen, finden die Interaktionen von nun an auf der neuen, digitalen Plattformebene statt. Die vorherrschenden Abhängigkeiten wurden also in Abhängigkeit zur Plattform transformiert. Der Graph wurde vertikal iteriert (Seemann 2021, S. 67 f).

Im Ansatz geschieht das bereits mit Plattformen wie Doctolib. Doctolib ist ein französisches Unternehmen, das seit sieben Jahren eine Datenbank mit Ärzt:innen über eine Website oder App verfügbar macht, um Terminvereinbarungen zu vereinfachen. Das bereits mit über einer Milliarde Euro bewertete Unternehmen ist seit einiger Zeit auch in Italien und Deutschland erfolgreich. Während der Pandemie hat es seinen Umsatz um 50% gesteigert, auf €200 Millionen Euro (Abboud 2021). Doctolib hat es verstanden, Ärzt:innen zu überzeugen, ihre Terminvereinbarung auf die Plattform auszulagern. Gleichzeitig schätzen auch die Patient:innen den Komfort, nicht erst umständlich anrufen zu müssen, um einen Termin zu vereinbaren.

Das ist allerdings noch keine Graphnahme. Die Terminbuchung wird zwar von vielen als nützliche Ergänzung angenommen, verändert die Arzt-Patienten-Beziehung aber noch wenig. Doch es ist ein Fuß in der Tür. Die wichtigsten drei Angriffsvektoren für eine mögliche Graphnahme zeichnen sich bereits ab:

  1. Koordinationskosten. Plattformen sind häufig sehr gut darin, Koordinationskosten – also den Aufwand sich zu koordinieren – radikal zu reduzieren. Exakt diesen Einfallsvektor hat Doctolib bereits erfolgreich gespielt. Für beide Seiten, für Patient:innen und Ärzt:innen reduzieren sich die Koordinationskosten bei der Terminvergabe enorm und es ist derzeit der wichtigste, wenn nicht einzige Grund, warum die Plattform so erfolgreich ist.
  2. Auswahl. Die reduzierten Koordinationskosten können nun in einem zweiten Schritt zu Second Order Effekten führen, zum Beispiel, dass Patient:innen eine gefühlt größere Auswahl an potentiellen Ärzt:innen in ihrer Umgebung zur Verfügung haben. Durch leichtere Auffindbarkeit und durch die schnelle Buchbarkeit fällt die Hürde, neue Ärzt:innen auszuprobieren. Wenn man unzufrieden ist, die eigene Ärztin über Wochen ausgebucht ist, oder man sich schlicht eine zweite Meinung einholen will, kann man nun schnell die Ärztin wechseln.
  3. Vertrauen. Die wichtigste Ressource des Arzt-Patienten-Verhältnisses ist allerdings Vertrauen. Oft wurde es über viele Jahre aufgebaut. Man kennt sich, man grüßt sich auf der Straße, hält bei Besuchen einen kleinen Schnack, fragt nach der Familie. Das ist die schwierigste Hürde. Erst wenn es gelänge, eine Alternative zu diesem Vertrauensverhältnis attraktiv zu machen, kann eine Graphnahme gelingen. Das ist schwierig, aber nicht unmöglich, da Doctolib keinen vollen Ersatz für dieses Vertrauen bieten muss, nur hinreichend viel, dass die oben genannten Vorteile den Ausschlag geben. Plattformen können ebenfalls Vertrauen herstellen, indem sie z.B. Ärzt:innen bewertbar machen, Patientenrezensionen anzeigen und/oder eigene Prüfverfahren und Qualitätssigel einführen. Das Ziel müsste sein, das Vertrauen zum Teil auf die Plattform zu transferieren.

Die verschiedenen Angriffsvektoren wirken auf die beteiligten Akteursgruppen unterschiedlich stark. Während die Senkung der Koordinationskosten auf beiden Seiten – den Ärzt:innen wie den Patient:innen – wirkt, sind Auswahl und Vertrauen nur für die Patient:innen-Seite gute Argumente. Für Ärzt:innen ist die Aussicht auf mehr Patient:innen“ nur theoretisch attraktiv. In der momentanen Situation laufen Ärzt:innen kaum Gefahr, zu wenig Patient:innen zu haben. Eher im Gegenteil. Auch das Vertrauensverhältnis ist ausschließlich auf Patient:innen-Seite wichtig. 

Eine spekulative Roadmap zur Graphnahme

Doctolib ist also in einer strategisch günstigen Ausgangslage, müsste aber einiges tun, um eine ernsthafte Graphnahme anzustreben. Ein Bewertungs- und Rezensionssystem für Ärzt:innen wird mit Doctolibs aktuellen Geschäftsmodell kaum möglich sein. Derzeit verlangt das Unternehmen € 129 von den Ärzt:innen, um über das Portal buchbar zu sein. Für diesen Betrag wollen die Kund:innen natürlich keine Kritik über sich auf der Plattform lesen. Das erste, was Doctolib also tun müsste, wäre dieses Geschäftsmodell aufzugeben und wahrscheinlich erstmal ganz auf Einnahmen verzichten, um risikokapitalfinanziert auf den neuen Kurs einzuschwenken. Eine Bewertungsfunktion zu implementieren und generellen Erfahrungsaustausch unter den Patient:innen zu ermöglichen wäre demnach der zweite Schritt. Dadurch könnte ein Teil des Vertrauens auf die Plattform übergehen und das Arzt-Patient-Verhältnis würde sehr viel volatiler.

Ob das für die Graphnahme ausreicht, ist unklar. Aber von hier aus, wären einige weitere Maßnahmen denkbar. 

  • Weitere Volatilität im Arzt-Patienten-Verhältnis könnte durch weitere Features erreicht werden. Etwa eine von der Plattform garantierte Sofortbehandlung. Der Algorithmus sucht den nächstbesten Termin aus den freien Terminen aller Ärzt:innen im Umkreis von 5 Km heraus und bucht automatisch den frühest verfügbaren. Eine andere Möglichkeit wäre die zweite Arztmeinung als unabdingbaren Standard zu promoten.
  • Eine weitere Reduzierung von Koordinationskosten bringt die weitflächige Einführung von Telemedizin. Doctolib könnte sich mit erfolgreichen Anbietern zusammentun und eine eigene Anwendung dazu direkt implementieren, so dass man aus der App oder Website heraus, sofort Videosprechstunden abhalten und Untersuchungsergebnisse teilen und besprechen kann. 
  • Wenn man nun für viele Patient:innen die allgemeine Schnittstelle zum Gesundheitssystems geworden ist, lässt sich das Angebot weiter ausbauen und optimieren. Eine Möglichkeit dazu wäre das Angebot einer vorgeschalteten Diagnose-KI, die zum Beispiel Voruntersuchungen bei bestimmten Standardbeschwerden macht und so schon mal grob den Möglichkeitsraum von Diagnosen vorsortiert. Erst nach Konsultation der Diagnose-KI wird man dann auf die passenden Ärzt:innen weiterverwiesen, die dann ihrerseits nicht bei null anfangen müssen.
  • Es lassen sich weitere Elemente in das neue Gesundheitsinterface einpassen. Doctolib könnte das einheitliche Interface für die digitale Patientenakte, die E-Rezepte und andere digitalisierte Gesundheitsformate werden, wo man genau verwalten kann, welche Ärzt:innen auf welche Daten Zugriff haben. Dazu wäre auch gleich eine Schnittstelle zu einer Online-Apotheke denkbar, um gleich aus dem Interface heraus die Medikamente zum Rezept zu bestellen. 
  • Zuletzt wäre auch eine Integration mit den Versicherern möglich, so dass nicht nur die bisherigen Behandlungen transparent werden, sondern auch die Behandlungsoptionen und deren eventuelle Zusatzkosten je Diagnose eingeblendet werden. Das Einreichen von Rechnungen wäre so ein Kinderspiel. Eventuell wäre sogar der Wechsel des Tarifs, oder gar des Versicherers aus dem Interface heraus möglich.
  • Am Ende wäre es auch der logische Ort, wo man seine sequenzierten Gen-Daten hinterlegt, um personalisierte Empfehlungen, Rezepte, Hinweise, sogar Warnungen zu bekommen.

Fazit

Die Digitalisierung im Gesundheitssystem hat das Potential die Prozesse sehr viel effizienter und reibungsfreier zu machen, die Forschung voran zu treiben und den Patient:innen mehr Optionen, bessere Versorgung und mehr Entscheidungsfreiheit zu geben. Doch all das zieht einen tiefgreifenden Wandel in den Abhängigkeits- und damit Machtstrukturen des Sektors nach sich. In anderen Feldern und Branchen ist bereits zu sehen, wie Plattformen sich diese Neuaushandlung zunutze machten. Durch ihr Prinzip der Integration von Beziehungen, schaffen sie es, sich als neue, allumfassende Intermediäre zwischen die jeweiligen Parteien zu stellen und so alle Abhängigkeiten auf sich zu beziehen.

Auch im Gesundheitsbereich könnte sich eine solche Entwicklung vollziehen und im Ansatz ist sie schon beobachtbar. Ob sie so verlaufen wird, wie ich es hier dargelegt habe, ist zu bezweifeln. Vielleicht wird es auch ganz anders laufen und ein ganz anderer Player tut etwas völlig anderes, um den Graph einzunehmen. Vielleicht wird der Gesundheitsbereich auch von der Plattformisierung weitgehend verschont, wer weiß? Mir ging es nur darum, die Möglichkeit einer vollständigen Graphnahme plausibel zu machen und die Mechanismen und strategischen Punkte aufzuzeigen, die dabei eine Rolle spielen könnten. Wenn dieses Zukunftsszenario genauso verlockend, wie erschreckend wirkt, dann zeugt das nur für seine Realitätsnähe.

Festzuhalten ist, dass der kritischste Punkt unseres kleinen Planspiels das Vertrauen der Patient:innen ist. Eine Plattform kann nur erfolgreich sein, wenn es ihr gelingt, einen ausreichenden Teil des Vertrauens auf sich selbst zu transferieren. Das gelingt um so besser, je weniger Vertrauen in die traditionellen Akteure vorhanden ist. Insbesondere die staatliche Regulierung spielt hier eine Schlüsselrolle. Wenn es dem Staat und den dabei eingebundenen Stakeholdern nicht gelingt, eine digitale Infrastruktur (mit elektronischer Gesundheitskarte, -Akte, -Rezept, usw.) anzubieten, die den Patient:innen das Gefühl gibt, dass ihre Bedürfnisse und ihre Sicherheit im Zentrum stehen, werden externe Plattformplayer diese Diskrepanz um so leichter auszunutzen wissen. Darauf sollten sich alle Akteure des Gesundheitssystems entsinnen, wenn sie in die nächsten Verhandlungen gehen.

Literatur


Veröffentlicht unter Kontrollverlust
1 Kommentar

Leseprobe 4: Die Politik des Flaschenhalses als Waffe

/****

Ihr kennt das Spiel. Immer wenn es zu den Ereignisse in der Welt passende Passagen aus meinem Buch gibt, die helfen, sich in der aktuellen Situation zurechtzufinden, hau ich sie als Leseprobe heraus. Nach dem Angriff Russlands auf die Ukraine wird Russland derzeit von der Weltgemeinschaft mittels der Politik des Flaschenhalses deplattformisiert. Dass Plattformen immer wieder als geopolitische Waffe verwendet werden, ist auch Thema meines Buches. In diesem Abschnitt erkläre ich die Politik des Flaschenhalses als Waffe, die Russland derzeit überall zu spüren bekommt. Er findet sich in Kapitel 6: Plattformpolitik und dort im Unterkapitel Netzsicherheitspolitik.

*****/

Als Hillary Clinton 2010 düpiert vor der Weltöffentlichkeit stand, weil Wikileaks einen Großteil der vertraulichen Kommunikation ihres Ministeriums öffentlich gemacht hatte, setzte sie trotz ihres emphatischen Bekenntnisses zur Internetfreiheit alle Hebel in Bewegung, um Wikileaks mundtot zu machen. Einer der ersten Angriffspunkte waren Wikileaks’ Finanzströme. Das US-Außenministerium machte Druck bei den Dienstleistern, bei denen Wikileaks Kunde war: PayPal, Bank of America, Mastercard, VISA und Western Union. Sie alle froren daraufhin die Konten von Wikileaks ein und beendeten die Geschäftsbeziehungen.1

Bis dahin war vor allem China dadurch aufgefallen, dass es in netzaußenpolitischen Auseinandersetzungen auf die Politik des Flaschenhalses setzte, während die USA sich damit rühmten, ein freies und offenes Netz bewahren zu wollen und deshalb die weniger aggressive Politik der Pfadentscheidung als Mittel der Wahl zu sehen. Doch die Politik des Flaschenhalses ist dem Westen im Allgemeinen und den USA im Besonderen nicht nur nicht fremd, sie wird sogar seit vielen Jahrzehnten angewendet, um politischen Gegnern den eigenen Willen aufzuzwingen. Bei nicht netzpolitischen Angelegenheiten sprechen wir meistens von Sanktionen, die gegen den einen oder anderen Staat ausgesprochen werden. Sanktionen sind im Netz globaler Handelswege schon immer ein wichtiges Disziplinierungsmittel gewesen, und in Zeiten des Internets werden sie zur netzsicherheitspolitischen Offensivwaffe. PayPal ist das beste Beispiel. Die Plattform wird bereits seit vielen Jahren eingesetzt, um das US-Embargo gegen Kuba weltweit durchzusetzen. So können auch deutsche Händler*innen ihre Geschäfte mit Kubaner*innen nicht per PayPal abwickeln, obwohl Deutschland nie Sanktionen gegen Kuba verhängt hat.2

Doch es geht nicht nur um Finanzdienstleister. Als die USA im Oktober 2019 Sanktionen gegen Venezuela verhängen, schaltet Adobe seine gesamte Software in dem Land einfach ab. Das geht, weil das Unternehmen seine populären Produkte wie Photoshop, After Effects und Acrobat in den letzten Jahren immer mehr in die Cloud verlagert hat. Es verkauft jetzt Zugriff statt die Software selbst, was ihm ein Zugangs- und Verbindungsregime eröffnet, wie es für gewöhnlich nur Diensteplattformen haben. Auch wenn die Venezolaner*innen bereits gekaufte Kopien von Photoshop, After Effects oder Acrobat auf ihren Rechnern installiert hatten, konnten sie sie von einem Moment auf den anderen nicht mehr nutzen.3

Henry Farrell und Abraham Newman halten all die Narrative von der friedvollen wechselseitigen Abhängigkeit und dem ebenerdigen Spielfeld in den internationalen Beziehungen deshalb auch für höchst irreführend.4 Zunächst stellen Farrell und Newman in ihrem Paper Weaponized Interdependence fest, dass Netzwerke eben nicht jene heterarchischen, flachen Ebenen sind, zu denen sie oft verklärt werden, sondern im Gegenteil zu großer Ungleichheit tendieren. Netzwerkeffekte führen dazu, dass sich die meisten Verbindungen auf wenige Knoten konzentrieren. Dadurch ergeben sich neue Optionen zur geopolitischen Einflussnahme, die alles andere als friedlich sind. Die Autoren nennen zwei: den Panoptikumeffekt und den Würgepunkteffekt. Hat man als Staat Zugriff auf wichtige Kommunikationsknoten, kann man zum Beispiel die Kommunikation aller anderen Beteiligten abgreifen und die daraus gewonnenen Informationen zum eigenen Vorteil nutzen (Panoptikumeffekt). Man kann aber auch einzelne Akteure vom Nutzen des Netzwerks ausschließen oder diese Option als Druckmittel nutzen (Würgepunkteffekt). Der Würgepunkteffekt entspricht also exakt dem, was wir die Politik des Flaschenhalses genannt haben.

Farrell und Newman erklären diese Effekte anhand von SWIFT (Society for Worldwide Interbank Financial Telecommunication). Dieses System ist die Plattform für die weltweite Interbankenkommmunikation. SWIFT wurde 1973 in Belgien von einigen europäischen Banken gegründet, nachdem die First National City Bank in New York (FNCB, der Vorgänger der Citibank) ein ähnliches, aber proprietäres System, MARTI, vorgestellt hatte. Um sich der drohenden Graphnahme zu entziehen, taten sich die übrigen Banken zusammen, um eine offene, genossenschaftlich organisierte Konkurrenz zu schaffen. Bald schon schlossen sich auch amerikanische Banken an, die ebenfalls eine Dominanz der FNCB fürchteten. Es liegt auf der Hand, wie nützlich allgemeine Standards und sichere Kommunikationswege für Banken und ihre Transaktionen sind, und von daher ist es nicht verwunderlich, dass ab diesem Punkt die Netzwerkeffekte einsetzten. Waren 1977 noch 500 Organisationen aus 22 Ländern angeschlossen, stieg die Zahl bis 2016 auf 11 000 Organisationen aus über 200 Ländern, die 6,5 Milliarden Nachrichten pro Jahr austauschen. Da SWIFT mittlerweile fast eine Monopolstellung innehat, musste sogar die EU-Kommission regulierend eingreifen.5

Bereits seit 1992 dient SWIFT zur Überwachung globaler Geldströme und zum Aufdecken von Geldwäschegeschäften, spätestens seit dem 11. September 2001 auch verstärkt zur Terrorabwehr. Mit dem Terrorist Finance Tracking Program (TFTP) konnten amerikanische Behörden direkt auf SWIFT-Daten zugreifen und nutzten das zum Aufspüren der Geldquellen von Terroristen. Aber auch als Flaschenhals wurde SWIFT genutzt, als die EU in Absprache mit den USA 2012 Irans Banken praktisch aus dem Internationalen Verbund drängten.6

Komplizierter wurde die Lage, als die USA 2018 aus dem Atomabkommen mit dem Iran ausstiegen und die zwischenzeitlich gelockerten Sanktionen wieder einsetzen wollten. Die Europäer, die an dem Atomdeal festhalten, konnten die SWIFT-Sanktionen deswegen nicht mehr mittragen. SWIFT war gespalten und musste eine Lösung finden, die amerikanische und die europäische Linie unter einen Hut zu bringen. So schloss SWIFT zwar wesentliche iranische Institutionen aus, ließ aber den allgemeinen Verkehr mit dem Land grundsätzlich zu. Der deutsche Außenminister Heiko Maas ging so weit, ein eigenes, rein europäisches Interbankensystem als Möglichkeit ins Spiel zu bringen, um solche Konflikte in Zukunft zu vermeiden.7

Zusammenfassend kann man sagen, dass westliche Demokratien zwar davor zurückschrecken, im Zuge einer Politik des Flaschenhalses zivile Informationsströme zu kappen, sie aber die Machtkonzentration großer Plattformen nutzen, um sie als Waffe gegen ihre jeweiligen Gegner einzusetzen.

China ist derzeit weit weniger in der Lage, Plattformen international als Flaschenhälse zu nutzen. Die Möglichkeit dazu ergibt sich erst ab einer bestimmten Infrastrukturhegemonie, und die haben nur wenige chinesische Plattformen bereits erreicht. Doch die Sorgen mehren sich, dass das Land seine immer weiter reichenden Verbindungspunkte in die westliche Welt als Flaschenhals nutzen könnte. Insbesondere die Tatsache, dass China mittlerweile Besitzer und Anteilseigner einiger europäischer und noch mehr afrikanischer Häfen ist und zudem mit COSCO das drittgrößte Schifffahrts-Logistikunternehmen der Welt kontrolliert, sorgt für geostrategische Kopfschmerzen.8 Chinas Plattformhegemonie wächst in den letzten Jahren in vielen Bereichen beträchtlich.

Ein anderes wichtiges Feld, auf dem China eine hegemoniale Stellung anstrebt, ist künstliche Intelligenz. Schon jetzt agieren die Firmen des Landes auf Weltmarktniveau, und bis 2030 hat sich die chinesische Regierung die KI-Vormachtstellung zum Ziel gesetzt. Ein Netz aus chinesischen KI-Technologien von Start-ups wie Hikvision, CloudWalk Technology und aus Produkten wie Alibabas City-Brain-Plattform wird von Malaysia über Kenia bis Südafrika ausgerollt, und die Befürchtung besteht, dass sich der chinesische Staat dabei immer eine Hintertür offenhält.9 Huaweis Safe-City-Projekt zum Beispiel, das verspricht, Kriminalität in den Städten durch flächendeckende Videoüberwachung mit integrierter Gesichtserkennung ein Ende zu bereiten, wird überall auf der Welt eingesetzt. Schwerpunkte sind zwar vor allem Asien und Afrika,10 aber auch eine Kooperation mit Gelsenkirchen gibt es schon.11

  1. BBC: PayPal says it stopped Wikileaks payments on US letter, https://www.bbc. com/news/business-11945875, 08. 12. 2010.
  2. Bastian Brinkmann: Warum deutsche Firmen unter dem US-Embargo gegen Kuba leiden, https://www.sueddeutsche.de/wirtschaft/us-embargo-gegen-kuba- ho-ho-wo-ist-die-buddel-rum-1.1125589, 27. 08. 2012.
  3. BBC: Adobe shuts down Photoshop in Venezuela, https://www.bbc.com/news/ technology-49973337, 08. 10. 2019.
  4. Vgl. Henry Farrell, Abraham L. Newman: Weaponized Interdependence: How Global Economic Networks Shape State Coercion, https://www.mit pressjournals.org/doi/full/10.1162/isec_a_00351, 01. 07. 2019.
  5. European Commission: Following an Undertaking by S.W.I.F.T. to Change Its Membership Rules, the European Commission Suspends Its Action for Breach of Competition Rules, Pressemitteilung IP/97/870, 13. 10. 1997, S. 2.
  6. United Against Nuclear Iran (UANI): SWIFT Campaign, https://www.united againstnucleariran.com/index.php/swift, Washington, D.C. 2012.
  7. Heiko Maas: Wir lassen nicht zu, dass die USA über unsere Köpfe hinweg han- deln, https://www.handelsblatt.com/meinung/gastbeitraege/gastkommentar- wir-lassen-nicht-zu-dass-die-usa-ueber-unsere-koepfe-hinweg-handeln/22933006.html?ticket=ST-7411926-oq4wHkumxAC3d7a6ElCc-ap1,21. 08. 2018.
  8. Christopher R. O’Dea: How China Weaponized the Global Supply Chain,https://www.nationalreview.com/magazine/2019/07/08/how-china-weaponized- the-global-supply-chain/, 20. 06. 2019.
  9. Ross Andersen: Chinese AI Is Creating an Axis of Autocracy, https://www. theatlantic.com/magazine/archive/2020/09/china-ai-surveillance/614197/, September 2020.
  10. Jonathan E. Hillman, Maesea McCalpin: Watching Huawei’s »Safe Cities«, https://www.csis.org/analysis/watching-huaweis-safe-cities, 04. 11. 2019.
  11. Jarrett Potts: Gelsenkirchen: A Small, Smart City with Big Plans, https:// e.huawei.com/en/case-studies/global/2017/201709071445.

Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Leseprobe 3: Cybersouveränität versus Infrastrukturhegemonie

/*****

Da gerade eine spannende Debatte über „digitale Souveränität“ anlässlich des „Sovereign Tech Fund“ tobt (Twitterthread hier), will ich sozusagen als ein weiteres Puzzelteil, den passenden Abschnitt aus meinem Buch beisteuern. Es ist teil des sehr langen und ausführlichen Kapitels zu Plattformpolitik und dort vom Teil über Netzaussenpolitik. Durch diese Einbettung sind eventuell einige Begriffe nicht ganz geläufig, was sich aber leicht beheben lässt, indem man das ganze Buch liest.

*****/

Nicht alle Staaten lassen sich durch die Plattformsouveränität und Infrastrukturhegemonie der großen Tech-Unternehmen beeindrucken, was insbesondere das Scheitern von Google in China bezeugt. Als das Unternehmen dort 2006 seine Präsenz ausbaute und eine speziell auf die Bedürfnisse der chinesischen Regierung optimierte Suchmaschine unter google.cn startete, waren alle Beteiligten erst einmal optimistisch. Google hatte von Microsoft den taiwanesischstämmigen Kai-Fu Lee abgeworben – der als erfolgreicher USA- Auswanderer in China bereits eine Legende war –, um das Geschäft in Peking aufzubauen. Das Unternehmen würde den Zensuransprüchen der chinesischen Regierung nachkommen, verzichtete aber auf Services, die persönliche Daten in China gespeichert hätten, wie Gmail, blogger.com oder Picasa – allein um Anfragen der chinesischen Regierung nach der Herausgabe dieser Daten vorzubeugen.

Die Zensurmaßgaben wurden derweil von Google eigenwillig umgesetzt. So blendete google.cn den Nutzer*innen immer auch einen Hinweis ein, dass aufgrund von Regierungsanfragen Suchergebnisse getilgt worden seien, was der Regierung in Peking gar nicht passte. Wenn Google von ihr eine Aufforderung bekam, zehn Suchergebnisse aus dem Index zu tilgen, löschte man für gewöhnlich sieben davon, und auch die wurden nach ein paar Tages stillschweigend wiederhergestellt. Kurz: Google versuchte, seiner Mission, Informationen zugänglich zu machen, so gut es in China eben ging, gerecht zu werden und hoffte wohl darauf, durch solch stetige Akte des zivilen Ungehorsams der chinesischen Regierung und Gesellschaft den Wert der Informationsfreiheit Schritt für Schritt näherbringen zu können.

Die chinesische Führung war entsprechend unzufrieden. Offiziell verwies sie darauf, dass es mittels Google möglich sei, auf Websites mit pornographischen Inhalten zu stoßen, und weitete ihre Zensuransprüche immer weiter aus. Zu den Olympischen Spielen 2008 verlangte die Regierung sogar, Suchergebnisse für chinesischsprachige Inhalte nicht nur aus google.cn, sondern auch aus google.com zu löschen. Als dann zu Weihnachten 2009 ein großer Hackerangriff auf Gmail-Konten und Googles Versionskontrollsysteme für Software stattfand, zog das Unternehmen den Stecker. Der Hackerangriff wurde bekannt als »Operation Aurora« und konnte auf die chinesische Regierung zurückgeführt werden. Er betraf nicht nur Google selbst, sondern auch viele weitere amerikanische Firmen.1 Im Nachhinein stellte sich heraus, dass Baidu, Googles chinesischer Suchmaschinen-Konkurrent, in Zusammenarbeit mit der Regierung Ressourcen zum Aurora-Angriff beigesteuert hatte. Baidu war zwar mit circa 70 Prozent Marktanteil weit vor Google die beliebteste Suchmaschine in China, doch was dem Unternehmen Sorge bereitete, war, dass Google seine sichtbare Opposition zur Regierung und der Hauch des Verbotenen langfristig nutzen würde.2

Dass Netzwerke in der Außenpolitik eine wichtige Rolle spielen, ist nichts Neues. Bereits 1977 leiteten Joseph Nye und Robert Keohane mit ihrem Buch Power and Interdependence – World Politics in Transition einen Paradigmenwechsel in der Betrachtung internationaler Beziehungen ein. Diese sahen die beiden Autoren nicht wie herkömmlich als Nullsummenspiele, sondern als Interdependenzbeziehung an.3 Nullsummenspiele zeichnen sich dadurch aus, dass A nur gewinnen kann, was B verliert, und umgekehrt. Interdependenz dagegen setzt die Interaktionspartner häufiger in ein Win-win- oder Lose-lose-Verhältnis. A kann nur gewinnen, wenn auch B gewinnt, und umgekehrt. Handelsbeziehungen sind dafür ein gutes Beispiel: Wirtschaftliche Prosperität ist leichter zu erreichen, wenn die Handelspartner ebenfalls prosperieren. Solche Win-win-Situationen ergeben sich aus wechselseitigen Abhängigkeiten, wie wir sie schon bei Emerson kennengelernt haben. Emersons Balanceakte sind also anwendbar und finden sich in ähnlicher Form bei Nye und Keohane wieder.

Eine der wichtigsten Unterscheidungen bei Nye und Keohane ist die zwischen »Sensitivitäts-Interdependenz« und »Verletzbarkeits- Interdependenz«. Sensitivitäts-Interdependenz meint, dass Land A sensitiv gegenüber allem ist, was in Land B passiert oder was dieses tut. Stellen wir uns zum Beispiel vor, B hört aus irgendeinem Grund auf, Rohstoffe an A zu liefern, was A in Schwierigkeiten bringt, oder in B bricht eine Revolution aus, die nach A überschwappt. Verletzbarkeits-Interdependenz dagegen zeigt an, wie nachhaltig eine solche Veränderung wirkt. Kann A den Mangel an Rohstoffen ausgleichen, indem es zu vertretbaren Kosten auf andere Quellen ausweicht? Wenn ja, ist die Interdependenz weniger verwundbar.

Damit haben wir die Gegenseiten zu den Politiken der Pfadentscheidung und des Flaschenhalses. Sensitivität bedeutet, dass das Abhängigkeitsverhältnis auf diese Politiken reagiert, Verwundbarkeit bedeutet, dass die beteiligten Seiten auf eine Politik des Flaschenhalses nicht ohne weiteres mit Emersons Balanceakt 2 – also dem Erschließen alternativer Ressourcen – reagieren kann. Sie ist der Politik des Flaschenhalses also besonders ausgeliefert.

Heute sind in China fast alle großen amerikanischen Social-Media-Plattformen durch die große Firewall ausgesperrt: Google, Facebook, Twitter, sogar Wikipedia und einige journalistische Angebote.4 Das hat für die chinesische Regierung nicht nur den Vorteil, dass sie die Informationen kontrollieren kann, die ins Land kommen, sondern auch, dass sich ein eigenes Plattformökosystem hat ausbilden können, wodurch sich sowohl die eigenen Sensitivitäts- wie die Verletzbarkeits-Interdependenzen reduziert haben.5 Chinesische Plattformbetreiber wie Huawei, Alibaba, Baidu, WeChat/ Tencent, Sina/Weibo und TikTok/Douyin gehören zu den größten der Welt, obwohl sie eine weitaus geringere globale Relevanz als amerikanische Plattformen haben. Diese einzigartige Situation hat eine Kongruenz von chinesischen Graphen und chinesischem Territorium geschaffen. Die Herrschaft über die Verbindungen und den Graphen deckt sich weitestgehend mit der Herrschaft über das Territorium und die Körper. Damit sind Kontrollmöglichkeiten geschaffen, vor denen sich im Westen gern gegruselt wird.6

Mit »Cybersouveränität« wird für gewöhnlich die digitale Selbstbestimmung von Staaten bezeichnet.7 Wir können mit unserem bisherigen Theoriemodell eine klarere Definition anbieten: Cybersouveränität ist die weitestgehende Deckungsgleichheit von staatlicher und Plattformsouveränität, von Graph und Territorium.

Außer China versuchen auch andere Staaten, eine gewisse Cybersouveränität zu erreichen, allerdings nicht ganz so erfolgreich. Der Iran, die Türkei und vor allem Russland blocken unterschiedliche westliche Plattformen. Russland verlangt zudem von Diensteanbietern, ihre Server auf russisches Territorium und damit unter russische Jurisdiktion zu stellen.8 Alle drei Länder sperren Internetdienste, die ihrer Meinung nach nicht legal operieren, mittels technischer Infrastruktur aus. Weil die Sperrungen aber vergleichsweise partiell sind, kommt es häufig zu Seiteneffekten.

Als Russland den Messengerdienst Telegram bannte, nachdem dieser sich geweigert hatte, kryptographische Schlüssel herauszugeben, funktionierten auf einmal auch eine ganze Menge anderer Websites und Dienste in Russland nicht mehr. Telegram war, um Zensur vorzubeugen, mit seiner Dateninfrastruktur auf die Clouddienste von Amazon und Google umgezogen. Dadurch ist das Unternehmen unter den vielen IP-Adressen dieser Dienste erreichbar, hinter denen aber auch eine Menge andere, teils kritische Infrastruktur betrieben wird. Die russische Regierung scherte das wenig, sie sperrte ganze IP-Adressbereiche von Google und Amazon, sodass als Kollateralschaden viele unbeteiligte Internetseiten aus Russland nicht mehr erreichbar waren und sogar einige Geldautomaten nicht mehr funktionierten.9 Telegram hatte gewissermaßen auf Emersons Balanceakt 4 gesetzt – quasi eine IP-Adressenkoalition mit Google und Amazon – und so Russlands Verletzbarkeits-Interdependenz gegenüber den großen Plattformen ausgenutzt.

Die Beispiele zeigen, dass Staaten ihrerseits fähig sind, eine Politik des Flaschenhalses gegenüber Plattformen zu betreiben, dafür aber teils hohe Kosten in Kauf zu nehmen haben. Denn sie müssen den eigenen Markt sozusagen als Geisel nehmen, um den Zugang dazu zur Verhandlungsmasse zu machen. Insbesondere wenn der Markt besonders groß ist, wie im Falle Chinas, ist dieses Vorgehen aber auch sehr wirkungsvoll. Die wenigen amerikanischen Firmen, die in China arbeiten dürfen, tun dies unter strengen Auflagen. Apple zum Beispiel produziert in China und verkauft dort auch einen Großteil seiner Produkte. Als die Protestierenden in Hongkong eine eigene Karten-App, HK.map.live, in den App Store brachten, mit der sie vor allem Polizeibewegungen innerhalb der Stadt verfolgen wollten, nahm Apple sie auf Druck der chinesischen Regierung wieder aus dem Store.10 2017 hat Apple zudem auf Druck der chinesischen Regierung bereits alle VPN-Apps aus dem chinesischen App Store entfernt,11 Apps, die privates und sicheres Surfen im Internet ermöglichen sollen, aber auch zur Umgehung der chinesischen Firewall verwendet werden. 2020 nahm Apple auch die RSS-Apps aus dem Angebot, die ebenfalls Zugang zu unabhängigen journalistischen Quellen geboten hatten.12

Demokratische Staaten tun sich mit der Politik des Flaschenhalses naturgemäß schwer, vor allem wenn es um Internetkommunikation geht, denn die ist grundsätzlich durch das Menschenrecht auf Informationsfreiheit geschützt.13 Als 2015 das »Safe Harbor«-Abkommen und im Juli 2020 der Nachfolger namens »Privacy Shield« vom Europäischen Gerichtshof für ungültig erklärt wurden, freuten sich die europäischen Datenschützer*innen. Die beiden Verträge hatten als Rechtsgrundlage für den Datenaustausch zwischen den USA und der EU fungieren sollen. Gerechtfertigt wurde das damit, dass die USA ein ähnlich hohes Schutzniveau wie die EU hätten. Der EUGH wollte das, insbesondere nach den Snowden-Enthüllungen, nicht mehr akzeptieren.

Doch außer dass ein paar Jurist*innen und Politiker*innen hochschreckten, hatte das Ende der Abkommen praktisch keine Konsequenzen. Was sollte man auch tun? Die Atlantikkabel durchschneiden? Es wird auch dieses Mal darauf hinauslaufen, dass ein neues ungültiges Abkommen geschlossen wird. Rechtsgrundlage hin oder her, für eine Demokratie ist es politisch schlicht nicht durchsetzbar, internationale Datenflüsse zu unterbinden. Die juristische Sackgasse zeigt in Wirklichkeit ein politisches Dilemma auf.14

Dabei hat die EU noch einen vergleichsweise großen Einfluss auf Plattformen. Weltweit haben über 50 Länder Gesetze verabschiedet, um mehr Kontrolle über den digitalen Raum zu erlangen. Ob die Plattformen sich daran halten werden, ist eine ganz andere Frage.15 Gerade Länder mit geringer Wirtschaftskraft können Regulierungen kaum gegen die Macht der Plattformen durchsetzen.

Die Hegemonie der amerikanischen Plattformen wird deswegen insbesondere in tendenziell ärmeren Ländern des globalen Südens zunehmend kritisch gesehen. Michael Kwet geht so weit, darin eine neue, diesmal digitale Form von Kolonialismus zu sehen.16 Indem die Plattformen arme Länder mit digitaler Infrastruktur versorgen – oft sogar mit dem Anstrich humanitärer Wohltätigkeit –, okkupieren sie diese Länder in gewisser Weise. Zum einen schaffen sie Abhängigkeiten von den eigenen Infrastrukturen, zum anderen erlangen sie Besitz über die Daten. In der Tat kann man jede Ausweitung der Macht über Verbindungen von Google, Apple, Facebook, Microsoft und Amazon in anderen Ländern als Graphnahmen im geopolitischen Sinn auffassen.

  1. Vgl. Steven Levy: Inside Google’s China Misfortune, https://fortune. com/2011/04/15/inside-googles-china-misfortune/, 15. 04. 2011 (abgerufen über: https://web.archive.org/web/20201029002329/https://fortune. com/2011/04/15/inside-googles-china-misfortune/).
  2. Vgl. John Battelle: Google, China, Wikileaks: The Actual Cable, https:// www.businessinsider.com/google-china-wikileaks-the-actual-cable-2011-1, 08. 12. 2010. Hier dreht sich die Instrumentalisierung Plattform/Staat sogar um. Die Plattform nutzt den Staat, um ihr Graphmonopol gegen Konkurrenten zu verteidigen. Und in der Tat kann sich die Zusammenarbeit zwischen Plattform und Staat auch für die Plattform lohnen.
  3. Joseph S. Nye, Jr., Robert O. Keohane: Power and Interdependence – World Politics in Transition, New York 2001.
  4. Es ist dabei nicht ohne Ironie, dass die chinesische Firewall nicht ohne die Mitarbeit amerikanischer Tech-Konzerne hat gebaut werden können, allen voran Cisco, das sich deswegen vor Gericht verantworten muss. Vgl. Ryan Gallagher: How U.S. Tech Giants are Helping to Build China’s Surveillance State, https://theintercept.com/2019/07/11/china-surveillance-google-ibm- semptian/, 11. 07. 2019. und Karl Bode: EFF Wants Cisco Held Responsible For Helping China Track, Torture Falun Gong Members, https://www.techdirt.com/articles/ 20160113/06091133328/eff-wants-cisco-held-responsible-helping- china-track-torture-falun-gong-members.shtml, 14. 01. 2016.
  5. Mit Emerson könnte man sagen, dass China mit der großen Firewall zunächst einen Balanceakt 1 eingeleitet hat, also seine Motivation zur Nutzung westlicher Internetdienste reduziert hat, was dann in den Balanceakt 2 überging, also der Schaffung alternativer Services im eigenen Land.
  6. Dazu gehören unter anderem die vielen auf vagen Gerüchten, Annahmen und Vorurteilen basierenden Erzählungen, die im Westen über das »Social Credit System« kursieren. Für einen nüchternen Blick auf die Tatsachen siehe Xin Dai: Toward a Reputation State – The Social Credit System Project of China, http://dx.doi.org/10.2139/ssrn.3193577, 10. 06. 2018.
  7. Vgl. z. B. Bernhard Hämmerli: Cyber-Souveränität definiert die strategische Zukunft jeder Nation, https://www.security-finder.ch/experten-berichte/ bisherige-monatsgaeste/detail00/article/cyber-souveraenitaet-definiert-die- strategische-zukunft-jeder-nation.html, 01. 01. 2017.
  8. Carolina Vendil Pallin: Internet control through ownership: the case of Russia, https://doi.org/10.1080/1060586X.2015.1121712, 04. 01. 2016.
  9. Ingrid Lunden: Google confirms some of its own services are now getting blocked in Russia over the Telegram ban, https://techcrunch.com/2018/04/22/ google-confirms-some-of-its-own-services-are-now-getting-blocked-in-russia- over-the-telegram-ban/, 23. 04. 2018.
  10. Loise Matsakis: Apple’s Good Intentions Often Stop at China’s Borders, https://www.wired.com/story/apple-china-censorship-apps-flag/, 18. 07. 2019.
  11. Tim Bradshaw: Apple drops hundreds of VPN apps at Beijing’s request, https:// www.ft.com/content/ad42e536-cf36-11e7-b781-794ce08b24dc, 22. 11. 2017.
  12. Rita Liao: Apple removes two RSS feed readers from China App Store, https://techcrunch.com/2020/09/30/apple-removes-two-rss-feed-readers-from- china-app-store/, 30. 09. 2020.
  13. Vgl. Article 19 of The Universal Declaration of Human Rights, https://www. humanrights.com/course/lesson/articles-19-25/read-article-19.html.
  14. Michael Seemann: Informationelle Selbstzertrümmerung, https://www.ctrl- verlust.net/informationelle-selbstzertruemmerung/, 13. 04. 2016.
  15. Paul Mozur, Mark Scott, Mike Isaac: Facebook Faces a New World as Officials Rein In a Wild Web, https://www.nytimes.com/2017/09/17/technology/ facebook-government-regulations.html, 17. 09. 2017.
  16. Michael Kwet: Digital Colonialism: US Empire and the New Imperialism in the Global South, https://papers.ssrn.com/sol3/papers.cfm?abstract_ id=3232297, 05. 09. 2018.

Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Leseprobe 2: Das Regulierungparadox

Gestern wurde vom Bundestag die Umsetzung unter anderem der sogenannten Uploadfilter beschlossen. Damit kommt eine sehr umstrittene EU-Gesetzgebung konkret in Deutschland an, deren Spitzen immerhin im deutschen Gesetzgebungsprozess etwas abgemildert werden konnten. (Danke, u.a. Julia Reda!) Da ich über das Thema auch in meinem neuen Buch geschrieben habe, veröffentliche ich zu diesem Anlass den passenden Auszug. Anhand der Uploadfilter und anderer Regulierungsvorhaben erkläre ich das Regulierungsparadox. Die Stelle findet sich im Kapitel 6 – Plattformpolitik, Unterkapitel Netzaußenpolitik, S. 229 – 237.

Das Regulierungsparadox

Am 13. Februar 2019 einigte sich die EU auf eine neue Urheberrechtsrichtlinie. Gegen diese Richtlinie hatte es im Jahr zuvor viel Protest gegeben. Junge Leute, vor allem in Deutschland, gingen zu Tausenden auf die Straßen. Gegenstand der Kritik war vor allem Artikel 13 – in der endgültigen Fassung Artikel 17 – der EU-Urheberrechtsrichtlinie, in dem es um die sogenannten »Uploadfilter« geht.

Die Regelung verlangt von Internetdiensten, insbesondere von Plattformen für nutzergenerierte Inhalte, alle Inhalte vor der Veröffentlichung auf mögliche Urheberrechtsverletzungen zu prüfen. Um dem Gesetz zu entsprechen, müssen Plattformen also technische Infrastrukturen bereithalten, die ankommende Daten mit den Einträgen einer vorher eingerichteten Datenbank von urheberrechtlich geschützten Werken abgleichen, bevor sie sie zur Veröffentlichung freigeben. Ein solches Verfahren ist komplex, teuer und fehleranfällig. Es beschränkt zudem die Äußerungsmöglichkeiten der Nutzerinnen im Zweifel extrem. Den Upload eines privaten Videos kann schon ein Song verhindern, der im Hintergrund im Radio läuft. Ein zitierter Ausschnitt aus einer Berichterstattung kann durch die Rechteinhaber automatisch zensiert werden. Die gesamte, über Jahre gewachsene kulturelle Praxis der Kommunikation über Memes, wie sie unter jüngeren Internetnutzerinnen zur Alltagskultur gehört, scheint in Gefahr. 1

Für die Politikerinnen, die die Urheberrechtsnovelle vorangetrieben haben, standen aber gar nicht die potentiell drakonischen Einschnitte in die Handlungsfreiheit der Nutzerinnen im Zentrum der Diskussion, vielmehr verwiesen sie – oft mit martialischer Rhetorik – auf die Macht der Plattformen, deren Gebaren Einhalt zu gebieten sei.2

Für die institutionelle Politik, die den Aufstieg der Plattformen in den letzten Jahren durchaus argwöhnisch beobachtet hat, mag sich die Auferlegung harter Regulierungsmaßnahmen wie ein potenter Akt anfühlen. Doch für die Plattformen sind Regulierungen – sei es das oben erwähnte Recht auf Vergessenwerden, die Europäische Datenschutzgrundverordnung (DSGVO), das sogenannte »Netz- werkdurchsetzungsgesetz« (NetzDG), die Uploadfilter oder eben auch die chinesischen Ansprüche an Suchergebniszensur – erst einmal nur technische Herausforderungen. Sie werden in Code gegossen und in die ohnehin schon regulierenden Systeme eingebaut. Schlimmstenfalls muss man ein paar zusätzliche Moderator*innen anstellen und am Ende werden alle oktroyierten Regulierungen nichts weiter als eine Modifikation der Zugangs-, Query- und/oder Verbindungsregimes gewesen sein.

Plattformen sind – wie unter dem Abschnitt zur Netzinnenpolitik hoffentlich deutlich geworden ist – selbst mächtige Regulierer. Und sie sind, trotz aller berechtigter Kritik, sehr effizient darin. Sie zu regulieren, führt lediglich dazu, dass sie ihre eigene Regulierungsebene anpassen. Die Uploadfilter zum Beispiel sind, einmal implementiert, nichts anderes als zusätzliche Selektionskaskaden auf ankommende Datenströme.3 Teuer in der Entwicklung, nahezu kostenlos im Betrieb.

Doch das politisch Wesentliche passiert nach der Implementierung: Jede dieser Anpassungen verändert das Machtverhältnis zwischen Plattform und Staat zugunsten der Plattform. Emersons Balanceakt 3 bezeichnet die Strategie, sich als Akteur in der wechselseitigen Beziehung aufzuwerten und so die Abhängigkeit des Gegenübers zu erhöhen. Auf Plattformenregulierung angewendet: Jede von einer Plattform implementierte Regel erhöht die Abhängigkeit der nationalen Politiken von der jeweiligen Plattform. Die Macht der Plattformen wächst in dem Maße, wie die ihr zugewiesene Regulierungskompetenz steigt.4

Politikerinnen, die glauben, die Macht der Plattformen durch Regulierung einzuschränken, tun in Wirklichkeit meist das genaue Gegenteil. Das nenne ich das »Regulierungsparadox«.5 Reguliert man einen Regulierer, schränkt man seine Macht nicht ein, sondern weitet sie oft aus. Viele Politikerinnen, insbesondere auf der Ebene der Europäischen Union, haben diesen Mechanismus noch nicht wirklich begriffen.

Das Regulierungsparadox gilt für beinahe alle Formen der Plattformregulierung. Die DSGVO wurde vor ihrem Inkrafttreten ebenfalls als harter Schlag gegen Google und Facebook verstanden. Heute wissen wir, dass sie zu einer großen Marktbereinigung führte, die Googles und Facebooks Vormachtstellung auf dem Online-Werbe-markt weiter gefestigt hat. Allein 2018, dem Jahr des Inkrafttretens, stieg Facebooks Werbeumsatz in Europa um 40 und Googles um 20 Prozent, während der restliche Online-Werbemarkt lediglich um 14 Prozent wuchs.6 Insgesamt wuchs Googles Anteil am Online Werbemarkt um 5,4 Prozent und der Anteil am Webanalyse-Markt sogar um 7,2 Prozent in den ersten sechs Monaten seit Inkrafttreten.7 Gleichzeitig garantieren vor allem die großen Plattformen jene Errungenschaften der DSGVO, die die Politikerinnen ihren Wählerinnen versprochen haben, während viele kleine, oft nicht kommerzielle Projekte sich nicht in der Lage sahen, den hohen Anforderungen gerecht zu werden, und ihre Websites schlossen.8 Haben Publizistinnen mit unabhängiger und selbst betriebener Infrastruktur den vollen Aufwand und das volle Risiko, wenn sie ihre Angebote an die neuen Regelungen anpassen, brauchen Nutzerinnen der großen Plattformanbieter meist nur einen Knopf zu betätigen, und die Plattform erledigt den Rest. Es ist schließlich genau dieses Abfangen von Reibung und Komplexität, das die Plattformen so erfolgreich gemacht hat.

Im Falle der Uploadfilter wird sich Ähnliches einstellen. Nicht nur werden die Uploadfilter als Erstes von den großen Plattformen entwickelt und implementiert werden, kleinere Projekte werden die Software auch von ihnen lizenzieren müssen. Und was den freien und kreativen Umgang mit Memes und Remixes betrifft, wird es Dienste geben, die wie heute schon GIPHY9 Lizenzverträge mit Tausenden von Rechteinhaberinnen haben und den Nutzerinnen ein rechtssicheres Angebot machen, bei dem sie aus einer kuratierten Datenbank vorgefertigte Inhalteschnipsel für etwas nutzen können, was ein bisschen so ähnlich aussieht wie die Kreativität, die das Internet einmal hervorgebracht hat.

Derweil freut man sich in Europa, mit der DSGVO einen internationalen Standard gesetzt zu haben, und verweist stolz darauf, dass Google und Facebook im eigenen Land, den USA, sogar dafür werben, vergleichbare Regulierungen einzuführen.10 Doch natürlich ist die Internationalisierung dieses Standards gerade für die Plattformen enorm sinnvoll. Schließlich haben sie bereits darin investiert, die komplizierten Regeln in die eigenen Regimes zu übersetzen. Es ist ökonomisch also nur folgerichtig, dies als Wettbewerbsvorteil auf möglichst vielen Märkten auszuspielen.
Positiv ausgedrückt kann man Europas Politik gegenüber den Plattformen als »Politik der Pfadentscheidung« verstehen.11 Durch den Hebel der Regulierung, die durch die Plattformen implementiert und weltweit ausgerollt wird, strukturiert Europa den Entscheidungsraum aller anderen Staaten vor und wirkt weit über die eigene Jurisdiktion hinaus.

Zusammengefasst lässt sich festhalten, dass Regulierung durchaus ihre explizit formulierte Intention verwirklicht, gerade dann, wenn sie von großen Plattformen implementiert wird. Wenn die Hintergrundintention allerdings ist, die Macht der Plattformen einzuschränken, wird man damit das Gegenteil erreichen.

Fußnoten

  1. Ein Meme ist ein vom Wort »Gen« abgeleiteter Begriff, der netzkulturelle Artefakte beschreibt, die sich über Selektion, Variation und Kopie viral über das Internet verbreiten.
  2. Etwa Axel Voss im Interview mit Zeit Online: Lisa Hegemann: »Was YouTube macht, ist eine Art Enteignung», https://www.zeit.de/digital/internet/2019-03/ axel-voss-artikel-13-uploadfilter-urheberrechtsreform/komplettansicht, 25. 03. 2019.
  3. Die Ironie der Geschichte will, dass ausgerechnet Google das Konzept des Uploadfilters und somit das Vorbild für die Gesetzesvorlage in die Welt setzte. Content-ID ist ein System zur automatischen Erkennung urheberrechtlichen Materials, das bereits seit 2007 auf YouTube aktiv ist. Vgl. Leonhard Dobusch: Mario Barth vs. »Die Anstalt« – ein anschauliches Beispiel für Probleme mit Uploadfiltern, https://netzpolitik.org/2019/mario-barth-vs- die-anstalt-ein-anschauliches-beispiel-fuer-probleme-mit-uploadfiltern/, 17. 03. 2019.
  4. Internetaktivist*innen haben auf diesen Umstand immer wieder hingewiesen, vgl. z. B. Joe McNamee: Ist Artikel 13 wirklich das Ende des freien Internets, https://netzpolitik.org/2019/ist-artikel-13-wirklich-das-ende-des-freien-internets/, 19. 03. 2019.
  5. Michael Seemann: Das Neue Spiel, S. 146.
  6. Nick Kostov, Sam Schechner: GDPR Has Been a Boon for Google and Face- book, https://www.wsj.com/articles/gdpr-has-been-a-boon-for-google-and- facebook-11560789219?mod=rsswn, 17. 06. 2019.
  7. Vgl. Christian Peukert, Stefan Bechtold, Michail Batikas, Tobias Kretschmer: Regulatory export and spillovers: How GDPR affects global markets for data, https://voxeu.org/article/how-gdpr-affects-global-markets-data, 30. 09. 2020.
  8. Nach Inkrafttreten der DSGVO schlossen Hunderte Blogs, Foren und andere Projekte. Vgl. Enno Park: Statt Links der Woche: Tote Links der Woche, http://www.ennopark.de/2018/05/27/statt-links-der-woche-tote-links-der- woche/, 27. 05. 2018.
  9. Vicotoria Green: A Very Brief And Incredibly Animated History of GIPHY – And What It All Means For Brands, https://marketwake.com/a-very-brief-and-incredibly-animated-history-of-giphy-and-what-it-all-means-for-brands/, 14. 06. 2019.
  10. Henry Farrell: Facebook is finally learning to love privacy laws, https://www. ft.com/content/67b25894-5621-11e9-8b71-f5b0066105fe, 04. 04. 2019.
  11. Tatsächlich gibt es bereits einen Namen für den Effekt, dass vergleichsweise strenge Regulierungen sich als Pfadentscheidung über die eigene Jurisdiktion auswirken: California-Effect. Vgl. Sebastiaan Princen: The California Effect in the EC’s External Relations, http://aei.pitt.edu/2367/1/003780.1.pdf, 05. 06. 1999.

Veröffentlicht unter Kontrollverlust
1 Kommentar

Leseprobe: Die Macht der Plattformen

Heute erscheint mein neues Buch, Die Macht der Plattformen. Wie mein erstes Buch, basiert es in vielerlei Hinsicht auf den in diesem Blog entwickelten Thesen.

Die Kernthese des Buches ist, dass eine spezifische Form der Macht gibt, die ich Plattformmacht nenne und die ich in dem Buch im Detail analysiere. Plattformmacht besteht aus zwei Teilen: Netzwerkmacht und Kontrolle. Die Kontrolle wiederum kommt als unterschiedliche Hebel daher, die ich im 4. Kapitel darstelle. Unter diesen sechs Kontrollregimes findet sich zum Beispiel die Kontrolle des Zugangs zur Plattform (Zugangsregime), die Kontrolle über die Sichtbarkeit von Dingen auf der Plattform via Algorithmen (Queryregime), das Interfaceregime, das Verbindungsregime und so weiter. Das erste Regime, dass ich bespreche, ist das Infrastrukturregime. Der hier veröffentlichte Auszug aus dem Buch stellt es vor:

Das Infrastrukturregime

2014 gibt Facebook bekannt, über 50 neue Geschlechterkategorien im Registrierungsprozess einzuführen.1 Das Medienecho ist riesig. Egal, ob die jeweiligen Kommentator*innen den Schritt begrüßen oder problematisieren, wird er doch allgemein als ein einschneidendes Ereignis gelesen. Und zwar zu Recht.

Denn digitale Infrastrukturen prägen Gesellschaften. Das gilt nicht nur für die Geschlechterfrage. Das größte soziale Netzwerk strukturiert mit seinen Kategorien und Klassifikationen unseren kulturellen Kosmos ganz entscheidend mit. Egal, ob »es ist kompliziert« als Beziehungsstatus oder das »Like« als Geste der Zustimmung, Facebooks Designentscheidungen haben einen Einfluss darauf, wie wir denken, handeln und kommunizieren – auf Facebook, aber auch außerhalb. Doch das ist nur die Spitze des Eisbergs.

Das Internet ist voll mit Standards und Klassifikationen, die unser Leben regieren. Ein Beispiel ist das Domain Name System (DNS). Es sorgt dafür, dass wir in die Browser-Adressleiste Domains wie spiegel.de oder facebook.com eingeben können statt die Zahlen einer IP-Adresse. Schon zu ARPANET-Zeiten wollten sich die Menschen keine numerischen Adressen merken, sondern lieber Namen. Eine Frau namens Elisabeth Feinler entwickelte und pflegte zu diesem Zweck ein öffentliches Verzeichnis, indem sie in einer Datei auf ihrem Computer den numerischen Adressen Namen zuordnete und die Datei über das ARPANET abrufbar machte.2 Ihre Institution nannte sie bald NIC (Network Information Center) und siedelte sie bei ihrem Arbeitgeber, dem Stanford Research Institut (SRI) in Kalifornien, an. Feinler richtete darüber hinaus den ersten Whois-Dienst ein, eine öffentliche Datenbank, in der man Informationen über die Betreiber von ARPANET-Knoten abfragen kann. Bis heute ist Whois ein wichtiger Dienst, der Auskunft über Domainbetreiber*innen liefert. Feinler war es schließlich auch, die die Idee für die sogenannten Top-Level-Domains einbrachte wie .de, .edu, .com etc. Damit waren bereits alle Grundsteine für das DNS gelegt.

Als in den 1980er Jahren das ARPANET auf das Internet umgeschaltet wurde, stellte sich Feinlers System allerdings als zu unflexibel und zu hierarchisch heraus, um beim rasanten Wachstum des Netzes mitzuhalten. 1983 veröffentlichte die Internet Engineering Task Force (ein Gremium, das regelmäßig über neue Netzwerkstandards befindet) Richtlinien zur Entwicklung des DNS. 1984 wurde es zum ersten Mal implementiert: auf einem Unix-System an der Universität Berkeley.

Das System sollte aus verteilten Name-Servern bestehen, die von der Top-Level-Domain abwärts Domains IP-Adressen zuordnen. Jede Domain hat einen Namensraum, der dann wiederum in Namensräume unterteilt werden kann. Der Betreiber der .de- Domain (in dem Fall DENIC) registriert zum Beispiel alle Domains, die auf .de enden, wie spiegel.de oder mspr0.de. Die Domain-Inhaber haben ihrerseits die Möglichkeit, Subdomains einzurichten, wie content.spiegel.de etc.

Obwohl das System von Anfang an international angelegt war, konnten Domains jahrzehntelang nur ohne sprachspezifische Sonderzeichen angemeldet werden. Das hat einen einfachen Grund: DNS basiert auf einem limitierten Zeichensatz, der Umlaute und andere Sprachelemente nicht enthält. Seit 2009 kann das System zwar auch Umlautdomains verarbeiten, doch weil man sich nicht überall auf die korrekte Implementierung des jeweiligen Zeichen- satzes verlassen kann, bleibt es bis heute eher eine theoretische Option, die nur wenig genutzt wird. Die Priorisierung des englischen Sprachraums und seines eingeschränkten Zeichensatzes ist in der Infrastruktur von DNS – und vielen anderen Systemen – quasi eingebacken.

Infrastrukturen sind ineinander verschränkte Erwartungserwartungen. Es sind die akkumulierten Standards, Vorselektionen, Pfadentscheidungen, Klassifikationssysteme, die Plattformen strukturieren und damit vorgeben, wie wir mit ihnen interagieren. Susan Leigh Star hat zusammen mit Geoffrey C. Bowker in Sorting Things out – Classification and Its Consequences einen Infrastrukturbegriff konzipiert, der genau diese Art von Regime gut auf den Punkt bringt.3 Infrastruktur weist unter anderem folgende Eigenschaften auf:

  1. Infrastruktur ist eingebettet in andere soziale, technische und wirtschaftliche Strukturen.
  2. Infrastruktur ist transparent in dem Sinne, dass sie zwar zur Verfügung steht, wenn auf sie zurückgegriffen wird (sonst müsste man sie ständig neu erfinden), aber in ihrer unterstützenden Wirkung unterhalb der Wahrnehmungsschwelle bleibt.
  3. Die Benutzung von Infrastruktur wird gelernt, aber es wird verlernt, dass sie gelernt wurde. Sie erscheint ihren Benutzer*innen dadurch »natürlich« in der Handhabung.
  4. Infrastruktur steht in einem wechselseitigen Beeinflussungsverhältnis mit den Konventionen ihrer Benutzer*innen. Die Konventionen verändern die Infrastruktur, und die Infrastruktur beeinflusst Konventionen.
  5. Infrastruktur basiert auf anderer Infrastruktur und »erbt« deren Limitierungen und Eigenschaften.
  6. Infrastruktur wird nur sichtbar, wenn sie zusammenbricht.
  7. Infrastruktur ist träge und lässt sich nur langsam, lokal und inkrementell ändern, niemals global und ad hoc.

Wie wir in Kapitel 2 gezeigt haben, sind Plattformen einander Infrastruktur, wobei Infrastruktur in unserem Sinne die Gesamtheit der Plattformen ist, auf der eine andere Plattform oder eine konkrete Verbindung aufsetzt. Alle Plattformen basieren auf Infrastruktur, und alle Plattformen sind wiederum Infrastruktur – weswegen alle Plattformen ein Infrastrukturregime implementieren. Infrastruktur kontrolliert auf subtile, aber sehr grundlegende Weise unsere Handlungen und übernimmt die Vorselektionen der Infrastruktur, auf der sie selbst basiert, und reicht sie nach oben durch.

Dass in Domainnamen lange keine Umlaute oder sonstige nicht englische Buchstaben verwendet werden konnten, liegt zum Beispiel am ASCII-Standard. ASCII (American Standard Code for Information Interchange) gibt einen Satz von 128 Zeichen als Standard vor, der universal für beinah alle Computer der Welt interpretierbar ist. Dazu gehören das lateinische Alphabet in großen und kleinen Buchstaben, die Zahlen von 0 bis 9 und einige Satz-, Sonder- und Steuerzeichen. ASCII wurde in den 1960er Jahren von der American Standards Association entwickelt. Danach breitete es sich zunächst als Standardzeichensatz für Unix-Systeme aus und wurde in Computern aller Art auf sehr tiefer Ebene implementiert. Nach Grewal kann man sagen, dass ASCII zumindest im Computerbereich den Schwellenwert der Universalität erreicht hat. Fast alle Internet-Standard-Spezifikationen setzen ASCII voraus – so auch DNS. ASCII ist also Teil der Infrastruktur von DNS.

Doch in seinem Design ist ASCII alles andere als universell. Es ist speziell für die englische Sprache optimiert und kann fremdsprachige Sonderzeichen wie unser »ö« oder »ß« oder gar ganz andere Zeichensysteme wie Mandarin, Kyrillisch oder Sanskrit-Dialekte lediglich über komplizierte Umwege abbilden.

Wenn ein Infrastrukturregime nur mit genügend Netzwerkmacht ausgestattet ist, wird es hegemonial im Gramsci’schen Sinn. So wird aus einer unbedachten Designentscheidung aus den 1960er Jahren ein Kulturdeterminismus, der sich bis heute in der Technologie fortpflanzt und sich der ganzen Welt aufzwingt. Manche gehen so weit, von einem ASCII-Imperialismus zu sprechen.4

Dabei muss das Infrastrukturregime seine Lenkungswirkung gar nicht intendieren. Die Designentscheidungen in Infrastrukturen sind oft einfach Resultat nicht hinterfragter Anschauungen und Wertvorstellungen. Sie sind sedimentierte gesellschaftliche Diskurse und eingelassene Vorurteile, doch nichtsdestotrotz oder gerade deswegen sind sie hochpolitisch.

Als nach und nach die Beschränktheit von ASCII überwunden wurde und Anfang der 1990er mit dem neuen Standard Unicode größere Zeichensätze in vielen Betriebssystemen implementiert wurden, blieben auch hier die eingebackenen Pfadentscheidungen unbedacht. Als Anfang der 2010er Jahre aus Japan der Trend zu kleinen zeichenbasierten Emotionsbildchen – sogenannten Emojis – in westliche Betriebssysteme schwappte, wiederholte sich die Geschichte. Wie Kate M. Miltner in ihrer Studie zur Einführung von Emojis durch Unicode 7 nachweist, waren die begleitenden Diskurse ignorant gegenüber der Wichtigkeit von ethnischer Repräsentation, weswegen das originale Emoji-Set – bis auf zwei Ausnahmen – nur weiße Emojis enthielt.5

Alle Plattformarten implementieren Klassifikationen und Standards auf die ein oder andere Art. Auch Protokolle brauchen definierte Zustände und valide geformte Anfragen. In diese Festlegungen fließen viele Vorannahmen ein. Wie lange muss ein Netzwerkteilnehmer auf eine Antwort warten, bis es ein Time-out gibt? Wie lang ist eine »normale« Nachricht, welches Schriftsystem soll verwendet werden? Wie wird auf Unvorhergesehenes reagiert? Für all diese Festlegungen lassen sich völlig unpolitische und politisch problematische Fälle denken. Und doch werden auf jeden Fall die Aktionsmöglichkeiten von Nutzer*innen in Bahnen geleitet und in bestimmten Fällen konkret eingeschränkt.

Die Einführung der 50plus Geschlechter durch Facebook 2014 ist genau deswegen so stark diskutiert worden, weil hier eine Infrastrukturentscheidung eben nicht implizit war, sondern explizit gemacht wurde. Da die Macht des Infrastrukturregimes ständig droht, in Vergessenheit zu geraten, ist es umso wichtiger, immer wieder an sie zu erinnern.

Fußnoten

  1. Bernd Matthies: Mann, Frau und die 50 anderen, https://www.faz.net/aktuell/ gesellschaft/geschlechter-liste-alle-verschiedenen-geschlechter-und-gender- arten-bei-facebook-13135140.html 16. 02. 2014.
  2. Cade Metz: Before Google and GoDaddy, There Was Elizabeth Feinler, https:// www.wired.com/2012/06/elizabeth-jake-feinler/, 18. 06. 2012.
  3. Susan Leigh Star, Geoffrey C. Bowker: Sorting Things out – Classification and Its Consequences, Cambridge 2000.
  4. Vgl. Daniel Pargman, Jacob Palme: ASCII Imperialism, in: Martha Lampland, Susan Leigh Star: Standards and Their Stories – How Quantifying, Classifying, and Formalizing Shape Every Day Life, Cornell 2009, S. 177–199.
  5. Kate M. Miltner: »One part politics, one part technology, one part history«: Racial representation in the Unicode 7.0 emoji set, https://journals.sagepub.com/ eprint/EBZICCFWSDHSXFIIXYZJ/full#articleCitationDownloadContainer, Januar 2020.

Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Warum die Festlegung auf die dezentrale Variante der Corona-Warn-App ein Fehler war

Nächste Woche soll die Corona-Warn-App herauskommen. Es gab die letzten Wochen viele Diskussionen über technische Hintergründe, vermeintlichen Gefahren für die Privatsphäre und den Sinn und Unsinn dieser App. Ich habe mich lange Zeit eher auf der Befürworterseite der App wiedergefunden. Nun sind aber Erkenntnisse über das Virus bekannt geworden, die die ganzen Dikussionen in einem neuen Licht erscheinen lassen. Ich bin mittlerweile überzeugt, dass insbesondere das Beharren auf dem dezentralen Ansatz ein entscheidender Fehler war, der das ganze Unterfangen jetzt nahezu sinnlos gemacht hat. Aber von vorn.

Kontaktverfolgung

Contact Tracing – oder Kontaktverfolgung – ist grundsätzlich erstmal eine sehr sinnvolle und effektive Maßnahme zur Pandemiebekämpfung. Dabei wird die Kontakthistorie von erkrankten Menschen erfragt und diese Kontakte werden dann ihrerseits gebeten sich zu isolieren. Es geht darum, Infektionsketten zu durchbrechen, also dafür zu sorgen, dass Leute, die in Gefahr sind, sich angesteckt zu haben, ihrerseits niemanden mehr anstecken. Gerade bei Covid19, bei dem Ansteckungen oft symptomfrei passieren, ist ein solches Vorgehen besonders wichtig.

In der Praxis geschieht das erstmal manuell, mit speziell geschultem Personal. Sie interviewen die kranke Person und sie telefonieren hinter den Kontakten hinterher. Diese Praxis hat mehrere Probleme: 1. Sie ist sehr personalaufwändig, die Gesundheitsämter mussten dafür bereits sehr viele zusätzliche Leute anstellen. 2. Die Methode ist ist lückenhaft. Man erinnert sich vielleicht noch an jeden einzelnen Kollegen und jedes Familienmitglied mit dem man interagiert hat, aber nicht, neben wem man eine viertel Stunde in der Bahn gesessen hat. 3. Die Methode ist sehr zeitaufwändig. Das ist wahrscheinlich das größte Problem, denn Zeit ist hier der kritische Faktor. Jede zusätzliche Stunde, die ein potentiell Angesteckter nicht gewarnt wird, bedeutet, dass er oder sie weitere Personen anstecken kann.

Auf alle drei dieser Probleme scheint die Corona-Warn-App die Lösung zu sein. Statt, dass sich die Leute selbst merken, mit wem sie wann in Kontakt standen, merkt sich einfach das Telefon, welche anderen Telefone es in der Nähe gesehen hat. „Gesehen“ meint hier, Identifikationscodes anderer Telefone per Bluetooth LE empfangen zu haben. Die Technologie erlaubt sogar eine Abstandsmessung mit einer gewissen Präzision.

Schon im März kam man auf den Gedanken, dass eine solche Methode relativ datenschutzfreundlich umsetzbar ist. Durch Bluetooth kann man getrost auf jede Lokalisierung verzichten. Es geht schließlich nicht um Orte, sondern um relative Entfernungen der Personen zueinander. Obendrein haben findige Sicherheitsforscher ein Konzept entwickelt, wie der Austausch der Identifikationscodes komplett anonymisierbar ist. Es wurde schnell eine europäische Initiative aus Wissenschaftlerinnen, NGOs und Unternehmen gegründet: PEPP-PT (Pan European Privacy Preserving – Proximity Tracing). Es wurde vieles richtig gemacht: Es wurde früh eine breite Debatte angestoßen und es wurden viele zivilgesellschaftliche Akteure und Spezialistinnen eingebunden.

Der Streit

Eine Frage aber schien die Initiative schon früh zu spalten: Nämlich, ob die App zentral oder dezentral funktionieren soll. Zentral würde bedeuten, dass die Daten von den Telefonen gesammelt, aber gleich an einen zentralen Server weitergesendet werden, der dann die Auswertung der Kontakte unternimmt und die Warnungen verschickt. Dezentral bedeutet, dass die Daten vorerst auf den Telefonen bleiben und dort ausgewertet werden. Nur im Infektionsfall würden Daten zentral verarbeitet und an alle Telefone weitergeleitet werden, die dann anhand der jeweilig lokalen Kontakthistorien überprüfen können, ob sie mit dem Identifikationscode des Erkrankten in Berührung gekommen sind.

Die Verfechter der dezentralen Lösung legten als erste eine eigene Spezifikation genau für diese Methodik vor: DP-3T (Decentralized Privacy-Preserving Proximity Tracing). Sie hatten alle Argumente auf ihrer Seite: Eine Zusammenführung der Daten auf dem zentralen Server war schlicht nicht notwendig und aus Datenschutzsicht sogar potentiell gefährlich. Statt die zentrale Variante aber argumentativ zu verteidigen, entschied man sich bei PEPP-PT, DP-3T kommentarlos aus der Initiative zu werfen und ansonsten die Bundesregierung um Unterstützung zu ersuchen. Die stellte sich zwar daraufhin auf Seiten der zentralen Lösung von PEPP-PT, doch das brachte wenig.

Am Ende entschieden nämlich Apple und Google über die Umsetzung. Vor allem die Zusammenarbeit mit Apple war für die Umsetzung egal welcher Lösung absolut notwendig, weil sie aus Sicherheitsgründen den Zugriff auf das Bluetooth ihrer Geräte begrenzen. Apple und Google favorisierten ganz klar die dezentrale Lösung und setzten sie auch noch in Windeseile in Form einer API auf Betriebssystemebene um. Deutschland und Frankreich versuchten das Ganze noch ansatzweise zu eskalieren, um die zentrale Variante doch noch möglich zu machen, doch all das aber brachte nichts. Zumindest Deutschland lenkte bald ein. PEPP-PT verlor.

Das was nun nächste Woche veröffentlicht wird, ist also die dezentrale Variante der App. Ein Sieg der Datenschützer*innen und von Apple und Google.1 Doch es ist ein Pyrrhussieg, denn die grundlegende Designentscheidung, sich auf Dezentralität festzulegen, wird der App nun zum Verhängnis.

Der Paradigmenwechsel

Über die Effektivität der App wird bereits seit langem gestritten. Zwei wesentliche Punkte tauchen dabei immer wieder auf: Zum einen gibt es die Sorge, dass die App in erster Linie Falschpositive Ergebnisse produzieren wird, also Warnungen, die aufgrund von Messfehlern oder falschen Einschätzungen von Kontaktereignissen entstanden sind und die Leute nur verwirren. Zum Anderen und entscheidender: Es braucht es eine enorm hohe Installationsrate, damit die App wirklich effektiv sein kann. (Edit: allerdings bringt auch ein bisschen auch schon was2) Bei 70% Installationsrate würden überhaupt nur 50% der Kontakte registriert. Doch 70% sind ansich schon völlig illusorisch. Selbst die erfolgreichsten Apps überhaupt schaffen gerade mal 60% Abdeckung. Die meistgenutzte Contacttracing-App gibt es auf Island und sie schafft gerade mal 40%. Immer noch ein Traumwert. Wenn wir in Deutschland auf 20% kämen, wäre das bereits ein enormer Erfolg. Ich persönlich fand allerdings keines dieser Argumente so stark, dass es den Versuch nicht wenigstens Wert gemacht hätte.

Meine Meinung änderte sich erst mit dem Auftreten neuer Erkenntnisse zum Virus selbst. Wir wissen zwar schon lange, dass die Reproduktionzahl (R0) des Virus zwischen 2 und 3 liegt (ein Kranker steckt im Normalfall und im Schnitt 2 bis 3 Leute an), wir wussten aber wenig, wie sich diese Ansteckungen verteilen. Bisher sind wir implizit davon ausgegangen, dass sich die Ansteckungen statistisch zufällig verteilen, dass also der eine mal eine Person, die andere vier, die nächste wieder zwei, auch mal jemand niemand und so weiter ansteckt. So ist das zum Beispiel bei der Grippe, mit der wir die meiste Erfahrung haben. Wir wissen aber heute aus mehreren Studien, dass SARS2 – ähnlich wie sein naher Verwandter SARS – eine sehr hohe Dispersion hat. Eine hohe Dispersion heißt, dass die allermeisten Kranken kaum irgendwelche Leute anstecken, aber ein sehr geringer Teil der Kranken gleich sehr viele Leute anstecken. Die sogenannten Superspreader. Wie hoch die Dispersion genau ist, ist noch strittig. Nicht strittig ist jedoch, dass dieses Ungleichgewicht existiert und dass es vergleichsweise hoch ist.3

Was bedeutet das für die Corona-Warn-App? Es bedeutet eine grundlegende Verschiebung der Aufgabenstellung beim Contact Tracing. Kurz: das Verfolgen von Einzelkontakten wird weniger wichtig, das Aufspüren von Clustern rückt ins Zentrum. Der Reihe nach:

Erstens: der Einzelkontakt wird weniger wichtig, weil die Wahrscheinlichkeit der Ansteckung bei Einzelkontakten sinkt. Bei einer normalverteilten Dispersion würde sich die Ansteckungswahrscheinlichkeit auf alle Einzelkontakte gleichmäßig verteilen. Da wir jetzt aber wissen, dass sich ein Großteil der Gesamtwahrscheinlichkeit der Ansteckung auf Superspreading-Events konzentriert, verteilt sich nur noch wenig Restwahrscheinlichkeit für Ansteckungen auf die Einzelkontaktereignisse. Anders: Die Chance, dass ich mich bei dem Typen, der neben mir in der Ubahn gesessen hat, anstecke, ist geringer als wir dachten. Mich davor zu warnen, ist deswegen zwar nicht völlig sinnlos, aber wesentlich wirkungsloser, als wenn wir es mit einer Normalverteilung des Ansteckungsgeschehens zu tun hätten.

Was dagegen jetzt ins Zentrum rückt, sind damit die Superspreading-Events, denn sie haben offensichtlich eine entscheidende Bedeutung für das Ansteckungsgeschehen. Wenn wir jemanden als krank identifizieren, ist es sehr wahrscheinlich, dass diese Person sich in einem Cluster angesteckt hat. Die Priorität verschiebt sich jetzt dahin, das eventuelle Cluster, in dem sich der Patient angesteckt hat, zu identifizieren und alle Menschen des Clusters zu isolieren. Die manuellen Contact Tracer der Gesundheitsbehörden können ein solches „Clusterbusting“ leisten und tun das auch bereits. Doch die Corona-Warn-App kann das nicht. Und zwar grundsätzlich nicht, wegen ihres dezentralen Designs.

Das dezentrale Design eignet sich nur und ausschließlich, um Einzelkontakthistorien zu sammeln und zu analysieren. Wenn es aber darum geht, herauszufinden, wo und unter welchen Umständen man sich angesteckt hat, zu überprüfen, ob es sich dabei um einen Cluster handeln könnte und alle weiteren Leute, die sich in diesem Cluster aufhielten zu warnen, dann ist das mit der dezentralen Variante schlicht nicht umsetzbar.

Rechnen wir uns einen konkreten Fall mal durch: Bei einer Party mit 100 Leuten steckt ein infizierter Gast 30 andere Gäste an. Um die Wirkung der App auf dieses Ereignis zu beurteilen, müssen wir zunächst eine grundlegende Unterscheidung machen: in Fall 1 nutzt der Kranke die App, in Fall 2 nutzt der Kranke die App nicht. Fall 1 ist genau so wahrscheinlich, wie hoch die allgemeine Installationssrate der App ist. Bei 30% Installationsrate (was enorm hoch gegriffen ist), wäre die Chance eben 30%, dass Ansteckungsereignisse überhaupt registriert werden. Die Chance, dass es gar nichts registriert wird liegt also bei phänomenalen 70%. Von den anderen Gästen haben aber auch wiederum nur 30% die App installiert. Also selbst für dem unwahrscheinlich glücklichen Fall, dass der Krankte die App hatte, würden nur 9 der 30 angesteckten gewarnt und könnten sich isolieren.

Und wie ist mit den sekundären Fällen, also die 30 Leute, die sich dort angesteckt haben? Die werden ja vielleicht auch getestet und hatten unter Umständen eine App. Zwar ist es möglich, in ihrer Kontakthistorie entsprechend weit zurückzugehen und alle Leute auf der Party zu warnen, die sich länger mit ihnen unterhalten haben. Aber das bringt genau nichts, weil sie ja zu dem Zeitpunkt gar nicht ansteckend waren. Würden in diesem Fall tatsächlich Leute gewarnt, die sich angesteckt haben, wäre das reiner Zufall. Wie man es dreht und wendet, die dezentrale App ist zum Clusterbusting weitestgehend nutzlos.

Der Zentrale Ansatz hätte es gebracht

Mit der zentralen Variante wäre das Clusterbusting dagegen sogar ziemlich leicht umsetzbar. Würden alle Kontaktgeschehnisse auf einem zentralen Server zusammengeführt, wären solche Cluster-Ereignisse recht leicht und automatisch erkennbar. Es müssten sogar nur vergleichsweise wenige Leute die App nutzen, damit der Verdacht eines Clusters aufscheinen kann.

Rechnen wir das nochmal durch. Bei 30% Installationsrate würden neun der 30 auf der Party infizierten in der Datenbank zusammen als Cluster aufleuchten. Das Signal wäre eindeutig, das RKI und oder die Gesundheitsbehörden könnten entsprechend handeln, den Cluster aufspüren und alle Personen isolieren. Sogar bei nur 10% Installationsrate würden drei Ereignisse in einem vernetzten Zusammenhang auftauchen, was zumindest für einen Verdacht auf einen Cluster völlig ausreicht. Mit anderen Worten: Die zentrale App wäre sogar bei vergleichsweise geringer Nutzung sehr nützlich, um Cluster aufzuspüren.

[EDIT: Es scheinen sich an dieser Stelle einige Mißverständnisse zu ergeben, die es nötig machen, hier noch mal sehr viel weiter ins Detail zu gehen: konzeptionell unterscheiden sich zentrale und dezentrale App zunächst erstmal gar nicht so sehr, insbesondere in Fall 1, also wenn der Erkrankte die App hat. Es werden egal ob zentral oder dezentral 9 Menschen benachrichtigt (und wohl noch ein paar mehr Falsepositives). Auch bei Fall 2 scheint es erstmal ganz ähnlich zu laufen. 30 Leute haben sich sekundär angesteckt, davon werden ein paar symptomatisch, einige davon lassen sich testen, von denen haben einige die App und werden jeweils einige der Leute auf der Party benachrichtigen (jedenfalls, wenn die App so eingestellt ist, dass sie zeitlich weit genug zurückgeht).

Der Unterschied liegt aber in dem, was serverseitig passiert. Bei der dezentralen App kommen nach den Tests nur die Identifikationscodes der Erkrankten an, die dann an die Telefone weitergereicht werden. Die Identifikationscodes sagen aber nichts über Kontaktereignisse aus. Der Server bleibt in der Hinsicht dumm. Nur die Telefone können jeweils lokal abgleichen, ob die Identifikationscodes zu Kontakteignissen passen.

In der zentralen App werden dagegen nicht nur die Identifikationscodes der Erkrankten gesammelt, sondern alle Identifikationscodes. Auf dem Server wird dann überprüft, ob Kontakte stattgefunden haben. So entsteht ein Gesamtgraph aller Kontaktereignisse, egal ob hier Infektionen stattgefunden haben oder nicht. Das heißt, wenn die Sekundärerkrankten ihre Testergebnisse bekommen, ist auf dem Server automatisch nachvollziehbar, dass

  1. die Erkrankten eine gemeinsame Kontakthistorie hatten und wann das der Fall war. Mit anderen Worten: Das Cluster wird erkannt. Ein Cluster ist ein Bereich in einem Netzwerk, der enger vernetzt ist, als der Rest. Das Cluster ist serverseitig schon vorher als solches sichtbar, mit den Testergebnissen wird aber klar, dass dort mehre Ansteckungen passierten. Alarm.
  2. innerhalb des Cluster lassen sich dann alle Personen mit App identifizieren, die ebenfalls beim Ereignis dabei waren, unabhängig davon, ob sie eine primäre Kontakthistorie mit den Getesteten hatten. Das heißt, auch die Cousine, die auf der Party war, aber gar nicht mit einem Erkrankten interagiert hat, kann dem Cluster zugerechnet werden.
  3. Das heißt: Alle diese Clusterkontakte können nun auch benachrichtigt werden, nicht nur die Primärkontakte der Erkrankten.
  4. Sie können zudem anders kontaktiert werden. Mit höherer Dringlichkeit und mit der Bitte, sich sofort zu melden, alle Leute, die auch auf dem Event waren, zu benachrichtigen (auch die ohne App) und sich einer behördlichen Quarantäneanordnung zu unterziehen.

All das ginge mit der dezentralen App halt nicht, weil weder das Wissen um das Cluster an irgendeiner Stelle existiert, noch die Möglichkeit das Cluster direkt als solches zu adressieren. Das Gesundheitsamt würde dann wahrscheinlich im Nachhinein bei der Befragung trotzdem drauf kommen, dass es ein Cluster ist, würde sich die entsprechenden Kontakte erfragen und würde entsprechende Maßnahmen treffen. Das ist dann aber alles wieder manuell und zeitlich und personell aufwändig. Mit der zentralen App ginge das im Nu.]

Fazit

Das frühe Festlegen auf die Dezentralität war ein Fehler. Ein Fehler, den man vorher nicht absehen konnte. Ich selbst habe den dezentralen Ansatz favorisiert mit der einfachen Überlegung, dass ein etwas datengeschützterer Ansatz vielleicht zu einer höheren Akzeptanz führen würde. (Was sich angesichts der tatsächlich stattfindenden Debatte ebenfalls als fraglich herausgestellt hat.)

Es ist hier niemanden ein Vorwurf zu machen. So ist das mit Entscheidungen unter unsicherer Informationslage. Die Chance, das man falsch liegt, ist da nun mal hoch und die dezentrale App schien wie eine gute Idee.

Ok, vielleicht ist doch jemandem ein Vorwurf zu machen. PEPP-PT hätte solche Eventualitäten als Argumente in ihrem öffentlichen Auftreten nutzen können. Sie hätten den „Case“ für die zentrale Lösung sehr viel überzeugender machen können. Stattdessen hat man sich eingemauert und geglaubt mit der Macht der Regierung die eigenen Vorstellungen durchdrücken zu können. Das ging vorhersehbar schief. Schade, das war eine verpasste Chance.

Ich bin aber deswegen aber nicht besorgt oder traurig. Ein weiterer Effekt der Überdispersion ist nämlich, dass wir Covid19 wahrscheinlich auch ganz prima ohne App in den Griff bekommen. So lange wir Superspreading-Events weiterhin vergleichsweise unwahrscheinlich machen und nebenher auf Gesundheitsamtsebene wachsam das Infektionsgeschehen im Blick behalten, ist die Gefahr gering, dass uns die Krankheit noch mal außer Kontrolle gerät.

EDIT: Mtt hat in den Kommentaren auf eine Möglichkeit hingewiesen, wie sich das Problem lösen ließe.

Das würde nicht nur den zentralen Ansatz dazu befähigen, Cluster erkennbar zu machen (Alle, die zu der Zeit diese Innenraum-Id empfangen haben gehören zum Cluster), sondern würde auch ein zweites grundlegendes Problem der App lösen (das ich aus Übersichtsgründen hier nicht mitbehandelt habe). Nämlich die Fokussierung auf Entfernungen. Wir wissen heute, dass Entfernungen fast immer egal sind. Sie sind draußen egal, weil draußen kaum Ansteckungsereignisse passieren. Sie sind aber auch drinnen egal, weil ein Großteil der Ansteckungen durch Aerosole passieren, denen Entfernung mehr oder weniger egal ist. Es braucht also eigentlich eine App, die versteht, wann und mit wem man sich in Innenräumen aufhält und wie lange.

Der genannte Ansatz würde das möglich machen. Sobald die App eine Innenraum-Id empfängt, würde sie alle IDs im Raum aufsammeln – Entfernungen sind dabei egal. Wenn jemand nun positiv testet, würde er nicht nur seine eignen Ids, sondern auch alle Innenraum-Ids mit auf den Server senden. Alle leute des Clusters werden dann gewarnt.

Die Innenraum-IDs wären am besten von normalen IDs unterscheidbar, so dass auch der Server (also das RKI) von dem Cluster sofort unterrichtet wird. (Mehrere positive Testergebnisse mit der Innenraum-ID zu einem gemeinsamen Zeitpunkt sind ein Superspreading-Event.) Innenraum-Ids wären zudem nicht-anonym (Restaurants haben keine Persönlichkeitsrechte), so dass die Behörden auch erfahren, welcher Ort betroffen ist.

Meines Erachtens wäre das eine um ein vielfaches effektivere App und sogar der Datenschutz wäre damit wenig bis kaum angetastet.

Wie ich aber lese, sind solche Ansätze sogar vorgeschlagen worden. Mir ist völlig unverständlich, warum sie nicht umgesetzt wurden.

  1. Allein dazu gibt es noch eine Menge zu sagen, was ich hier getan habe, https://www.youtube.com/watch?v=kwQ6VIDVKQo&list=PLLpGyoDLvP2TH3Avi9d4Q0x31txQrO-gr&index=1
  2. Patrick Howell O’Neill: No, coronavirus apps don’t need 60% adoption to be effective, https://www.technologyreview.com/2020/06/05/1002775/covid-apps-effective-at-less-than-60-percent-download/
  3. Vgl. Lars Fischer: Wie Sars-CoV-2 in Deutschland aussterben kann, https://www.spektrum.de/news/wie-sars-cov-2-in-deutschland-aussterben-kann/1741310

Veröffentlicht unter Algorithmenkritik Postprivacy Queryology
23 Kommentare