„What about us? What about us? We are alive! And this is a celebration of life. This is a commitment for a truly human future.“
Diese Worte ruft die Animateurin in Spielbergs Film A.I. Artificial Intelligence der grölenden Menge in einem Amphitheater der Zukunft zu. Die Show um die es geht, ist eine rituelle Zerstörung von Robotern. Mit Säure, durch Feuer oder per Kanone durch einen Ventilator geschossen werden die Roboter möglichst grausam öffentlich entsorgt.
„What about us?„. Bei Rassismus geht es immer auch um eine gefühlte Demütigung.
Der beste Talk auf der Next11 war übrigens mit Abstand der von Kevin Slavin: Algorithms That Govern Our Lives. Ein Talk, der nicht nur rhetorisch, sondern auch inhaltlich überzeugte und den ich jedem an’s Herz legen will:
Das, was Slavin vorträgt ist inhaltlich nicht ganz neu, aber durchaus überzeugend dargelegt. Wir kennen diese Position. Wir kennen sie in Deutschland von Frank Schirrmacher aber vor allem von David Gelernter, Jaron Lanier und vom späten Joseph Weizenbaum und vielem anderen. Die Algorithmen übernhemen immer größere Bereiche dessen, was einst das Entscheidungsterritorium des Menschen war. Und das sei gefährlich.
Aber zurück zu Slavin. Er operiert mit vielen Geschichten und Beispielen. Da ist die Wallstreet, an der 70% des Handels schon nicht mehr durch Händler aus Fleisch (er benutzt genau dieses Wort) und Blut, sondern durch die Großrechner des High Frequency Tradings initiiert werden. Da sind die Robo-Staubsauger, die nicht mehr in menschlich verstehbaren Bahnen den Boden kehren und der Fahrstuhl, der außen Eingabetasten für das Zielstockwerk hat und keine Tasten mehr in seinem inneren, weil ein Algorithmus eh die intelligenteste Wegstrecke zwischen den Stockwerken errechnet.
All diese Beispiele nutzt Slavin um ein Szenario aufzubauen, in dem es um das alte Spiel: „die gegen uns“ geht. „Die“ sind die Computer, die Algorithmen, die Software, die „uns“ Menschen in unserer Autonomie bedrohen. Der Kampf beginnt. Fleisch gegen Prozessor, Hypothesen statt Trial and Error, Geschichten vs. Daten. Überall macht Slavin rhetorisch mobil gegen die Maschinen, die aber doch Fehler machen, also gar nicht besser sind und in Wahrheit die Welt gefährlich unmenschlich machen.
Und hier schließen sich ein paar Fragen an:
Würde die Wallstreet tatsächlich auf Algorithmen setzen, wenn Algorithmen nicht die besseren Kauf/Verkauf-Entscheidungen träfen? Selbst dann, wenn die Algorithmen auch mal Fehlentscheidungen treffen, oder das ganze System zusammenbrechen kann? Hat die Wallstreet etwa Geld zu verschenken?
Ist der Fahrstuhl, bei dem wir die Kontrolle abgeben, nicht tatsächlich effizienter. Und zwar für alle Beteiligten?
Und müssen wir tatsächlich nachvollziehen können, warum der Staubsauger die Bahnen wählt, die er wählt? Reicht es nicht, dass die Bude sauber ist?
Sicher. Bei all diesen Beispielen findet Slavin Fehlfunktionen und identifiziert Probleme. Im Finanzsektor haben fehlerhafte Computer sogar mal einen echten Kurssturz ausgelöst. Sogleich fühlen wir uns unsicher. Sofort erscheint einem das ganze „creepy“ und das alles fühlt sich falsch an.
Das beantwortet aber nicht die Fragen. Slavin benutzt einen Trick: Er zeigt auf einzelne Probleme und nimmt sie als Beweis dafür, dass es ein Fehler war, diese Aufgaben vom Menschen an die Computer zu übertragen. Und aus irgendeinem Grund sind wir bereit ihm zu glauben, dass Fehler, die ein Algorithmus macht, ein Beweis für seine Thesen sind. Wir glauben instiktiv, dass ein Computer keine Fehlentscheidungen treffen darf. Weil wir mit zweierlei Maß messen.
In A.I. fängt der Rassismus gegen die Maschinen schon viel früher und unspektakulärer an. Nämlich dort, wo der Roboterjunge David Dummheiten macht, wie es Menschenjungen eben auch machen aber genau das das Mißtrauen in der Familie ihm gegenüber wachsen lässt. Am ende wird er von der Familie ausgesetzt. Nicht weil er Fehler gemacht hat, sondern weil er ein Roboter ist. Roboter dürfen keine Dummheiten machen.
Befragen wir uns selbst: Nehmen wir die Entwicklungen von computergesteuerten Autos. Würden diese Autos seit gut einem Jahr auf der Straße fahren und würde eines dieser Autos einen Menschen überfahren, wäre das die BILD-Schalgzeile schlechthin. Alle würden darüber diskutieren, dass die Technologie nicht „beherrschbar“ sei und viele würden sich für die Verbannung der Technologie einsetzen. Dass beinahe jeden Tag Menschen andere Menschen niedermähen, würde keine Rolle spielen. Wir werden nicht akzeptieren, dass ein Auto, das statistisch nur die Hälfte der Unfälle verursacht, wie ein Mensch, bereits eine Verbesserung ist. Für den Menschen. Für die Menschheit.
Was wir immer gerne ausblenden, ist die Tatsache, dass der Algorithmus alles andere als Fehlerfrei arbeiten muss, um besser zu sein, als ein Mensch. Wir Menschen machen dauernd Fehler. Wenn ein Algorithmus nur halb so viele Fehler macht wie der Mensch, ist er bereits eine Verbesserung des Zustandes. Die Wallstreet weiß das, sie hat das sehr genau ausgerechnet. Die Hersteller von Fahrstühlen wissen das auch. Aber wir – mit unseren irrationalen Maschinen-Rassismus – messen mit zweierlei Maß.
Natürlich hat Slavin recht, wenn er sagt: „We write something, that we cannot read.“ Wir können den Output und die Entscheidungen der Algorithmen, die wir gebaut haben in vielen Fällen nicht mehr von außen nachvollziehen. Sie sind eine Blackbox, selbst für ihre eigenen Programmierer. Darum geht es aber gar nicht. Wir können feststellen, ob sie brauchbare Ergebnisse liefern. Nur das zählt.
2008 stellte Chris Anderson die These vom Ende der Theorie auf. Große Datenmengen im Petabytebereich destillieren in ihrer Korrelation bereits von sich aus Erkenntnisse und verändern die Wissenschaft. Kevin Kelly bringt ein paar Beispiele und vermutet, dass die Theorien, die hinter den Korrelationen großer Datenmengen stecken, vielleicht nur zu komplex sind, als dass der menschliche Geist sie verstehen kann, wohl aber die datencrunchenden Algorithmen. Jaron Lanier klingt fast beleidigt bei seiner Antwort: „Anderson pretends it’s useless to be a human.“ “
David Gelernter hatte am Ende seines Artikel über die „Softwaregläubigkeit“ in der FAZ von einer Passage aus seinem Buch erzählt, in der er den schwelenden Konflikt zuspitzt:
„Vor geraumer Zeit veröffentlichte ich ein Buch mit dem Titel „Mirror Worlds“ (1991; deutsch „Gespiegelte Welten im Computer“, 1996). Dort behauptete ich, die Wirklichkeit werde sich im Cyberspace auf dieselbe Art spiegeln wie ein Dorf im unbewegten Wasser des Dorfteichs. Das Buch schließt mit einem fiktiven Streitgespräch zwischen einem Technologen und einem Humanisten. Der Humanist behauptet, dass Spiegelwelten – und ausgeklügelte Computersimulationen sind eine Form von „Spiegelwelt“ – ein neues Zeitalter intellektueller Knechtschaft herbeiführen werden. „Nicht, dass ich den Softwareexperten, die entwickeln und bauen, misstraue“, sagt der Humanist, „ich halte sie für verantwortungsbewusste, professionelle Typen. Sie werden sich hervorragend um uns kümmern. Und genau das ist das Problem. Knechtschaft ist ein Zustand völliger Abhängigkeit – ich verstehe diese Dinge nicht, aber ich verlasse mich auf sie, nicht nur aus Bequemlichkeit, sondern um überhaupt denken zu können. Das Ergebnis heißt Feudalismus, ob ein tatsächlicher oder ein intellektueller.“
In meinem Buch setzt sich der Humanist mit seiner Argumentation durch. Im wirklichen Leben gewinnt der Technologe, und der Rest von uns, wir alle überall – wir verlieren.“
Spätestens hier wird klar: „What about us?“ rufen sie uns zu, die „Humanisten„. Ich sehe eine neue Humanistische Bewegung auf uns zu kommen, für die der Mob in A.I. vielleicht nur eine Überspitzung ist, aber grundsätzlich in die richtige Richtung weist. Eine Bewegung, die den Menschen umbedingt als Gegenpart zur Technik begreifen will, ohne zu erkennen, dass die Technik schon immer ein Teil von ihm war. Die neuen „Humanisten“ sind mehr noch als nur kulturpessimistisch. Sie sind tief beleidigt.
Wir haben es mit dem Resultat der vierten narzistischen Kränkung des Menschen zu tun. Die erste war die Auflösung des geozentrischen Weltbildes, die die Erde und damit den Menschen aus dem Zentrum des Universums in die Peripherie verfrachtete. Die zweite narzistische Kränkung war Darwins Postulat der Evolution, dass uns von der Krone der Schöpfung zum Nachfahren des Affen degradierte und in eine Ahnenreihe mit dem Urschlamm stellte. Die dritte, dass wir nicht Herr im eigenen Haus, der Vernunft sind, wie Freud feststellte. Nun sind es die Algorithmen, die in immer mehr Bereichen schneller, klüger und rationaler entscheiden, als der Mensch. Und ebenso wie damals braucht es eine neue Aufklärung gegen den neuen, tief beleidigten Irrationalismus.
Doch den Part der passiv-aggressiv beleidigten Leberwurst spielt heute eben nicht mehr die Kirche, sondern sich „humanistisch“ gebende Intellektuelle (ich werde „humanistisch“ in diesem Zusammenhang immer in Anführungszeichen schreiben). Sie poltern gegen die Algorithmen und beschwören eine Autonomie des Subjektes, rejustieren ihre Ansichten an veralteten Menschenbildern und klammern sich an Subjektivitätsdiskursen der Moderne. Ja, auch der Datenschutzdiskurs gehört genau hierzu.
Am Ende seines Talks spricht Slavin uns – uns Menschen – Mut zu. Wir hätten eine mächtige Waffe. Die menschliche Waffe sei die „Story“ („for a truly human future“, könnte man anfügen). Die Geschichte, die narrative Erzählung, in die wir unsere Sinnzusammenhänge betten. Und das wiederum ist so wunderbar selbstreferentiell: Es waren ja eben seine „Storys“ von versagenden Algorithmen, die uns durch anekdotische Evidenz dazu bringen sollen, an die Ineffizienz von Algorithmen zu glauben. Geschichten sind ein wunderbares Werkzeug um Menschen zu manipulieren. In der Tat: die Waffe der Erzählung wirkt wunderbar: gegen die Vernunft. Und Slavin ist ein Meister im Umgang mit ihr. (Zu dem ganzen Komplex, wie Geschichten unsere Entscheidungen vernebeln, siehe auch Nassim Nicolas Taleb: der Schwarze Schwan.)
Slavin und seine irrationale Verführungskunst bei den Menschen, sind ein wunderbares Beispiel dafür, dass man den Entscheidungen der Menschen grundsätzlich mehr zu mißtrauen hat. Und zwar erfahrungsgemäß mehr, als denen der Algorithmen. Und deswegen sollten wir ihnen vertrauen lernen, statt uns gegen sie aufhetzen zu lassen.
Denn es ist wahr: wir können die einzelnen Entscheidungen der Algorithmen nicht mehr nachvollziehen. Wir stehen vor einer ähnlichen Entscheidung, wie sie das Flugzeug brachte. Auch hier musste über Jahrzehnte Vertrauen aufgebaut werden, bevor die Menschen bereit waren, in stählerne Ungetüme zu steigen. Das Gefühl, die Kontrolle abzugeben beschleicht einen bis heute beim Besteigen von Flugzeugen. Und doch hat es sich gelohnt, ist die Welt zusammengewachsen und hat der Mensch seinen Radius, seine Optionen, sein Wissen enorm erweitert.
Auch die Algorithmen werden uns zwar auf der einen Seite Kontrolloptionen abnehmen, uns aber auf einer ganz neuen Ebene ganz neue Freiheiten bereiten. Der Kontrollverlust bringt einen Zugewinn von neuer Souveränität auf der anderen Seite. Die von den „Humanisten“ postulierte Konkurrenz zwischen Menschen und Maschinen ist frei erfunden. Die Technologie ist ein Teil von uns und wenn sie über unsere Köpfe wächst, dann erweitern sich in Wirklichkeit unsere Köpfe um ihre Macht.
Günther Anders schrieb in den 60ern das Buch: Die Antiquiertheit des Menschen. Er sah in den 60ern einen Trend sich fortsetzen, der vielleicht den Beginn des technischen Kontrollverlust markiert: Selbsttätige Maschinen. Maschinen, die einmal in Gang gebracht, vielleicht nicht mehr zu stoppen sind. Die Maschinen hören auf für den Menschen zu arbeiten, sondern der Mensch arbeitet für die Maschinen, so seine These.
Kevin Kelly, der die aktuellere und optimistischere Version der Antiquiertheit des Menschen schrieb: „What Technology Wants“ – stellt fest, dass etwa drei viertel des weltweiten Energiebedarfs nicht wir Menschen verbrauchen, sondern das „Technium“. So nennt er die Gesamtheit der technischen Erfindungen, die sich auf der Erde entwickelten. Günther Anders Postulat ist also wahr geworden. Auf eine Art.
Aber das Technium, das sind wir. Wir können als Menschheit nicht mehr für uns selber sorgen. Fallen die Maschinen weg, würde innerhalb weniger Wochen der weitaus größte Teil der Menschen sterben, wie die Fliegen. Viele Milliarden Menschenleben auf diesem Planeten sind nur möglich durch diesen Kontrollverlust.
Ja, wir sind abhängig von Technologie. Und morgen noch viel mehr als heute. Aber gleichzeitig haben wir dadurch einen enormen Freiheitsgewinn erhalten. Wir können individueller leben, unser Leben besser selbst bestimmen, als wir es noch vor 50 Jahren konnten. Die Rechnung, Technologie gegen die menschliche Willensfreiheit aufzurechnen, geht nicht auf. Was der Technologie zu gute kommt, hebt unsere Selbstbestimmung auf eine neue Ebene. Unseren „Extensions of Man“ wachsen mit dem technischen Fortschritt, würde McLuhan sagen. Das gilt nicht nur, aber vor allem auch für das Internet.
Es braucht eine neue Aufklärung. Gegen die „Humanisten“. Sie müsste den Menschen folgende Dinge klar machen:
1. In vielerlei Hinsicht ist das menschliche Gehirn unzureichend ausgestattet, um mit den Komplexitäten der Welt zurecht zu kommen. Es gibt mittlerweile oft bessere Technologien dazu.
2. Es gibt keine Systemkonkurrenz zwischen Technologie und Mensch. Der Mensch ist schon immer der Mensch plus Technologie. Mensch minus Technologie, ist ein Fleischklumpen.
3. Algorithmen sind nicht unfehlbar und werden es niemals sein. Technologie wird nie ohne Risiko auskommen. Wir müssen vernünftiger Weise die Folgen der Technologie aber immer mit ihrer Alternative vergleichen. Zum Beispiel den Fehlern des menschlichen Denkens.
4. Das heißt: Es ist auch dann vernünftig Entscheidungen oder andere geistige Arbeit an Algorithmen abzugeben, wenn sie nicht perfekte, aber unter dem Strich bessere Ergebnisse als der Mensch erreichen.
5. Der Mensch darf nicht als statisches Wesen betrachtet werden. Heute weniger als je zuvor. Er wächst mit den technologischen Möglichkeiten und muss von der Zukunft her gedacht werden.
6. Für die Zukunft brauchen wir Vertrauen. Das selbe Vertrauen, dass wir der Technik des Flugzeugs und den Fähigkeiten des Piloten entgegenbringen, wenn wir in ein Flugzeug steigen.
Eine neue Aufklärung muss – Kant paraphrasierend – der Ausgang des Menschen aus seiner selbstauferlegten biologischen Ungenügendheit sein. Ungenügendheit ist das Unvermögen des Verstandes ohne die Leistung der Technik. Selbstauferlegt ist diese Ungenügendheit, wenn die Ursache derselben nicht am tatsächlichen Mangel des Algorithmus, sondern der Entschließung und des Mutes liegt, sich seiner Leistung zu bedienen. Sapere aude techné (ich weiß, das ist sicherlich falsch)! Habe Mut, dich des von den Algorithmen bereitgestellten Verstandes zu bedienen! ist also der Wahlspruch der neuen Aufklärung.
Wir steigen gerade kollektiv in das große Flugzeug Kontrollverlust, ob wir wollen oder nicht. Wir sehen den Wandel, wir erahnen das Potential, die emanzipatorische Macht, die im Internet steckt. Wir wissen, dass wir, sobald wir uns dieser Maschine überantworten, keine Kontrolle mehr über Dinge haben werden, über die wir gewohnt waren, Kontrolle zu haben. Es ist ein merkwürdiges Gefühl für fast alle von uns. „Creepy“, wie man so schön sagt. Manche Menschen haben ihre Flugangst schließlich auch heute nie überwunden. Die Meisten steigen aber dennoch in das Flugzeug ein, weil sie wissen, dass es sich lohnt.
Pingback: hast du angst vor den maschinen? | AxelEmm
Pingback: Algorithmen vs. “Humanisten”
Pingback: Humanisten Popisten « H I E R
Pingback: Twitkrit — Wehret den weißen Hitler-Schwänen
Pingback: Sozialtheoristen » Michael Seemann Schreibmaschine
Pingback: Glanzlichter 70: « … Kaffee bei mir?
Pingback: Glanzlichter 70: Hartz IV, Studenten und die Demokratie | Ruhrbarone
Pingback: Linkschau, die Elfte. | Die datenschutzkritische Spackeria