What about us? – Die Antiquiertheit des „Humanisten“

„What about us? What about us? We are alive! And this is a celebration of life. This is a commitment for a truly human future.“

Diese Worte ruft die Animateurin in Spielbergs Film A.I. Artificial Intelligence der grölenden Menge in einem Amphitheater der Zukunft zu. Die Show um die es geht, ist eine rituelle Zerstörung von Robotern. Mit Säure, durch Feuer oder per Kanone durch einen Ventilator geschossen werden die Roboter möglichst grausam öffentlich entsorgt.

What about us?„. Bei Rassismus geht es immer auch um eine gefühlte Demütigung.

Der beste Talk auf der Next11 war übrigens mit Abstand der von Kevin Slavin: Algorithms That Govern Our Lives. Ein Talk, der nicht nur rhetorisch, sondern auch inhaltlich überzeugte und den ich jedem an’s Herz legen will:

Das, was Slavin vorträgt ist inhaltlich nicht ganz neu, aber durchaus überzeugend dargelegt. Wir kennen diese Position. Wir kennen sie in Deutschland von Frank Schirrmacher aber vor allem von David Gelernter, Jaron Lanier und vom späten Joseph Weizenbaum und vielem anderen. Die Algorithmen übernhemen immer größere Bereiche dessen, was einst das Entscheidungsterritorium des Menschen war. Und das sei gefährlich.

Aber zurück zu Slavin. Er operiert mit vielen Geschichten und Beispielen. Da ist die Wallstreet, an der 70% des Handels schon nicht mehr durch Händler aus Fleisch (er benutzt genau dieses Wort) und Blut, sondern durch die Großrechner des High Frequency Tradings initiiert werden. Da sind die Robo-Staubsauger, die nicht mehr in menschlich verstehbaren Bahnen den Boden kehren und der Fahrstuhl, der außen Eingabetasten für das Zielstockwerk hat und keine Tasten mehr in seinem inneren, weil ein Algorithmus eh die intelligenteste Wegstrecke zwischen den Stockwerken errechnet.

All diese Beispiele nutzt Slavin um ein Szenario aufzubauen, in dem es um das alte Spiel: „die gegen uns“ geht. „Die“ sind die Computer, die Algorithmen, die Software, die „uns“ Menschen in unserer Autonomie bedrohen. Der Kampf beginnt. Fleisch gegen Prozessor, Hypothesen statt Trial and Error, Geschichten vs. Daten. Überall macht Slavin rhetorisch mobil gegen die Maschinen, die aber doch Fehler machen, also gar nicht besser sind und in Wahrheit die Welt gefährlich unmenschlich machen.

Und hier schließen sich ein paar Fragen an:

Würde die Wallstreet tatsächlich auf Algorithmen setzen, wenn Algorithmen nicht die besseren Kauf/Verkauf-Entscheidungen träfen? Selbst dann, wenn die Algorithmen auch mal Fehlentscheidungen treffen, oder das ganze System zusammenbrechen kann? Hat die Wallstreet etwa Geld zu verschenken?

Ist der Fahrstuhl, bei dem wir die Kontrolle abgeben, nicht tatsächlich effizienter. Und zwar für alle Beteiligten?

Und müssen wir tatsächlich nachvollziehen können, warum der Staubsauger die Bahnen wählt, die er wählt? Reicht es nicht, dass die Bude sauber ist?

Sicher. Bei all diesen Beispielen findet Slavin Fehlfunktionen und identifiziert Probleme. Im Finanzsektor haben fehlerhafte Computer sogar mal einen echten Kurssturz ausgelöst. Sogleich fühlen wir uns unsicher. Sofort erscheint einem das ganze „creepy“ und das alles fühlt sich falsch an.

Das beantwortet aber nicht die Fragen. Slavin benutzt einen Trick: Er zeigt auf einzelne Probleme und nimmt sie als Beweis dafür, dass es ein Fehler war, diese Aufgaben vom Menschen an die Computer zu übertragen. Und aus irgendeinem Grund sind wir bereit ihm zu glauben, dass Fehler, die ein Algorithmus macht, ein Beweis für seine Thesen sind. Wir glauben instiktiv, dass ein Computer keine Fehlentscheidungen treffen darf. Weil wir mit zweierlei Maß messen.

In A.I. fängt der Rassismus gegen die Maschinen schon viel früher und unspektakulärer an. Nämlich dort, wo der Roboterjunge David Dummheiten macht, wie es Menschenjungen eben auch machen aber genau das das Mißtrauen in der Familie ihm gegenüber wachsen lässt. Am ende wird er von der Familie ausgesetzt. Nicht weil er Fehler gemacht hat, sondern weil er ein Roboter ist. Roboter dürfen keine Dummheiten machen.

Befragen wir uns selbst: Nehmen wir die Entwicklungen von computergesteuerten Autos. Würden diese Autos seit gut einem Jahr auf der Straße fahren und würde eines dieser Autos einen Menschen überfahren, wäre das die BILD-Schalgzeile schlechthin. Alle würden darüber diskutieren, dass die Technologie nicht „beherrschbar“ sei und viele würden sich für die Verbannung der Technologie einsetzen. Dass beinahe jeden Tag Menschen andere Menschen niedermähen, würde keine Rolle spielen. Wir werden nicht akzeptieren, dass ein Auto, das statistisch nur die Hälfte der Unfälle verursacht, wie ein Mensch, bereits eine Verbesserung ist. Für den Menschen. Für die Menschheit.

Was wir immer gerne ausblenden, ist die Tatsache, dass der Algorithmus alles andere als Fehlerfrei arbeiten muss, um besser zu sein, als ein Mensch. Wir Menschen machen dauernd Fehler. Wenn ein Algorithmus nur halb so viele Fehler macht wie der Mensch, ist er bereits eine Verbesserung des Zustandes. Die Wallstreet weiß das, sie hat das sehr genau ausgerechnet. Die Hersteller von Fahrstühlen wissen das auch. Aber wir – mit unseren irrationalen Maschinen-Rassismus – messen mit zweierlei Maß.

Natürlich hat Slavin recht, wenn er sagt: „We write something, that we cannot read.“ Wir können den Output und die Entscheidungen der Algorithmen, die wir gebaut haben in vielen Fällen nicht mehr von außen nachvollziehen. Sie sind eine Blackbox, selbst für ihre eigenen Programmierer. Darum geht es aber gar nicht. Wir können feststellen, ob sie brauchbare Ergebnisse liefern. Nur das zählt.

2008 stellte Chris Anderson die These vom Ende der Theorie auf. Große Datenmengen im Petabytebereich destillieren in ihrer Korrelation bereits von sich aus Erkenntnisse und verändern die Wissenschaft. Kevin Kelly bringt ein paar Beispiele und vermutet, dass die Theorien, die hinter den Korrelationen großer Datenmengen stecken, vielleicht nur zu komplex sind, als dass der menschliche Geist sie verstehen kann, wohl aber die datencrunchenden Algorithmen. Jaron Lanier klingt fast beleidigt bei seiner Antwort: „Anderson pretends it’s useless to be a human.“ “

David Gelernter hatte am Ende seines Artikel über die „Softwaregläubigkeit“ in der FAZ von einer Passage aus seinem Buch erzählt, in der er den schwelenden Konflikt zuspitzt:

„Vor geraumer Zeit veröffentlichte ich ein Buch mit dem Titel „Mirror Worlds“ (1991; deutsch „Gespiegelte Welten im Computer“, 1996). Dort behauptete ich, die Wirklichkeit werde sich im Cyberspace auf dieselbe Art spiegeln wie ein Dorf im unbewegten Wasser des Dorfteichs. Das Buch schließt mit einem fiktiven Streitgespräch zwischen einem Technologen und einem Humanisten. Der Humanist behauptet, dass Spiegelwelten – und ausgeklügelte Computersimulationen sind eine Form von „Spiegelwelt“ – ein neues Zeitalter intellektueller Knechtschaft herbeiführen werden. „Nicht, dass ich den Softwareexperten, die entwickeln und bauen, misstraue“, sagt der Humanist, „ich halte sie für verantwortungsbewusste, professionelle Typen. Sie werden sich hervorragend um uns kümmern. Und genau das ist das Problem. Knechtschaft ist ein Zustand völliger Abhängigkeit – ich verstehe diese Dinge nicht, aber ich verlasse mich auf sie, nicht nur aus Bequemlichkeit, sondern um überhaupt denken zu können. Das Ergebnis heißt Feudalismus, ob ein tatsächlicher oder ein intellektueller.“

In meinem Buch setzt sich der Humanist mit seiner Argumentation durch. Im wirklichen Leben gewinnt der Technologe, und der Rest von uns, wir alle überall – wir verlieren.“

Spätestens hier wird klar: „What about us?“ rufen sie uns zu, die „Humanisten„. Ich sehe eine neue Humanistische Bewegung auf uns zu kommen, für die der Mob in A.I. vielleicht nur eine Überspitzung ist, aber grundsätzlich in die richtige Richtung weist. Eine Bewegung, die den Menschen umbedingt als Gegenpart zur Technik begreifen will, ohne zu erkennen, dass die Technik schon immer ein Teil von ihm war. Die neuen „Humanisten“ sind mehr noch als nur kulturpessimistisch. Sie sind tief beleidigt.

Wir haben es mit dem Resultat der vierten narzistischen Kränkung des Menschen zu tun. Die erste war die Auflösung des geozentrischen Weltbildes, die die Erde und damit den Menschen aus dem Zentrum des Universums in die Peripherie verfrachtete. Die zweite narzistische Kränkung war Darwins Postulat der Evolution, dass uns von der Krone der Schöpfung zum Nachfahren des Affen degradierte und in eine Ahnenreihe mit dem Urschlamm stellte. Die dritte, dass wir nicht Herr im eigenen Haus, der Vernunft sind, wie Freud feststellte. Nun sind es die Algorithmen, die in immer mehr Bereichen schneller, klüger und rationaler entscheiden, als der Mensch. Und ebenso wie damals braucht es eine neue Aufklärung gegen den neuen, tief beleidigten Irrationalismus.

Doch den Part der passiv-aggressiv beleidigten Leberwurst spielt heute eben nicht mehr die Kirche, sondern sich „humanistisch“ gebende Intellektuelle (ich werde „humanistisch“ in diesem Zusammenhang immer in Anführungszeichen schreiben). Sie poltern gegen die Algorithmen und beschwören eine Autonomie des Subjektes, rejustieren ihre Ansichten an veralteten Menschenbildern und klammern sich an Subjektivitätsdiskursen der Moderne. Ja, auch der Datenschutzdiskurs gehört genau hierzu.

Am Ende seines Talks spricht Slavin uns – uns Menschen – Mut zu. Wir hätten eine mächtige Waffe. Die menschliche Waffe sei die „Story“ („for a truly human future“, könnte man anfügen). Die Geschichte, die narrative Erzählung, in die wir unsere Sinnzusammenhänge betten. Und das wiederum ist so wunderbar selbstreferentiell: Es waren ja eben seine „Storys“ von versagenden Algorithmen, die uns durch anekdotische Evidenz dazu bringen sollen, an die Ineffizienz von Algorithmen zu glauben. Geschichten sind ein wunderbares Werkzeug um Menschen zu manipulieren. In der Tat: die Waffe der Erzählung wirkt wunderbar: gegen die Vernunft. Und Slavin ist ein Meister im Umgang mit ihr. (Zu dem ganzen Komplex, wie Geschichten unsere Entscheidungen vernebeln, siehe auch Nassim Nicolas Taleb: der Schwarze Schwan.)

Slavin und seine irrationale Verführungskunst bei den Menschen, sind ein wunderbares Beispiel dafür, dass man den Entscheidungen der Menschen grundsätzlich mehr zu mißtrauen hat. Und zwar erfahrungsgemäß mehr, als denen der Algorithmen. Und deswegen sollten wir ihnen vertrauen lernen, statt uns gegen sie aufhetzen zu lassen.

Denn es ist wahr: wir können die einzelnen Entscheidungen der Algorithmen nicht mehr nachvollziehen. Wir stehen vor einer ähnlichen Entscheidung, wie sie das Flugzeug brachte. Auch hier musste über Jahrzehnte Vertrauen aufgebaut werden, bevor die Menschen bereit waren, in stählerne Ungetüme zu steigen. Das Gefühl, die Kontrolle abzugeben beschleicht einen bis heute beim Besteigen von Flugzeugen. Und doch hat es sich gelohnt, ist die Welt zusammengewachsen und hat der Mensch seinen Radius, seine Optionen, sein Wissen enorm erweitert.

Auch die Algorithmen werden uns zwar auf der einen Seite Kontrolloptionen abnehmen, uns aber auf einer ganz neuen Ebene ganz neue Freiheiten bereiten. Der Kontrollverlust bringt einen Zugewinn von neuer Souveränität auf der anderen Seite. Die von den „Humanisten“ postulierte Konkurrenz zwischen Menschen und Maschinen ist frei erfunden. Die Technologie ist ein Teil von uns und wenn sie über unsere Köpfe wächst, dann erweitern sich in Wirklichkeit unsere Köpfe um ihre Macht.

Günther Anders schrieb in den 60ern das Buch: Die Antiquiertheit des Menschen. Er sah in den 60ern einen Trend sich fortsetzen, der vielleicht den Beginn des technischen Kontrollverlust markiert: Selbsttätige Maschinen. Maschinen, die einmal in Gang gebracht, vielleicht nicht mehr zu stoppen sind. Die Maschinen hören auf für den Menschen zu arbeiten, sondern der Mensch arbeitet für die Maschinen, so seine These.

Kevin Kelly, der die aktuellere und optimistischere Version der Antiquiertheit des Menschen schrieb: „What Technology Wants“ – stellt fest, dass etwa drei viertel des weltweiten Energiebedarfs nicht wir Menschen verbrauchen, sondern das „Technium“. So nennt er die Gesamtheit der technischen Erfindungen, die sich auf der Erde entwickelten. Günther Anders Postulat ist also wahr geworden. Auf eine Art.

Aber das Technium, das sind wir. Wir können als Menschheit nicht mehr für uns selber sorgen. Fallen die Maschinen weg, würde innerhalb weniger Wochen der weitaus größte Teil der Menschen sterben, wie die Fliegen. Viele Milliarden Menschenleben auf diesem Planeten sind nur möglich durch diesen Kontrollverlust.

Ja, wir sind abhängig von Technologie. Und morgen noch viel mehr als heute. Aber gleichzeitig haben wir dadurch einen enormen Freiheitsgewinn erhalten. Wir können individueller leben, unser Leben besser selbst bestimmen, als wir es noch vor 50 Jahren konnten. Die Rechnung, Technologie gegen die menschliche Willensfreiheit aufzurechnen, geht nicht auf. Was der Technologie zu gute kommt, hebt unsere Selbstbestimmung auf eine neue Ebene. Unseren „Extensions of Man“ wachsen mit dem technischen Fortschritt, würde McLuhan sagen. Das gilt nicht nur, aber vor allem auch für das Internet.

Es braucht eine neue Aufklärung. Gegen die „Humanisten“. Sie müsste den Menschen folgende Dinge klar machen:

1. In vielerlei Hinsicht ist das menschliche Gehirn unzureichend ausgestattet, um mit den Komplexitäten der Welt zurecht zu kommen. Es gibt mittlerweile oft bessere Technologien dazu.

2. Es gibt keine Systemkonkurrenz zwischen Technologie und Mensch. Der Mensch ist schon immer der Mensch plus Technologie. Mensch minus Technologie, ist ein Fleischklumpen.

3. Algorithmen sind nicht unfehlbar und werden es niemals sein. Technologie wird nie ohne Risiko auskommen. Wir müssen vernünftiger Weise die Folgen der Technologie aber immer mit ihrer Alternative vergleichen. Zum Beispiel den Fehlern des menschlichen Denkens.

4. Das heißt: Es ist auch dann vernünftig Entscheidungen oder andere geistige Arbeit an Algorithmen abzugeben, wenn sie nicht perfekte, aber unter dem Strich bessere Ergebnisse als der Mensch erreichen.

5. Der Mensch darf nicht als statisches Wesen betrachtet werden. Heute weniger als je zuvor. Er wächst mit den technologischen Möglichkeiten und muss von der Zukunft her gedacht werden.

6. Für die Zukunft brauchen wir Vertrauen. Das selbe Vertrauen, dass wir der Technik des Flugzeugs und den Fähigkeiten des Piloten entgegenbringen, wenn wir in ein Flugzeug steigen.

Eine neue Aufklärung muss – Kant paraphrasierend – der Ausgang des Menschen aus seiner selbstauferlegten biologischen Ungenügendheit sein. Ungenügendheit ist das Unvermögen des Verstandes ohne die Leistung der Technik. Selbstauferlegt ist diese Ungenügendheit, wenn die Ursache derselben nicht am tatsächlichen Mangel des Algorithmus, sondern der Entschließung und des Mutes liegt, sich seiner Leistung zu bedienen. Sapere aude techné (ich weiß, das ist sicherlich falsch)! Habe Mut, dich des von den Algorithmen bereitgestellten Verstandes zu bedienen! ist also der Wahlspruch der neuen Aufklärung.

Wir steigen gerade kollektiv in das große Flugzeug Kontrollverlust, ob wir wollen oder nicht. Wir sehen den Wandel, wir erahnen das Potential, die emanzipatorische Macht, die im Internet steckt. Wir wissen, dass wir, sobald wir uns dieser Maschine überantworten, keine Kontrolle mehr über Dinge haben werden, über die wir gewohnt waren, Kontrolle zu haben. Es ist ein merkwürdiges Gefühl für fast alle von uns. „Creepy“, wie man so schön sagt. Manche Menschen haben ihre Flugangst schließlich auch heute nie überwunden. Die Meisten steigen aber dennoch in das Flugzeug ein, weil sie wissen, dass es sich lohnt.

Dieser Beitrag wurde unter Kontrollverlust, Queryology, reloaded abgelegt und mit , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

43 Kommentare zu What about us? – Die Antiquiertheit des „Humanisten“

  1. Pingback: hast du angst vor den maschinen? | AxelEmm

  2. marcel sagt:

    Ich lege dir (und allen anderen) dringend die Lektüre von „Accelerando“ von Charles Stross ans Herz. http://www.antipope.org/charlie/blog-static/fiction/accelerando/accelerando-intro.html

  3. Pingback: Algorithmen vs. “Humanisten”

  4. Bob sagt:

    I, for one, welcome our new algorithm overlords.

  5. Benni sagt:

    Du kennst den italienischen Futurismus und wie er endete? Nur so als Warnung.

    Du kennst die „Dialektik der Aufklärung“ und hast sie verstanden? Nur so als Hinweis.

    Man sollte naiven Technik/Aufklärungs-pessimismus nicht mit naivem Technik/Aufklärungs-optimismus bekämpfen.

    Außerdem hab ich seit ein paar Wochen das Gefühl, dass Du eigentlich lieber über Atomkraftwerke schreiben willst, dich aber nicht traust ;-)

  6. Baranek sagt:

    Danke für die Gedanken, die ich immer als inspirend ermpfinde. Sehe auch den Gegensatz zwischen Mensch und Maschine als künstlich an, wobei es historisch immer wieder Maschinenstürmerei gegeben hat. Die allerdings schnell obsolet war und über wir heute den Kopf schütteln. Ein gedanke allerdings: es ist schon aufschlussreich, das eigentlich jede Maschine einen Ausschalter bzw. einen Roten Knopf „Notaus“ hat. So ganz wollen wir unsere Macht nicht aufgeben – eben wegen der Fehler. Und weil viele Dinger einfach noch zu dumm sind und ungeplante Ereignisse nicht in ihre Aktivität einbeziehen können. Das macht den Menschen aus: spontan auf nie erlebtes, nie gedachtes anhand von abstrakten Normen und Werten angemessen zu reagieren und wenn es nurt der instinktive Selbsterhaltungstrieb ist. Das werden die Dinger nie können.

  7. Hakan Tee sagt:

    Die dritte narzisstische Kränkung ist die von Freud, dass der Mensch nicht einmal mehr „Herr im eigenen Hause“ ist. Just saying.

    http://de.wikipedia.org/wiki/Kr%C3%A4nkungen_der_Menschheit

  8. Mathias sagt:

    Algorythmen werden durch logisches denken einiger Leute geschaffen. Mit anderen Worten: Macht ein Programm Fehler sind immer Menschen dran schuld. Und das wird sich auch nicht ändern. Der Programmcode reproduziert sich ja nicht von selbst.

    Gleichzeitig bedeutet das auch, dass wir, wenn wir die Kontrolle an den Maschinen abgeben, letzten Endes den Programmierern die Kontrolle geben, da die es sind, die Entscheiden was ihr Programm oder ihre Maschine macht.

    Es schadet übrigens nicht sicht selbst das Programmieren beizubringen. So hat man gewisser Weise die Möglichkeit ein klein wenig selbst die Kontrolle zurück zu bekommen. Meistens muss man eben selbst sehen wen man vertraut. Leute die wahllos Software installieren machen sich darüber offenbar keine Gedanken.

    Letztlich liegt es vollkommen in der Hand des Menschen wie sich Maschinen verhalten und in wie Weit wir denen trauen die bestimmen welches verhalten Programme/Maschinen zutage legen.

    • sofias. sagt:

      das sich programme nicht selbst schreiben ist ja auch nicht ganz richtig. compiler währen ein sehr primitives gegenbeispiel, evolutionäre algorhitmen ein hoch-leveliges.
      auch die fitness-function nicht unbedingt auf laborgemachten messdaten beruhen muss:

      1. man lasse 1000 algorhithmen mit je 10 € an die börse.
      2. man lasse sie sich untereinander austauschen und „kinder bekommen“.
      3. wer pleite ist, verliert.
      4. ???
      5. PROFIT!

  9. Delenz sagt:

    Was du nicht beachtest, ist, dass Menschen immer Schuldige für „Unfälle“ suchen werden. Das wäre beim alleine fahrenden Auto entweder der Entwickler oder der Politiker, der so etwas zugelassen hat. Das Auto selbst eignet sich als Schuldiger meiner Meinung nach ja nur bedingt, weswegen ich auch das Bsp mit dem Mob im Film, der die Roboter zerstört, nicht wirklich mag. Und bei einem Roboter hat man wenigstens noch etwas mit Substanz, ein Algorithmus dagegen ist sehr viel un(an-)greifbarer.

  10. Benni sagt:

    Wie geht dieser Hype über „Algorithmen“ eigentlich damit zusammen, dass die wesentlichen Innovationen in diesem Bereich schon 40-50 Jahre alt sind? Man kann mit einem Lehrbuch aus den 70ern heute noch alle wesentlichen Algorithmen lernen. Innovation gibt es, aber sehr sparsam.

    • sofias. sagt:

      nunja, vielleicht währen die 50er bis 70er etwas mit der kambrischen explosion zu vergleichen, während jetzt sich amphibien langsam daran gewöhnen an land zu leben. gerade werden die interfaces zu diesen menschen mal gründlich aufgerüttelt, außerdem ist das internet eine ziemlich andere architektur als die von-Neumannschen maschinen mit denen ma bis dahin vor allem gespielt hat. die algorhithmen dort heißen protokolle.

      und was auch immer du genau unter „kapitalismus“ verstehst, ist auch nur ein soziales programm von deren alternativen bis jetzt nicht genügend menschen (oder nicht die ‚richtigen‘) überzeugt sind.
      viele dieser programme werden gerade tief erschüttert, da die plattform nicht mehr nur das vereinzelte, langsam rechnende, schlecht informierte gehirn ist.

  11. Benni sagt:

    Und noch: So lange wir Kapitalismus haben, sind die wesentlicheren Innovationen neue Geschäftsmodelle, nicht neue Algorithmen. Wo ist der neue Algorithmus in Facebook oder Twitter? Ok, Google ist da vielleicht ne Ausnahme.

  12. Jens Best sagt:

    und dann noch diese menschlichen Drehbuchschreiber, die dem Data aufgezwungen haben, dass er verzweifelt versucht „menschlich“ zu sein.

    …und die non-human-seeking Versionen von Data sind dann auch noch entweder böse (Lore) oder dumm (B-4).

    Dennoch:

    Solange Roboter keinen Wein geniessen können, sind die mir suspekt und keinesfalls eine Evolution des Menschen.

  13. xbg sagt:

    Dass Algorithmen im Durchschnitt besser sind (und man sie ja sonst nicht anwenden würde) erinnert mich an den schönen Spruch „Der Graben war im Durchschnitt nur einen Meter tief und trotzdem ist die Kuh ersoffen“.

    Ich selbst hatte vor einigen Jahren den Fall, dass ich einen Mobilfunkvertrag im Internet fast nicht abschließen konnte, weil die Webseite meinen Namen automatisch immer wieder verfälschte, vermutlich infolge eines falsch gespeicherten Schufa-Datensatzes. Das war insbesondere misslich, weil korrekte Angaben für die Bestätigung mittels Postident-Verfahrens nötig waren (und es der letzte Tag eines speziellen Angebotes war). Man kann einem Algorithmus nicht davon überzeugen, dass er falsch liegt. Ich konnte dann immerhin später den Postboten überzeugen, dass die falschen Angaben nicht so ins Gewicht fielen.

    Das mag ein harmloses Beispiel sein. Aber die Frage ist doch trotzdem, ob und unter welchen Umständen wir es als Gesellschaft ethisch vertreten wollen, dass einzelne abgehängt werden, damit die Algorithmen im Durchschnitt einen besseren Dienst tun.

  14. Pingback: Humanisten Popisten « H I E R

  15. erlehmann sagt:

    Algorithmen werden von Menschen implementiert – Menschen, die damit Macht erhalten; Macht, die umso größer ist, desto weniger verständlich ist, was da ver sich geht. Das ist der Knackpunkt.

    Beim Flugzeug mag das schon zu einem Teil zutreffen, doch erstens ist die Macht recht begrenzt (man müsste schon in ein Flugzeug steigen, wie du korrekt bemerkst), zweitens werden die grundlegenden Prinzipien („Warum fliegt es?“) in der Schule gelehrt. Das Vertrauen, das du hier siehst, ist ein anderes, als das, was du forderst.

    Zudem: Humanismus halte für das falsche Schlagwort – was du angreifen möchtest, ist etwas anderes, besser: Es sind zwei andere Dinge. Da ist zunächst die Furcht, reduziert zu werden. Die hängt nicht an der Maschine – Menschen können Leute auch ohne Assistenz auf Datenpunkte reduzieren. Und dann wäre da noch das Problem der Undurchsichtigkeit, das eng mit dem Verlangen, im Zweifelsfall dann doch die Kontrolle erlangen zu können, zusammen hängt; Dies ist ähnlich wie bei freier Software: Natürlich werde ich nicht jedes Paket manuell überprüfen, aber wenn ich möchte, kann ich es tun – daher erwächst übrigens auch eine Art von Vertrauen.

    Eliezer Yudkowsky sieht Transhumanismus als vereinfachten Humanismus. Mein Vorschlag: Such dir einfach ein angemesseneres Wort.

    Und zum Thema Rassismus gegen die Maschinen hast du natürlich Battlestar Galactica vergessen, hehe.

  16. erlehmann sagt:

    Benni, das mit dem Lehrbuch aus den Siebzigern ist ganz großer Quatsch.

    Das mit den italienischen Futuristen finde ich amüsant, da bist du nämlich nicht der erste.

  17. Pingback: Twitkrit — Wehret den weißen Hitler-Schwänen

  18. ml sagt:

    Hm,
    so schön das alles klingt, selbst dich wird der hier angeprangerte Rassismus treffen, wenn du mit Herzinfarktsymptomen in der Urologie des Krankenhauses auf die Auswertung deiner Urinuntersuchung wartest, weil dich das krankenhauseigene CDSS nicht als Infarktpatient sondern als Druffie eingestuft hat…

    … immer schön vorsichtig mit der neuen Software :)

    Denn was ein Algorhtytmus (noch) nicht kann ist lernen und sich verbessern, ohne dabei auf schon gegebenes zurück zu greifen.

  19. ke sagt:

    Da ist die Wallstreet, an der 70% des Handels schon nicht mehr durch Händler aus Fleisch (er benutzt genau dieses Wort) und Blut, sondern durch die Großrechner des High Frequency Tradings initiiert werden.

    Genau dieses Wort? Naja, flesh halt. Welches auch sonst?

  20. Madoc sagt:

    Danke für diese inspirierte Betrachtung!

    Der Umgang mit dem Begriff der Kontrolle macht mich etwas misstrauisch. Ich weiss nicht so recht, welche Kontrolle wir denn da genau abgeben. Widersprüchlich wird das Ganze, wenn man sich vergegenwärtigt, dass wir durch die Rechner mehr Kontrolle über vieles erlangen, das wir sonst schlechter oder gar nicht kontrollieren könnten.

    Das deutet darauf hin, dass „Kontrolle“ in diesem Zusammenhang ein viel zu schwammiger Begriff ist.

    Vielleicht ist es ja so genannt: Wir geben die Möglichkeit auf, die feinen Details der besagten Prozesse einzusehen und zu verändern. Und wir erlangen die Möglichkeit, viel mehr von unseren Zielen zu erreichen.

    Aber die Details vieler Prozesse, die heutzutage per Computer gesteuert werden, könnten wir gar nicht einsehen und verändern, weil wir rein praktisch dazu gar nicht in der Lage wären. Wenn plötzlich die Computer auf allen Flughäfen ausfielen, wäre es uns unmöglich, den Flugverkehr zu koordinieren. Wir haben nicht genug geistige Kapazität, um das alles in so kurzer Zeit zu planen, geschweige denn zu überblicken. Also: Hier können wir gar keine „Kontrolle“ aufgeben, weil wir sie sowieso niemals besitzen könnten.

    Es muss ja kein Computer sein, bei simpler Mechanik fängt es schon an. Übertragen wir dieses Thema doch mal auf den Einsatz eines Hebels, um ein großes Gewicht hochstemmen zu können: Skeptiker werden argumentieren, ich gebe Kontrolle an den Hebel ab. Er könnte brechen und Schäden verursachen. Aber ohne den Hebel könnte ich das Gewicht vielleicht überhaupt nicht stemmen. Was für eine Kontrolle soll das denn bitteschön sein, die ich abgeben kann, ohne sie überhaupt zu besitzen?

    Meiner Meinung nach könnte die ganze Diskussion präziser geführt werden, wenn man die Begriffe der Kontrolle und des Kontrollverlusts gar nicht mehr verwenden und durch präzisere Konzepte ersetzen würde.

  21. sofias. sagt:

    vielleicht sollten wir distanzloser mit maschinen umgehen.
    wenn wir zu vorsichtig und zu wenig verspielt sind, wird die illusion der maschine als ‚perfekte‘ lösung des probems verstärkt, die dann umso schmerzhafter zerstört wird und noch mehr vorsicht und distanz schafft.

  22. Martin Recke sagt:

    Guter Text.

    Warum schaffen wir eigentlich die Atomenergie ab?

  23. Prr sagt:

    Natürlich ist die Schwarz/Weiß Malerei der Antropozentristen ziemlich populistisch, aber das Grundproblem ist ja eins, dass mit der Akzeptanz des Kontrollverlusts auch nicht abgeschafft wird.
    Der Verlust ist ja der über jemanden der_die_das zur Rechenschaft gezogen werden kann. Überfährt ein automatisiertes Fahrzeug heute jemanden, muss für die Rechtsprechung jemand gefunden werden der_die die Verantwortung dafür hatte (wie damals bei diesem Transrapid-Teststrecken-Unglück). Versuch das mal für Algorithmen zu lösen ohne „statistisch gesehen musste das ja mal passieren“ zu benutzen – weil das ist ein sehr unbefriedigendes Argument.. :)

    P.S.: Ich empfehle noch Latour zur Mensch/Technik/Akteur-Geschichte.

  24. Enno sagt:

    Sorry, Michael, leider ein ausgesprochen irrelavanter Blogpost, da er mit falschen Begriffen jongliert. Dein Algorithmus ist nicht antihumanistisch, solange der den Menschen dient. Das fahrerlose Auto ist keine Abkehr vom Humanismus sondern einfach nur eine Technik, vor der viele erst einmal Angst haben. Anders gesagt: Auch Dampfmaschine und Eisenbahn waren weder humanistisch noch antihumanistisch. Der Gegensatz ist konstruiert, und zwar von dir und nicht von der potenziell über selbstfahrende Autos schlagzeilenden „Bild“.

    Dass du es wagst, den Begriff „Rassismus“, der nur mit unfassbarem
    Leid gedacht werden kann und bis heute dafür sorgt, dass Menschen durch andere Menschen diskriminiert werden, zeigt deutlich deine deinen Mangel an Empathie einhergehend mit einem Überschuss an Arroganz. Anders gesagt: Mit der Anwendung des Rassismus hast du ganz, ganz tief ins Klo gegriffen.

    Eine Maschine kann man nicht diskriminieren. Und Menschenrechte für Maschinen sehe ich auf absehbare Zeit nicht kommen. Ersetze Humanismus und vor allem Rassismus durch stimmige Begriffe und schaue nach, ob dein technozentrisches Weltbild dann noch irgend einen Sinn ergibt, bzw. dieser Artikel eine irgendwie neue oder relevante Aussage enthält.

    • sofias. sagt:

      „Dein Algorithmus ist nicht antihumanistisch, solange der den Menschen dient. Das fahrerlose Auto ist keine Abkehr vom Humanismus sondern einfach nur eine Technik, vor der viele erst einmal Angst haben.“

      eben, solange:
      in fahrerlosen autos ist der mensch halt kein fahrer mehr sondern eine „fracht“ mit ziel. genau wie ein päckchen.
      ich denke die meisten fahrerlosen autos werden, auf absehbare zeit, teil eines dezentralen postnetzwerks.
      dieses netzwerk braucht keinen mensch der ständig lenkt und korrigiert. es braucht blos einen start- und einen zielpunkt.

      das wird für die menschen nicht schlecht sein, aber es ist für ihn ein bedeutungs- und naja kontrollverlust…

      mit der eisenbahn hat ma wahrscheinlich das erste mal menschen als fracht begriffen, wenn ma ihm aber jetzt die fahrerfunktion abnimmt währe das ein ziemlich bemerkenswerter schritt.

  25. twex sagt:

    Das Argument von Gelernter wird zwar wiedergegeben, aber offenbar gar nicht reflektiert. Knechtschaft ist um ihrer selbst willen abzulehnen, nicht weil sie zu wenig effizient ist. Den Fahrstuhlknopf des Lebens selbstbestimmt drücken zu dürfen ist ein Gewinn an Freiheit, Lebensqualität und Selbstbestimmung, der in Effizienzkalkulationen nicht zu messen und nicht aufzuwiegen ist.

  26. mspro sagt:

    @marcel – lese ich tatsächlich gerade.

    @benni

    @Baranek mit was die dinger nie können werden, wär ich vorsichtig. ansonsten klar: die systeme müssen flexibel gehandhabt werden und der mensch dort zum einsatz kommen, wo er derzeit besser ist.

    @Mathias ich kann programmieren, frage mich aber, ob du es kannst. Sowas kann man man eigentlich nicht behaupten wenn man nur einmal an einem annähernd komplexen problem gesessen hat.

    @benni: futurismus: ja. dialektik der aufklärung: überschätzt. atomkraft: schwerer zu verargumentieren und ein anderes thema. aber hab ich ja schon drüber geschrieben. Zum Algorithmenargument: weil vor 1500 jahren der ziegelstein erfunden wurde, gab es keine innovation im häuserbau mehr? Geschäftsmodelle: ja, auch das sind technologien und teil der allgemeinen technikevoltion.

    @sofias – versteht meine argumentation sehr gut. :)

    @xbg – es geht nicht um den durchschnitt (allgemein), sondern um spezielle probleme, wo die maschinen besser sind. da hat erstmal keiner einen nachteil davon. außer, dass vielleicht arbeitsplätze abgebaut werden. was ich sehr begrüße.

    @ml – ich sag ja, algorithmen sind nie perfekt und in jedem system werden sich ungerechtigkeiten identifizieren lassen. in algorithmischen hoffentlich nur wenige. ich bin übrigens auch immer für eine algorithmenkritik. egal wie gut algorithmen sind. es ist immer gut, wenn sie noch besser werden.

    @Madoc – danke für die analyse. ja, da muss ich nochmal grundsätzlich ran. im grunde muss ich eine genaure differenzierung zwischen „kontrolle“ und „souveränität“ hinbekommen. dazu wird beizeiten auch ein text kommen. versprochen.

    @Martin Recke – weil die meisten von uns diese technologie nicht haben wollen. oder so.

    @enno – „Dein Algorithmus ist nicht antihumanistisch, solange der den Menschen dient.“ ja. genau das sage ich. die „humanisten“ (in ahführungstrichen) sagen, dass die algorithmen antihumanistisch seien. nicht ich. ich sage das gegenteil.

    twex – natürlich reflektiere ich das. und sage das ist bullshit. es gibt viel mehr selbstbestimmung, wenn ich den fahrstuhlknopf nicht drücken kann und dafür zeit habe, ein eis zu essen. oder nicht.

  27. Enno sagt:

    Nein, Michael, das sagt keiner, das konstruierst du dir nur für deine Theorie so zurecht.

  28. Pingback: Sozialtheoristen » Michael Seemann Schreibmaschine

  29. Pingback: Glanzlichter 70: « … Kaffee bei mir?

  30. Pingback: Glanzlichter 70: Hartz IV, Studenten und die Demokratie | Ruhrbarone

  31. ring2 sagt:

    Ich lese in jedem 2. Absatz von Dir das Wort „Effizienz“ mit – und halte Deine Ansichten für ein Aneinanderreihen von Sätzen/Thesen ohne Sinnstiftung. „Mensch minus Technologie, ist ein Fleischklumpen.“ ist nicht Anti-humanistisch, sondern doof. Im besten Fall. Im schlimmsten neoliberaler Geist.

  32. Frank Krings sagt:

    @mspro Dann bist du ein Anhänger dieser Bewegung

  33. Mathias sagt:

    @mspro Das war ein allgemeiner Appell. Fühl dich nicht gleich angegriffen.

  34. Carsten sagt:

    Der Vollständigkeit halber: Der Satz

    Eine neue Aufklärung muss – Kant paraphrasierend – der Ausgang des Menschen aus seiner selbstauferlegten biologischen Ungenügendheit sein.

    ist ziemlicher Unfug. 1. Ist das keine Paraphrase, 2. keine Paraphrase Kants, 3. ist die Rede von „selbstauferlegter biologischer Ungenügsamkeit“ entsprechender Mumpitz, da sich der Mensch nicht selbst biologisch, d.i. natürlich, irgendetwas auferlegt hat. Wenn man schon keinen Bock hat Kant zu lesen, dann sollte man doch wenigstens Kant gegenüber so fair sein, ihn nicht für so ein selbstbeweihräucherndes Namedropping in Geiselhaft zu nehmen.

  35. Prrr sagt:

    Ergänzend zum Thema Verantwortung die Automaten übernehmen müssen im Transhumanismus stieß ich noch auf diesen hier:

    Strafrecht für Roboter
    Maschinen sollen für eigene Fehler haften

    http://www.spiegel.de/wissenschaft/mensch/0,1518,569004,00.html

    • sofias. sagt:

      Strafrecht für Roboter
      Maschinen sollen für eigene Fehler haften

      dafür müsste ma aber entsprechende maschinen erstmal als freie agenten ansehen, statt als jemandes absolutes eigentum definieren.
      an sonsten ist es nur ein verbrechens-freibrief für jeden der eine solche maschine besitzt.

      währe jedenfalls auch ein guter anlass, vergeltung aus dem gesetz zu verbannen. und strafen nur zu dulden wenn sie empirisch nachweisbar der rehabilitation und prävention nutzen, als sie dem bestraften schaden.
      …und staaten zu verbieten. <_<

  36. Pingback: Linkschau, die Elfte. | Die datenschutzkritische Spackeria

  37. txxx666 sagt:

    Das Unbehagen am Ausgeliefertsein an die Algorithmen rührt wohl vor allem daher, dass ein Mensch, der einen Fehler gemacht hat, diesen (theoretisch) erkennen und korrigieren (oder zumindest seine schädlichen Folgen minimieren) kann, während ein Algorithmus (wiederum theoretisch) bis zur absoluten Katastrophe auf seiner fehlerhaften Entscheidung beharrt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.