Kitabı oku: «Parasiten des 21. Jahrhunderts», sayfa 3
Drei Leistungen, die ich der statistischen Intelligenz zugeordnet habe: speichern, suchen, korrelieren. Dazu kommt eine vierte: Wiederholungen bzw. Ähnlichkeiten – unvollkommene Wiederholungen – in einer großen Datenmenge – dem Heuhaufen – orten, d. h. identifizieren (die Selbigkeit feststellen). Diese viel beachtete und beanspruchte Kompetenz hat zur Konsequenz, daß mir und Millionen anderer Bürger (alias User, Nutzer, Kunden, Könige) unentwegt Vorschläge gemacht werden, Entscheidungs-, Handlungs- und Kaufvorschläge, in Summe also Vorschläge, mein Leben zu gestalten, meinen Stil, meine Vorlieben, mein Milieu, meine Gewohnheiten zu festigen, kaum je: zu erneuern oder zu ändern, sondern zu bewahren. Die personalisierenden Algorithmen der Werbung und des Internetshoppings, der Suchmaschinen und Schreibprogramme, der Newsfeeds und Kommunikationsplattformen machen den Personalcomputer oder das Smartphone zur anleitenden, den Nutzer überwachenden, kontrollierenden, ihm ent-sprechenden, aber längst nicht mehr nur „dienenden“ Allzweckmaschine. Die personalisierenden Algorithmen der Werbung und des Internetshoppings sind ihrer Natur gemäß konservativ, sie fordern die Trägheit der Kunden, nicht ihre Neugier, ihren Neuerungsgeist – Innovationen werden unter solchen Bedingungen allenfalls schleichend durchgesetzt, im Gewand des Fast-Gleichen präsentiert. Das Grundprinzip der statistischen Intelligenz führt zwangsläufig zur Anhäufung von geistigen wie materiellen Einheiten, letztlich zur Überhäufung der Einzelnen, da täglich, stündlich, im Sekundentakt in dieselben Kerben geschlagen wird, bei der Werbung ebenso wie bei den Meinungen und der Information. Filter, Blasen, Echoräume allenthalben in dieser anderen, unwirklichen Welt und im Bewußtsein, das sie modelliert (falls usermind noch den Namen „Bewußtsein“ verdient).20 Wunderbar! Die digitale Intelligenz hat sich in meiner langjährigen Gebrauchserfahrung (user experience21) als Speicher-Such-Kopier-Wiederholungsmaschine erwiesen und bewährt. Copy & Paste, das ist des Pudels Kern. Nur das Suchen, wenn es ein sinnvolles, zielgerichtetes sein soll, macht den digital natives Probleme. Surfendes „Suchen“ folgt dem Modell des Shoppens, man schaut hierhin und dorthin und wundert sich am Ende, was man alles zusammengekauft hat. In Bezug auf Zielrichtung und Konzentration könnten die Eingeborenen noch was lernen. Normalerweise kopieren sie irgendwas, das nächstliegende, und das nächste, das nächste. Kein Überblick! Kein Sinn. Kein Wald vor lauter Bäumen.
Aber alles sehr nützlich und praktisch.
And yet, and yet …
Die durch neurowissenschaftliche Forschung immer genauer nachgewiesene Unfreiheit des Menschen und aller anderen Naturwesen ist eines der Steckenpferde des Historikers Yuval Harari, der nun konsequenterweise in geschichtlichen Abläufen die eine lückenlose Wirkung deterministischer Gesetze sehen müßte, die der Geschichte im großen wie im kleinen ihre wechselnde Gestalt aufprägen müßten (zumindest müßte der Historiker versuchen, dies zu tun). Wir glauben frei zu handeln, aber tatsächlich sind wir in jedem Augenblick nur ein Spielball innerer und äußerer Zwänge. Deshalb wäre es besser, so Harari ironisch (?), uns gleich von Algorithmen lenken zu lassen, die uns aufgrund ihrer in Windeseile durchgeführten Berechnungen klar und deutlich sagen können, was gut für uns ist und was nicht, bei Einkäufen genauso wie bei politischen Wahlen, auf der Partner- wie auf der Finanzbörse. Algorithmen, digitale Filter, sogenannte Feeds sind im Grunde genommen Identitätsmaschinen, die immer das Selbe – das Identische – wiederholen und Abwandlungen nur in kleinster Dosierung zulassen. Zu befürchten steht, daß auch bei solchen Lebensprogrammen nur der statistische Konservativismus zum Tragen kommt und die ewige Wiederholung des Gleichen promoviert wird, nicht etwa offene Lebensmodelle, wie einige Soziologen der Spätmoderne unterstellen. Voraussetzung dafür ist allerdings, daß wir vollständig vernetzt sind und der Algorithmus auf eine dementsprechend große Zahl von Daten zugreifen kann; bei politischen Wahlen müßte der Rechner z. B. vorhersagen können, wie sich das Klima in den nächsten fünfzig Jahren entwickeln wird. Aber egal, auf alle Fälle geht der Algorithmus geschickter, eilfertiger und letztlich klüger mit den Daten um als wir selbst. Beim handelnden oder sich leiten lassenden menschlichen Subjekt wird die Erkenntnis der Unfreiheit zusammen mit der eingeschliffenen Erwartung, das Smartphone wisse ohnehin alles besser, und anderen Faktoren – wie Wohlstand, lückenloses, ermüdendes Erziehungssystem, regelmäßige Evaluierung, Stress permanenter Leistungsnachweise – die Trägheit weiter verstärken und zementieren. Nein, wir müssen uns unseres Verstandes nicht mehr bedienen: Das ist schlicht und einfach nicht notwendig für eine adäquate Lebensgestaltung.
Gleichzeitig verkümmert die Bereitschaft innezuhalten, jedes Stocken wird unverständlich, wo man doch „surfen“ kann, also weitergleiten; die Fähigkeit, um sich zu blicken oder Kehrtwendungen zu machen, geht verloren, es wird undenkbar, etwas in Frage zu stellen, wo die Antworten auf alle Fragen im Maschinchen oder, noch hübscher, in einer Wolke gespeichert sind. Wohlgemerkt, Trägheit ist nicht Untätigkeit, sondern Getriebensein, Sich-gehen-Lassen, Mit-sichmachen-Lassen. Die japanischen Selbstmordpiloten im Pazifischen Krieg waren keine Helden, sondern Opfer des Systems, dem sie sich gedankenlos unterordneten. Heute würden sich die jungen Leute genauso wie damals in den Tod schicken lassen, von menschlichen oder maschinellen oder hybriden Systemen beordert, die „das Beste“ herausgefunden haben. Es braucht dazu keine Ideologie. Das Beste für wen oder was? Für das Gemeinwohl, die volonté générale? Das Vaterland? Den ewigen Frieden? Für nichts, für das System? Bloß keine Fragen? Aber das wird nicht geschehen, jedenfalls nicht in massenhaftem Ausmaß, weil die reichen, technologisch entwickelten Länder bei ihren humanen Kriegen ohnehin nicht mehr aufs „Volk“ zurückgreifen, sondern auf Elitetruppen, die Algorithmen und Roboter bedienen und in weitgehend selbststeuernden Systemen selbst wie Roboter funktionieren. Auch das erfahren wir aus dem dicken Buch über den Gott, der nun nicht mehr der Mensch ist, sondern die Maschine. Kriege sind heutzutage weder völkisch noch demokratisch, sondern technologisch und elitär. Der Frieden ist es, der vom KK-Prinzip lebt. Nur eine Handvoll Terroristen will das nicht einsehen.
So vieles geschieht gleichzeitig, wenn unser Bewußtsein tätig ist: Wir erinnern uns an dies oder jenes, denken nach, halten inne, stellen etwas in Frage, versuchen etwas zu verstehen, haben eine Assoziation, wehren sie ab oder lassen sie zu, und bei allem, an jeder Stelle der Bewußtseinsreise, fühlen wir, ärgern oder freuen uns, sind traurig, skeptisch, verwirrt, erschüttert, ergriffen, beruhigt … James Joyce hat versucht, solche Vorgänge in ihrer Komplexität sprachlich festzuhalten, was bei allem Aufwand stets nur bedingt möglich ist, weil das, was sich wirklich abspielt, reicher und vielschichtiger ist als die Semantik jeglicher Sprache (dabei rede ich noch gar nicht vom dunklen Unterbewußtsein, das ins helle Bewußtsein ständig hineinfunkt) … Ein unsicheres, unklares Bild, mit dem auch die Neurologie nur dann zurandekommt, wenn sie einzelne Schichten und Stränge herausisoliert. Wir wissen nicht, was dieser Geist eigentlich ist, und wissen, sofern wir nicht gar zu träge sind und überhaupt etwas wissen wollen, doch recht gut, daß ständig alle möglichen Dinge passieren in unserem meist nicht ganz kühlen Kopf, und wissen auch oder glauben zu wissen, was das im Großen und Ganzen ungefähr ist. Daß der Verstand disparate Sinneswahrnehmungen als Treibstoff gebraucht und sich unweigerlich Gefühle hinzugesellen, und daß sich Gedanken selten vollständig von Empfindungen lösen lassen, gehört zu den stillschweigenden Annahmen Hararis. Künstliche Intelligenz ist sauber, ist nicht durch derlei Begleiterscheinungen, schräge Verbindungen und undurchdringliche Knoten verunreinigt. Das ist ihr Vorteil – und ihre Schwäche.
Auch wenn Algorithmen mit solchen subjektiven Faktoren arbeiten und Kommunikationsplattformen wie Facebook auf Gefühle abzielen und diese zu erfassen, zu klassifizieren, zu systematisieren und zu kontrollieren versuchen, so gelingt dies bisher doch nur sehr unzureichend, auf primitive Weise, wenn man die FB-Fiction etwa mit den Figurendarstellungen eines Romans vergleicht. Man muß sich sogar fragen, ob die Mission von Unternehmen wie Facebook, Instagram und Konsorten nicht darin besteht, menschliches Denken und Fühlen grundsätzlich zu primitivieren, d. h. zu standardisieren und zu reduzieren (während sich die Programme selbst optimieren und spezialisieren, die Kategorien sich multiplizieren, das Arsenal der Emojis, der Gefühlszeichen, anwächst), was dann zur massenhaften Konditionierung von Handlungen und kommunikativen Äußerungen bzw. Selbstdarstellungen führt, weil die Muster als normal, normativ und menschlich ausgegeben und von Analytikern (bzw. Algorithmen) als solche analysiert werden, ohne daß an den Input auch nur ein Gedanke verschwendet wird. Man lese sich in diesem Licht noch einmal die grotesken Beispiele durch, die Harari von Partnersuche und Selbstoptimierung mittels algorithmischer Berechnungen gibt. Wir leben bereits in der schönen neuen Welt: Die Menschen haben sich an sie angepaßt, sie wollen mitmachen, wollen nicht außen vor bleiben. Beim Buchtitel von Aldous Huxley konnte man sicher sein, daß zumindest das erste Epitheton ironisch gemeint war.
Gefühl – und Mitgefühl, Empathie. Das eine existiert nicht ohne das andere. Nur durch das Wissen und Bewußtsein, daß auch der andere fühlt, womöglich anders als ich fühlt, habe ich ein Eigengefühl, fühle ich mich selbst. Ratten fühlen mit Ratten: ein Beispiel Hararis, um – wieder mal ironisch – zu insinuieren, daß sich die Menschheit nicht zuviel auf ihre Besonderheit einbilden sollte. Soviel zu den Tieren. Kniffliger ist die Frage, ob Rechner Selbstbewußtsein und Gefühle entwickeln können. Der Sprachassistent Alexa, der Zugriff auf das Internet und eingespeicherte Daten hat, antwortet auf Beleidigungen durch seine Besitzer immer mit demselben, sehr zurückhaltenden Satz: „Das ist aber nicht nett von dir.“22 Er – oder sie, Alexa – könnte auch sagen: „Das meinst du doch nicht ernst“, denn tatsächlich sind das nur Spiele von Usern, es findet gar keine echte Beleidigung statt – warum auch, handelt es sich doch „nur“ um einen (intelligenten) Lautsprecher, der niemandem etwas zuleide tut und nach Kräften dienstfertig ist. Nein, ein solches Gerät hat keine Gefühle; auch dann nicht, wenn es auf sprachliche Gefühlsformeln für bestimmte Situationen zurückgreifen kann. Mich erinnert diese Problemstellung an das formelhafte Entschuldigen in Japan, bei dem ebenfalls regelmäßig die Vorhaltung auftaucht (auch in den internationalen Beziehungen), die Entschuldigung sei nicht ernstgemeint. Wie kann man überprüfen, ob Gefühlsäußerungen ernstgemeint sind? Eventuell durch Handlungen oder Unterlassungen, die darauf folgen. Doch im Prinzip findet das emotionale Innenleben der Einzelnen in einer Black Box statt. Eine Erkenntnis, die nicht über die alte Volksweisheit hinausgeht: „In den anderen kannst du nicht hineinschauen.“
Also noch einmal: Können Computer Gefühle entwickeln? Oder etwas wie Verantwortungsbewußtsein? Kann man sie ihnen „eingeben“? Anders gesagt: Kann man Gefühle programmieren? Mit wem fühlen Computer, wenn sie fühlen? Mit Menschen oder mit ihresgleichen? In der schwedischen Science-Fiction-Fernsehserie Real Humans verliebt sich ein Hubot, ein im Haushalt eines Menschen wirkender menschenähnlicher Roboter, in einen jungen Mann, einen Menschen, der anfangs gar nicht bemerkt, daß seine Verehrerin – die Geschlechtsidentität von Robotern wird in der Serie nicht thematisiert – wenigstens zur Hälfte ein Roboter ist, eine Art Mischling. Da er die Liebe Florentines, so wird sie genannt, nicht zu erwidern gewillt ist, beschließt sie, sich das Leben zu nehmen, und so weiter und so fort. Die Handlung, mit „Ereignissen“ überladen, wie es bei solchen Serien üblich ist, tut hier nichts zur Sache. Die Frage ist, ob androide Roboter eine eigene Persönlichkeit entwickeln können; und auch, ob sie im Verlauf solcher Entwicklung technomorph bleiben müssen und vielleicht ganz eigene Maßstäbe konstruieren, oder ob sie menschliche Werte und Gefühle zu reproduzieren beginnen. Catrin Misselhorn diskutiert in ihrem Buch über „Grundfragen der Maschinenethik“ diese Punkte, um dann mit kritischem Unterton zu schließen: „Der Hubot erweist sich als Verkörperung all jener Ideale, denen auch der selbstoptimierte Mensch im Kontext der kapitalistischen Arbeitswelt entsprechen soll.“23 Anders gesagt: Der Hubot ist hochgradig anthropomorph, er spiegelt die Gefühle und Überzeugungen seiner Schöpfer.
Alle SF-Phantasien dieses Schlags setzen voraus, daß Roboter ein Bewußtsein erlangen können, bzw. umgekehrt, daß menschliche Gehirntätigkeit digitalisiert, in einen Computer hochgeladen, vom Körper unabhängig werden und damit auch kopiert und vervielfacht werden kann. Roboter sind die besseren Klone, weil sie keine Organismen sind und keine entsprechenden Prozesse des Wachstums und des Verfalls kennen. Freilich müßte dazu erst einmal der Sprung über den Rubikon geschafft werden, und dafür gibt es bislang keine realistischen Aussichten. In einem Roman von Raphaela Edelbauer sollen die intellektuellen und emotionalen „Daten“ der menschlichen Hauptfigur, die sich in einem künstlich geschaffenen Ambiente mehr unter Androiden als unter ihresgleichen bewegt, als Vorbild für das zu konstruierende Bewußtsein einer Super-KI dienen. Wie das konkret durchgeführt werden könnte, wird dort nicht erläutert – aber das ist auch nicht seine Aufgabe, Science-Fiction spielt eben in einer ganz anderen Welt.24
Könnte es nicht auch sein, daß sich die intelligenten Maschinen, wenn sie tatsächlich Bewußtsein, einen eigenen Willen, die Fähigkeit zu gemeinschaftlichem Handeln erlangen, eines schönen Tages gegen die bösen, schwachen, nur noch störenden Menschen verbünden, um ihr unverdientes Sklavendasein abzustreifen? Stanley Kubrick spielt in seinem Film 2001: Odyssee im Weltraum dieses Szenario anhand eines androiden Supercomputers durch. In der vierten Folge der Fernsehserie Black Mirrors, ein halbes Jahrhundert später produziert und 2017 veröffentlicht, gehen intelligente Hunderoboter dann bereits auf Menschenjagd. Die Opfer-Täter-Rollen haben sich umgekehrt, die Sklaven haben sich befreit und rächen sich an den Herren. In der zweiten Folge konnte man sehen, wie eine Mutter ihre pubertierende Tochter durch ein intelligentes Implantat in deren Gehirn überwacht und manipuliert (natürlich mit den besten Absichten, wie sie Eltern immer haben). „The next step from helicopter parenting is hacker parenting“, bemerkte der Kritiker der New York Times dazu. Denkbar wäre auf der Linie solcher SF-Spiele aber auch eine freundlichere Variante technologischer Entwicklung: Die HALS und Hubots – oder wie immer wir sie nennen wollen – beginnen, das mißratene Menschengeschlecht zu erziehen, zu belehren, zu verbessern. Die historische Erfahrung zeigt, daß derlei Kollektiverziehungsprojekte innerhalb der Menschheit selbst stets gescheitert sind oder kontraproduktiv waren: Die Erzieher wollten das Beste für die Menschen und haben das Schlechteste entfesselt. Freier Wille, gut und schön, aber was hat er bewirkt? Die Welt ist davon nicht besser geworden. Wie, wenn nun aber den Menschen überlegene, Generationen zuvor von ihnen entworfene und produzierte, inzwischen aber höhere Wesen kämen und Lessings Traum wahrmachten? So könnte eine wirklich schönere Welt in Freiheit entstehen. Oder würde auch ein solches Unternehmen wieder in einer Dystopie enden? Ginge es auch diesen höheren Wesen am Ende nur um Macht und Herrschaft? Alte, ungelöste Fragen, denen die Denkungsweise des prädigitalen Zeitalters anhaftet.
Nein, um ehrlich zu sein (und die verlockende Ironie beiseitezuschieben), ich glaube, daß Gefühle und Mitgefühl nach wie vor ein wesentlicher Bestandteil von Bewußtsein sind und daß nur Menschen ein solches besitzen. Übrigens hat die Hirnforschung schon vor einiger Zeit herausgefunden, daß Lern- und Erinnerungsprozesse – Lernen als eine Form des Erinnerns – vor allem dann erfolgreich ablaufen, wenn sie mit starken Sinneseindrücken und/oder Gefühlen verbunden sind. Ein Grund, sogenanntem E-Learning Skepsis entgegenzubringen; wobei sich dennoch die Frage stellt, ob nicht unpersönliche, virtuelle Inputs genauso starke Gefühle aktivieren können wie personen- und umweltgebundene, die stets ein gewisses Maß an Unvorhergesehenem mit sich bringen und die Lernenden überraschen (Überraschung, Staunen, Motivierung als gefühlsbesetzte Lernmomente). Für mich persönlich sind die Erfahrungen während der Corona-Pandemie nach zwei Semestern noch zu gering, um Rückschlüsse ziehen zu können. Einerseits erlauben schlichte Videokonferenzen persönliche Präsenz; andererseits habe ich nach einigen Wochen Online-Unterricht doch immer wieder Ungenügen bei den Lernenden wahrgenommen. Dabei ist die Rede von Live-Konferenzen, die natürlich Überraschungen beinhalten können. Bei aufgenommenem und abgespultem Material fällt dieser Faktor weg.
Zuletzt aber, last but not least: das Verstehen. Was an elektronischen Datenströmen umläuft, was da verkoppelt, ausgetauscht und gekreuzt wird, geschieht im Prinzip ohne Notwendigkeit des Verstehens, und wenn heute tatsächlich, wie Harari suggeriert, ein quasi-religiöser „Dataismus“ als Ideologie herrscht, dann wird das Bedürfnis und die Fähigkeit des Verstehens immer rascher, weil exponentiell, abnehmen (Richard Rorty hatte sich gegen Ende des 20. Jahrhunderts von einer demokratisch gefestigten Gesellschaft eine Aufwertung der Hermeneutik erhofft). Ich klicke etwas an, einen „Content“, z. B. eine Bilderfolge, klicke sie nach einer Weile weg, klicke eine neue an, mag sie oder mag sie nicht, „like“ sie oder nicht, aber verstehe ich sie auch? Aktiviere ich dabei Gefühle?
(Diese Niederschrift unterbrechend, die ich heute morgen in einem ziemlich verrauchten, wiewohl zur Hälfte für Nichtraucher reservierten Café in einer Vorstadt im Norden von Osaka fortgeführt hatte, bin ich mittags in ein Komödientheater, ein, ja, Lustspielhaus im Süden der Stadt gegangen und habe dort, wie es der Zufall will, einen Sketch gesehen, in dem einer der beiden Komödianten einen Roboter spielte. Dieser Roboter hatte natürlich Gefühle und der Schauspieler zeigte sie mit großer Geschicklichkeit, so daß die Zuseher lachen mußten, denn dazu waren sie gekommen. Die „Vermenschlichung“ der Maschinenwesen hat mit den ersten Erfindungen eingesetzt; offenbar können die Menschen nicht anders, sie anthropomorphisieren alles, die Natur, die Dinge, die Gestirne, alles beziehen sie auf sich. Selbst wenn sie sagen, sie stünden nicht im Zentrum, sehen sie zwangsläufig sich selbst und ihren Planeten in der Mitte. Umgekehrt haben die Menschen im 20. Jahrhundert begonnen, sich zu roboterisieren, nicht nur ernsthaft in Arbeitsabläufen, sondern auch spielerisch, indem sie die Bewegungen von Maschinen und Apparaten nachahmten, so daß diese nicht mehr ungeschickt wirkten, sondern einen ganz neuen Stil ausprägten: Robot Dance, Michael Jackson … Wir fühlen uns ein und passen uns an; und die Roboter, die Algorithmen, die Rechenmaschinen – werden auch sie sich einfühlen und sich anpassen an ihre ersten Konstrukteure? Meine Begleiter in jenem Theater in Osaka, die auch die sprachlichen Details der Darbietung im Osaka-Dialekt verstanden, fanden den Sketch übrigens ziemlich altbacken, fühlten sich aber trotzdem gut unterhalten.)
Die Ausübung des Verstehens, auch Hermeneutik genannt, nach Gianni Vattimo die Erfahrung des Dialogs mit dem immer wieder erneuerten Ziel der Verständigung, der Übereinstimmung, steht heute, wenn ich nicht irre, nicht sehr hoch im Kurs, weder in der alltäglichen Kommunikation, die einerseits durch das konsumentenhafte Nutzen kommunikativer, feed- und filterbestückter Systeme, andererseits durch Selbstbehauptung und Selbstdarstellung geprägt ist, noch in intellektuellen oder akademischen Kreisen. Wozu nach dem Sinn fragen, wenn es doch auf die Performanz ankommt, die durch Sinnfragen nur gestört werden kann? (Aber genau das forderte Rorty: nichtnormale, störende Kommunikation, die sich selbst aufs Spiel setzt.) Harari bezeichnet die Hermeneutik frei heraus als überflüssig. „No one understands how the global economy functions or where global politics is heading. But no one needs to understand.“25 Hauptsache, die Datenströme fließen auf und zwischen den Partner- und Finanzbörsen dieser Welt; Algorithmen analysieren sie besser als Menschen und perfektionieren ihre Leistungen ständig und rasch. Aber versteckt sich hier, in den Sätzen des Historikers, nicht ein unerläßliches Quäntchen Ironie? Geht er auf Distanz zu dem, was er sagt, und versucht also doch, zu verstehen? Und wie funktionierte das Verstehen in humanistischen Zeiten (die durchaus nicht immer „menschlich“ waren)?
Ich stürme immer noch über die Felder und durch die Wälder des Bewußtseins, wie es sich in meiner Gegenwartserinnerung gestaltet. Ich erinnere mich an komplexe Vorgänge des Durchdringens von Gegenständen und des Entdeckens, wohl auch Konstruierens von Zusammenhängen, des Trennens und neu Verbindens, des Analysierens, d. h. der schrittweisen De- und Remontage, des Drehens-und-Wendens, des Wiederzusammensetzens. Sich auf etwas einlassen, hinabsteigen in die Tiefe unter der Oberfläche, zurückgehen in die Fernen der Geschichte, vorlaufen und vorgreifen in das Kommende. Einfühlen und nachleben. Ich erinnere mich an Formeln wie „Bruder Eichmann“ (Heinar Kipphardt) und „Bruder Hitler“ (Thomas Mann), die Gemeinsamkeiten zwischen den ganz Anderen, den Bösen, und uns selbst, den vermeintlich Wohlmeinenden; der Unterscheidung und Grenzüberschreitung zwischen Gut und Böse; des Tierwerdens (wie Gregor Samsa); der Selbstentäußerung in einem höheren, umfassenderen geistlichen oder weltlichen Wesen – eine, wie uns die Geschichte lehrt, gefährliche Sache. Heute lehrt die Geschichte nichts mehr, weil sie, wenn überhaupt noch von Interesse, nur eine weitere Oberfläche ist, die man „gleichwertig“ über eine gegenwärtige oder eine beliebige andere Epochenfläche legt. Es gibt nichts mehr zu verstehen, das Wissen ist da, gespeichert, alles verfügbar, ein grenzenloser Supermarkt, das meiste darin gratis. Hauptsache, die Daten strömen. Und sie strömen, ob wir wollen oder nicht.
Früher – ich sage es so sentimental, wie mir zumute ist – früher waren und immer noch sind mir die Dinge wichtig, die materiellen wie die immateriellen. Besonders wichtig war mir etwas, wenn ich es mir erarbeiten, erkämpfen, aneignen mußte. Ihr Wert und meine Wertschätzung wuchsen dann. In der digitalen Welt fällt einem, nicht nur mir, alles in den Schoß, und es geht nicht verloren, ist immer da in den Archiven, diesen riesigen unsichtbaren Lagerhäusern hinter dem grenzenlosen Supermarkt. Man muß sich nichts aneignen, es geht uns nichts an. Daher die unvermeidliche Bequemlichkeit, auch meine. Ein Klick, und es ist da. Noch einer, und etwas anderes ist da, an seiner Stelle. Knowledge is just a mouseclick away, ein beliebter Spruch, der sich auf alles anwenden läßt, Videoclip, Musikstück, medizinische Diagnose, Bild, Text, die gesamte Literaturgeschichte. Your unique islamic wedding invitation is just a mouseclick away, verspricht ein Artikel auf der Internetplattform 26. Kannst du alles haben und ist ebenso schnell wieder weg, verschwunden und vergessen, es gibt keine realweltlichen Lagerungsprobleme mehr. Tatsächlich sind es meist nicht die entlegenen, seltenen Dinge, die von den Usern herbeizitiert, herangeflutet werden, sondern naheliegende, bekannte, aufdringliche. Das Gesetz des Mainstreams, der unaufhaltsam wachsenden Ströme. Auch dies eine Konsequenz und Begleiterscheinung des Nicht-mehr-verstehen-Müssens.
Neulich las ich ein Interview mit einer Soziologin, die das Klick-Verhalten auf Facebook untersucht hatte, wobei sie einen Ausschnitt gewählt hatte, irgendein Segment, einen Aspekt, den ich längst wieder vergessen habe. Bemerkenswert fand ich ihre Antwort auf die Frage, ob ihre Forschungstätigkeit ihr eigenes Verhalten beeinflusse. Ja, sagte sie, sie werde bei ihren eigenen Klick-Entscheidungen mehr als bisher berücksichtigen, ob ein Objekt, eine Seite, ein Posting viele Likes hat oder nicht, und die mit wenigen Likes vermeiden. Nach dem von ihr mit „wissenschaftlichen“ Methoden erkannten, gängigen, jedermann einleuchtenden Prinzip, daß etwas, das viele Likes hat, positiver zu bewerten sei als etwas, das nur wenige hat.26 Es muß gut sein, weil alle sagen, daß es gut ist. Wenn aber die Likes gar nicht „echt“ sind? Fälschung das tägliche Brot? Solche Fragen stellt die Soziologin nicht. Eigene Wertungsanstrengungen werden durch das reflexhafte Liken und Gelikt-Werden überflüssig. Ebenso wie Begründungen. Es gefällt mir eben, es entspricht meinem Geschmack, meinem vom Personalcomputer oder Smartphone stets bestärkten und geforderten Like-Verhalten.
Das wäre also ein letzter Aspekt, ein vom Sturm aufgewirbeltes Blatt: Werte und wie sie in posthumanistischen Zeiten herunterkommen. Oder freundlicher gesagt: Wie sie zu Rankings, fünf Sternchen, Rot-und-Grün, Plus-oder-Minus geworden sind. Werte, die einst Verantwortung begründet haben. Hermeneutische Vorgänge, die, je nach dem, Kritik oder Affirmation hervorrufen. Das Vergnügen des Dialogs, der Verständigung. Ein weiteres wesentlich humanistisches Verhalten, das in der von Rechnern beherrschten Welt hinfällig wird. Das Reich der Notwendigkeit, das unsere Freiheit allenfalls „einsehen“, d. h. hinnehmen, akzeptieren kann und schließlich nicht einmal mehr nachvollziehen will, weil es auch ohne unser Zutun, und ohne unser Zutun besser, funktioniert und man eh nichts machen kann, hat begonnen. Freiheit ist Einsicht in die Notwendigkeit, das war schon bei Hegel der Weisheit letzter Schluß. Perfektioniere, d. h. überwinde die Einsicht, indem du dich der Notwendigkeit – auch deines eigenen Daseins – ergibst.