Kitabı oku: «Die Sphinx des digitalen Zeitalters», sayfa 2
Einführung: Vom Schöpferwort zum «Achten Schöpfungstag». Der Weg zur digitalen Technik
Sprache ist seit Urzeiten das wichtigste Medium der Menschheit. Gleichwohl unterliegt auch sie den Veränderungen, welche die Menschheit im Laufe der Entwicklung durchmacht. Schon eine oberflächliche Betrachtung zeigt, dass Sprache heute vollkommen anders erlebt wird als in den Jahrtausenden zuvor. Denn wie war es früher?
Die Menschen hatten noch ein sicheres Empfinden, dass in der Sprache Kräfte wirksam sind, die nicht vom Menschen stammen und auch nicht aus der irdischen Welt. Je weiter wir historisch zurückblicken, desto stärker tritt dieses Empfinden in den vorhandenen Dokumenten hervor. Allbekannt ist der Beginn des Alten Testaments, wo Gottvater spricht: «Es werde Licht». Das galt der frühen Menschheit nicht als ein Wunsch, sondern als eine Schöpfungstat, als das Erschaffen einer Wirklichkeit, wie die anschließende Feststellung «Und es ward Licht» bezeugt. Im Neuen Testament finden wir das Entsprechende in den Krankenheilungen, die Christus vornahm; sie geschahen durch nichts anderes als durch sein Wort.
Noch bis weit ins Mittelalter hinein wurde dem Wort magische Kraft zugeschrieben, und das nicht nur im göttlichen Bereich, sondern auch unter den Menschen. Im Reich Karls des Großen z. B. waren im einfachen Volk zahlreiche, rein mündlich tradierte Zaubersprüche im Schwange, die zu einem großen Teil noch aus vorchristlicher Zeit stammten. (Wir kennen die Texte durch die Aufzeichnungen der Mönche in den Klöstern.)
Für den modernen Menschen freilich ist das alles Phantasterei. Er weist mit einigem Recht auf die Tatsache hin, dass heutzutage niemand mehr in der Sprache übernatürliche Kräfte wahrnimmt; und was man nicht wahrnehmen kann, so die Schlussfolgerung, das existiert nicht. Wenn aber in der Sprache nichts Übernatürliches zu finden ist, dann gebührt ihr auch keine besondere Ehrfurcht mehr. Folglich darf man nach Belieben mit ihr umgehen. Führende Köpfe sahen im 19. Jahrhundert sogar einen Fortschritt darin, die menschliche Sprache auf ein Zeichensystem zu reduzieren, das sich in technische Signale umwandeln lässt und dadurch der maschinellen Verarbeitung zugänglich wird.
Telegraphie
Den Weg dazu ebnete die am Beginn der Neuzeit einsetzende praktische Anwendung der Elektrizität. (Bekannt war sie schon seit dem Altertum.) Aufbauend auf dem neu entdeckten Elektromagnetismus entwickelte Samuel Morse 1837 seinen Schreibtelegraphen, der folgendermaßen funktionierte: Über einem langsam fortlaufenden Papierstreifen war ein Schreibstift angebracht, der mit einem Elektromagneten auf das Papier heruntergezogen wurde und dort je nach Dauer der Stromzufuhr kurze oder lange Striche zeichnete. Die elektrischen Impulse dazu kamen durch Metalldrähte von einer weit entfernten Person, und zwar nach einem von Morse erfundenen Code, der für jede Zahl und jeden Buchstaben des Alphabets eine bestimmte Abfolge von langen und kurzen Strichen festlegte, die am Empfangsort von geschulten Kräften decodiert werden mussten (siehe Abb. 1). Dieser Code wurde zum internationalen Standard der Telegraphie.
Abb. 1: Der internationale Morse-Code
Als sich zeigte, dass Nachrichten, die früher mühsam von der Briefpost an den gewünschten Ort gebracht werden mussten, jetzt wie von Zauberhand in Minutenschnelle ankamen, wurde die Öffentlichkeit von einem Fieber der Begeisterung gepackt: Immer mehr und immer längere elektrische Kabel wurden verlegt, überall entstanden «Telegraphenämter», die eine ständig wachsende Flut von Telegrammen zu bewältigen hatten, und schon gegen 1870 überzogen Kabelnetze weite Teile der Erde; Tiefseekabel verknüpften sogar die Kontinente miteinander. Ab dem 20. Jahrhundert konnten die Morsezeichen dann auch akustisch per Kurzwellenfunk in alle Winkel der Welt gelangen und wurden besonders im Schiffs- und Flugzeugverkehr eingesetzt. Eine erste, die ganze Menschheit überspannende Kommunikationstechnik war geschaffen – und mit ihr ein früher Vorläufer des heutigen Internets.
Dass die Sprache durch den Morsetelegraphen in einen Wust kurzer und langer Striche verwandelt wurde, die mit dem grafischen Bild der Buchstaben nicht mehr die geringste Verwandtschaft zeigten – daran nahm niemand Anstoß, denn so wie die Sprache hier behandelt wurde, so empfand man sie auch in der Realität des Alltags: als ein System von Zeichen zur Informationsübermittlung und nichts sonst.
Die Faszination, die von dem elektrischen Telegraphennetz ausging, bewirkte, dass deren Technik unreflektiert auf die gesprochene Sprache übertragen wurde, indem man den Sprecher als «Sender» bezeichnete und die von ihm geformten Sprachlaute als «codierte Schallwellen», die der Empfänger decodiert. Ein durch und durch mechanistisches Bild von Sprache entstand, das sich in den grassierenden Materialismus des Zeitalters einfügte.
Telephonie und Grammophon
Rückblickend ist zu bemerken, dass beim Morsealphabet bereits ein wesentliches Merkmal digitaler Technik zur Anwendung kam: Sämtliche Codezeichen bestehen aus einer geregelten Abfolge immer derselben zwei gegensätzlichen Elemente, in diesem Falle Kurz und Lang bzw. Punkt und Strich. Bei der heutigen Digitaltechnik wird dafür der sogenannte Binärcode eingesetzt, der mit nichts anderem als den Werten 0 und 1 die gesamte Datenübermittlung bestreitet (Näheres dazu später). Das bedeutet allerdings nicht, dass damals bereits die «Digitalisierung» einsetzte, von der heute die Rede ist. Dazu waren noch weitere Entwicklungsschritte notwendig, die im Folgenden skizziert werden sollen.
Nach der Etablierung der Telegraphie bemühten sich zahlreiche Forscher um eine praxistaugliche Technik zur Übermittlung auch der gesprochenen Sprache und der Musik. Viele verschiedene Möglichkeiten wurden untersucht. Der Durchbruch gelang Philipp Reis 1861 durch die Erfindung eines Kontaktmikrophons, aus dem in den 1870er-Jahren das Kohlemikrophon entwickelt wurde, das sogar noch in der Frühzeit des Rundfunks Verwendung fand.
Im Kohlemikrophon erzeugen die vom Schall bewirkten Schwingungen der Membran in den darunterliegenden Graphitteilchen Druckschwankungen, durch die der angelegte Gleichstrom moduliert wird. Die daraus resultierenden elektrischen Schwingungen werden zum Hörgerät weitergeleitet und bringen dessen Membran elektromagnetisch zum Schwingen, sodass eine Reproduktion des Schallereignisses entsteht. Da die vom Mikrophon kommenden elektrischen Schwingungen genau analog zu den ursprünglichen Schallschwingungen verlaufen, wird diese Technik im Unterschied zur späteren Digitaltechnik als Analogtechnik bezeichnet.
1877 stellte der Erfinder Thomas Edison ein Gerät vor, mit dem man Schallwellen aufzeichnen und reproduzieren konnte. Er nannte es Phonograph. An der Membran eines Schalltrichters hatte er eine Nadel befestigt, die in eine mit Stanniol überzogene drehbare Walze die Schallschwingungen einritzte. Zur Wiedergabe der Aufnahme wurde die Walze an den Ausgangspunkt zurückgedreht und dort die Nadel eingesetzt; diese wurde dann durch die bewegte Tonspur in Schwingungen versetzt, die sich auf die Membran übertrugen und somit hörbar wurden. Auch hier wurde das analoge Verfahren angewandt, nur dass dabei zunächst noch keine Elektrizität im Spiele war. Daraus entstand später die Schallplatte, die auf dem Grammophon abgespielt werden konnte.
Von der analogen zur digitalen Sprachübertragung
Für Radio und Telefon, Fernsehen und Schallplatten wurde das Analogverfahren noch bis zum Ende des 20. Jahrhunderts und teilweise sogar darüber hinaus beibehalten. In der Bundesrepublik Deutschland wurde erst 1989 bis 1993 das gesamte Festnetz der damaligen Bundespost auf das digitale Netz ISDN umgestellt, wobei die Nutzung analoger Telefonapparate noch viele Jahre möglich blieb. Die Umstellung provozierte naturgemäß die Frage: Wozu dieser ungeheure technische und finanzielle Aufwand, wenn ich doch am Telefon die Stimme meines Partners genauso höre wie zuvor? Die Antwort ist nicht mit einem einzigen Satz zu geben, denn hier kommt eine neue Technik ins Spiel, die sich ab der Mitte des 20. Jahrhunderts rasant entwickelt hat: die Technik der elektronischen Rechner (Computer). Ohne sie wäre die Digitaltechnik unserer Zeit nicht realisierbar geworden.
Um ihr Grundprinzip zu verstehen, kann uns als Beispiel wiederum die Übertragung von Musik und Sprache dienen. Die einfachste analoge Technik praktizierten wir als Kinder mit zwei leeren Pappdosen, deren Böden durch einen langen Faden verbunden sind. Ist der Faden straff gespannt, kann der eine die Dose als Mikrophon benutzen und der andere als Hörer, denn beide Membranen schwingen in völligem Gleichtakt. Diesem Faden entspricht bei der elektrischen Analogübertragung die Stromleitung, in der die Schallereignisse in Form elektrischer Schwingungen weitergeleitet und am Ende wieder in Schallschwingungen zurückverwandelt werden.
Bei einer digitalen Übertragung hingegen werden überhaupt keine Schwingungen transportiert; der Faden zwischen den Pappdosen, bildlich gesprochen, entfällt. Stattdessen wird an den analogen Schwingungen in kurzen Abständen das Maß der positiven und negativen Amplitudenausschläge gemessen («abgetastet» nennt das die Fachsprache), und nur diese Messwerte werden weitergeleitet. Im Empfangsgerät wird aus den übermittelten Messwerten der ursprüngliche Schwingungsverlauf künstlich wieder aufgebaut und steuert dann wie beim alten Telefon eine Hörer- oder Lautsprechermembran. Abbildung 2 veranschaulicht das.
Abb. 2: Digitale Übertragung von Schallschwingungen. Oben: Analoges Signal mit Amplitudenabtastung; unten: Abtastergebnisse, die codiert übertragen werden
In der oberen Hälfte sieht man, wie die vom Originalton analog abgenommenen elektrischen Schwingungen in kurzen Intervallen abgetastet werden, um das Maß ihres Amplitudenausschlags nach oben oder unten festzustellen (symbolisiert durch die eingezeichneten senkrechten Striche). In der unteren Hälfte sieht man nur noch das, was nach dem Abtasten weitergeleitet wird: nicht das Analogsignal, sondern allein die Messergebnisse der Abtastung, die hier vereinfacht ohne Zahlwerte dargestellt sind. In der Realität werden sie als positive oder negative Zahlwerte weitergegeben, und zwar in codierter Form.
Hier kommt der Binärcode zum Zuge, der nur die zwei Elemente «1» und «0» kennt, physikalisch repräsentiert durch die Zustände «Strom-an» und «Strom-aus». Die gemessenen Daten gelangen daher zum Computer in Form einer milliardenfachen Abfolge von «Bits». Jedes Bit beinhaltet entweder eine 0 oder eine 1. Acht solcher Bits werden meist zu einem Oktett zusammengestellt (genannt «Byte»), sodass 28 = 256 verschiedene Kombinationen von 0 und 1 möglich sind – genug, um sie den Dezimalzahlen, den Buchstaben des Alphabets und verschiedenen Zeichen zuzuordnen. Der binäre Code beispielsweise für die Zahl 5 lautet dann 00000101, die Zahl 25 wird zu 00011001, die Zahl 125 zu 01111101.
Das Ziel: Den Anschein von Echtheit erzeugen
Der Laie wird sich beim Blick auf Abbildung 2 fragen: Wie soll denn nach diesem Vorgang der ankommende Ton noch dem Originalklang gleichen, wenn von dem Original nur Stichproben übermittelt werden, zwischen denen sich ein Nichts auftut? Bedeutet das nicht ein völliges Zerfetzen des Originals, das sich auch im Klang bemerkbar machen müsste?
Die Antwort des Technikers lautet: Wenn die Abtastungen häufig genug geschehen, wird es beim rekonstruierten Klang keine Einbußen geben; er wird sich nicht oder höchstens geringfügig von dem Klang einer analogen Wiedergabe unterscheiden. Um diesen Effekt zu erreichen, genügen für eine normale Sprechstimme am Telefon 8.000 Abtastungen pro Sekunde; bei deutlich höheren Frequenzen, z.B. bei Musik, erhöhen wir die Abtastfrequenz entsprechend; das ist technisch überhaupt kein Problem. Im Übrigen sorgt im Empfangsgerät ein Kondensator dafür, dass die zwischen den Abtastungen real vorhandenen Lücken überbrückt werden und so der Eindruck eines durchgehenden Klangs erzeugt wird.
Mag die Klangqualität auch noch so echt erscheinen, so ist doch nicht zu leugnen, dass es sich um eine bewusst herbeigeführte Illusion handelt. Folglich ist die Frage erlaubt, was dieser Umstand auf Dauer im Menschen bewirkt. Aber die Frage wird kaum je gestellt geschweige denn untersucht. Das Publikum nimmt die Illusion wie selbstverständlich hin und erfreut sich daran, nicht anders als beim Kinofilm, der dem Auge durch die schnelle Abfolge von Momentaufnahmen eine flüssig strömende Bewegung vorgaukelt, die nicht vorhanden ist.
Das digitale Verfahren wird auch für optische Aufzeichnungen eingesetzt, stark abweichend vom natürlichen Sehen. Die Augen des Menschen nehmen jedes Objekt und jede Landschaft, die sich ihnen darbietet, als eine in sich konsistente Ganzheit wahr, über die die Blicke nach Belieben schweifen können. Die klassische Fotografie fixiert den momentanen Eindruck in Form eines Bildes, das immer noch eine in sich geschlossene Einheit darstellt. Die Digitalkamera hingegen kann mit dieser Ganzheit nichts anfangen. Sie bemächtigt sich des optischen Eindrucks in der Weise, dass sie das mit der Linse eingefangene Bild in Abertausende kleine Splitter zerlegt.
Genauer gesagt überzieht sie das Bild mit einem Raster aus winzigen Messpunkten, die in ungeheurer Geschwindigkeit nach Lichtstärke, Farbe usw. abgetastet werden. Die Messergebnisse gelangen binär codiert in den Computer, der dann auf dem Screen das ursprüngliche Bild Punkt für Punkt wieder aufbaut und so die Wirklichkeit gerastert vor Augen rückt (ähnlich den Bildern aus der Druckerpresse) – mit dem Anspruch, die Wirklichkeit exakt reproduziert zu haben. Dass sie in Wahrheit fragmentiert ist in Einzelpunkte, sieht jeder, der mit einer starken Lupe an den Screen heranrückt.
Das geheime Potenzial digitaler Reproduktionen
Wäre das Ziel der Digitaltechnik lediglich dieses, möglichst perfekt den Anschein echter Wirklichkeit zu erzeugen, dann wäre sie nichts weiter als eine Alternative zu den längst vorhandenen Reproduktionstechniken, von denen Film und Fernsehen, Radio und Grammophon erfolgreich Gebrauch machten; sie wäre keine besondere Attraktion. Ihr eigentlicher Reiz jedoch liegt in der Tatsache, dass sie die sichtbare und hörbare Realität verwandelt in elektronische Daten, die durch den Computer gehen, ehe aus ihnen die Abbilder generiert werden. Und das bedeutet: Der Mensch bekommt am Computer eine Verfügungsgewalt über den Wiederaufbau des Bildes, den er bei den herkömmlichen Verfahren nicht oder nur in sehr geringem Maße hatte. Er kann die Daten unverändert so weiterleiten, wie sie eingegangen sind; er kann sie aber auch, wenn er das möchte, nach Belieben verändern, indem er in den binären Code der Einzeldaten eingreift und die Zahlwerte ein wenig erhöht oder verringert. In der Masse Abertausender Rasterpunkte fallen solche Eingriffe nicht als Verfälschung auf, vielmehr bleibt der Eindruck eines echten Bildes weiterhin bestehen.
Praktisch gesprochen: Man kann Bilder unbemerkt manipulieren, kann Farben und Kontraste verändern, kann missliebige Objekte herausschneiden oder neue hineinbringen, die im Original gar nicht vorhanden waren, kann Gesichter verändern usw. Das dient oft nur dem «Aufhübschen» der Bilder, kann aber auch in böswilliger oder betrügerischer Absicht geschehen. Ebenso bei digitalen Sprach- und Musikaufnahmen: Störgeräusche kann man löschen, einzelne Orchesterstimmen hervorheben oder abschwächen, den Klang eines Instruments schärfer oder weicher machen, die Stimme des Sängers mit Halleffekt versehen usw. Die Zeit ist endgültig vorbei, in der Filme und Tonaufnahmen als ein getreuer Spiegel der Wirklichkeit gelten konnten. Fotos in der Presse oder im Fernsehen beweisen keineswegs mehr unwiderleglich, «wie es wirklich war». Überall ist mit der Möglichkeit einer Fälschung zu rechnen, sodass man seinen Augen und Ohren buchstäblich nicht mehr trauen kann.
Was sich für Fälschungen aller Art verwenden lässt, ist andererseits aber auch geeignet zum Aufbau einer virtuellen Realität, also zu Szenarien, in denen nichts mehr das Abbild einer äußeren Wirklichkeit ist, sondern alles von Anfang bis Ende am Computer konstruiert wurde. Architekten beispielsweise können das künftige Haus schon detailgetreu auf dem Bildschirm erscheinen lassen, von allen Seiten betrachtbar, ja sogar in den Innenräumen begehbar – und vor allem: jederzeit nach Wunsch veränderbar, bevor man es gebaut und eingerichtet hat. Jeder wird darin einen großen Nutzen sehen.
Wie ist es aber, wenn virtuelle Räume für Computerspiele aufgebaut werden, in denen Monster oder Aliens, Krieger von fremden Sternen, Zauberer und Hexen bekämpft werden können oder in denen monströse Kriegsszenen die Sinne gefangen nehmen, Spiele, in denen der Spieler mit einer eigenen Waffe Personen töten kann, jedwede Gewalt ausüben darf und dabei nicht die geringste menschliche Empathie zeigt, sondern nur die Sucht nach Punktegewinn auslebt?
Kritische Fragen
Die vorangegangenen Passagen konnten einen ersten Eindruck von den Möglichkeiten digitaler Technik vermitteln; viele weitere Bereiche sind noch zu besprechen. Doch dürfte schon deutlich geworden sein, dass wir es mit einem zweischneidigen Schwert zu tun haben: Auf der einen Seite sehen wir großartige Erfindungen, auf der anderen Seite öffnet sich zunehmend die Büchse der Pandora mit fragwürdigen oder sogar kriminellen Anwendungen, befeuert von Machtgelüsten und Allmachtsphantasien. Nicht zufällig sprachen Digital-Freaks schon vor Jahren vom «Achten Schöpfungstag», der erreicht sei, weil die Menschheit sich ab jetzt mit einer Sinneswelt umgeben könne, die nicht von Mutter Natur oder irgendwelchen Göttern erschaffen wurde, sondern vollständig des Menschen eigenes Werk sei, bis in jede Einzelheit seinem Geist entsprungen und mit höchster Intelligenz verwirklicht.
Was ist von einer solchen Auffassung zu halten? Erfüllt sich jetzt tatsächlich ein alter Menschheitstraum, den schon Prometheus träumte? Oder droht ein Menschheitswahn, der sich bitter rächen könnte? Berechtigte Fragen brechen auf:
Dürfen wir achtlos darüber hinwegsehen, dass die Sprache eines Menschen während der digitalen Übertragung abgetötet wird zu einem milliardenfachen Wechsel von «Strom an» und «Strom aus», aus dem dann ein Schallgebilde konstruiert wird, das nicht mehr eine vollmenschliche Realität darstellt, sondern ein technisches Scheingebilde, eine Art Gespenst?
Kann es uns gleichgültig sein, dass diese Technik bei Musik und Sprache wie auch bei visuellen Vorgängen von Anfang an auf Sinnestäuschung angelegt ist und wir uns schleichend daran gewöhnen, keinen Unterschied mehr zu sehen zwischen Original und Imitat?
Wohin führt es, wenn wir die Bilder von irgendwelchen Ereignissen noch immer ungeprüft als getreue Abbildungen der Wirklichkeit auffassen und in der Folge unser Urteil auf Fälschungen gründen? Wollen wir uns in einer Welt der Fake-News einrichten? Zugegeben, meistens können wir die Echtheit nicht prüfen. Aber dann müssten wir auch unser Urteil zurückhalten, uns nach anderen Quellen umschauen und die entstandenen Fragen bis zu einer möglichen Klärung offenlassen. Sind wir bereit, uns diese strenge Disziplin aufzuerlegen?
Ein sachgemäßes Urteil zu diesen und vielen weiteren Fragen wird nicht zu erreichen sein, wenn man die Digitaltechnik einfach euphorisch in den Himmel hebt und sie unkritisch als immensen Menschheitsfortschritt preist. Ebenso wenig angemessen wäre es, sie schlichtweg zu verteufeln und möglichst von sich fernzuhalten, denn sie schafft schon jetzt Realitäten, denen wir uns gar nicht mehr entziehen können. Wir müssen sie nicht um jeden Preis in jedem Detail akzeptieren; eines aber ist in jedem Falle gefordert: begründet Stellung zu beziehen, um verantwortlich handeln zu können.
Damit stehen wir vor einer Aufgabe, zu der wir uns Grundlagen verschaffen sollten, indem wir einerseits die geistesgeschichtlichen Hintergründe digitaler Technik erkunden, andererseits ihre konkreten Realisierungen kennenlernen und drittens deren soziale Auswirkungen zu beobachten versuchen. Dazu möchte dieses Buch einen bescheidenen Beitrag leisten.