Die digitale Demenz

Ein Binärcode aus Nullen und Einsen. Quelle: Pixabay, Foto: Gerd Altmann

Berlin, BRD (Weltexpress). Überall und jederzeit leicht verfügbare Information, das scheint der Gewinn des digitalen Zeitalters zu sein. Aber die Folgen könnten am Ende ganz anders aussehen und das kollektive menschliche Gedächtnis unabsehbar schädigen.

Als der Buchdruck erfunden wurde, waren die Auswirkungen auf die Entwicklung der Wissenschaft enorm. Allerdings lag das für eine lange Zeit, nämlich bis zur Erfindung des Rotationsdrucks um das Jahr 1830, nicht primär daran, dass Bücher deutlich verfügbarer und bezahlbarer geworden wären, sondern an einem ganz anderen Grund, den man aus heutiger Sicht oft übersieht: Der Buchdruck sorgte für viele absolut identische Kopien.

In manchen Gegenden gab es schon zuvor eine regelrechte Massenproduktion. Die Universitäten, die ab dem 12. Jahrhundert in Europa entstanden, hatten einen enormen Bedarf, der nicht von einsamen Schreibern in mittelalterlichen Klöstern gedeckt wurde, sondern von regelrechten Manufakturen, in denen ein ganzer Saal von Schreibern gleichzeitig Standardwerke vorgelesen bekam und mitschrieb. Deshalb sind beispielsweise Standardsammlungen des Kirchenrechts verglichen mit anderen Büchern aus dieser Zeit geradezu spottbillig.

Allerdings hatten diese handgeschriebenen Bücher einen gewaltigen Nachteil – es schlichen sich Übertragungsfehler ein. Besonders gern bei jenen Büchern, bei deren Herstellung Pergament gespart werden musste, die also nicht im Klartext, sondern mit vielen Abkürzungen geschrieben wurden (unser deutsches ß ist eigentlich eine solche Abkürzung und stand einmal für die lateinische Superlativendung -issimus). Wer sich schon einmal mit Fehlerproblematik beschäftigt hat, weiß auch, dass sich Fehler multiplizieren können, etwa so wie im Kinderspiel „Stille Post“, bei dem das erste Kind einer ganzen Reihe ein Wort ins Ohr geflüstert bekommt, dass es weiter flüstert, wobei meistens alle herzlich lachen können, wenn das letzte Kind der Reihe dann laut ausspricht, wie das Wort seiner Meinung nach lautet.

Die exakte Identität von Original und Kopie, die der Buchdruck ermöglichte, führte also dazu, dass unzählige Fehlerquellen vermieden wurden. Es gab zwar im Laufe der Zeit immer wieder Witze über falsch gesetzte Bücher, jedoch lieferte die Genauigkeit der Wiedergabe eine wichtige Grundlage für die grenzüberschreitende Kommunikation zwischen Wissenschaftlern. Während für lange Zeit das Lateinische die Funktion erfüllte, die derzeit in vielen wissenschaftlichen Bereichen das Englische erfüllt (und in Zukunft vermutlich Mandarin), eine gemeinsame Sprache zu liefern, die ein großes Gespräch über Zeit und Raum hinweg ermöglichte, war es der Buchdruck, der die dafür nötige Verlässlichkeit der zugrunde liegenden Information sicherstellte.

Genau an diesem Punkt liegt ein gewaltiges Risiko der Digitalisierung, das bisher noch nicht wirklich wahrgenommen, geschweige denn eingehegt wird. Vermutlich jeder hat die Debatte um „Deep Fakes“ bereits mitbekommen, in der es um die Möglichkeit geht, mit großen Rechnerkapazitäten Videos zu fälschen (Bilder fälschen kann längst jeder, der Photoshop bedienen kann und ein gewisses ästhetisches Gespür besitzt). Inzwischen ist es möglich, einer Person in Echtzeit Gesicht und Stimme einer anderen zu verpassen; aber auch die Möglichkeiten, Daten aus einer Aufnahme in eine andere zu kopieren, sind gewaltig. Das heißt, während uns das Bild immer noch als verlässlichere Abbildung der Wirklichkeit gilt als Text oder Ton, hat sich dies tatsächlich längst verflüchtigt. Aber es gibt, wenn wir beim Video bleiben, noch keine Technologie, die Aufnahmen mit Geolokalisierung und Zeitstempel zertifiziert.

Allerdings ist das gerade die Oberfläche des Problems. Da spielt auch die zunehmende Verbreitung von Cloud-Speichern eine Rolle, was letztlich bedeutet, seine Daten einer der gigantischen Internetfirmen auszuliefern. Oder die Tatsache, dass digitale Bücher, die beispielsweise auf Kindle gespeichert werden, durchaus von außen gelöscht werden können. Oder digitale Dokumente wesentlich leichter zu fälschen sind als analoge.

Es gab einen Moment, an dem diese Frage hätte sichtbar werden können; aber damals hat das leider niemand weiter verfolgt. Als es im Jahr 2008 zur großen Finanzmarktkrise kam, waren der Auslöser sogenannte Mortgage Backed Securities, weiterverkaufte, gemischte, umgepackte und wieder verkaufte Hypothekenpakete, die im großen Umfang ihren Wert verloren, als die Immobilienblase in den USA platzte.

Danach gab es unzählige Auseinandersetzungen darüber, ob die Bank, die am Ende eine Hypothek gekauft hatte, ihren Anspruch darauf überhaupt rechtsgültig belegen konnte. Das Problem? Die ursprünglichen Dokumente waren nicht nur in großer Zahl, geradezu fabrikmäßig von darauf spezialisierten Notaren eingescannt worden, und die Hypothek wurde nicht mehr – wie eigentlich rechtlich vorgegeben – unter Weitergabe des Originaldokuments weiterverkauft, sondern nur noch unter Versendung der digitalen Kopie; nein, die Originale waren nach ihrer Digitalisierung sogar vernichtet worden in einzelnen US-Bundesstaaten, wie zum Beispiel in Florida.

Letztlich wurde dennoch den Banken, die die letzten Erwerber einer Hypothek waren, das Recht zuerkannt, sich das beliehene Objekt anzueignen. Nicht, weil das die juristisch korrekte Entscheidung war, sondern weil zu viele Banken sonst wieder ins Straucheln geraten wären. Die digitalen Kopien wurden mit den Originalen gleichgesetzt.

Es gab dabei allerdings ein Problem, das erst einige Zeit später bekannt wurde: Die meisten dieser digitalen Versionen wurden mit einem bestimmten Kopierer von Xerox eingescannt, weil er schnell und automatisiert digitale Dokumente erstellen konnte. Wie man es allerdings beispielsweise von OCR-Programmen kennt, ist die Erkennung nicht hundertprozentig. Und die Software genau dieses verbreitetsten Kopierers hatte einen Fehler, der dazu führte, dass ausgerechnet Zahlen oft nicht korrekt eingelesen wurden.

Was bedeutet, dass die digitalen Versionen an entscheidenden Stellen von den Originalen abwichen und damit eigentlich zwangsläufig nicht als Ersatz für sie hätten akzeptiert werden dürfen.

Im Februar 2018 berichtete Telepolis in Deutschland über diese Abweichung. Entdeckt wurde dieser Fehler im Jahr 2013; da waren die betroffenen Geräte allerdings schon acht Jahre lang auf dem Markt, also seit dem Jahr 2005, und damit genau in dem Zeitraum, in dem unzählige Hypotheken als Papieroriginal vernichtet und in fehlerhafte digitale Kopien umgewandelt wurden.

Der entscheidende Punkt dabei ist der: Wäre im Zusammenhang mit diesen Dokumenten tatsächlich nach Recht und Gesetz verfahren und sie für ungültig erklärt worden, hätte das den Zusammenbruch einer Reihe von Banken auslösen können. Insofern war es vielleicht ein Glück, dass irgendwie damals die Frage der Gültigkeit der Ansprüche und die Information über die Leseschwäche der Xerox-Geräte nicht zusammenfanden, wenn auch nicht für all jene Menschen, die damals ihre Häuser verloren. Aber das Beispiel lässt dennoch erkennen, wie groß die Auswirkungen sein können, wenn die Verlässlichkeit von Dokumenten nicht mehr gegeben ist.

Der Telepolis-Artikel endete damals entsprechend: „Und so muss ein Anwender damit rechnen, dass seine vor dem Bekanntwerden des Scanfehlers bei Xerox eingescannten Dokumente möglicherweise vor Gericht keinen Bestand haben. Ein Rückgriff auf die Originalvorlagen ist in vielen Fällen heute nicht mehr möglich.“

Womit wir bei dem Punkt wären, der eine verhängnisvolle Dynamik ins Spiel bringt. Eine raumfüllende Bibliothek passt auf einen einzelnen Stick, und wenn man mit ihr umziehen will, braucht man keine Kistenschlepper für Dutzende Bücherkartons, sondern nur eine Hosentasche. Man kann sogar alles kopieren und verschicken. Es ist wesentlich unaufwendiger und kostengünstiger, die Daten dieses Sticks immer wieder neu abzuspeichern, als den Inhalt dieser Dutzenden Kartons entsprechend aufzubewahren. An dem Stick nagen keine Bücherwürmer, er könnte sogar in eine Pfütze fallen und er hat bestimmt keine Probleme mit einem zu hohen Säuregehalt, der im Papier vieler Bücher ein Problem darstellt.

Das heißt, die Möglichkeit, Dokumente und Bücher digital aufzubewahren, hat einen derart massiven Kostenvorteil gegenüber Aufbewahrung und Archivierung der Originale, dass der Druck, auf Originale zu verzichten, stetig zunehmen wird. Eine Gutenberg-Bibel dürfte einigermaßen sicher sein, aber Gebrauchsliteratur des 20. Jahrhunderts könnte schnell zum digitalen Gespenst werden (ganz zu schweigen von jenen Teilen der deutschen Buchproduktion, wie die Bücher aus dem Militärverlag der DDR, die damals der Einheitsbücherverbrennung zum Opfer fielen). Historische Forschung stützt sich auf Archive. Was, wenn durch eine weitgehende Digitalisierung der Unterlagen und eine Vernichtung der Originale gar keine materielle Prüfung der Echtheit mehr möglich ist? Und wie sollen diese digitalisierten Archivalien vor nachträglicher Fälschung geschützt werden? Oder, um es noch deutlicher zu formulieren – was nützt mir ein Buch als PDF-Datei, wenn das Original, von dem dieses PDF gezogen wurde, gar nicht mehr zur Verfügung steht und eine solche Datei auch mit relativ wenig Aufwand verändert werden kann?

Gerade im Zusammenhang mit der woken Ideologie wird das tatsächlich brandgefährlich. Auch hier gibt es ein historisches Ereignis, das ein Muster für die möglichen Folgen liefert. Die oben bereits erwähnten mittelalterlichen Universitäten waren die Folge des Wiederauftauchens einer Reihe von antiken Texten, insbesondere von Aristoteles und Platon. Im ehemaligen Kerngebiet des Römischen Reiches waren sie nicht erhalten geblieben und kehrten erst durch Übersetzungen aus dem Arabischen nach Europa zurück. Sie führten zur Entstehung der mittelalterlichen Scholastik und der ersten Universitäten sowie später zur Herausbildung einer Vorstellung von säkularer Wissenschaft.

In den Jahrhunderten davor standen diese Texte nicht zur Verfügung, weil gerade in Europa die Verbreitung des Christentums mit einer Vernichtung großer Teile der antiken Literatur einherging. Manchmal stößt man dennoch auf Überreste antiker Bibliotheken, weil das beschriebene Material, das aus der Haut neugeborener Lämmer gewonnene Pergament, so kostbar war, dass oft die alte Tinte abgeschabt wurde, um es wiederzuverwenden. Und mit heutigen Methoden ist es möglich, die ursprüngliche Schrift wieder lesbar zu machen. Manchmal wurden Teile antiker Bücher auch verwendet, um Reliquien einzuwickeln. Aber über einen Zeitraum von etwa sechshundert Jahren waren große Teile dessen, was heute als Ausgangspunkt der intellektuellen Tradition des Abendlandes gilt, nur in den islamischen Ländern auffindbar.

Neben der fehlenden Absicherung gegen Fälschungen und Fehler wäre ein rein digitales kollektives Gedächtnis (zu dem Dokumente, Bücher und Noten gezählt werden müssen) auch schneller und einfacher zu zerstören als ein analoges. So angenehm die Bibliothek in der Hosentasche ist, ein einziger starker elektromagnetischer Impuls löscht sie aus. Besagte elektromagnetische Impulse sind unter anderem bei einer der neueren Waffengattungen, den elektronischen Kampfmitteln, verbreitet. Hypothetische Pläne über nukleare Kriege starten oft mit einer in großer Höhe gezündeten Atombombe, die durch einen solch starken elektromagnetischen Impuls die gesamte digitale Kommunikation zum Stillstand bringt.

Und was, wenn in einer völlig vernetzten Welt eine dieser fälschlich künstliche Intelligenz genannten Großrechenmaschinen den Auftrag erhielte, einen bestimmten Text in jeder digitalen Kopie aufzuspüren und zu löschen? Was, wenn der woke Mob sich nicht darauf beschränkt, historische Gestalten wie beispielsweise Martin Luther von Denkmälern zu stürzen, sondern beginnt, die Spuren selbst zu tilgen, in Gestalt von Texten und Dokumenten?

Das wäre analog sicher auch möglich, wie im spätantiken Europa, aber doch mit mehr Aufwand verbunden, und man könnte darauf hoffen, dass genug Menschen, die damit zu tun bekämen, vor der Ausführung zurückschrecken würden. Aber digital? Und wenn man eine Möglichkeit schaffen wollte, zertifizierte digitale Kopien zu schaffen, die besonders abgesichert aufbewahrt werden, wer darf zertifizieren und wer aufbewahren? Einem Privatunternehmen wie Google könnte man in diesem Zusammenhang keinesfalls vertrauen; aber könnte man es den heutigen westlichen Staaten mit ihrem Drang nach absoluter Kontrolle?

Derzeit jedenfalls ist die ganze ungeheure digitale Datenflut eher eine Ersetzung des analogen Buchdrucks durch eine digitale Schreibmanufaktur, mit allen damit verbundenen Fehlerquellen und Gefahren, während im Hintergrund schon eine neue Bücherverbrennung lauert. Die Risiken, die sich daraus ergeben, müssen aber erst ins allgemeine Bewusstsein dringen, ehe sie unter Kontrolle gebracht werden können.

Anmerkungen:

Vorstehender Beitrag von Dagmar Henn wurde unter dem Titel „Die digitale Demenz“ am 13.10.2024 in „RT DE“ erstveröffentlicht. Die Seiten von „RT“ sind über den Tor-Browser zu empfangen.

Siehe die Beiträge

im WELTEXPRESS.

Anzeige:

Reisen aller Art, aber nicht von der Stange, sondern maßgeschneidert und mit Persönlichkeiten – auch Reisen mit Themen aus Politik und Wirtschaft (Politische Ökonomie, Wirtschaftsgeschichte, Geopolitik…) durch alle Länder dieser Erde –, bietet Retroreisen an. Bei Retroreisen wird kein Etikettenschwindel betrieben, sondern die Begriffe Sustainability, Fair Travel und Slow Food werden großgeschrieben.

Vorheriger ArtikelKann Amerika seine globale Vormachtstellung zurückgewinnen?
Nächster ArtikelUnsre Heimat?