Es lebe digital
Wie leben ja im Digitalzeitalter, bedingt dadurch dass Computer Daten verarbeiten. Analog gilt als veraltet, schlecht. Analoge Signale haben rauschen, Analoge Vinylplatten zerkratzen. Digitaler Sound ist satter ohne Rauschen, digitales Video höher aufgelöst. Ganz zu schweigen von den Möglichkeiten bei der Datenverarbeitung: Dokumente sind schneller gefunden, können miteinander verknüpft werden und ausgewertet werden und sie brauchen viel weniger Platz auf einer Festplatte als die Aktenordner im Schrank.
Jahrtausende kam die Menschheit mit Analogen Signalen aus. Vielleicht sind die nicht ganz so schlecht. Fangen wir mal mit den Grundsätzen an. ein digitales Signal hat nur zwei Zustände 0 oder 1. Ton an oder aus, Schwarz oder weiß. Das ist ideal wenn man Informationen verarbeitet, wenn man nicht gerade Schwarz-Weißzeichnungen digital abspeichert brauchen wir für Dinge die wir sensorisch verarbeiten (bisher nur Töne und visuelle Signale) eine Kodierung und Geräte die das wieder in analoge Signale umwandeln. Bei Tönen kann man das Frequenzspektrum erfassen und die Intensität jedes Tones speichern, da der Mensch Töne bis etwa 20 kHz hören kann, braucht man um die Wellenform des höchsten Tones zu erfassen mindestens die doppelte Abtastfrequenz das sind 40 KHz, mit etwas Puffer werden heute 44 oder 48 KHz genommen und man nimmt 16 Bit für die Intensität, das erlaubt es einen Lautstärkebereich von 48 db abzulegen. Bei visuellen Signalen gibt es einige Systeme. Man kann die Intensität jedes Bildpunktes in den Grundfarben Rot, Grün und Blau angeben. Bei 8 Bits pro Farbwert kommt man so auf theoretisch 16,7 Millionen Farben. Man kann aber auch Helligkeit, Sättigung und Luminanz als Maßstab nehmen. Ein Bild entsteht dann aus mehreren bis Millionen einzelner Bildpunkte.
An und für sich scheinen digitale Signale besser zu sein. Sie scheinen auch effektiver zu sein. Als ich ins Internet ging, setzte man noch Voicemodems ein, also Modems die Töne über die Telefonleitung schickten, meist am Anfang noch hörbar durch einige Töne die dann in ein Rauschen übergingen bis der Verbindungsaufbau stand. Das alte analoge Telefonnetz nutzte nur das Frequenzspektrum von 0,3 bis 3,4 KHz. Mit einem Modem konnte man theoretisch 56 kbit übertragen, bei guten Verbindungen in der Realität 42 bis 45 kbit/s. Ebenso erlaubte der Übergang vom analogen TV auf DVB-T das man anstatt 1 etwa 3-4 Kanäle pro Frequenzband übertragen konnte. Digitale Medien erlauben es heute Daten viel dichter zu speichern als analoge. Man muss nur den Informationsgehalt einer Schallplatte mit dem einer Festplatte von gleicher Größe vergleichen.
So scheint es, als wäre Digital nicht nur für Informationen das bessere Medium, sondern auch für Dinge die wir eigentlich analog wahrnehmen. Man braucht eben dann immer noch ein Gerät um die digitalen Signale in analoge umzusetzen. Auf einer SD-Karte kann man keine Bilder anschauen, auf einem Diafilm schon, aber das ist nicht verallgemeinbar. eine Musikkassette oder Schallplatte ist analog, aber ohne Abspieler auch nicht zu gebrauchen. Bei Musikinstrumenten stimmt es aber wieder: ein Keyboard ohne Strom und Verstärker funktioniert nicht, ein Klavier durchaus.
Es gibt aber auch Gefahren. Verschlüsselungstrojaner wie Locky haben in diesen Monaten Millionen von Benutzer um ihre gesammelten Bilder und Dokumente gebracht. Daneben gibt es die Gefahr das Speichermedien nicht mehr gelesen werden können. Der berühmte Festplattencrash oder einfach das es keine Lesegeräte mehr gibt oder die nicht mehr angeschlossen werden können. (man versuche mal eine Diskette vom C64 mit 1541 Floppy-Diskstation auf einem PC einzulesen). Um früher einen Aktienbestand zu Schreddern braucht man Stunden, heute reicht ein Knopfdruck oder ein Schlag mit dem Hammer auf die Speicherkarte/Festplatte.
Sowohl analoge wie digitale Medien altern. Tinte bleicht aus, Papier zerfällt, Inschriften verwittern. Bei digitalen Medien nimmt die Magnetisierung ab, flash-Speicher verlieren Elektronen. Dazu kommt bei beiden Arten von Speichermöglichkeiten die Möglichkeit der Beschädigung durch äußere Einflüsse. Bei Analogen Medien kann man vieles rekonstruieren. Selbst wenn das Signal-Rauschverhältnis abnimmt kann man bei analogen Medien noch viel entziffern, z. B. bei verbleichten Papieren. Man benötigt bei einem Buchstaben nicht die volle Information sondern es reicht die Umrisse mit höherem Kontrast zu rekonstruieren, bei beschädigten Papieren kann man manche Buchstaben noch anhand eines Teils rekonstruieren. Bei digitalen Medien sieht es anders aus. Auch hier gibt es nur zwei Zustände: Man kann die Information noch lesen oder man kann sie nicht lesen. Wenn das letztere eintritt, dann ist sie meist vollständig verloren. Es gibt nur selten die Möglichkeit nur Teile wiederherzustellen. erst recht nicht kann man größere Datenbestände aus Bruchstücken zusammensetzen, wie dies bei den geschredderten Dokumenten der STASI der Fall ist.
Das schlimme bei digitalen Medien ist das die Bits nicht gleichberechtigt sind. Wenn bei einer Zahl das höchstwertige Bit nicht lesbar ist, so ist der Einfluss auf den wert größer als beim niedrigwertigsten Bit. Bei Farben ist es genauso. Bei Buchstabencodes kann ein völlig anderer Buchstabe herauskommen. Noch schlimmer: heute wir die Information komprimiert. Ist in einem Zip-Archiv ein Bist falsch so kann das je nach Position einen größeren Bereich oder das ganze Archiv unbrauchbar machen. Bei DCT-Komprimierung, der Grundlage für die meisten komprimierten Audio- und Videosignale ist immer ein ganzer Block unbrauchbar, wenn ein Bit verfälscht ist.
Nicht umsonst werden heute Kulturgüter heute immer noch auf Mikrofilm abgelichtet und so in Stollen „langzeitarchiviert“. Alternativ erprobt man die Lithografie oder das Gravuren von Metalloberflächen bzw. bei Lithographie von Siliziumplatten. Dieses Verfahren soll eine noch höhere Datendichte ermöglichen und die Metallplatten sind robuster als Film auf de Basis von Nitrozellulose.
Doch ewig kann dies auch nicht gehen. Solange die Medien noch lesbar sind, gibt es ja eine Möglichkeit: die Daten auslesen und auf ein neues Medium kopieren. Man muss es nur tun. 1985 stellet die NASA fest, dass sie 1,2 Millionen Magnetbänder, darunter auch welche mit Ergebnissen der Viking Mission nicht mehr lesen konnte. 1994 kam das wieder vor. Diesmal waren die Daten der Pionier 11 Sonde betroffen, die Saturn passierte. Sie waren auf 4 verschiedenen Medien gespeichert worden, doch für keines gab es mehr Abspielgeräte.
Dass physikalische Lesen ist eine Sache. Das zweite ist es auch das Dokumenten Format zu entschlüsseln. Das Probleme sehe ich bei den heute standardisierten Grafik- Bild und Dokumentformaten nicht, zumindest gibt es oft die Möglichkeit auch in einem Standardformat zu speichern. Es betrifft aber Formate die von Programmen genutzt wurden die nicht mehr weiter entwickelt wurden oder deren hardwareplattform ausstarb.
Die Langzeitarchivierung funktioniert aber auch nur richtig, wenn die Bedingungen auch gegeben sind. Eine Naturkatastrophe kann auch ein Archiv zerstören, Krieg oder andere Ereignisse können dazu führen, dass man andere Prioritäten hat und die Archivierung vergisst oder der neue Eigentümer (nach einem Krieg) interessiert sich nicht für die Daten. Das wurde schon analogen Medien zum Verhängnis. Die Bibliothek von Alexandria wurde schon zu Cäsars Zeiten ein raub der Flammen. Die ältesten Fragmente des alten Testamentes stammen aus Qumran und wurden dort versteckt, nicht archiviert. Alles was archiviert wurde, ging verloren als die Römer den jüdischen Aufstand 68/69 niederschlugen..
Mein persönliches Resümee ist: digital ist gut und schön, aber einige analogen Kopien sind nicht schlecht. Fotos finde ich besser als ein Tablett, zudem robuster und man kann sie verschenken nicht nur zeigen. Bücher kann man auch auf der Liege lesen und sie sind länger haltbar als eine Datei. Auch ein Grund warum ich Bücher schreibe.
Hallo Bernd,
ich gebe Dir recht, wenns um die Digital-Daten geht, aber auch Analog Daten können massiv
verschwinden.
Ich kann mich aber auch an einen Bericht erinnern, daß ein ganzes Archiv aus der Zeit vor dem ersten Weltkrieg gesucht wird. Durch die Kriegsereignisse ist das Wissen über den Standort des Archivs verlorengegangen. Das Archiv soll in irgendeiner Höhle vergraben sein. Ganz Analog….
Oder das ganze Archiv verschwindet in einem Loch… habe ich gerade in Phoenix gesehen.
Digital: Erst da, dann weg…..
Der Tod für jede Archivierung ist der Kopierschutzwahn. Normale Daten kann man auf neue Medien kopieren, kopiergeschützte nicht. Durch wegen Kopierschutz verhinderte Kopien gehen so warscheinlich mehr Daten verloren, als durch Bilderstürmerei.
Verschwinden kann alles. Deswegen habe ich auch das Beispiel mit der Bibliothek von Alexandria gebracht. Bücherverbrennungen könnte man auch noch nennen. Bei „Analog“ hat man aber nicht die Abhängigkeit dass man nicht nur den Informationsträger sondern auch funktionierende Hardware zum lesen braucht.
Kopierschutz ist bei Analog schwer möglich – selbst Meisterwerke kann man nachmalen. Er hat mit der Grundthematik aber nichts zu tun. Der Zweck der Kopierschutzes ist es ja gerade das weitere Vervielfältigen von schon vervielfältigten Daten zu verhindern. Datensicherung würde eine Ebene höher, beim Publisher oder Verlag einsetzen.
Das mit dem Platzsparen ist ja auch so eine Sachen. Man darf dabei
das Medium nicht mit der Art der Speicherung verwechseln.
Speicher mal digitaldaten (immer ohne Kompression) auf einer LP.
Da passt aber nix drauf. Man kann auf einer CD auch analoge Daten
speichern (siehe Bildplatte damals). Da würde jede Menge Musik drauf passen. Eine Musikcassette lieft mit 4,75 eine DAT glaube ich mit der Hälfte. ABER DAT benutzte einen Trommelkopf und hatte damit eigentlich eine
viel höhere Bandgeschwindigkeit. Das Prinzip hat man sich bei HifiVideorecordern dann aber auch analog zu Nutze gemacht. Nur hier nicht um höhrere Laufzeit zu erhalten sondern einen besseren Rauschabstand und eine höhere Dynamik (die an die digitale heranreichte)
einfach aufgrund der gewalltigen relativen Bandgeschwindigkeit durch den
Trommelkopf. Auch bei Funk kommt die Platzersparniss in Frequenzbändern ja nicht nur durch das digitale an sich, sondern durch komprimierung und die Ausstrahlung von flächendeckenden Sendern auf einer Frequenz. Analaog brauchte man für die ARD in NRW x Sender da zwei Sender unter 100Km Entfernung auf der gleichen Frequenz sich störten. Eventuell hätte
es da auch eine analoge Lösung gegeben.
Nun muss man zumindest bei magnetischen Lösungen fair bleiben. Analoges
Bandmaterial musste schon erheblich komplexer sein für gute Qualität.
Es musste viele verschiedene Frequenzbereiche über den gesammten Dynamikbereich speichern können. Digital ist dynamik (analog gesehen) quasi null, (eine eins muss „analog“ innerhalb eines bestimmten Amplitutenbereichs liegen) und die Frequenz liegt in der Nähe der Datenrate (ganz grob, kommt natürlich drauf an wie moduliert wird).
Da geht die Dynamik des Nutzssignale quasi in die Länge und frisst den Platz wieder auf (16 Bit für einen Lautstärkewert).
Wenn die Strukturen für die Digitale Speicherung noch kleiner werden gewinnt die digitale Speicherung natürlich da ich (aber ich kann irren) mir da dann nicht mehr vorstellen kann was man noch analog speichern soll. Analog Wert in dynamischen Ram geht nicht (oder doch ?).
Ulli
@Uli: Ein dynamisches Ram speichert ein Bit als Ladung eines Kondensators, und die ist natürlich analog. Das ganze Prinzip drumherum mit Refresh und der Ein/Ausgabe ist aber natürlich so ausgelegt, dass es nur digital zu gebrauchen ist.
Allerdings gibt es schon lange sogenannte Eimerkettenspeicher, das sind ICs, die in einer Kette (analoge) Spannungswerte von Kondensator zu Kondensator weiterreichen. Damit hat man früher Echo- und andere Effektgeräte für Musik gebaut, bei denen ein analoges Signal verzögert werden muss.
Übrigens gilt analog nicht immer als schlechter: bei Synthesizern ist nach wie vor die analoge Tonerzeugung in mancherlei Hinsicht der digitalen überlegen und kann von dieser bisher einfach nicht perfekt nachgebildet werden. Viele Musiker (auch ich) verwenden und pflegen deshalb die alten analogen Kisten aus den 70er und 80er Jahren auch heute noch.
Ich bin eigentlich einer der CD-Käufer der sage ich mal 2ten Generation.
Die erste war mir noch zu teuer. Aber ich bin wieder bei der alten
analogen Platte gelandet. Unter anderem auch deshalb weil ich
völlig begeistert bin das über 40 Jahre alte Technik mit überzeugendem
Ergebniss noch funktioniert.
Mein jüngster Dreher ist von 1977 mein ältester von 1968.
(Dual 604 und PE 2020L).
Also für mich ist analog auch nicht tot. Das mit den Sizern habe
ich auch schon mehrfach gelesen.
Ulli
„Analog“ und „Digital“ sind vor allem Buzzwords. Moderne Flash-Speicherchips mit MLC-Technologie sind insofern „analog“, als dass beim Beschreiben in jeder Speicherzelle einer von vier oder gar acht verschiedenen Spannungswerten „einprogrammiert“ wird, so dass später aus einer Zelle zwei Bit (bei vier Werten) oder gar drei Bit (bei acht Werten) gelesen werden können. Da bei einer so feinen Unterteilung der Spannungen auch mal was schiefgeht, werden die Nutzdaten mit zusätzlichen Fehlerkorrekturbits wieder abgesichert, so dass zumindest sporadische Falscherkennungen des Spannungswerts nicht zu verfälschten Daten führen. Es werden im Flash-Chip selber aber eben nicht nur „0“ und „1“ als Spannungswerte gespeichert, sondern auch „analoge“ Zwischenwerte!
„Digitale“ Funksysteme sind auch nicht anders: Beim heute üblichen 64-QAM werden nicht weniger als 64 verschiedene Signalformen verwendet, um 6 Bit (2⁶ = 64) auf einmal zu übertragen. Sinkt, z.B. am Rand einer Funkzelle, der Signal-zu-Rausch-Abstand, wird auf niedrigere Modulationen zurückgeschaltet, z.B. 16-QAM (4 Bit) oder 4-QAM (2 Bit). Zugleich verwendet man auch hier Zusatz-Bits und Vorwärts-Fehlerkorrektur, um einzelne, durch Zufallsrauschen gekippte Bits korrigieren zu können.
Nur innerhalb der Prozessoren und RAM-Speicherchips, wo es vor allem auf Geschwindigkeit ankommt, wird hingegen weiterhin mit „echten“ Digitalsignalen gearbeitet, die nur 0 und 1 kennen.
Übrigens: Zwar verwenden Festplatten auch nur zwei Magnetisierungen: Nord oben und Süd unten bzw. genau anders herum, aber die Länge der magnetisierten Bereiche schwankt in mehreren Stufen zwischen einem Minimal- und einem Maximalwert. Zudem werden die magnetischen Bereiche so dicht geschrieben, dass sie sich gar nicht mehr 100% zuverlässig auslesen lassen, sondern im PRML-Verfahren („partial response, maximum likelihood“) das „wahrscheinlichste“ Digital-Signal aus dem analogen Lesesignal rekonstruiert wird. Anschließend noch verbleibende Bitfehler werden wie gehabt durch Vorwärts-Fehlerkorrektur-Codes ausgemerzt.
Dass man für „analoge“ Signale oder Medien keine Lesegeräte bräuchte, ist falsch. Audiokassetten, Schallplatten, Mikrofiches oder Spielfilme auf Zelluloid benötigen ebenfalls spezialisierte Lesegeräte zur Wiedergabe. Da, wo es Fans gibt (Schallplatte), werden neue Lesegeräte hergestellt. Da, wo es weniger Fans gibt, werden Lesegeräte zunehmend rar.