Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 634: 26.10.2021 - 14.11.2021

26.10.2021: Die Lösung für ein überflüssiges Problem: Dagobert Ducks Geldspeicher

Ich habe vor einigen Wochen wieder angefangen meine alten „Lustigen Taschenbücher“ (LTB) wieder zu lesen. Als Jugendlicher habe ich, wie viele in dem Alter, Comics gelesen, das hörte dann irgendwann auf. Von allen Comics habe ich nur noch die LTB, einige Alix Bänder und die Tim und Struppi Reihe aufgehoben.

Onkel Dagobert ist als Figur ja bekannt. Er hortet sein Geld im Geldspeicher und liebt es darin zu schwimmen. Doch wie groß muss dieser Geldspeicher sein, damit er alles aufnehmen kann? Auf diese Idee kam ich, als ich beim letzten LTB las, wie viel Geld er hat,. Nämlich 37 Fantastillarden und 117 Trilliarden Taler. Okay, die Fantastilliarden gibt es nicht und nur eine Trilliarde wäre wahrscheinlich selbst heute (das LTB ist über 40 Jahre alt) mehr als alle Werte, die es auf der Welt gibt, zusammen. Aber ich machte mir mal einen Spaß daraus zu berechnen, wie viel Geld das ist. Ich nehme an, da Trilliarden als konkrete Währung nach den Fatnastillairden erwähnt wurden sind Fantastillairden die nächsthöhere Zehnerpotenz ist und das System so weitergeht wie bisher also illion … illiarde .. illon.

Eine Trilliarde hat 27 Nullen, eine Fantastillarde müsste dann 27 Nullen haben (korrekt wäre es eine Quadrilliarde). Zum Vergleich: Der US-Haushalt liegt bei einigen Billionen, also 12 Nullen nach der ersten signifikanten Ziffer.

In einer Dezimalzahl ausgedrückt betrug Dagobert Ducks Vermögen zu diesem Zeitpunkt also 3,7000117x1028 Taler.

Der Taler wird sicher vom US-Dollar abgeleitet sein, wobei der sich tatsächlich vom Taler ableitet, einer Münze dies bei uns mal gab und die zwischen 32,2 und 16,7 g Feinsilber hatte. Ich vermute aber, da es auch Geldscheine gibt, dass es eben keine dieser Taler sind, zudem lassen Beträge in den LTB für normale Dinge wie 35 Taler für ein Skateboard den Schluss zu dass der Kaufwert des Talers, dem eines Dollars entsprach.

Da Dagobert Duck auf Gold steht, nehme ich an, dass er all sein Vermögen in Gold getauscht hat. Heute kostet eine Feinunze Gold 1.813 Dollar, eine Unze das sind 28,35 g. Damit kostet ein Kilogramm Gold rund 64.000 Dollar. Das Vermögen entspricht also 5,781 x 1023 kg Gold. Damit wäre eigentlich die Berechnung schon beendet, denn das entspricht annähernd der Masse des Planeten Mars. (6,417 x 1023 kg). Aber ich habe mir gedacht, rechnen wir mal weiter. In einen Geldspeicher passt das nicht rein, doch wie groß wäre das als Himmelskörper, eine Kugel nur aus Gold. Gold hat eine Dichte von 19,32 g/cm³, bei einer perfekten Kugel ergibt sich so ein Radius von 1,925,938 m, also ein Durchmesser von 3,851,774 m. Das ist etwas größer als unser Erdmond. Aufgrund der großen Dichte ist die Schwerkraft des Goldplaneten mit der unseren vergleichbar, sie läge bei 10,25 m/s². In der Praxis wäre aufgrund der zunehmenden Kompression die mittlere Dichte etwas höher und der Radius geringer.

Doch was wäre, wenn Dagobert sein ganzes Gold auf die Oberfläche der Erde gleichmäßig verteilt hätte?

Das Volumen einer Hohlkugel ist:

V = Pi * 4/3 (r2³-r1³)

Bemüht man Wolfram Alpha für die Lösung nach r2 und setzt die Werte für V und r1 ein, so erhält man 6436.006 m Radius bei einem Erdradius von 6378.000 m. Das heißt, die gesamte Erde wäre 58.006 m dick mit Gold überzogen.

In der Praxis geht das nicht, selbst wenn man so viel Gold hätte. Die Erdkruste ist eine dünne Schale, die auf dem flüssigen Erdmantel schwimmt. Belastet man die Erdkruste, so drückt das Gewicht sie leicht nach unten und der untere Teil kann wegschmelzen, wodurch die Erhebung (meist ein Gebirge) wieder absinkt. Man hat errechnet, dass die höchsten Erhebungen die es so geben kann, je nach Art des Gesteins etwa 9 km hoch sind und wir kennen auch keine Berge, die höher als 9 km sind und schon die Berge mit einer Höhe von über 8000 m kann man an den beiden Händen abzählen. Das Gold in dieser Dicke würde also zuerst die Erdkruste zum Schmelzen bringen, dann selbst schmelzen und weil es viel dichter als der Rest des Planeten ist, zum Kern hin absinken.

Doch ich gehe mal das Problem anders, an was könnte Dagobert Duck real in einem Geldspeicher also einem Gebäude horten? In den Comics sind die Geldspeicher meist Quader, allenfalls mit leicht geschrägten Wandflächen. Die Größe ist schwer zu schätzen, vor allem weil der normale Maßstab dann Enten sind, die nach dem Verlag nur etwa 110 cm groß sind. Aber ich denke kein Geldspeicher ist größer als 20 x 20 x 20 m innen, nach außen durch die Mauern sicher erheblich mehr. Ziehen wir 2 m in der Höhe für die Wohnung und das Büro von Dagobert und den Zugang zum Speicher ab - wenn er komplett voll wäre, könnte er ja nicht darin schwimmen, dann ist das ein Volumen von 7200 m³. Die Münzen sind dort nicht geordnet. So gibt es Hohlräume zwischen ihnen. Ich nehme mal an die machen ein Viertel des Volumens aus, so bleiben noch 5400 m³ reines Volumen für das Gold. Bei einer Dichte von 19,32 sind das104.328 t die einem Wert von rund 6677 Mrd. Dollar entsprechen – soweit ich weiß immer noch weitaus mehr als alles Gold, was insgesamt während der Menschheitsgeschichte jemals gefördert wurde.

Wenn Dagobert Duck schlau wäre, würde er sein Geld in Diamanten anlegen. Diamanten sind noch teurer als Gold, gemessen am Gewicht. Ein 5 Karäter soll eine sechsstellige Summe kosten (abhängig von Reinheit und Farbe), also über 100.000 Euro und wiegt nur 1 g, ist also im Vergleich zum Gold um mehr als den Faktor 1000 teurer. Anders als bei Gold könnte es diese Menge an Diamant – wir reden nun „nur noch“ von ~1020 kg auch geben – man vermutet, dass in den Kernen der Gasplaneten Uranus und Neptun durch den hohen Druck zuerst Methan zu Kohlestoff zerfällt und dieser dann zu Diamanten gepresst wird. Leider kommt man an diese Diamanten relativ schwer heran. Allerdings handelt es sich um Nanodiamanten, also eigentlich fast wertlose Diamanten (ganz kleine Diamanten werden zum Belegen von Schleifwerkzeugen genutzt, weil sie so häufig und damit weitestgehend wertlos sind).

Wer hätte das gedacht – in einen Geldspeicher geht also tatsächlich mehr Gold herein, als ganz Deutschland in einem Jahr erwirtschaftet – das sind 3.819 Milliarden Dollar. Und in manchen LTB hat Dagobert Duck ja mehr als einen Geldspeicher.

Sollten es aber nur Talermünzen sein, dann wird das rasch weniger. 1 Dollar gibt es auch als Münze, die größte Münze der offiziellen Währung. Sie wiegt 8,1 g, hat einen Durchmesser von 28,6 mm und eine Dicke von 2 mm. Wieder 5400 m³ reines Volumen angenommen, passen dort 13,2 Mrd. Dollar in 1 Dollar Münzen hinein. Scheine sind viel leichter unterzubringen. Heute ist die größte Dollarnote der 100 Dollar Schein. Sie wiegt nur ein Gramm, leider sind zwar Abmessungen bekannt, aber Dicke unbekannt, aber jeder der mal Geld hatte weiß, wie wenig Scheine im Portemonnaie auftragen.

Ich habe mich beim Schreiben des Blogs gefragt, warum in den LTB immer diese enorm großen Zahlen kommen wie „Fantastillarden“. Im Prinzip hätte es zur Demonstration des enormen Reichtums von Dagobert Duck auch gereicht, wenn er nur „Milliardär“ war. Gemäß dem literarischen Vorbild Scrooge hat er ja auch andere Eigenschaften reicher Leute, für die man nicht mal besonders reich sein muss, wie das extreme Sparen (sich bei Donald Essen schnorren, Einspannen der Verwandtschaft für Arbeitsdienste) oder das er viel Geld ausgibt, um wenig Geld einzusparen oder zu verdienen. In einer Geschichte jagt er Donald um die ganze Welt wegen 9 Taler, und als der ihn abgehängt hat und monatelang herumirrt, wird er beim Auftauchen im Entenhausener Hafen von der „Dagobert Duck Detektei“ wegen der 9 Taler verhaftet – da kosten die Detektive sicher auch mehr als 9 Taler.

Ich habe auch gemerkt, das sich meine Lieblingsfigur in den Comics gewandelt hat. Früher war das Donald, als der geborene Verlierer, ausgenutzt und erpresst von Dagobert, einfach eine sympathische Figur. Heute sehe ich eher die negativen Seiten. Die Faulheit, das Abwälzen von Arbeit auf Tick, Trick und Tack. Diese drei sind heute meine Lieblingsfiguren, sie kommen mir auch am nächsten. Die Einstellung zu anderen Figuren hat sich dagegen nicht gewandelt. Ich mochte die Geschichten mit Micky Maus und Goofy nicht sehr. Micky Maus ist zu perfekt, zu begabt, Goofy wird als zu doof dargestellt. Ich glaube ich bin da nicht alleine. Denn zum einen gibt es mehr Geschichten um die Ducks als um Micky Maus und zum andern habe ich zwar mal von „Donaldisten“ gehört, aber nie von „Mickisten“.

Was sich auch nicht geändert hat ist der wenig taschengeldfreundliche Preis der ausgaben. Die ältesten die ich bei der Erscheinung gekauft habe (noch ältere später ergänzt) sind von 1976. Damals kosteten sie 4,20 DM. Heute 6,49 Euro. Ich habe damals wohl so um die 2 Mark Taschengeld pro Woche bekommen. Immerhin – damals erschienen sie alle drei Monate, da war das noch zu verschmerzen, heute erscheinen sie monatlich. Einen Großteil der Sammlung verdanke ich dem Umstand, dass mein Vater damals in Österreich in der Nähe von Villach ein Haus gebaut hat. Mein Bruder ist Maurer und Architekt und so fuhr die ganze Familie über die Sommerferien dort hin. Ich war zu jung, um mitzuhelfen, und wurde morgens vor dem Villacher Freibad mit einem 100 Schilling Schein, etwa 14 DM abgesetzt und abends wieder abgeholt. Nachdem ich den Eintritt bezahlt hatte, kaufte ich mir jeden Tag ein LTB für 32 Schilling und aß dafür mittags nur eine Portion Pommes – für mehr reichte das Geld dann nicht mehr. Auf der anderen Seite hätte ich mir sonst nie eine Sammlung aufbauen können, aber so hatte ich nach den – ich glaube drei Wochen – einen Großteil der Bände, die damals schon erschienen waren, ich bin so zwischen Nummer 35 und 40 eingestiegen und habe bei Nummer 60 aufgehört, die zu kaufen. Inzwischen habe ich mir von den Nummern die seitdem erschienen etliche bei einem Flohmarkthändler gekauft. Für 1,99 Euro pro Stück noch finanzierbar. Die kommen nach und nach in den nächsten Wochen dran.

Nachtrag:

Ich hätte vorher mal nach der Fantastilliarde suchen sollen. Nach der Wikipedia ist deren Größe auch in den LTB unbestimmt. Mal hat eine Fantastilliarde 69, mal 80 Nullen, mal aber auch nur 18, wobei sich das aber mit der Trilliardenangabe in dem LTB 86 das ich las, beißt. Aber immerhin mit 18 Nullen käme man in einen Bereich wo man das Gold (wenn es denn so viel geben würde) horten könnte, bräuchte dafür aber immer noch mehrere Millionen Geldspeicher.

5.11.20121: Der beste Personal Computer

Ich habe ja eine lose Rubrik der schlechtesten Computer aller Zeiten. Vor allem der Artikel über den C64 wird alle paar Jahre wieder mit Kommentaren versorgt, weil irgendwann mal jemand den in einem C64 Forum verlinkt hat. Sachargumente fehlen in den Kommentaren aber zumeist.

Während es relativ einfach ist schlechte Computer auszumachen, weil ihre Schwächen zu beziffern sind, ist es schwerer den besten PC auszurufen. Bisher habe ich dies nicht gemacht. Doch gerade habe ich die Recherchearbeit zu einem Artikel über den Xerox Alto / Xerox Star beendet und dabei bin ich über eine Liste gestolpert in der die „The 25 Greatest PCs of All Time“ aufgeführt sind und dort ist der Xerox Star, das kommerzielle Modell auf Platz 3, hinter dem Apple II und dem Compaq Deskpro 386. Na ja dachte ich mir, da hätte ich auch sicher eine andere Liste zusammen bekommen und nachdem was ich über den Xerox Alto recherchiert habe, gehört er auf Platz 1, er war nicht nur seinen Nachahmern (Macintosh, GEM, Windows) um ein Jahrzehnt voraus, etliches was er beherrschte zog woanders nach Jahrzehnten erst ein. Manches bis heute nicht. Von dem, was jeder von uns als Windows oder grafische Oberfläche kennt, unterscheidet sich der Xerox Alto / Star dadurch, dass es eine durchdachte, wirklich einfache Oberfläche war. „Durchdacht“ ist zumindest Windows bis heute nicht. Wenn ein Computer die Vision eines Gerätes wiedergibt, das einfach zu bedienen ist, für jeden geeignet dann der Xerox Alto und das, obwohl er schon in den Siebzigern entstand.

Aber er war erben nicht kommerziell erfolgreich, einfach, weil er zu teuer war. Das könnte man auch auf etliche andere gute Computer sagen wie z.B. den NeXT über den ich als letztes einen Artikel schrieb. Allerdings hat der auch echte Schwächen gehabt.

Ich habe mal nachgedacht und mir überlegt welche Kriterien wohl ein „greatest PC of all Times“ erfüllen müsste und ich denke, es ist nicht ein, sondern es sind drei Kriterien die soweit ich weiß bei keinem Gerät alle zutreffen, daher kann man auch trefflich streiten. Dies sind:

Technische Überlegenheit

Wobei ich bei einem Computer das nicht auf die reine Hardware beziehen möchte, sondern auch auf die Software. Die Besonderheit des Alto war eben, das seine Benutzeroberfläche grafisch war, und das zwei Jahre bevor mit dem MITS Altair 8800 der „erste“ PC erschien (in Anführungszeichen, weil im Xerox Parc schon 1973 der Alto als ein „personal computer“ bezeichnet wurde. Und der Altair hatte als Oberfläche Leuchtdioden und als Ein-/Ausgabemöglichkeit Kippschalter und wurde in Maschinensprache programmiert. Ein Betriebssystem gab es nicht. Ich meine das man den Alto hier wegen des enormen Abstandes der Grundidee unangefochten auf den ersten Platz setzen kann. Mitte der Siebziger Jahre gab es im Xerox Parc einen Computer nicht nur mit einer grafischen Oberfläche, nein die Rechner waren auch untereinander vernetzt, man konnte sich Mails schicken, Dateien von anderen Rechnern holen, einen Laserdrucker gemeinsam nutzen. Netzwerke hielten bei Windows z. B. erst 20 Jahre später den Einzug, Mail nochmals einige Jahre später.

Es gab in den letzten über 40 Jahren immer wieder Rechner, die in einigen Aspekten neue Standards setzten. Dazu gehört der Amiga, der eine richtig gute grafische Oberfläche hat und eher die Ideen des Alto umsetzte als Macintosh oder Atari ST, leider mit einer nicht hochauflösenden Grafik. Ich würde auch den ersten echten portablen Computer mit dem man arbeiten konnte dazu nehmen. Ich kann mich an einen mit Plasma Display erinnern, der relativ früh da war, leider ist mir der Name entfallen. Einer der frühesten Rechner war der Data General One, er hatte einen LCD-Bildschirm mit einer Auflösung etwas besser als CGA, zwei Disklaufwerke und er war wirklich tragbar, anders als die vorherigen Modelle mit Röhrenmonitor wie Osborne 1, IBM Portable. Davor gab es zwei Rechner, die jeweils ein Manko hatten. Der Grid Compass von 1982 hatte ein zu kleines Display mit nur 320 x 240 Punkten, war nicht netzunabhängig war, dafür aber ins All flog und der Gavallian sc der aber nur 32 k ram und ein 400 x 64 Pixel lcd Display hatte und eher eine aufmotzte Version, der damals schon verbreiteten Handheld Computern mir kleinem lcd Display war. Demgegenüber war der Data General One wirllich der Protptyp eines heutigen Notebooks, damals noch mit internen Laufwerken, aber schon kippabrem LCD Display anstatt wie bei anderen „tragbaren“ Computern, ein schwerer Kasten mit Röhrenmonitor. Auf den vorderen Plätzen einzusortieren wären auch Rechner, die zu ihrer Zeit besonders gut ausgestattet waren wie der Victor Sirius, ein MS-DOS Kompatibler zeitgleich mit dem IBM PC erschienen aber mit 800 x 400 Pixel Display, 1,2 MByte Floppys und bis zu 896 k RAM. Er patzte nur beim Prozessor – auch ein 5 MHz 8088 wie beim IBM PC.

Preis/Leistung

Technische Überlegenheit kann man natürlich erkaufen. Man muss nur das neueste und schnellste auf dem Markt verbauen, aber man hat dann eben auch einen teuren Computer. So z.B. beim Grid Compass, denn man als ersten Laptop der Welt bezeichnet. Kostete eben 8.000 bis 10.000 Dollar. Der hohe Preis war ja das Manko des Alto. Er selbst wurde nicht vermarktet, aber sein Nachfolger, der Xerox Star, der erschien 1981, immerhin noch einige Jahre vor Lisa, Macintosh und Atari ST, aber er kostete auch 16.500 Dollar. Das war der vierfache Preis eines IBM PC, der nahezu zeitgleich erschien. Die Kunst ist es, einen Computer mit geringen Kosten zu bauen, der trotzdem nützlich ist. Hier kann es nicht einen Sieger geben, sondern viele, weil selbst der billigste Computer über die Zeit nicht mehr der billigste bleibt, weil die Technik weiter fortschritt und es Nachfolger gibt die sie nutzen. In den Achtzigern gehören aber sicher Spectrum, C64, die CPC-Serie und die Atari ST zu solchen Preis-/Leistungssiegern und all diese Rechner wurden ja auch gut verkauft. Heute würde ich den Raspberry Pi anführen. Je nach Modell ist man selbst mit externem Netzteil, SD-Karte und Gehäuse bei 50 bis 100 Euro und man kann mit diesen durchaus etwas anfangen. Vielleicht weniger Office-Arbeiten – auch beim neuesten Modell schwächelt er bei Webseiten dank der vielen eingebetteten Elemente doch arg, aber ideal für Bastelprojekte, Printserver, Firewall, Netzwerksniffer oder Multimediazentrale. Zum Programmieren reicht es allemal. Im PC Bereich würde ich die Marke beim Schneider PC setzen. Es gibt so magische Marken, Preise, bei denen die Nachfrage deutlich nach oben schnellt. Der Schneider PC 1512 war der erste IBM PC kompatible mit einem Preis von unter 2.000 DM, das entspricht heute immerhin der gleichen Summe in Euro. PC Kompatible wurden laufend billiger, aber 2.000 DM war nochmals deutlich preiswerter als damals üblich. Dafür bekam man aber keine abgespeckte Hardware, sondern einen Rechner mit CGA Karte, Monochrommonitor, zwei Dicklaufwerken, 512-KB-RAM und einem 8 MHz 8086, womit er doppelt so schnell, wie ein IBM PC war. Das Konzept haben die Schneider Rundfunkwerke dann noch mit einem Euro PC fortgesetzt, der nochmals billiger war und bei dem die Elektronik mit Diskettenlaufwerk in der Tastatur untergebracht war, was damals sonst nur Heimcomputer machten. Eine Firma kann in dieser Kategorie aber nicht mitspielen: Apple. Seit dem ersten Rechner waren deren Rechner hochpreisig. Das war ein Konzept von Steve Jobs, das er auch bei seiner Rückkehr beibehielt.

Sozialer / kultureller Impact

Als der Altair 8800 herauskam, kauften, den vor allem Leute die beruflich mit Elektronik zu tun hatten, man musste den „PC“ schließlich als Bausatz komplett selbst zusammenlöten und hatte dann nur einen Computer ohne jede Software, nicht einmal mit einer Tastatur oder einem Monitor. Inzwischen hat jeder irgendeinen Computer, manche sogar mehrere, sei es nun Desktop PC, Notebook, Smartphone, Tablett, Smart-Watch etc... Bestimmte Geräte haben diese Durchdringung der Gesellschaft, das wir überhaupt zu einer Informationsgesellschaft wurden, mehr beschleunigt als andere. Auch hier gibt es sicher viele Meilensteine. Der absolut wichtigste ist aber kein Gerät, sondern das Internet. Bevor es in Deutschland mit dem Internet-boom losging, gab es ja schon zwanzig Jahre lang Personal- und Heimcomputer. Sie hatten sich in der Bürowelt durchgesetzt, waren in vielen Berufen als Werkzeug für Ingenieure oder technische Zeichner nicht mehr wegzudenken. Privatanwender daddelten oder programmierten oder waren einfach an der Technik interessiert. Aber erst mit dem Internet kam der Computer in der Breite der Gesellschaft an, denn nun war er kein Werkzeug oder Spielzeug, er diente mit dem Internet: Mail,. Chat, Surfen fundamentalen Bedürfnissen von Menschen nach Kommunikation und Information. Das geht inzwischen so weit das, wenn Facebook mal für einige Stunden ausfällt, für viele die Welt untergeht.

Wenn man aber den Fokus auf Geräte legen muss, dann würde ich tatsächlich den IBM PC als Sieger in dieser Kategorie ansehen. Ansonsten würde ich ihn eher als einen der schlechtesten Computer ansehen. Seine Konzeption übernahm Teile des 8 Bit Vorgängers mit einem 8085-Prozessor, sie war nicht innovativ und man hat sich den langsamsten 16 Bit Prozessor ausgesucht, den man finden konnte, den Computer dafür sehr teuer verkauft. Aber der Impact auf die ganze Industrie war enorm. Vorher wurden schon Microcomputer verkauft, die gab es ja auch seit einigen Jahren. Aber sie wurden als High-Tech Spielzeug für Nerds, Ingenieure angesehen, nichts was man sich ins Büro stellt. Wenn aber IBM einen solchen Microcomputer produziert, dann müssen die Dinger doch für alltägliche Büroarbeiten gut sein, denn IBM ist eine seriöse Firma mit einem hervorragenden Ruf. Das verlieh der ganzen Industrie einen Schub.

Zu erwähnen wäre auch noch eine Person und eine Firma, die einen großen Einfluss hatte. Steve Jobs und Apple. Steve Jobs verstand es immer, einen enormen Rummel um die Produkte zu machen und er hatte das Gefühl für ein Design, das ankommt. Die Produkte, in die er sich selbst einmischte, kamen nicht so gut an, doch er hat daraus gelernt und als er 1997 zu Apple zurückkehrte, mischte er sich nicht mehr in die Technik ein. Seitdem hat Apple viele Produkte herausgebracht, die zu Wegbereitern neuer Produktkategorien wurden, obwohl es entsprechende Geräte schon vorher von anderen Anbietern gab. Erwähnt seien nur die IPods als MP3-Player und IPhones als Smartphones.

Ich vermute, dass man bei der PC World den Compaq Deskpro-386 auf Platz 2 wählte, hat mit einem kulturellen Impact zu tun. Der Impact war, das bisher IBM einen neuen Computer herausbrachte, andere Firmen bauten sie nach und kamen dann nach IBM auf den Markt. Beim Deskpro 386 baute Compaq vor IBM in einen AT einfach den Nachfolgeprozessor Intel 386 ein und brachte das Gerät auf den Markt als besonders schnellen IBM PC AT. Erstmals hatte eine Firma den „Industriestandard“ selbstständig erweitert. Ansonsten kann ich an dem Rechner weder eine besondere technische Leistung erkennen, noch war er preiswert.

11.11.2021: Vergeudete Jahrzehnte

Ich habe inzwischen den Artikel über den Xerox Alto fertiggestellt, er wurde ziemlich umfangreich, ich denke, es ist der größte in deutscher Sprache. Aber sonst hätte es sich ja nicht gelohnt. Mittlerweile schaue ich bei vielen Artikeln auch nach, was in der Wikipedia steht und ob ich noch etwas beitragen kann, was dort nicht steht.

Ich habe mich da auch mit der grafischen Oberfläche und dem Bedienkonzept des Alto beschäftigt, die ich ja nicht kannte. Bisher ging ich immer davon aus, das die Oberfläche des Alto so wie Windows oder MacOs wäre, da ja beide Systeme von Xerox die Idee übernommen haben. Doch dem ist nicht so. Es gibt deutlich Unterschiede und eine ausreifte Bedienung die in Teilen zumindest bei Windows erst Jahrzehnte später Einzug hielt.

Ich will an der Stelle nicht den Artikel komplett kopieren, aber es gibt einige deutliche Unterschiede zu dem was in den ersten Versionen von Mac und Windows kennen. Beim Xerox Parc hat man zwei Jahre lang geforscht, wie man eine grafische Oberfläche realisieren kann, damit der normale Benutzer, der eben in den Siebzigern Computern vielleicht von Filmen kannte, aber noch nie an einem gearbeitet hat, mit ihm zurechtkommt. Man entschied sich ihn bei seinem Büroalltag abzuholen und prägte die „Desktop-Metapher“, die Oberfläche sollte sich also wie ein Schreibtisch präsentieren. Zwar nennt sich seit Windows 95 die Oberfläche von Windows auch „Desktop“, aber mit dem Konzept von Xerox hat das nichts zu tun.

Man begann wirklich einen Schreibstich nachzubilden, mit Dokumenten als Icons, Aktenschubladen als Icons, Ein- und Ausgabeablagen. Wenn man einem anderen Mitarbeiter ein Schriftstück zukommen lassen wollte, dann startete man kein Email Programm, sondern legte es in der Ausgabeablage ab und in der eingehenden Ablage erschien die Korrespondenz eines Kollegen. Ebenso wurden nicht Programme geöffnet, um Dokumente zu bearbeiten, sondern die Dokumente selbst, wobei jede Art ein eigenes Icon hatte. Windows hatte eigene Icons für jede Anwendung erst mit der Version 3.x, also fast 20 Jahre nach dem Alto, das man das Konzept des Desktops übernahm, dauerte nochmals länger, das war erst bei Windows 95 der Fall. Das Konzept der Icons wurde bisher nirgendwo übernommen, denn es gab zwar standardisierte Icons für verschiedene Dokumente wie Texte, Grafiken oder Mails, doch die waren nicht, wie bei Windows oder anderen Systemen an die Erweiterung des Dateinamens gebunden, sondern die Information zu welchem Programm eine Datei gehörte, steckte in den Metainformationen im Header.

Anderes Beispiel: Der Alto beherrschte schon die inkrementelle Suche. Tippte man zeichenweise einen Dateinamen ein, so wurden immer nur die Dateien angezeigt, auf die dies passte. Die inkrementelle Suchfunktion zog bei Windows erst mit Windows 7 ein, gut 30 Jahre nach dem Alto. Wusste man nicht genau, was man suchte, gab man ein Fragezeichen nach dem Teil an, den man kannte. Andere Features, wie das im Filesystem vor jedem Datenblock ein Header sich befand, der darüber informierte zu welcher Datei an welcher Position er gehörte sowie weiteren Metainformationen gibt es bis heute in Windows nicht. Dieses Feature lässt nämlich selbst bei vollständiger Zerstörung der Verzeichnisinformation durch Abscannen der Platte eine komplette Restauration der Dateien zu.

Der Alto konnte schon Multitasking und er kannte das was bei Windows 3.1 OLE (Object Linking and Embedding) heißt, das heißt man konnte in ein Textdokument nicht nur eine Grafik einfügen, sondern dort auch nachbearbeiten bzw. tat man dies ohne offenes Textdokument so aktualisierte es sich selbst.

In vielem war der Alto anders, das man Benutzer nicht mit Programmen belästigte, sondern die Arbeit auf das was bearbeitet wurde also Dokumente jeder Art, habe ich schon erwähnt. Was mich zuerst erstaunte war, das er acht Tasten für generische Kommandos hatte, beschriftet mit MOVE, COPY, DELETE, SHOW PROPERTIES, COPY PROPERTIES, AGAIN, UNDO, und HELP. Man hatte generische Befehle eingeführt, die aber im Kontext jeweils andere Dinge aufrufen. Ein Beispiel ist der Properties Befehl, der Eigenschaften anzeigt (das ganze System war objektorientiert). Die Eigenschaften sind natürlich bei einem Text andere als bei einer Datei oder einer Grafik. Vor allem aber gab es so eine konsistente Bedienung, bei der man die Maus relativ wenig benutzen musste. Die Bedienung erfolgte – parallele zum Apollo Bordcomputer – mit der Syntax „Noun – verb“. Das Verb war immer eine der Tasten. Also man klickte etwas an, wie einen Absatz und drückte auf „Properties“ um die Eigenschaften zu ändern.

Heute hangeln wir uns durch Menüs oder Kontextmenüs für die gleiche Aktion, bzw. es gibt Tastenkombinationen für die häufigsten Dinge wie STRG+C für Kopieren. Die Arbeit mit der Maus dauert immer länger als wie mit der Tastatur, denn sie unterbricht die Arbeit, man muss eine Hand von der Tastatur nehmen. Nicht umsonst heißen Benutzer, die vornehmlich die Maus zur Bedienung nutzen unter Nutzern, die vornehmlich die Tastatur nutzen verächtlich „Mausschubser“. Das heute gängige Ziehen und loslassen hatte der Star noch nicht. Eine Mail bewegte man in den Ausgangskorb, indem man sie anklickte, auf „move“ drückte und dann die Ablage anklickte. Wer jemals versucht hat, etwas dorthin zu ziehen, wo es keine große leere Fläche gibt, z.B. einen Ordner im Dateisystem, fragt sich, warum man dies nicht auch bei Windows so übernommen hat. Dass man für die Mausbedienung die Tastatur verlassen muss galt schon immer als Nachteil der grafischen Oberfläche. Hier hat man Xerox einen guten Kompromiss gefunden.

Das verblüffende: der Xerox Alto entstand mit der Technik Anfangs der Siebziger Jahre. CPU und Controller für Platten und Ethernet bestanden aus dutzenden von TTL-Bausteinen der Serie 74xxx. Die 16 Bit CPU erreichte 400.000 Instruktionen pro Sekunde – zum Vergleich: ein 8 MHz 8086 schafft 800.000 Instruktionen/s, ein 8 MHz Motorola 68000, wie er im Macintosh und der Lisa steckte, schafft 1 Million Instruktionen/s. Trotzdem war das System weiter als Windows oder MacOs, das auf viel potenteren Rechnern lief, dabei brauchte die CPU des Alto rund 60 % ihrer Zeit nur für den Bildschirmaufbau (der auch zweieinhalb mehr Pixel als ein Mac hatte, bei dem 20 % der Zeit für den Bildschirmaufbau draufgingen). Man sollte doch annehmen, das die Nachahmer auf Rechnern mit einer schnelleren CPU etwas Besseres, weiter entwickeltes hinbekommen. Windows hat in etwa den Stand des Alto mit Windows 95 eingeholt und das lief auf einem 486 recht behäbig und erforderte 8 MB RAM mindestens, der Xerox hatte in der Regel 128 oder 256 KByte …

Die Frage, die sich mir stellt, ist natürlich, warum man nicht gleich das ganze System übernommen hat, stattdessen andere Lösungen wählte, wie das heute gängige Ziehen und Fallen lassen. Entschuldigungen wie, man kannte das Xerox System nicht, kann es nicht geben, denn zu Apple wechselten nach dem berühmten Besuch von Steve Jobs im Xerox Parc mehrere Entwickler, darunter Larry Tesler, der es vorführte. Bill Gates kaufte einen Xerox Star, das kommerzielle Nachfolgemodell des Alto. Also kannte auch er die Oberfläche und ihre Bedienung. Warum war Windows noch bis in die Version 3 so fokussiert auf Programme anstatt den Benutzer bei den Dokumenten abzuholen die er ja eigentlich bearbeiten wollte?

Ich kann nur raten. Aber meiner Ansicht nach lief es so. Beim Macintosh wollte Steve Jobs eine reine Mausbedienung haben, er lies sogar Extratasten für Cursorsteuerung weg, damit Softwareentwickler nicht einfach lieblos bestehende Programme portierten. Damit war auch das System der generischen Kommandos unmöglich und man musste sich etwas anderes für die acht Tasten mit Befehlen einfallen lasen. Man kam auf bis heute gültige Dinge wie Doppelklicken, Ziehen und Loslassen.

Microsoft entwickelte die Oberfläche auch nicht neu. Sie hatten für den Mac Software entwickelt und wussten wie diese Oberfläche funktionierte. Windows 1 war noch weniger eine Oberfläche als MacOs, es war im Prinzip eine grafische Oberfläche auf DOS, mit dem zentralen Element war eine Dateiverwaltung genannt DOS-Executive, im Prinzip eine rudimentäre Vorläuferversion des heutigen Explorers. Intern hies es denn auch nicht Windows, sondern Interface Manager. Erst mit Windows 2 schloss man zum MacOs auf, was denn auch eine Klage seitens Apple heraufbeschwor. So verwundert es nicht, das das Bedienungskonzept bis heute die Bedienung vom Mac übernommen hat, obwohl z. B. der doppelklick nur deswegen nötig war, weil die Maus des Macintosh nur eine Taste hat.

Der entscheidende Unterschied ist aber: das System von Xerox von Computerwissenschaftlern erarbeitet wurde, die zwei Jahre lang es austüftelten und als Wissenschaftler mit einem wissenschaftlichen Ansatz an die Sache herangingen. Sie erforschten, wie Benutzer ihr System nutzten. Sie zogen auch andere Experten dazu. Die Icons – jede Dokumentenart und Aktion hatte ein anderes Icon, wurden durch Grafiker erstellt und mit Anwendern wurden die Icons ermittelt, die am besten ankamen. Sie beobachteten Anwender und kamen so darauf das sie mindesten zwei Maustasten benötigten. Dagegen ist Windows bis heute eigentlich eine Spielwiese von Programmierern die bei jeder Version was Neues ausprobieren und das kann dann in einer folgenden Version auch wieder rausfliegen. In Windows 11 ist z.B. die Position der Taskleiste nur noch unten möglich und alle Icons in ihr zentriert. Wer hat sich das ausgedacht, vorher gab es doch auch die Wahlmöglichkeit, bei mir ist die Leiste z.B. links. Da ich mit dem Rechner viel surfe und Text bearbeite, ist es die beste Position, die die am wenigsten meiner Arbeitsfläche wegnimmt. Wer ein Notebook mit geringerer Bildschirmhöhe nutzt, wird sie vielleicht oben platzieren. Ebenso die dauernden Änderungen des Designs. Mal mit Durchsichteffekten und Farbverläufen (Aero von Windows Vista und Windows 7) dann wieder mit monochromen, deckenden Elementen (Window 8). Außer bei Windows XP gibt es keine Möglichkeit, das alte Design wieder zu aktiveren.

Ich bin ja auch Programmierer. Man probiert gerne was aus, was einem gefällt, was aber nicht vielleicht die beste Lösung ist, das kenne ich also. Nur erwarte ich von einem Betriebssystem, das Millionen von Nutzer hat, das solche Launen nicht in das Produkt durchschlagen, es eine Konsistenz gibt und die nächste Version vielleicht mehr kann als die derzeitige, aber nicht einfach Dinge rausfliegen, wie die Gadgets von Windows 7 oder die Möglichkeit einzelne Elemente zu skalieren wie Schriften in Menüs, wie in früheren Windows Versionen vor Windows 10 möglich war. Wer wie ich schlecht sieht, der braucht keine größeren Icons und Buttons, nur größere Schriften.

Mit dieser Hüh-Hott Strategie der inkrementellen Miniverbesserungen hat zumindest Windows Jahrzehnte verloren. Es dauerte alleine ein Jahrzehnt, bis Windows nur zum Produktiveinsatz fähig war. Wer mal in einem Virtualisierer Windows 1 oder 2 installiert merkt das sofort. Wie es beim MacOS aussieht, müsste jemand beurteilen der sich, damit auskennt, für mich waren die Apple Macs immer zu teuer. Aber ich denke dort ist es auch nicht viel besser. Der Grund warum Jobs 1997 zu Apple zurückkam, war das MacOS kein richtiges Multitasking konnte und nicht sehr stabil war. Das konnte NextStep das NexT, Jobs nächste Firma, entwickelt hatte und man kaufte mit dem Betriebssystem und seinen Entwicklern auch Jobs mit ein.

13.11.201Impfchaos

Politiker gehören nicht grade zu meinen Lieblingsberufen. Im Gegenteil: Zusammen mit Drogendealern und Anwälten gehören sie zu den drei Berufen, vor denen ich am wenigsten Respekt habe. Das hat seinen Grund: Wahlversprechen, die nicht eingehalten werden, eine Politik die Wirtschaftsverbände mit Subventionen umgarnt, aber der normale Steuerzahler muss immer mehr Steuer durch die kalte Progression zahlen. Das Abstimmen nicht nach Gewissen, obwohl vom Volk gewählt, sondern nach Fraktionszwang und eben auch das sie dauernd was anderes sagen. Also entweder ich habe eine feste Meinung dann bleibt die auch fest oder ich bin mir nicht sicher, dann halte ich die Klappe.

Die Arbeit von Politikern in der Coronapandemie trägt nicht dazu bei, das bei mir Politiker in der Achtung aufrücken. Wir sind nun in der vierten Welle und ich habe immer noch das Gefühl als wäre es die erste und die Politik hätte keine Ahnung, wie sie der Situation zu handeln ist. Als könne man aus den Erfahrungen der letzten eineinhalb Jahre nichts lernen. Über das Thema könnte man viel schreiben, ich will mich aus eigener Erfahrung auf ein Thema konzentrieren: das Impfen.

Gut, das Thema „Dritte Impfung“ und „Impfen bei Covid-19 allgemein“ ist nicht einfach. Man muss auch unterscheiden zwischen den Äußerungen von Fachpersonen und Politikern. Als Wissenschaftler weiß ich, dass es in der Wissenschaft nicht immer einen Konsens gibt. Klar, was abgesichert ist, ist unwidersprochen, das sind die meisten Erkenntnisse der Physik und Chemie. Bei der Medizin ist sie Sachlage anders. Da man Ergebnisse nur durch Studien gewinnen kann, nicht durch ein Experiment, braucht man für ein Ergebnis das von den Meisten (von allen wird man nie erreichen) akzeptiert wird eine wirklich aussagekräftige Datenlage, auf die können wir bei Corona aber nicht warten. Daneben haben verschiedene Mediziner jeweils andere Sichten auf das Problem. Das Robert-Koch Institut, das sich um die Epidemiologie kümmert, also der Verbreitung des Virus in der Bevölkerung, hat eine andere Sicht als die ständige Impfkommission, die sich mit den Risiken und Nutzen der Impfung für einzelne Bevölkerungsgruppen befasst. Hausärzte, die die Impfung durchführen müssen und dies in dem Praxisalltag integrieren müssen, haben wieder eine andere Sicht, denn für sie muss jede Maßnahme auch praktikabel sein und natürlich haben einzelne Mediziner, die prominent in den Medien erscheinen, zumindest einer ist auch Politiker und kommt deswegen besonders oft in den Medien vor, ihre eigene persönliche Meinung.

Die anderen Politiker und Prominente haben dann wieder eine andere Meinung, die dann auch nicht wissenschaftlich fundiert sein muss. Vor allem bei Politikern ändert sich diese Meinung dauernd. Unser (geschäftsführender) Gesundheitsminister meint zuerst, man brauche keine Impfzentren mehr, da ja nun die meisten geimpft seien. Und um den Druck auf die Nicht-Nicht-Geimpften zu erhöhen wurden die kostenlosen Tests angeschafft. Entsprechend soll auch die epidemische Lage nun auslaufen. Wenige Wochen später steigen die Belegungszahlen der Intensivstationen und nun soll wieder mehr geimpft werden, die kostenlosen Tests sollen wieder kommen. War das vorhersehbar? Ja, natürlich, denn wir haben diesen Sommer schon nicht die gleich niedrige Talsohle bei der Inzidenz erreicht, die man letztes Jahr ohne Impfstoff durch die rigiden Maßnahmen erreicht hat und die Inzidenz ist früher als letztes Jahr angestiegen und zwar laufend, nicht zwischendurch mal gesunken, als das man lockern hätte können.

Inzwischen häufen sich immer mehr Berichte über Impfdurchbrüche. Besonders stark betroffen scheinen Chöre zu sein. Anders als bei den ,Fußballspielern die auch oft in den Meldungen auftauchen, sind die bekannten Fälle auch vollständig durch-geimpft. (hmmm, hat nicht ein gewisser Rummenigge, Vorstandschef des FC Bayern im Februar gefordert, dass Fußballer bevorzugt geimpft werden? Und nun höre ich, dass Spieler vom FC Bayern infiziert sind? Vielleicht sollte ich in der Liste meiner Berufe, vor denen ich wenig Respekt habe die Drogendealer durch Fußballer und ihre Funktionäre ersetzen…)

Abseits der wissenschaftlichen Diskussion wer eine dritte Impfung bekommen sollte und wann, denke, ich sollte das eine persönliche Entscheidung sein, wie überhaupt das Impfen. Für mich stand schon nach der ersten Impfung fest, dass ich eine weitere wollte. Primär damals, weil ich Johnson & Johnson bekommen habe. Das hat zwar den Vorteil, dass man mit einer Dosis voll geimpft ist und die Tests sofort wegfallen, anstatt das man noch vier Wochen bis zur zweiten Dosis, bei AstraZeneka sogar noch länger, warten muss. Aber der Schutz ist eben nicht so hoch wie bei den anderen drei in Deutschland zugelassenen Impfstoffen von Astrazeneka, Biontech und Moderna. Ich erhoffte mir eine Erhöhung des Schutzes andere Nicht-Anzustecken, vor allem weil ich meine 95-jährige Tante regelmäßig besuche. Inzwischen ist man ja für eine Auffrischung, weil die Zahl der Antikörper laufend abnimmt, nur sind die verschiedenen Mediziner verschiedener Ansicht, welche der jüngeren Altersgruppen in den Genuss einer dritten Impfung kommen soll. Bei den ganz Alten ist man sich dagegen einig. Manche Politiker, wie Markus Söder, fordern schon das neun Monate nach der Impfung der Impfstatus verfällt, also zumindest was die Einstufung als „geimpft“ angeht.

Meine Erfahrung: Politiker sollten erst mal sehen, das sie überhaupt es hinbekommen, dass die Leute geimpft sind. Vielleicht indem sie sich mal wie normale Bürger impfen lassen und nicht von einem Arzt vor versammelter Presse eine Spezialbehandlung erfahren.

Ich habe es ja schon mal geschildert, ich bin bis in den Schwarzwald gefahren, um meine erste Impfung zu bekommen – das war Anfang Juni und da war der Impfstoff gerade für alle frei gegeben und bei Ärzten und Impfzentren kein Termin zu bekommen. Aber dann hieß es ja, es ist genug Impfstoff da und auch genügend Personal, nun wird jeder geimpft. So haben die Politiker denn auch im September „Vollzug gemeldet“. Die Besucherzahl bei den Impfzentren sei am Abnehmen, zwei Drittel der Bevölkerung geimpft, den Rest schaffen dann die Ärzte. So habe ich noch bevor die Impfzentren in BW am 1.10. zumachten versucht einen Termin für die Auffrischimpfung zu bekommen. Antwort „Machen wir noch nicht“. Jetzt, keine zwei Monate später, soll die Boosterimpfung kommen und ich versuchte es noch mal. Beim Hausarzt keine Chance. Ich muss schon 6 Wochen auf einen Vorsorgetermin warten, aber die Impfung kann man da nicht miterledigen, bei der Grippeimpfung ging das zumindest in der Vergangenheit so. Im Radio berichten sie auch von überlasteten Arztpraxen, was nicht verwunderlich ist, müssen die ja nun alle Impfen, vorher gab es ja noch die Impfzentren. Zudem ist das eine Folge eines Berufstandes, der bestimmen kann, wie viele Ärzte es überhaupt gibt – über den NC und zumindest auf dem Land gibt es ja schon heute eine Ärzteknappheit.

A

 lso ging ich zum Impfbus. Der war von 12 Uhr bis 14 Uhr in der übernächsten Gemeinde, also rund 7 km Anfahrt. Ich kam um 12:40 an und war am Ende einer rund 150 bis 200 m langen Schlange. Um 13:20 wurde ich heimgeschickt, nachdem ich rund 50 m nach vorne gerückt war, man würde 100 Leute impfen, der Rest müsste wieder nach Hause gehen. In einer Diskussion mit anderen Nach-Hause.Geschickten sagte der Mitarbeiter der Malteser, die das leiten, er habe schon gehört, dass die Leute zwei Stunden vor dem Ankunftstermin des Busses warten. Als ich mich weiter informierte, stellte ich fest, das dies kein Einzelfall ist. 200 m lange Warteschlagen gehören offenbar dazu genauso wie das Leute nach Hause geschickt werden.

Kurz: so wird es nichts mit der „Boosterimpfung“. Und es wird ja nicht die einzige bleiben. Denn auch die ist nach sechs weiteren Monaten weniger wirksam. Man wird also dauerhaft zweimal im Jahr die ganze BRD impfen müssen, wenn man Kinder bis 12 ausklammert, rund 75 Millionen Menschen. Das heißt von der Logik her bräuchte man die Impfzentren dauerhaft, denn die haben die Masse der Impfungen durchgeführt, oder man braucht mehr Ärzte, oder man lockert für das Impfen mal die Bestimmungen – Impfen darf bisher nur ein Arzt, Blut abnehmen, was ich für viel riskanter halte, dagegen auch eine Arzthelferin. Natürlich sollte für Komplikationen ein Arzt da sein, aber vielleicht kann man mehr Patienten impfen, wenn die Arzthelfer/in / Sanitäter/in auch impfen dürfen. Das Gleiche gilt natürlich auch bei den Impfzentren.

Ich glaube auch kaum das man sehr viel höher, als die heutige Impfquote kommen wird, und damit sind die Intensivstationen schon am Anschlag, die Warnstufe, ab der nur noch 2G gilt, liegt in BW in der Luft, die Alarmstufe gilt schon seit einer Woche, spätestens am 15.11 soll auch die Alarmstufe erreicht sein. Das wird aber dann auch dauerhaft so bleiben, außer man schafft mehr Kapazität in den Krankenhäusern, was vielleicht noch bei der technischen Ausstattung, aber bestimmt nicht so einfach beim Personal geht. Eher wird es schlimmer werden, wenn wir mit der Drittimpfung nicht schnell genug durch sind und dann bei immer mehr Personen die Antikörper nicht für einen Schutz ausreichen.

Mit Impfen alleine wird es also nicht gehen, außer man bekommt wirklich viele derer, die derzeit noch nicht geimpft sind dazu sich impfen zu lassen. Aber der Druck mit der 2G Regel hat ja auch nicht die Impfquote so stark ansteigen lassen. Vielleicht ist es aber auch nicht nur am Staat hier etwas zu tun, sondern auch bei den Arbeitgebern. Sie dürfen zwar nicht verlangen, dass sich ihre Beschäftigten impfen lassen, aber sie können Nicht-geimpfte versetzen, sodass das Infektionsrisiko kleiner ist, z.B. vom Großraumbüro in die sonst menschenleere Lagerhalle und bei Neueinstellungen dürfen sie durchaus fordern, das jemand geimpft ist. Ich denke, hier liegt die größte Chance die Impfquote zu erhöhen. Die berühmt-berüchtigte Herdenimmunität wird man so nicht erreichen – schon alleine, weil die Delta-Variante auch geimpfte befallen kann, die dann ansteckend sind, aber nur milde bis gar keine Symptome haben. Nach einer neuen Studie soll eine Impfquote von 90 Prozent eine Verbreitung der Delta-Coronavariante verhindern. Nur ist es schon so, das wie diese 90+ Prozent Impfquoten bei anderen Infektionskrankheiten nur bei der Grundimmunisierung im Kindesalter erreichen, bei Erwachsenen sieht es deutlich schlechter aus. Ich habe mal bei Diphtherie (Wundstarrkrampf) geschaut, eine der Impfungen, die man alle zehn Jahre auffrischen sollte. Da beträgt nach RKI die Impfquote bei Kindern über 95 Prozent, bei Erwachsenen aber gerade einmal 57,1 Prozent. Vor allem sollte man es den Leuten einfacher machen sich impfen zu lassen. Arbeitgeber können mit den Betriebsärzten eine Aktion machen in der Arbeitszeit die Mitarbeiter geimpft werden. Vereine können sich komplett impfen lassen. In beiden Fällen gibt es einen sozialen Druck, der vielleicht den einen oder anderen Impfverweigerer umstimmt. Vor allem aber bin ich für niederschwellige Angebote. Anstatt einem Kreisimpfzentrum, zu dem im Landkreis Esslingen man durchaus 20 bis 30 km unterwegs sein kann, viele kleine örtliche Zentren (man könnte ja die Testzentren dazu nutzen) und die müssen dann auch nicht dauernd offen sein, sondern man kann an einem Tag in der Turnhalle mal ein Impfzentrum aufmachen und alle Impfen die an dem Tag kommen. Am geschicktesten am Sonntag, da ist die Turnhalle frei und die meisten Leute haben Zeit. Auch Veranstaltungen kann man zum Impfen nutzen wie schon von einigen Fußballmatches praktiziert.

Immerhin und das sollten die Politiker auch mal zur Kenntnis nehmen: Außer mir gab es rund 200 die stundenlang in der Kälte warteten nur um geimpft zu werden. Im Nachbarort Denkendorf sollen einige bis zu 5,5 Stunden gewartet haben. Ich denke der Großteil der Bevölkerung würde sich gerne noch mal impfen lassen. Es ist jetzt ein zweites Impfteam geplant. Besser wäre es gewesen das Impfzentrum offen zu lassen

Wie sieht es mit der „Normalität“ aus, also dem Rückkehr zu einem Leben ohne Maske, Mindestabstand und Personenbeschränkung? Das Virus werden wir nicht mehr wegbekommen, es wird dauernd da sein und es werden auch dauernd Menschen daran erkranken, wie bei der Grippe ist es für einige tödlich. Wie bei der Grippe werden wir damit leben können das dann ein bestimmter Teil der Kapazität von Krankenhäusern mit Covid-19 Patienten belegt sein wird. Die Rückkehr zur Normalität wird es dann geben, wenn der Prozentsatz im Klinikalltag tolerierbar ist. Da nach der bisherigen Erkenntnis die Erkrankung nach Impfung und/oder zum zweiten Mal meistens mild verläuft, also die Leute nichts in Krankenhaus kommen wird man diesen Zustand erreicht haben, 90 Prozent (Keine Verbreitung des Virus nach obiger Studie) eine Erkrankung durchgemacht haben oder geimpft sind. Heute sind es nach RKI 67,4 % Prozent, es fehlen also 22,6 %. Bei einer 7-TagesInzidenz von 263,7 dauert das 100.000 Personen * 0,227 / 263,7 ~ 86 Wochen. Das ist nur eine Abschätzung, denn es verläuft ja nicht linear. Die Krankenhäuser kommen wahrscheinlich schon früher klar, da bei immer größerem Pool an Geimpften/Genesenen das Virus immer weniger Personen befallen kann. Ich glaube aber nicht das es wie gerade von der zukünftigen Koalition beschlossen am 22.3.2022 der Fall sein wird.

Kleines Detail am Rande. Eine meiner Katze hat gerade Ohrmilben. Da ich da Prozedere kenne, wollte ich nicht zum Tierarzt gehen, da bekomme ich auch nur eine Suspension die ich dann selbst verabreichen muss. Kleine Suche ergab, dass ein Medikament mit dem Wirkstoff Ivermectin empfohlen wird. Doch das gab es nicht bei dem Händler meines Vertrauens – ausverkauft. Als ich dann bei Google danach suchte bekam ich folgenden Hinweis:

„Ivermectin ist ein Tiermedikament und kann für Menschen gefährlich sein. Aktuell kann nicht belegt werden, dass es gegen das Coronavirus (COVID-19) wirkt oder eine Infektion verhindert. Bei auftretenden Symptomen wendest du dich an deinen Hausarzt oder den ärztlichen Bereitschaftsdienst. Weitere Informationen findest du auf FDA.gov.“

Da ist mir klar geworden, warum es ausverkauft ist. Nun probiere ich es erst einmal mit Zitroneneukalyptusöl die Eier abzutöten und die erwachsenen Milben zu vertreiben.

14.11.2021: Warum hat sich die grafische Oberfläche so langsam durchgesetzt?

Diese Frage drängt sich ,mir auf, als ich den neuesten Artikel über den Macintosh gestern fertigstellte. Ich bin dabei auch über ein Streitgespräch in einer Computerzeitschrift von damals gestoßen, in der diskutiert wurde ob denn die textbasierte oder grafische Oberfläche die bessere ist.

Experten machen sich es einfach und verweisen auf den Begriff der „Killerapplikation“. Darunter versteht man – stark vereinfacht – eine Anwendung, die so nützlich ist, das sie den Kauf eines PC rechtfertigt. Die erste Killerapplikation war Visicalc und da sie anfangs nur auf dem Apple II lief, verhalf sie dem Apple zum kommerziellen Erfolg. Ebenso wird der Erfolg des IBM PC gerne mit dem Erscheinen von Lotus 1-2-3 verknüpft, ebenfalls einer Tabellenkalkulation, die nur auf dem IBM PC, aber nicht MS-DOS Kompatiblen lief und sehr schnell war, da in Assembler programmiert.

Das stimmt auch, aber ich will es ausführen. Versetzen wir uns in die Mitte der achtziger Jahre zurück, der Macintosh ist erschienen. Eingeführt seit einigen Jahren sind die MS-DOS Rechner, vor allem der IBM PC und die Kompatiblen. Im Herbst 1984 erschien das Nachfolgemodell IBM PC AT das, aber auch unter DOS lief.

Damals waren Computer noch um einiges teurer als heute. Wer 1984 einen IBM PC Kompatiblen kaufte, musste rund 5000 DM für eine arbeitsfähige Konfiguration mit zwei Diskettenlaufwerken und Monochrommonitor auf den Tisch legen. Der Macintosh kostete bei Einführung rund 7.500 DM, aber ohne zweites Laufwerk war er zu nichts nütze, das hob den Preis dann auf fast 9.000 DM an. Noch teurer war IBM PC AT, der je nach Konfiguration 15.000 bis 20.000 DM kostete.

Der PC alleine reicht nicht aus. Man benötigte zumindest eine Anwendung und einen Drucker – damals ein 9 Nadeldrucker oder ein Typenraddrucker, man konnte bestimmte Schreibmaschinen auch als Drucker an den Computer anschließen, so die populäre „Gabriele“ von Triumpf-Adler. Software kostete damals auch noch um die 1.000 Mark für ein Programm und Drucker lagen so bei 1.000 bis 1.500 DM. Da war man schon im günstigsten Fall 7.000 DM los. Das entsprach rund drei Monatsgehältern einer Sekretärin, heute wohl im Gegenwert von 8.000 bis 9.000 Euro.

Eine solche Summe gibt man nicht einfach so aus, das ist eine Investition. Dann rechnet man den Kosten entgegen, was man an Nutzen hat. Der generelle Nutzen ist Zeitersparnis. Ich nehme mal Textverarbeitung als Beispiel. Es geht schneller einen Tippfehler in einem Programm zu korrigieren als mit Tipp-Ex, ein Brief ist schneller nochmals ausgedruckt, als ihn aus einem Ordner zu holen, zu kopieren und wieder den Ordner zurückzustellen. Vor allem aber spart man Zeit, wenn man es mit Schreiben zu tun hat die im Wesentlichen immer gleiche Textpassagen haben. Das ist z.B. bei Versicherungen so, die Erstmeldungen mit Schreiben mit Standardbausteinen beantworten. Ein Vorgängersystem des IBM PC, der IBM Displaywriter, war fähig, Texte aus mehreren Bausteinen zusammenzusetzen, die man dann noch um einige individuelle Sätze ergänzen konnte und es war trotz des hohen Preises sehr beliebt, da man so viel Zeit spart. Ebenso kann man so leicht ein und denselben Brief an viele Kunden schicken, aber mit individueller Adresse (Serienbrieffunktion). Man kann diese erwartete Zeitersparnis den Investitionskosten gegenrechnen und erhält dann den Zeitraum, nach dem ein PC sich finanziell lohnt.

Klar ist das mit sinken Preises so immer mehr PC im Laufe der Zeit verkauft wurden, denn so wurde der Zeitraum immer kleiner und die Löhne stiegen ja auch an.

Aber die Kosten für den PC sind eine Sache. Die andere ist zeitlicher Mehraufwand für die Einarbeitung, denn Computer waren damals noch neu. Und hier setzt die Diskussion an. Der zeitliche Mehraufwand hängt vom Programm ab und ist per se nicht von dem Betriebssystem abhängig. Ich nehme nochmals das Beispiel Textverarbeitung. Da gab es Textverarbeitungen die arbeiteten mit kryptischen Steuerkodes und in den Text eingebauten Befehlen zur Formatierung, die man alle erst mal lernen musste, wie z.B. Wordstar. Es gab aber auch schon neuere Programme die benutzerfreundlicher waren. MS Word für DOS war mit der Maus bedienbar. Es gab so keinen Unterschied zu einer Textverarbeitung zu Windows. Ein Menü unten konnte leicht gefunden und ein Befehl selektiert werden, Text mit der Maus markiert werden. Selbst das WYSIWYG (What You See Is What You Get) versuchte Word zu imitieren, indem es zwar nicht das genaue Schriftbild des Druckers auf dem Bildschirm wiedergeben konnte, aber zumindest die Attribute (Fett, Kursiv, Unterstrichen) im Grafikmodus. Prinzipiell hat eine grafische Oberfläche die Möglichkeit einiges einfacher zu machen, das Markieren von Text geht einfacher, das Anspringen von Eingabemasken auch. Doch das liegt nicht an der grafischen Oberfläche, sondern an der Maus und die funktionierte auch unter DOS.

Was blieb war die Einarbeitung in das Betriebssystem selbst. DOS und andere textbasierte Betriebssysteme bestehen zumeist aus einer Sammlung von Befehlen. Bei einer grafischen Oberfläche findet man meistens ein Menü mit den Einstellungen und für häufige Dinge dann auch Programme die dasselbe wie unter DOS machen nur eben grafisch. Die Oberfläche ist mit Sicherheit einfacher zu bedienen, aber ist das für einen Arbeitsplatz relevant? Zurück zum Beispiel. Eine Sekretärin hat wahrscheinlich blß mit ihrem Textverarbeitungsprogramm gearbeitet. Das konnte man sogar beim Booten gleich starten. Was sie von DOS noch wissen musste, war dann wie man Disketten formatiert und kopiert. Das sind zwei Kommandos, die man sich merken kann und wenn nicht dann kann man Programme kaufen, die es einem leichter machen. So die Norton Utilitäres und der Norton Commander. Dann gibt es eigentlich in der Benutzung keinen Unterschied mehr.

Natürlich sieht eine grafische Oberfläche schicker aus. Doch würde man dafür mehrere Tausend DM mehr ausgeben? Die meisten taten es damals nicht.

Der Hauptvorteil der grafischen Oberfläche ist das erwähnte WYSIWYG. Es wurde damals argumentiert, dass man endlich einen Text so auf dem Bildschirm sieht, wie er gedruckt wird. Nun ja nicht ganz. Im geschäftlichen Umfeld waren Typenraddrucker oder eben angeschlossene Schreibmaschinen die Norm, da ihr Schriftbild einwandfrei war. Mehr Flexibilität bot der Nadeldrucker der im Grafikmodus nicht nur beliebige Grafiken ausgaben konnte, sondern eben auch den Text einer WYSIWYG-Anwendung. Nur: das dauerte deutlich länger als die intern gespeicherten Fonts und sah schlechter aus, weil die internen Fonts natürlich auf die Fähigkeiten des Druckers abgestimmt waren. Ein 9 Nadeldrucker hatte eine Auflösung von 72 dpi, das ist grob, da sieht man jeden Nadelanschlag. Ein Laserdrucker der ersten Generation schaffte 300 dpi und das gilt bis heute als Untergrenze für sauberes Schriftbild. Es wurde Ende der Achtziger Jahre besser, als 24 Nadeldrucker mit dreimal kleineren Nadeln dann mit 216 dpi und Fast-Letterqualität auf den Markt kamen, aber auch sie waren im Grafikmodus deutlich langsamer als beim Drucken von Text.

Kurz mit einem 9 Nadeldrucker nützt einem WYSIWYG nicht viel, ich finde, es ist kein Zufall, das Windows den ersten Boom hatte als 24 Nadeldrucker und die ersten Tintenstrahldrucker erschwinglich wurden.

Die Daten, die damals bearbeitet wurden, waren auch Text und Zahlen – die drei großen Anwendungsgruppen waren Textverarbeitung, Tabellenkalkulation und Datenbanken, wobei letztere meist versteckt hinter Eingabemasken waren, aber die Basis für jede Verwaltung von Daten, egal ob Warenwirtschaftssystem, Lohnabrechnung oder Versicherungsverträge. Und selbst in einer grafischen Oberfläche kommt man mit den Tasten schneller durch Texte oder Tabellen, weil man dann nicht die Hand von der Tastatur für die Mausbedienung nehmen muss.

Was die grafische Oberfläche zur Durchsetzung benötigte war ein Alleinstellungsmerkmal, eine Anwendung, die man nur grafisch erledigen konnte. Die kamen dann. Zuerst das Desktop-Publishing, also das Setzen von Büchern, Zeitschriften Flyern am Bildschirm, auch hier gekoppelt an den Laserdrucker als Ausgabegerät, der anfangs noch teurer als der Rechner selbst war. Es folgte, als die Macs dann auch Farbe konnten, die Bildbearbeitung. Die ersten Programme dafür sind auch die, die heute noch als Standard gelten Pagemaker und Photoshop. Weit unterhalb der Preisklasse der Macs etablierten sich der Amiga und Atari ST. Erstaunlicherweise machten sich diese Rechner zwar untereinander Konkurrenz, aber niemals dem Macintosh, obwohl sie in der Leistung mit den Macs vergleichbar waren und auch den gleichen Prozessor einsetzten. Die jeweiligen Vorzüge führten auch hier zu Anwendungen, die es auf dem PC nicht geben konnte. Der Atari ST durch seine Midi-Schnittstelle wurde ein Werkzeug für Musiker – man konnte grafisch die analogen Geräte leicht nachbilden und Notensatz erfordert natürlich eine grafische Darstellung. Der Amiga hatte Spezialbausteine, die sehr schnell Bilder berechneten, und wurde so zur Basis für Videobearbeitung, man konnte so Effekte wie Überblenden berechnen.

Auf dem PC wurde die grafische Oberfläche erst mit Windows 3.x populär. Das verwundert mich persönlich nicht. Ich habe als ich vor etwa einem Jahr meinen Artikel über die Entwicklung von Windows recherchiert habe auch in einer virtuellen Maschine die alten Versionen installiert. Ab Windows 3 habe ich längere Zeit damit abriegeltet, an Windows 2 erinner ich mich nur noch dunkel. Die Versionen vor 3 waren für die Arbeit eigentlich nicht brauchbar. Nicht nur fehlen elementare Dinge der Oberfläche, nein sie teilten sich auch den Speicher mit DOS. Bei Windows 2 waren so noch 380 KByte für ein Programm übrig, wenig selbst für DOS-Anwendungen, geschweige denn Windows Anwendungen und startete man eine DOS-Anwendung, so konnte die Windows mit zum Absturz bringen. Der „virtuelle“ DOS Modus kam erst mit Windows 3, wie auch die Unterstützung von mehr als 1 MB Speicher. Selbst WYSIWYG ging erst da richtig, weil vorher alle Schriften Bitmaps waren, also feste Größen und Attribute hatten und nicht frei vergrößert werden konnten.

Ich habe sechs Jahre unter Windows 3.1 gearbeitet, aber anfangs nur mit der Textverarbeitung – dank Laserdrucker brachte hier WYSIWYG etwas, nachdem ich mir zum 30-sten Geburtstag einen Flachbettscanner kaufte (damals knapp 1.000 DM teuer) auch zum Bearbeiten von Photos. Die meiste Zeit war ich damals aber noch unter DOS unterwegs. Da lief meine Programmierumgebung, Spiele sowieso nur unter DOS und die ganzen Utilitys wie Norton Utilities, DCC oder VGACopy auch.

Der Durchbruch was die Installationen angeht, war so Windows 95 vorbehalten. Dafür gibt es meiner Ansicht nach zwei Gründe. Der erste ist der das die Oberfläche deutlich verbessert wurde und (Zufall oder nicht) erstmals so ähnlich wie bei einem Xerox Alto aussah. Den zweiten sehe ich im Internet. Man kann ins Internet mit einem Textbrowser, aber es macht keinen Spaß. HTML in der die Webseiten entstehen, ist ja auch eine Seitenbeschreibungssprache mit Formatanweisungen und zudem kann man Grafiken einbinden. Fast zeitgleich zum Erscheinen von Windows 95 setzte in den USA der Internetboom ein, etwas später dann auch bei uns.

Für Apple, Atari und Commodore war das verheerend. Sie verloren ihr Alleinstellungsmerkmal. Noch problematischer – bei den PC war durch die Konkurrenz von vielen Firmen und höhere Stückzahlen von Prozessoren und Chipsätzen, der Preis so gefallen, das sie auch noch günstiger waren, günstiger als Macs waren sie schon immer, nun aber auch günstiger als Amigas und Ataris, zumindest wenn man die Rechenleistung mit berücksichtigt. Für alle drei Firmen war auch schlecht, das Motorola ihre 68K Architektur nicht mehr in der Leistung steigern konnte und eine neue Prozessorgeneration, die PowerPC entwickelte. Neue Computer konnte aber nur Apple entwickeln, Commodore und Atari hatten nicht die Mittel dafür und beide Firmen gingen kurz hintereinander in den Konkurs.

 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99