Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 292: 29.8.2012 - 5.9.2012

29.8.2012: Zeit für die PC-Industrie erwachsen zu werden

In der letzten Zeit schreibt die ct', also die Computerzeitschrift die ich lese, relativ viel über SSD, also "Laufwerken" aus Flash-Bausteinen die sich für den PC wie eine Festplatte verhalten. Geräte mit 128 GB die zumindest fürs Betriebssystem und eine nicht zu üppige Programmsammlung ausreichen gibt es mittlerweile für rund 100 Euro.

Ich bin beim Überlegen, ob ich mir so was zulegen sollte. Mich nervt so ein bisschen der Systemstart wenn es noch einige Minuten nach der Anmeldung dauert bis man arbeiten kann. Daran ist nicht Windows schuld sondern so vieles was erst mal beim Start die Festplatte scannt - Sykdrive und Googledrive die sich synchronisieren, PSI das nach Programmen sucht und ob Updates nötig sind. Bei all diesem ist die Festplatte am Rödeln, während die Prozessbelastung nur kurzzeitig hoch ist.

Was mich davon abhält ist im Prinzip, das der PC bald drei Jahre alt ist. Lohnt sich da noch eine Aufrüstung? Nicht das ich den PC bald auswechseln will, aber die beiden letzten hielten ziemlich genau 4 Jahre. Also wäre es in einem Jahr soweit. Technisch gesehen gibt es keinen Grund zur Nachrüstung. Ich habe einen Athlon 5050e Doppelkernprozessor mit 2,4 GHz, 4 GB Speicher und eine 1 TB und eine 2TB Platte. Die letztere wurde nachgekauft. Ich schrecke etwas zurück das Betriebssystem neu zu installieren, sicher ich könnte ein Image ziehen, aber wie es dann mit Lizenzierungsschlüsseln mit Software ist? Also derzeit tendiere ich eher dazu das eine SSD in den nächsten PC rein sollte, aber derzeit ich keine brauche.

Ein neuer wäre nur wenig schneller, gut es gibt mehr Kerne, aber wie schon gesagt, die Prozessorbelastung ist nicht etwas, was ich beim Alltagsbetrieb als kritisch sehe und die 4GB RAM und Chipsatzgrafik reichen mir auch. Schaut man sich neue PCs an, so sind sie nicht wesentlich leistungsfähiger. Bei den Festplatten ist es derzeit so, das es zwar 2GB Platten zu kaufen gibt. aber die genauso teuer wie die sind die ich vor 2 Jahren dazukaufte.

Lange Zeit war die PC-Industrie geprägt vom Mooreschen Gesetz, dass sich die Zahl der Transistoren alle 24 Monate verdoppelt. Das scheint nun langsamer zu gehen und vor allem kommt es nicht mehr beim Anwender an. Features wie "Turbo-Boost", bei dem einige Kerne höher getaktet werden und andere sich schlafen legen zeigen es - auf dem Desktop PC lasten die meisten Anwendungen 4,6 oder 8 Kerne nicht aus. wichtiger ist dass eine Anwendung, die einen Kern belegt, schneller ist. Der Speicher bleibt auch gleich groß, wenn ich mir den aktuellen Nachfolger meines PC beim Händler ansehe würde ich auch nur 4 GB Speicher bekommen.

Nachdem wir Jahrzehntelang neue PCs kauften weil die alten durch immer bessere Programme, immer umfangreiche Betriebssysteme zu langsam waren, oder man sich einfach doof vorkam wenn alle viel schnellere Rechner hatten mit noch höherer Grafikauflösung oder mit Sound, während der eigene das nicht bot, ist nun eine Zensur gekommen: die Branche hat nun Produkte die ich nur noch evolutionär weiterentwickeln. Sie reichen selbst im Einsteigersegment für die meisten aus. Früher gab es neue Standards für Grafik, Anschlüsse etc. die alte Hardware zu Schrott degradierten. Heute reicht die Leistung von Chipsatzgrafik für die meisten aus, die Anschlüsse USB und PCI haben ein bzw. zwei Jahrzehnte auf dem Buckel und reichen meistens auch aus.

Das ist nichts neues. Die Autoindustrie verbessert ihr Produkt auch nur evolutionär und jede andere Branche auch. Die Computerindustrie profitierte in den letzten fast 70 Jahren von der Einführung neuer Technologien  Stichwort: Relais-Vakuumröhre-Transistor-Chip oder Lochkarte-Magnetband-Festplatte-Flash Speicher oder höherer Integration (kann sich noch jemand an die Festplatten des IBM PC im doppelten 5,25 Format mit glatten 20 MB Speicher erinnern? - ja da geht sogar ein Bild der digicam drauf ....

Nun ist sie da wo andere Branchen sind: Fernseher, Stereoanlage, andere Elektronik, also nicht Dinge die sich abnutzen oder durchrosten können, Die werden eigentlich nur ersetzt, wenn sie kaputt gehen. Man sieht dies auch an schicken PCs die sich von der "Kiste" abheben, entweder als Minibox oder schon im Monitor integriert. Dann sind die Käufer bereit dafür auch mehr zuzahlen, denn das Gerät steht dann ja auch viel länger im Wohnzimmer herum. Was auch geht,  ist ebenfalls von anderen Branchen bekannt - man bringt den Anwender dazu was neues zu kaufen, weil man was neues erfindet. Der Plattenspieler wird durch den CD-Spieler und der durch den MP3-Spieler mit Dockingstation fürs iPad ersetzt. Der Videorekorder durch den DVD-Spieler und dieser durch die Blue ray Disk. Oder man lernt von der Autoindustrie mit dem Zweitwagen, dem Cabrio, der Familienkutsche und dem e-Bike.

Woran es noch hapert ist die Lebensdauer. Denn wie schon gesagt die letzten gingen nach 4 Jahren kaputt. Rechner froren beim Start oder im Betrieb ein. Vor ein paar Jahren habe ich mal gelesen, das soll an Elektrolytkondensatoren liegen. Irgendwann werden die undicht, die Elektrolytflüssigkeit läuft aus und der Rechner fällt aus. Die Hersteller wissen das und setzen sie trotzdem ein - es ist nach der Garantiezeit und selbst wenn man den -defekt bemerkt hat sich bisher es kaum gelohnt ein neues mit neuem Prozessor zu kaufen (unnötig zusagen dass alle 6 Monate ein neuer Prozessorsockel erscheint) weil die alte Hardware verglichen mit der aktuellen so viel schlechter dasteht. Doch dies wird nun anders. Es wird interessant sein zusehen ob das was an dieser eingeplanten Obsoleszenz ändert. Vielleicht brauchen wir ein Gegenstück zur ADAC Pannenstatistik, wie hoch der Prozentsatz der ausgefallenen PCs pro Jahr ist. Das könnte was ändern. zumindest bei den deutschen Automobilherstellern hat es was geändert.

Also ich braue drauf, dass mein PC pünktlich zum 4-ten Geburtstag im nächsten November das zeitlich segnet ...

30.8.2012: Buchkritik: Computergeschichte(n) - nicht nur für Geeks

Als ich mein Buch herausbrachte und bei Amazon schaute wie es denn gerankt ist, fiel mir auf, dass es ein Buch mit gleichem Haupttitel schon gibt. Schnell entschlossen, auch weil es eine gute Bewertung hat, habe ich es mir gekauft. Da ich mich immer über Buchkritiken ärgere, die ich bei meinen Büchern ungerechtfertigt empfinde, messe ich es an genau dem was es über sich selbst sagt:

"Geek, Nerd, Fan, Enthusiast, Insider oder einfach nur interessiert? Dieses Buch bietet Computergeschichte in vielen Geschichten: Es startet um ca. 30.000 v. Chr. und zeigt bis in die Zukunft, was es mit der revolutionären Kiste auf sich hat. Von Antikythera bis hin zu altbekannten Rechengiganten. Hier wird programmiert und simuliert, was das Zeug hält. Rechenschieber, Elektronengehirn, Wolken und eine alte Dame namens Ada – lassen Sie sich ein auf eine Reise durch die Zeit. Pausen zum Anschauen, Ausprobieren, Coden und Virtualisieren nehmen Sie sich nach Bedarf!"

Das ist die Amazonbeschreibung, die ich in ähnlicher Form auch auf dem Buchrücken findet. Nun eines ist sicher richtig: Es deckt wirklich so ziemlich alles ab, was man mit Informatik  in Verbindung bringen kann - Zeitlich vom Abakus bis zu neuesten Themen wie Cloud Computing, Hardware, Software, selbst exotische Themen wie Hybridrechner oder F## kommen vor. Aber wie, das finde ich doch deutlich verbesserungswürdig. Nach Dem Umschlagstext soll man sich von den Kapiteln sich eine der Geschichte raussuchen die einen interessiert. Da deutet sich schon der Riesennachteil dieses Buches an, es ist meiner Ansicht nach nicht geeignet sequentiell durchgelesen zu werden. Dazu macht der Autor zu viele Sprünge. Ein Beispiel: Bei den Programmiersprachen beginnt er mit dem Aufbau eines Prozessors, dann kommt folgerichtig Assembler. Danach FORTRAN. Nun aber nicht die folgenden höheren Sprachen, sondern die Turing Maschine. Und dann weitere Sprachen, wobei die Reihenfolge (Cobol, PL/1, C, Smalltalk, Pascal, C++, Prolog, Ada, Python, Basic, Ruby, Java, F#. Das entspricht nun weder einer historischen Reihenfolge noch der Einstufung nach Fähigkeiten. Das ganze hat 46 Seiten, woran man sich denken kann, wie viel auf jede Sprache entfällt.

In der Summe erreicht die Beschreibung daher keine große Tiefe. Nun lautet der Titel zwar "Computergeschichte(n), aber das ist mir dann doch für eine Geschichte deutlich zu kurz. Nur mal am Beispiel: Der Apple II findet sich auf einer Seite, mit einem Bild das die halbe Seite ausfüllt und 15 Zeilen Text. Nach meiner Ansicht hat der Autor zahlreiche Schwerpunkte, wo das Buch tiefer geht, falsch gesetzt. Auf den Apple II folgen z.B. eineinhalb Seiten in denen man ein Programm in Hexadezimal für einen Apple I Simulator eintippen kann. Die Frage ist welchen Sinn dies dem durchschnittlichen Leser bringt und ob er nicht mehr gehabt hätte von der faszinierenden Geschichte rund um den Apple II zu erfahren. Zumal ich denke, dass der Prozentsatz der Leser, die 6502 Code in Hexadezimal lesen können deutlich unter einem Prozent liegt.

Das leitet mich zum zweiten über, das ja auch in der Beschreibung vorkommt: "Hier wird programmiert und simuliert, was das Zeug hält. ". Zahlreiche Einschübe gibt es um Simulatoren oder Entwicklungsumgebungen zu beschreiben und eine Einführung zu geben. Auch hier ist die Palette groß. Vom Intel 4004 Simulator, über eine Turing Maschine, Entwicklungsumgebungen für zahlreiche Programmiersprachen, Emulatoren für Spiele und Heimcomputer. Die Anzahl dürfte ohne Problem eine zweistellige Ziffer erreichen. Doch was bringt es mir? Was nützt mir ein Intel 4004 Simulator, wenn ich den Instruktionssatz des Prozessors nicht kenne. Was nützt mir ein Python Entwicklungsumgebung, wenn ich keine Kenntnisse in dieser Sprache habe, und diese vermittelt das Buch auch nicht, kann es natürlich nicht, denn wie soll dies bei so vielen Themen und diesem Umfang geschehen? Nichts gegen das Konzept, aber ein einfacher Link auf eine Seite des Verlags, wo ich dann gezielt zu den einzelnen Programmen komme und weitere Einführungen findet, wäre um einiges besser gewesen. Den frei gewordenen Platz (grob geschätzt ein Drittel des Buches) wäre mit mehr Hintergrundinformation besser gefüllt gewesen. Das lässt es dem Leser die Freiheit sich dann tiefer einzuarbeiten oder eben nicht. Die meisten wollen ein Buch nur lesen. Zumal ich ein Buch in Ruhe durchlese und wenn ich dauernd wechseln muss zwischen Monitor und Buch habe ich nichts davon. Die Programme gehören ins Netz und nicht ins Buch. Kein Mensch tippt mehr als wenige URLs pro Buch ein.

In der Summe hat man ein Buch, dass wohl am ehesten geeignet als Klolektüre ist. (Das bezieht sich auf den Ort wo man es liest, nicht den Inhalt des Buchs) Die kurzen Geschichten sind gerade zeitlich drauf abgestimmt, es ist dafür nur etwas zu schwer wenn man es in der Luft hält. Wert gute Augen hat kann es ja auf dem Schoß lesen. Es ist keinesfalls geeignet, es von vorne bis hinten durchzulesen. Das ist sehr schade, denn es ist gut geschrieben und leicht zu lesen. Das zerstreute Vorgehen ohne Systematik und die Isolation der einzelnen Geschichten, vor allem aber deren Knappheit verhindern dies. Es erscheint am geeignetsten als eine Vorlage für einen Volkshochschulkurs, wo man alles mal anschnuppert und am Computer da einige der Simulationen probiert. Wer schon etwas Ahnung von Computern hat wird nichts neues entdecken und für die älteren die gerne darin schwelgen, wie faszinierend dieses Hobby doch noch vor 20,30 Jahren war, finden wenig um diese Nostalgie aufzuwärmen.

Ich würde mit eine zweite Auflage wünschen, ohne Simulationen und Programmierumgebungen (glaubt der Autor ernsthaft, jemand der noch nie programmiert hat könnte von diesem Buch inspiriert werden C# oder Ruby zu lernen?) mehr Hintergrundinformationen, etwas weniger Geschichten, diese dafür ausführlicher und vor allem systematischer, sodass man es wirklich von vorne bis hinten durchlesen kann.

Bei Amazon würde ich wohl drei Sterne geben.

31.8.2012: Verbreiter von Verschwörungstheorien

Das Hohlkugelmodell brachte mich darauf doch mal die Seelenlage von Verbreitern dieser "alternativen Erklärungsmodelle" beleuchten. Fangen wir zuerst mal mit dem grundlegenden Unterschied zur etablierten Wissenschaft an. Diese ist ja nicht in Stein gemeißelt sondern entwickelt sich weiter. Ein wesentlicher Unterschied ist, dass bei der etablierten Wissenschaft eine neue Theorie von Leuten aufgestellt wird, die Phänomene mit den alten Theorien nicht erklären können. Damit die geht muss man sich mit der alten Theorie natürlich genau beschäftigen. Eine neue Erkenntnis kommt nicht so einfach aus dem Nichts. Sowohl Einstein wie auch die Entdecker der Quantentheorie (da waren ja einige beteiligt wie Planck, Bohr und Heisenberg) hatten Probleme mit ihrer neuen Theorie. Einstein führte die kosmologische Konstante ein, weil er anders das damalige statische Universumsmodell nicht in den Gleichungen sah (ironischerweise, ist diese von ihm als "größte Eselei seines Lebens" bezeichnete Konstante heute tatsächlich von Bedeutung. Planck führte das Wirkungsquantum ein, weil ohne es seine Theorie Probleme hatte bestimmte Dinge zu erklären, hielt das aber für einen Fehler oder einen Notbehelf, bis man die wahre Ursache findet. Diese Zweifel haben Verschwörungstheoretiker nicht.

Demgegenüber müssen sich die Erzeuger alternativer Theorien sich nicht mit dem etablierten Erklärungsmodell auszukennen. Das ist sogar sehr hinderlich. Es reicht einfach etwas zu sehen, was man nicht versteht, um zu erkennen, dass die etablierte Erklärung falsch ist. Sehr wichtig ist es auch keine Ahnung von Technik und Physik zu haben. Schon das Schulwissen ist sehr hinderlich, weil es einem den ungetrübten Blick verstellt. Sonst könnte man ja nicht so viel sehen, dass man nicht versteht. Wir sehen hier sofort die Parallelen zur Renaissance, als die Kirche sich weigerte die neuen Kenntnisse anzuerkennen Geistliche, die von Galileo aufgefordert wurden, die Jupitermonde im Fernrohr sich selbstanzusehen, weigerten sich dies zu tun. Man könnte ja in seinem Gedankenfundament gestört werden.

Der Verschwörungstheoretiker meidet es, sich zu informieren. Die wichtigste Informationsquelle ist das Fernsehen, dann kommen Bilder. Sehr wichtig ist es auf keinen Fall mit dem Urheber der Verschwörung in Kontakt zu kommen. Das bedeutet (im Falle des Moon-Hoaxs) man darf auf keinen Fall auf den NASA Webseiten, nach den Presskit, Technical Reports, Originaldokumente und -Bilder suchen, sondern das Material muss aus bekannt zuverlässigen Quellen wie "Galileo" "N24" oder "ntv" stammen. Nur so sind die richtigen Schlüsse zu ziehen, z.B. dass die Luna Landung unmöglich ist, weil Armstrong mit dem LLV, einem Simulator der Mondlandefähre abstürzte. Würde man sich bei der NASA informieren so würde man feststellen, dass der Defekt darauf beruhte, dass die Stabilisierung des Düsentriebwerks, dass dazu diente, die Beschleunigung von 1 g auf ein Sechstel G zu reduzieren, ausfiel. Da dieses bei der Mondfähre fehlt, könnte man ja auf die Idee kommen, das man das nicht übertragen kann. Auch das Luna anders landet, weil keine Schwebephase vorgesehen ist, es kann die Sonde ja keinen Landeplatz wie Apollo aussuchen, sondern landet durch einen Höhenmesser gesteuert an einem vorgegebenen Punkt, ist äußerst kontraproduktiv, wenn man aufgrund eines Fernsehfilms beweisen will das auch das Lunaprogramm Teil einer Verschwörung ist. Folgerichtig hat Herr Keppler als ich ihm dies sagte ignoriert. Dafür fragte er mich nach Daten zu Apollo 17 - auch das ist typisch, denn wie schon gesagt, man darf nicht die Primärquellen benutzen, sonst könnte man wissensmäßig verseucht sein.

Wichtig ist auch die Argumentationsweise. Die vorherrschende Erklärung eines alternativen Modells ist nicht die, das etwas berechnet oder schlüssig beweisen wird. Es ist die des Vergleichs. So findet man auf Epplers Seite den Hinweis, das ein Magnet durch Erhitzen entmagnetisiert wird. Also kann die Erde, die ja im Vollerdemodell einen heißen Eisenkern hat, nicht die beobachteten Magnetfelder aufweisen. Man vergleicht also ein Phänomen mit einem anderen, ohne sich um die Übertragbarkeit zu kümmern. (Wie kann man in diesem Erklärungsmodell z.B. die Magnetfelder von Elektromagneten oder dem Jupiter mit metallischem Wasserstoff erklären). Oder man vergleicht den Antrieb der Mondfähre mit einem Laubbläser (obwohl dieser im Vakuum sicher wirkungslos wäre) und die Hitze auf dem Mond im Vakuum (nur Wärmeübertragung durch Strahlung) mit der im Backofen (Wärmübertragung durch Konvention und Strahlung),

Der augenscheinliche Zusammenhang mit Religion sieht man daran, dass es nicht um eine alternative Erklärung geht, sondern diese nur ein Phänomen einer Verschwörung ist. Das macht diese auch wie die Religion so unanfechtbar. Ist es bei der Religion die Bibel, die einfach wahr sein muss, so sind es bei Verschwörungstheorien ganz einfach alle anderen entweder dumm, oder wenn dies nicht sind, dann sind sie Handlanger deren die sich an der Verschwörung beteiligen. Da habe ich schon einiges erlebt, de Fakto meinen Verschwörungstheoretiker offenbar, sie könnten jeden beleidigen der nicht ihrer Meinung ist. Daher wundert mich es nicht, dass Professoren solche Zuschriften komplett ignorieren, was natürlich als Beweis der Verschwörung angesehen wird.

Irgendwie erinnern sie mich an die Zeugen Jehovas. Mit einem Pärchen hatte ich mal eine Diskussion an der Haustür, wo man meinte, als ich sagte, dass die Erde nach der Bestimmung der Radioaktivität etwa 4,5 Milliarden Jahre und nicht nur einige Tausend Jahre alt ist, dass diese sich verändert haben könnte. Auch beim Vollerdemodell gibt es die Juristensicht auf die Physik. Ich sage das so, weil menschliche Gesetze sich ändern und das wird eben auf auf die Natur übertragen. Also hier ist die Lichtgeschwindigkeit konstant, aber wenn wir 1000 km von der Erdoberfläche entfernt sind ist sie es nicht. Hier sind Lichtstahlen gerade, im Innenraum der Erde sind sie gekrümmt und hier starten Raumsonden mit 14,6 km/s und in der Innenerde bewegen sie sich nicht, sonst würden sie ja nach weniger als einer Stunde in Australien aufschlagen.

Was mich viel mehr erstaunt ist, dass es so viele gibt die denen noch glauben. Es gibt ja immer wieder Dumme die drauf reinfallen und viele verdienen mit ihren Büchern ja auch ganz gut. Die Frage die sich mir stellt, selbst wenn ich keine Ahnung von Physik habe ist doch wer hat recht: Einige Verschwörungstheoretiker die so illustre Berufe wie Druckersetzer oder Anglizist haben oder die Große Masse an Experten inklusive unabhängiger Quellen wie Wikipedia, Brockmann oder die zig Fachautoren zu dem Thema Apollo. Wenn mir ein Mediziner sagt, ich hätte eine Blinddarmentzündung und müsste operiert werden und es sagt mir ein Druckersetzer dass ich nur Bachblüten nehmen solle, dann würde ich eher dem vertrauen der vom Fach ist, auch wenn sicherlich die Bachblüten weitaus unkomplizierter sind.

Der Blog auf englisch? Endlich einheitliche Lautstärke

Heute bekam ich eine Mail von Michael K. in der meint dass man durch den seit Juli eingepflegten Zähler sieht, "wie wenig dein Blog gelesen wird" und er macht den Vorschlag ihn doch zweisprachig zu verfassen. Na ja die Zahlen sind stark schwankend. Es gibt durchaus Titel die sind populär, der Testbericht über ein Aldi Cityfahrrad wurde in nun etwas mehr als einem Monat über 1600 mal abgerufen. Andere weniger. Im Durchschnitt sind es in den letzten 1-2 Jahren so 15.000 Besucher  pro Monat, das ist etwa ein Viertel der Website Besucher (eindeutige IP, also nicht Seitenabrufe, sondern Besucher). Mit 10.000 Besuchern pro Artikel wie Michael K. als Vergleich nennt, kann ich sicher nicht dienen, dazu ist das ganze zu speziell. Er nennt als Beispiel einen Rollenspielblog und ich bin mir sicher das sich für Computerspiele viel mehr interessieren als für Raumfahrt.

Ich nutze Alexa um zu sehen wie ich im Vergleich zu anderen stehe. Während ich dies abrufe bin ich in Deutschland auf Platz 28939. Andere populäre deutschsprachige Raumfahrtseiten wie Skyrocket.de sind auf Platz 21037 (immerhin in englisch) oder Norbert Brügges B14643,de auf Weltweit 1,3 Millionen (keine deutschen Daten verfügbar), oder um was viel umfangreicheres als Vergleich zu nehmen. Raumfahrer.net ist in Deutschland auf Platz 18798. Ab und an bin ich auch mal besser platziert als Raumfahrer.net, aber meistens schlechter. Das ist das womit ich mich in der Popularität vergleiche. Gunther Krebs, der Skyrocket.de macht schreibt auf englisch, Raumfahrer.net ist ein ganzes Portal mit Forum und vielen registrierten Usern, welche die Website besuchen und etwa einem Dutzend Redakteuren, die viel mehr machen als ich als Einzelperson es jemals könnte, entsprechend ´werden sie öfters besucht und wenn ich da in etwa in der gleichen Größenordnung wie diese Seiten bin, dann bin ich schon sehr zufrieden.

So sehe ich mich in diesem Umfeld nicht so schlecht platziert. Aber selbst wenn ich schlecht platziert wäre, wäre es mir egal. Meine Website entstand weil ich die Dinge die mich interessieren für mich zusammengefasst haben wollte und anstatt das in einem Word Dokument zu tun habe ich es öffentlich getan. Die meisten Raumfahrtartikel entstanden, als die Website noch weitaus weniger Besucher hatte als heute und die vielen Besucher (oder nach Michaels Meinung: wenigen) jetzt bringen mich auch nicht dazu nun andere Themen zu beackern, weil ich die Teile die mich interessieren ja schon durch habe. Also nur mehr Besucher ist für mich kein Argument.

Der springende Punkt ist der Arbeitsaufwand. Für einen locker geschriebenen Blog, ohne viel Recherche, wie diesen hier, brauche ich 1-2 Stunden pro Tag. Die Arbeit fällt jeden Tag an und das sind in der Woche schon mal 7-14 Stunden. Wenn ich tiefer gehe, z.B. wie gerade in der Vorbereitung etwas über meinen Alternativvorschlag zur Ariane 6 schreibe und dann rechnen und recherchieren muss, kann es auch ein Vielfaches dessen sein. In Englisch würde sich dies mindestens verdoppeln, denn es gäbe zig Fachausdrücke die ich nachschauen muss und ich gehöre zu der Generation, die nach der Schule erst mal 20 Jahre lang kein Englisch mehr brauchte. Inzwischen kann ich weil ich durchs Internet viel lesen muss, englisch genauso schnell lesen wie Deutsch, aber Schreiben ist etwas völlig anderes. Wenn ich Mails auf englisch beantworte, dann merke ich das sofort. Wenn ich das täte, müsste ich die Frequenz runter schrauben auf einen Blog alle 2 Tage und dann alternativ in deutsch/englisch.

Michael K. meinte dann auch, ich sollte meine Bücher ins englische übersetzen und hätte dann den großen Erfolg. Ich bin da skeptisch. Zum einen denke ich wird man mich im Ausland gar nicht kennen, in Deutschland vielleicht wenige die sich für Raumfahrt interessieren und von denen kaufen sich auch die wenigsten ein Buch, denn das kostet ja im Gegensatz zur Website Geld. Zum zweiten ist der Aufwand enorm. Ich mache ja keine bunten Hefte mit großer Schrift sondern versuche bei jedem Buch etwas Platz einzusparen, beim letzten habe ich vorgestern mein Exemplar bekommen und die Schrift kommt mir nun schon zu klein vor. Curiosity und Phobos Grunt nach nach der Zeichenzählfunktion von Libreoffice 608000 Zeichen und ist damit glaube ich sogar mein bisher textlastigstes Buch. So was übersetzt man nicht so einfach nebenher. Bei meinen Fähigkeiten würde ich wohl mindestens ein halbes Jahr dafür brauchen. Und selbst dann würde das nichts dran ändern, dass mich außerhalb Deutschlands wohl keiner kennt.

Was aber vielleicht interessant wäre, wäre die wichtigsten Artikel über Raumfahrt ins englisch zu übersetzen. Für mich alleine ist die Aufgabe aber zu groß. Und weil ich etwas entweder komplett oder gar nicht mache lasse ich es lieber. Aber was meint ihr zu dem Thema?

Dann soll ab heute, bzw. wenn ihr das lest: gestern ja endlich die Lautstärke einheitlich sein. Also kein runter schalten weil gerade ein Werbeblock läuft, ob die Sender es auch schaffen dass sie alle gleich laut sind? Bisher sind die privaten deutlich lauter (auch beim redaktionellen Programm) als die öffentlich rechtlichen. Man darf gespannt sein. Vor allem ist es erstaunlich wie lange das gedauert hat. Also die Diskrepanz fiel mir schon ende der achtziger auf, als wir zum ersten Mal Privatfernsehen hatten. Es ist anscheinend in Deutschland leichter neue Fernsehnormen einzuführen, als sich nur mal über die Lautstärke abzustimmen.

5.9.2012: Warum der Mars nicht bewohnbar ist - die Atmosphäre

Immer wieder tauchen in der Öffentlichkeit Äußerungen auf, man müsse den Mars kolonisieren. Wahlweise weil auf der Erde kein Platz wird, oder weil es einfach den Menschen dazu dringt neue Regionen zu erobern. Ich will mich gar nicht mit den Argumenten aufhalten, sondern mal in einer lockeren Reihe beleuchten, warum das nicht klappt. Fangen wir in dieser Folge mit der Atmosphäre an.

Die Zusammensetzung der heutigen Atmosphäre und ihre Probleme für die Marskolonosation

Fangen wir mal damit an, wie die Atmosphäre des Mars aussieht und wie sie aussehen sollte. Derzeit hat sie folgende Zusammensetzung:

Parameter Wert
Bodendruck (Null-Niveau) 6,1 hPa
mittlere Temperatur -55 °C
Hauptgase: Kohlendioxid: 95,32%
Stickstoff: 2,70%
Temperaturextreme: -143 bis +27°C
Tägliche Schwankungen: 60-70 °C

Es fallen also gleich vier Probleme auf: Die Atmosphäre ist nicht dicht genug, die Temperaturschwankungen sind zu hoch und die mittlere Temperatur zu gering und die Zusammensetzung ist nicht für Menschen geeignet. Alle Probleme hängen aber zusammen. [Nadine Barlow: Mars: An Introduction to its Interior, Surface and Atmosphere]

Diie Temperatur ist so gering, weil die Atmosphäre keinen Treibhauseffekt verursacht, was nicht an der Zusammensetzung liegt, sondern dem niedrigen Bodendruck, der mit einer niedrigen Dichte einher geht. Weil sie wegen der geringen Dichte praktisch keine Wärmespeicherkapazität hat, sind auch die täglichen Temperaturschwankungen so hoch.

Das gängige Rezept von Lieschen Müller, einfach Bakterien auf dem Mars auszusetzen um aus dem Kohlendioxid Sauerstoff zu machen muss daher leider scheitern. Denn dann hat man eine Sauerstoffatmosphäre mit 6 mb Bodendruck. Wegen der UV-Strahlung würden die Bakterien auch nicht überleben.

Erzeugen eines Treibhauseffektes

Was wir zuerst einmal brauchen, ist ein echter Treibhauseffekt. Es ist möglich, zu berechnen wie warm ein Himmelskörper mit ein bestimmter Albedo, aber ohne Atmosphäre an der Stelle der Erde und des Mars ist. Man kommt auf 270 K bei der Erde und 210 K beim Mars. Die etwas dunkleren Marsmonde haben z.B. eine Temperatur von 233 K. Demgegenüber ist die mittlere Temperatur auf dem Mars nur 218 K, also 8 K höher als die Gleichgewichtstemperatur. Auf der Erde sind es 18 K. Das liegt am Treibhauseffekt. schauen wir uns mal an, was wir so in unserer Atmosphäre haben:

Gas Konzentration (vorindustrielles Niveau) anthropogene Emission pro Jahr Konzentrationsanstieg pro Jahr mittlere Verweilzeit in der Atmosphäre molekulare Treibhauspotential
Kohlendioxid 350 (280) ppm 7 Gt Kohlenstoff 0,5% 5-10 Jahre 1
Methan 1,7 (0,8) ppm 200-500 Mt C 0,9% 10 Jahre 21
FCKW F11 0,3 (0) ppb   4 % 65 Jahre 3500
FCKW F12 0,5 (0) ppb 1 MT FCKW 0,25% 130 Jahre 7300
Lachgas 0,31 (0,29) ppm 1-7 Mt C 0,25% 100 Jahre 290
Ozon 30 ppb 1 GT 1 % 1-3 Monate 2000

[Christian Dietrich Schönwiese: Das Problem menschlicher Eingriffe in das Globalklima "Treibhauseffekt" in aktueller Übersicht]. In dieser Übersicht fehlt der Wasserdampf, da er keine anthropogene Quelle hat. Er steht aber für 62% des Treibhauseffektes. Das Kohlendioxid macht 22% aus.

Aufgrund der hohen Verweildauer der FCKW in der Atmosphäre und ihrem hohen Treibhauseffekt wurde von Zubrin [Technological requirements for terraforming Mars] schon vorgeschlagen, diese im Großmaßstab zu emittieren. Basierend auf den Daten die wir von der Erdatmosphäre haben, müssten wir um die gleiche Temperatur wie auf der Erde beim Mars zu erreichen müssen wir die Temperatur um 70 K anheben.(von -55°C auf +15°C). Basierend auf den Daten der Erde, müssten wir pro Jahr, wenn wir F12 emittieren, rund 4.500 Millionen Tonnen pro Jahr in die Luft pusten. Dann würden wir in 130 Jahren den obigen Treibhauseffekt erreichen. Das ist die 4.500 fache Menge die wir auf der Erde freisetzen und sie liegt in der Größenordnung was wir derzeit an Kohlendioxid emittieren (7000 MT Kohlenstoff). Da dies rund 7 Milliarden Menschen tun, dürfte klar sein, dass man das nicht so einfach mit ein paar Fabriken erreicht.

Das löst dann zwar das Temperaturproblem, aber dafür wird es nie und nimmer eine Ozonschicht geben. Es kann also keine Dauerlösung sein, sondern nur dazu dienen erst einmal den Mars zu erwärmen. Doch auch dafür ist es keine ideale Lösung, denn die lange Verweilzeit in der Atmosphäre bewirkt, dass wir das Gas sehr lange auf dem Mars haben. Die 130 Jahre beziehen sich auf die Konzentration auf der Erde in einer Sauerstoffatmosphäre, beim Mars mit 4.500 fach höherer Emission wird sie ungleich länger sein.

Besser wäre es daher Treibhausgase wie Kohlendioxid, Methan und Lachgas für die dauerhafte Atmosphäre einzusetzen. Allerdings ist nur Kohlendioxid langzeitstabil. Das in obiger Tabelle 5-10 Jahre angegeben werden, liegt darin dass die Biosphäre laufend Kohlendioxid aufnimmt und es auch im Wasser gelöst wird. Die anderen Moleküle werden dagegen durch UV-Strahlen gespalten und haben auch auf dem Mars nur eine begrenzte Lebensdauer.

Kohlendioxid hat aber einen viel geringeren Treibhauseffekt. Basierend auf dem bekannten Treibhauseffekt auf dem Mars müssten wir den Kohlendioxid-Partialdruck von 5,8 auf 50,8 mb erhöhen, also um rund das neunfache. Das würde bei einer Atmosphäre mit 1000 hpa Bodendruck einem Volumenanteil von 5% entsprechen, Das ist an einer Grenze wo Menschen schädliche Wirkungen spüren. 5% Kohlendioxid führen über kurze Zeit zu Kopfschmerzen, Bluthochdruck und Kurzatmigkeit. Langezeituntersuchungen liegen nicht vor. 8% sind innerhalb 30 bis 60 Minuten tödlich. Die maximalen Arbeitsplatzkonzentrationen liegen bei 0,5%. [Die Technikerkrankenkasse: Rauchvergiftungen durch Gase] [EG: Sicherheitsdatenblatt Kohlendioxid] Damit dürfte man also die Atmosphäre nicht anreichern, wenn wir darin leben wollen. Bei der Erde macht der Wasserdampf den Großteil des Treibhauseffektes aus, 62% gegenüber dem Kohlendioxid mit nur 22%. Überträgt man dies auf den Mars, so kann man die Konzentrationen senken, zumal Wasserdampf in einem anderen "Fenster" absorbiert. Überträgt man die Situation der Erde auf den Mars, so würde es reichen den Kohlendioxidgehalt auf 9 hPa  zu erhöhen, immerhin noch mehr als 20-mal höher als auf der Erde und über den Grenzwerten für die Arbeit (3-5 hPa). Doch zuest müsste es mehr sein, denn Wasserdampf als weitere Treibhausgas bildet sich erst wenn die Temperatur deutlich angestiegen ist.

Sollte es übrigens tatsächlich einmal eine Biosphäre geben, so haben wir eher das Problem den hohen Kohlendioxidgehalt aufrecht zu erhalten, denn Organismen würden es bald in Biomasse umwandeln. Die höchsten Kohlendioxidgehalte gab es bei uns im Jura und der Kreide, als 60% aller fossilen Brennstoffe gebildet wurden. Er lag damals bei 2000 ppm, was bei gleichem Druck rund 2 mb entspricht, also weitaus weniger als der Mars heute aufweist. Entsprechend kann man davon ausgehen, dass der Gehalt über geologische Zeiträume rasch abnehmen wird und wir von irgendwo her Nachschub erzeugen müssen, z.B. über das Brennen von Carbonaten (analog dem Brennen von Kalk bei dem dieser In Kalziumoxid und Kohlendioxid gespalten wird. Als positiver Nebeneffekt: Wir haben mehr als genug gebrannten Kalk für Beton und Zement.

Eine für Menschen atmenbare Atmosphäre

In jedem Falle brauchen wir eine Sauerstoffatmosphäre, wenn Menschen und Tiere auf dem Mars existieren sollen. Bei unter 18% Sauerstoffgehalt lässt schon unsere Urteilsfähigkeit nach [Linde: Kampagne gegen Ersticken] und unter 10% sind tödlich. Wenn wir also wollen, dass die Marsbewohner nicht unter eingeschränkter Urteilsfähigkeit und Kopfschmerzen leiden sollte der Sauerstoffpartialdruck mindestens 180 hPa und der Kohlendioxid Partialdruck unter 50 hPa liegen. Das sind die Grenzwerte. Doch woher soll der Sauerstoff kommen? Bei der Photosynthese passiert in Summe folgendes:

6 CO2 + 6 H2O → C6H12O6 + 6 O2. [Stryer: Biochemie}

Pro Molekül CO2 entsteht also ein Sauerstoffmolekül. Wir würden also um einen Partialdruck von 180 hPa Sauerstoff am Ende zu erreichen, zuerst einmal den Kohlendioxidpartialdruck auf größer als 180 hPa treiben und das ist ein Problem: Es mag noch Kohlendioxid in Wasser gebunden geben, als Clathrate, wie man sie auf der Erde von Methan kennt. Doch dass dies so viel ist, kann ausgeschlossen werden. Auf der Erde werden 1000 Gt in Gashydraten vermutet, vor allem Methan, dass sich viel besser als Kohlendioxid in das Kristallgitter des Wassers einfügt. Auf dem Mars ist die Oberfläche kleiner und es gibt weniger Wasser (was an der Oberfläche beobachtbar ist reicht für einen globalen Ozean mit 29,6 m Dicke, unterirdische Vorkommen sollen bis zu 400 m ermöglichen) [Ulrike Flach: Gashydratforschung fest in die Forschungen „System Erde“ und „Neue Technologien“ integrieren., Nadine Barlow: Mars: An Introduction to its Interior, Surface and Atmosphere]. Doch selbst wenn man diese Zahl auf den Mars überträgt, so würden die 1000  GT den Atmosphärendruck nur um 2,75 hPa erhöhen.

Es fehlt also an Kohlendioxid um durch photosynthetische Prozesse eine Sauerstoffatmosphäre zu generieren. Um die Photosynthese aufrecht zu erhalten, reicht das vorhandene aber aus. Der Stoff denn man auf dem Mars am einfachsten nutzen könnte, wäre Wasser. Wasser kann durch Elektrolyse in Wasserstoff und Sauerstoff gespalten werden:

H2O + 268,8 kJ/Mol → O2 + H2 [Hollemann-Wiberg: Anorganische Chemie]

 Der Mensch müsste also übergehen, in großem Stil Wasser durch Elektrolyse zu spalten, wofür man Unmengen an Energie benötigt (für 1 m³ Sauerstoff mit 180 hPa Partialdruck rund 0,6 kKh, das heißt ein 1000 GW Kraftwerke müssten rund 425.000 Jahre arbeiten um das Wasser zu spalten. Immerhin, davon gibt es genügend.

Dich was würde es bringen? Das ist eine Frage die gerne vergessen wird, denn das die Atmosphäre heute so ist, hat ja einen Grund. Es gibt einen Grund, warum der Druck so niedrig ist und der Kohlendioxidanateil so hoch ist. Verantwortlich sind dafür nicht geologische Prozesse und auch nicht biologische Aktivität. Der Schlüssel zum Verständnis ist der Stickstoff. Stickstoff ist anders als Kohlendioxid oder Sauerstoff ein inertes Gas. Er reagiert nicht mit anderen Gasen, außer bei extremen Bedingungen (Blitze, sehr energiereiche UV-Strahlung wie sie aber auch beim Mars nur in der obersten Atmosphäre vorkommt). Nach den gängigen Modellen sollten alle drei erdähnlichen Planeten aus ihrer Entstehungszeit gleich viel Stickstoff erhalten haben und in der Tat haben Erde und Venus in etwa gleich viel Stickstoff (er macht bei der Venus wegen der dichten Atmosphäre eben nicht 80% sondern nur 3,5% aus) beim Mars ist es aber viel weniger. Warum?

Nun weil der Mars so klein ist, verliert er leichtere Moleküle schneller als die Erde. Das sieht man auch an dem leichten Molekül Neon. Neon, mit Atommasse 23 hat auf der Erde einen Anteil von 20 ppm an einer Atmosphäre mit 1013 hPa Druck (=0,2 hPa Partialdruck) und beim Mars nur 0,2 ppm bei 6 hPa Druck (0,000012 hPa). Auch dieses Edelgas ist inert. (Argon als schwereres Edelgas kann nicht als Vergleich herangezogen werden, da die Hauptquelle auf der Erde der Zerfall von Kalium-40 ist, durch die Aktivität des Planeten bleibt das Zerfallsprodukt Argon-39 nicht im Gestein, beim Mars ist dies nicht gegeben). [Keppler: Die Planeten, Barlow: Mars: An Introduction to its Interior, Surface and Atmosphere].

Der Mars hat sehr frühzeitig seine Atmosphäre verloren. Das sie heute vor allem aus Kohlendioxid besteht liegt darin, dass es mit Atommasse 44 erheblich schwerer als der Stickstoff mit 28 ist. Wie schnell, das ist noch offen, genauso wie diskutiert wird, wie hoch die Atmosphäre in der Frühzeit war. Hier laufen die Schätzungen auseinander zwischen 100 hPa und 3500  hPa. . [Köhler: Der Mars, William Cassata: Trapped Ar isotopes in meteorite ALH 84001 indicate Mars did not have a thick ancient atmosphere]. Die nächste US-Mission MAVEN soll hier weitere Aufschlüsse bringen. Auch Curiosity könnte durch Isotopenmessungen hier einiges beitragen: Da der Verlust abhängig von der Molekülmasse ist, ist es so, dass Moleküle die leichter sind, schneller verloren gehen als schwerere. Nun gibt es in kleiner Menge auch schwere Isotope des Kohlenstoffs (C13 anstatt dem normalen C12) und des Sauerstoffs (O17,O18 anstatt dem normalen O16) und Kohlendioxidmoleküle, die eines dieser Isotope enthalten, dürften daher angereichert sein.

In jedem Falle wird man sich bei einer Zeit von 425.000 Jahren für den Aufbau der Atmosphäre einem Zeitrahmen bewegen, bei dem man diesen Effekt berücksichtigen muss, das bedeutet, man wird die Kraftwerke dauernd weiter betrieben müssen, bis irgendwann mal das Wasser alle ist - doch das führt uns zum nächsten Problem im nächsten Artikel

Zusammenfassung

Eine Roadmap, ungeachtet der bestehenden Probleme, und diese wohlwissend ignorierend, wäre diese:

Zuerst erzeugt man durch die massive Produktion des FCKW F12 einen massiven Triebhauseffekt, der die Temperatur soweit anhebt, dass Wasser flüssig wird (globale Mitteltemperatur um 55°C anzuheben). Dies ist noch in relativ kleinen Zeiträumen, spricht Hunderten von Jahren möglich. Dann kann man daran gehen, das Wasser elektrolytisch zu spalten. Tausende Kernkraftwerke werden dazu benötigt und wir reden von geologischen Zeiträumen (würde man sämtliche Atomkraftwerke der Erde auf den Mars transplantieren, man benötigte 2.000.000 Jahre, das heißt, auf der Erde müsste der Homo erectus diese Aufgabe angegangen haben). Ob es so viel Uran auf dem Mars gibt wäre noch zu klären. Auf der Erde würden die Vorräte auf jeden Fall nicht ausreichen. Schnelle Brüter mögen die Vorräte strecken, doch da bei uns sie maximal einige Hundert Jahre reichen ist es unwahrscheinlich, dass dieser Plan aufgeht. alternativ kann man natürlich Solarenergie einsetzen. Bei 20% Wirkungsgrad und 500 Watt/m² Sonneneinstrahlung am Boden (im Weltall: 618 Watt/m²) braucht man eine Fläche von 20 km² um ein Kernkraftwerk zu ersetzen. (Nacht mit berücksichtigt).

Bedingt durch das teilweise im Wasser gelöste Kohlendioxid würde auch der Kohlendioxidgehalt ansteigen. Das würde zusammen mit dem entstehenden Wasserdampf dann einen stabilen Treibhauseffekt ergeben. Die Wassermenge die so gespaltet wird entspricht einer Schicht von 2,2 m Dicke auf dem Mars. Über diese lange Zeit würde sich auch das FCKW abbauen, sodass sich eine Ozonschicht ausbilden könnte. Allerdings wäre ohne Magnetfeld und bei einer dünneren Atmosphäre, die Strahlenbelastung immer noch deutlich höher als auf der Erde.

Weiterhin gibt es noch ein ungelöstes Problem: Die Atmosphäre wäre eine reine Sauerstoffatmosphäre, ohne Stickstoff. Dieser fehlt auf dem Mars und wir kennen keine unterirdischen Vorkommen. Eine reine Sauerstoffatmosphäre ist aber gefährlich. Brände breiten sich viel schneller aus, wie wir spätestens nach dem Brand bei Apollo 1 wissen.

Offen ist weiterhin, wie lange die Atmosphäre Bestand haben wird. Die Verlustrate der heutigen Atmosphäre ist leider nicht auf eine frühere, dichte, übertragbar. Für eine dichte Atmosphäre gibt es nur Modelle, die differieren. Kass, Yang [Loss of atmosphere from Mars due to solar wind-induced sputtering] kamen zu dem Schluss, dass der Planet 3 Bar Kohlendioxid über 3,5 Milliarden Jahre verloren hat, was wenn dies linear ist, bedeuten würde, dass wir nach dem Aufbau der Atmosphäre nur noch ein Fünfhundertstell der Kraftwerke weiter betrieben müssen, um die Atmosphäre konstant zu halten. Dagegen prognostizieren Cassata et Al  einen Verlust von 1,1 Bar in nur 400 Millionen Jahren [William Cassata: Trapped Ar isotopes in meteorite ALH 84001 indicate Mars did not have a thick ancient atmosphere]. Das ist rund dreimal mehr als im oberen Modell.

In jedem Falle ist der Mars keine Wohnstatt für ewig. Wir verbrauchen dauernd Wasser um Sauerstoff zu gewinnen. Nimmt man die bekannten Wasservorräte und die höhere Verlustrate, so sollte es aber für rund 1 Milliarde Jahre ausreichen.

Was klar ist: Wir reden hier von einer hohen Industrialisierung ohne das die Oberfläche für die Allgemeinheit bewohnbar wäre. Alleine die für die Bildung der Atmosphäre nötigen Kernkraftwerke würden den gesamten irdischen Strombedarf decken können. Trotzdem würden alle Personen die dort arbeiten über Hunderttausende von Jahren nur in Raumanzügen die Oberfläche betreten können. Wahrscheinlich würden die kleinen Kolonien mit Glas überdacht sein, auch um Pflanzen und Tiere zu halten. Bei einer kleinen Kolonie mit isolierter Atmosphäre wäre auch Stickstoff als Füllgas einsetzbar. Auf dem Mars selbst würde es fehlen, was ausgeklügelte Strategien zur Vermeidung der Ausbreitung von Feuern, die ja auch durch Gewitter im Freien entstehen können voraussetzt (wie Wassergräben oder Wüstenstreifen, die Gebiete mit Vegetation in kleine Quadrate unterteilen und eine zu starke Ausbreitung von Feuern verhindern

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99