Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 120: 8.7.2009-15.7.2009

Mittwoch 8.7.2009: Chancen und Probleme

Ruhezustand - Mit Shift beim Anklicken sichtbar gemachtDie Computerindustrie ist in einer Krise. Nicht wegen der aktuellen Wirtschaftskrise, sondern allgemein. An immer mehr Fronten ist zu erkennen, das das Wachstum langsamer wird, wenn nicht Stillstand zu erkennen ist. Seit über 40 Jahren lebt die Branche nach dem Moorschen Gesetz, wonach (je nach Autor sich alle 12-24 Monate alles verdoppelt). Wahlweise Speicherplatz, Geschwindigkeit, Taktfrequenz.

Doch das ist schon lange nicht mehr überall so. Die Taktfrequenzen sind seit Ende 2002 kaum noch angestiegen, zweitweise sogar wieder gesunken. Die 3 GHZ Marke ist eine Grenze die nur noch wenige Prozessoren knacken. Bei der Größe von Festplatten hat sich auch seit 2 Jahren nicht mehr viel getan. Seitdem ist die Datendichte um ein Drittel gestiegen, doch das ist nichts im Vergleich zu den rapiden Zuwächsen zuvor. Wenn es heute 2 TByte Modelle zu kaufen gibt, dann weniger weil mehr pro Platte rauf geht als vielmehr dass nun mehr Platten im Stapel ihre Kreise drehen.

Schlimmer noch sind die Hersteller von PC Prozessoren dran: Zwar können sie noch immer die Integrationsdichte ihre Prozessoren steigern, aber nicht mehr die Leistung pro Kern. Stattdessen werden es immer mehr Kerne. Das Problem: Wer braucht viele Kerne? Die meisten Prozessoren gehen in Desktop PCs. Hier brachte der zweite Kern eine echte Verbesserung: Ein Kern steht nun immer zur Verfügung wenn ein zweiter Kern im Hintergrund beschäftigt ist. (Bei den meisten wohl mit dem Virenscanner, seit ich den Duden Korrektor kenne, würde ich jedem der diese Software auch einsetzt zu einem Zweikernprozessor raten, denn er blockiert nach dem Laden je nach Dokumentlänge recht lange einen Kern).

Doch dann war es das auch schon: Beim Privatanwender ist es äußerst selten das mehr als zwei Dinge gleichzeitig laufen die viel Rechenpower brauchen. Selbst wenn, dann denke ich gibt es schnell andere Dinge, welche die Geschwindigkeit limitieren - es gibt nur eine Festplatte im System und nur einen Speicher und nur eine Grafikkarte - es ist recht unwahrscheinlich, dass ein Prozessor nur rechnet, aber keine Daten von der Festplatte braucht.

Die ct'  Redaktion hatte kürzlich Probleme Software für einen Test von Workstations mit Achtkernprozessoren zu finden, welche alle Kerne auslastet und das dürfte auch so bleiben. Beim Desktop PC wartet der Computer meist auf den Anwender. Und die Anwender haben dies begriffen. Die Sparte die den größten Zuwachs in dem letzten Jahr hatte war bei Intel die Atom Reihe. Die Atom Prozessoren sind Einkern CPU's mit einer stark vereinfachten Architektur und kleiner Taktfrequenz von maximal 1.6 GHz. Je nach Typ ist ein Atom in etwa so schnell wie ein 5 Jahre alter Desktop Prozessor. Zu langsam für Windows Vista. Aber das juckt die Leute nicht. "Its good enough" - er steckt in den Netbooks und es gibt schon 200-300 PCs für den Desktop mit ihm. Fürs Surfen vollkommen ausreichend.

Das Gegenteil ist ein Projekt von Intel, dass sehr viele Recheneinheiten (nicht Kerne, da sie nicht unabhängig ein Programm ausführen können) auf einen Prozessor zu packen. Intel will damit den Grafikchips Konkurrenz machen bei denen bis zu 512 Recheneinheiten werkeln. Umgekehrt versuchen diese die Recheneinheiten als Prozessorersatz anzubieten für Dinge die immer gleiche verlaufen. Bei einigen Anwendungen bei denen das möglich ist wie das Knacken von Schlüsseln für Passwörter oder Videokodierung sind die schnellsten Grafikkarten etwa 30 mal schneller als der schnellste Intel Prozessor.

Doch auch dies wird nur einen Teil der Anwender interessieren. Auch wenn die Spielebranche es nicht wahrhaben will: Die meisten PCs werden nicht zum Spielen gekauft und die Zahl der echten Gamer die viel Geld für eine leistungsfähige Grafikkarte ausgeben ist klein.

StandbyWie wird es in Zukunft weitergehen? Nun man weiß es nicht. Vielleicht hier mal meine Idee, was ich für eine gute Vorstellung halte:

Es wird noch mehr unterschiedlich leistungsfähige Prozessoren als heute geben. Waren es vor 15 Jahren zwei Familien (386 und 486) mit unterschiedlichen Taktfrequenzen, die vielleicht in der Leistung um den Faktor 5 auseinander lagen so ist heute der Unterschied zwischen einem Atom und einem Achtkern enorm - nicht nur in der Leistung, sondern auch im Preis. Viel mehr als heute werden sich vielleicht PCs in der Nutzung unterscheiden. Was ich mir wünsche ist, dass sich in Zukunft dann auch wieder clevere Lösungen durchsetzen. Schicke PCs die leise sind und klein. Dann eben nicht ausbaubar, Vor allem denke müssen auch intelligente Lösungen zum Energiesparen her. Bei den Prozessoren hat sich da ja einiges getan. Anstatt 90-105 Watt wie vor einigen Jahren verbraucht das Groß nur noch 35-65 Watt. Aber die Prozessoren sind nur ein Aspekt. Wenn dieser in den Idle zustand geht läuft trotzdem die Festplatte weiter und das Display leuchtet in voller Helligkeit. Ich würde mir hier intelligentere Lösungen denken. Displays, die wenn ab einer bestimmten Zeit keine Benutzeraktivität kommt langsam dunkler werden und sich schließlich abschalten. Festplatten mit Flash Pufferspeicher, die sich nach kurzer Inaktivität abschalten und zuerst die (voraus gelesenen Daten) aus dem Cache liefern wenn sei wieder anlaufen. DRAM Speicher mit Flash Speicher als Kopie, der den Inhalt umkopiert wenn längere Zeit kein Zugriff kommt und dann die Stromversorgung abschaltet.

Gerade mit Flash Speicher als Reservespeicher könnte man den Ruhezustand recht nützlich gestalten. Sie kennen sicher auch den Ruhezustand (wenn nicht drücken sie mal auf die Shift Taste, wenn sie das Dialogfeld für Herunterfahren haben. Damit wird der gesamte Inhalt des Computers auf die HD gesichert und nach dem Neustart wird er restauriert. Das finde ich ist eine tolle Sache. Ich nutze es aber nur wenn ich weiß, dass ich mal ne Stunde weg vom PC bin. Der Grund : Erst durchläuft der PC den üblichen Boot Vorgang und dann wird der Inhalt restauriert. Das dauert bei 2 GB Speicher und einer nicht so modernen Festplatte alleine etwa ne Minute. Wenn es sehr schnell in Flash RAM umkopiert werden könnte und ein Motherboard erkennen kann beim Einschalten, dass der Computer zuletzt im Ruhezustand ausgeschalten wurde (und dann den Boot Vorgang verkürzen würde). Dann wäre das eine tolle Sache, die auch automatisch bei längerer Abwesenheit des Benutzers initiiert werden könnte.

Bleibt noch der letzte Stromfaktor: Die Grafikkarte. Eine Grafikkarte verheizt bei einem Spiel viel Energie, aber sie braucht auch viel wenn kein Spiel läuft, obwohl hier nur ein Teil ihrer Rechenleistung gefordert ist. Das ist höchst ineffizient, vor allem haben viele PCs eine Grafikkarte des Low- und MiddleSgements an Bord, damit man ab und an ein PC spielen kann, wenn auch nicht gerade den neuesten Ego Shooter. Doch anders als bei den Gamern wird da die Grafikkarte im Desktop Alltag noch weniger gefordert. (Die Gamer geben zwar viel für ihre Karte aus, aber die spielen dann auch wenigstens den ganzen tag). Es gibt schon heute eine Lösung: Die Chipsatz Grafik macht im Normalfall die Bilder bei normalen Windows Anwendungen und schaltet dann die Grafikkarte ab. Wenn ein Spiel laufen soll so wird die Grafikkarte aktiviert und die Chipsatzgrafik deaktiviert- eine intelligente Lösung, funktioniert aber nur wenn beides vom selben Hersteller stammt. aber besser wäre es auch hier wenn die Grafikkarte selbst intelligent genug wäre. Zum Beispiel kann man 2D und 3D Teil trennen, genauso den Videospeicher und dann die Hauptverbraucher (GPU und der größte Teil des Speichers) abschalten.

Nachhaltigkeit ist ein gutes Stichwort. Die PC Branche hat noch nicht die Energieproblematik erkannt. Dabei sind Computer inzwischen für einen guten Teil unseres Stromverbrauchs verantwortlich. Wo reagiert wurde, da nicht aus dem Bewusstsein heraus, Energie einzusparen, sondern weil äußerer Druck kam: Intel bekam irgendwann einmal massive Probleme die erzeugte Abwärme mit Kühlern abzuführen und noch größere Gehäuse gingen einfach nicht mehr um noch größere Kühler aufzunehmen. Gleichzeitig steig diese Verlustleistung exponentiell mit der Taktfrequenz. Daher gab es ein Umdenken. Das zweite war, dass Rechenzentren genau das gleiche Problem hatten und in den Gesamtkosten nun die Klimaanlagen und Stromrechnungen einen immer größeren Posten ausmachten - Da konnte sich IBM mit umgebauten Embedded PowerPC Prozessoren einige Einträge in er Top 100 Liste sichern, denn diese verbrauchten pro TFlop erheblich weniger Stroms als Intels Renommee Exemplare.

So wird es auch bei anderen Herstellern wohl erst noch Druck geben müssen, das ein Umdenken erfolgt. Die Wirtschaftskrise kann ein solcher Druck sein - der Hersteller dessen Produkte innovativ aber auch energiesparend sind hat sicher einen Vorteil in einem nun viel kleineren Markt und kann so überleben. Nicht alle haben das allerdings kapiert: So hörte ich in einem Beitrag über Grönlands IT Szene, dass dieses Land allen ernstes sich anpreist als Server-Standort: Kalte Luft zum kühlen gibt's in Masse, die Klimaanlage kann entfallen (Warum benutzt ihr nicht wenigstens die Server Farm als Blockheizkraftwerk?)

Freitag 10.7.2009: Die Geschäftsgebaren eines Wurstherstellers

Gestern bekam ich eine E-Mail eines Anwalts der einen Betrieb vertritt der Würste herstellt.

Ich habe ja vor knapp 2 Monaten mich mit dem Sinn und Unsinn eines Werbespots von Jörg Pilawa auseinander gesetzt. Da wurde ich schon vom Marketing dieser Firma angeschrieben, die mich als "Verbraucher" belehren wollte, dass ich mich irre. Ich habe der Dame dann geantwortet, dass es durchaus nicht Handelsbrauch ist, die Stoffe deren Abwesenheit, die im Spot so bewerben, in eine Wurst hinein zu tun und man dies durchaus als Werbung mit Selbstverständlichkeiten ansehen kann.

Nun bekam ich Post vom Rechtanwalt. Ohne der Firma nahetreten zu wollen: Ich würde den Rechtsanwalt wechseln. De Fakto hat er nämlich nichts Eigenständiges gemacht, sondern vielmehr nur das weitergegeben was man ihm gesagt hat und dafür wird er sicher eine Rechnung stellen. Die Firma scheint in Zeichen der Krise ja in Geld zu schwimmen, so dass sie es sich leisten kann. Aber vielleicht, nur mal vielleicht, hätte man für das Geld auch erwarten können, die betreffende Seite durchzulesen. Dann wäre dem Rechtsanwalt folgendes aufgefallen:

Nun fragen sie sich was ich gemacht habe. Ich denke ich habe immer noch recht mit meiner Kritik. Der wesentliche Punkt ist, dass die Werbung (Abwesenheit von Gluten, Laktose, Farbstoffen und Geschmacksverstärkern) eine Werbung mit Selbstverständlichkeiten ist. Der Hersteller sieht das anders und es mag auch bei der industriellen Wurstproduktion so sein. Relevant ist aber die Gesamtheit des Markes, und die besteht nicht aus einigen wenigen großen Herstellern, sondern vor allem aus den vielen Tausend kleinen Metzgereien und Fleischereien. Von denen die meisten die Tricks der Großindustrie nicht kennen oder nicht anwenden wollen und ihre Produkte nach traditionellen Rezepten herstellen. Das habe ich dann auch nochmals deutlich gemacht. Einen Beweis für seine Behauptungen kündigte der Anwalt zwar an, blieb sie aber schuldig. Internet-Ausdruck wie angekündigt als Maß des Herstellerbrauches zu nehmen dürfte auch problematisch werden, wenn das Groß der Fleischereien keinen Internetauftritt hat und es schriftlich vorliegende Rezepturen, das deutsche Lebensmittellexikon und die Leitsätze gibt.

Der zweite Teil war die Kontrolle durch Fresenius. Da diese eigentlich nichts mit dem Spot an sich zu tun hat, habe ich den Teil weitgehend gelöscht und nur den Hinweis gelassen, dass eine Kontrolle der Abwesenheit von Stoffen, wenn man genau weiß, das man sie nicht hinzugefügt hat, recht sinn frei ist.

Den Aufsatz habe dafür ergänzt, was in der Werbung fehlt: Nämlich ob die Wurst qualitativ hochwertig ist oder nicht. Das wird an ganz anderen Werten festgemacht, die weder in der Werbung hervorgehoben werden, noch von Fresenius kontrolliert werden. Dreh und Angelpunkt ist der BEFFE Wert, den Anteil an bindegewebsfreiem Eiweiß (größtenteils Muskelfleisch). Bei der Recherche über die Wurst (die es hier in Süddeutschland nicht zu kaufen gibt) bin ich auch auf eine Greenpeace Seite gestoßen. Die haben eine Anzeige in deren Stil nachgestellt. Da wird dann klar, was man über die Produkte vermutet: Wurst aus Schweinefleisch aus Massentierhaltung gefüttert mit genamnipuliertem Soja. Na dann Mahlzeit!

Nun fragt sich der geneigte Leser, was ich getan habe? Ich habe mich an ein anderes aus der Vorlesung Internetrecht erinnert: "Legen sie sich nicht mit Unternehmen an die einen siebenstelligen Jahresumsatz haben". Die können es sich nämlich leisten auch zu prozessieren wenn sie verlieren. Allerdings sehe ich auch keinen Grund den Artikel zu löschen wie gefordert. Ich habe ihn überarbeitet und ein paar Kraftausdrücke entfernt. Die beiden Punkte die angesprochen wurden habe ich verbessert. Bei der Überwachung durch Fresenius war das einfach, denn es hat eigentlich nichts mit der Werbung zu tun, um die es ja geht. Also den Teil einfach gelöscht (und damit auch positive Aussagen über das Analysenprogramm der Firma, aber sie wollten es ja so, weil sie nicht die Seite durchgelesen haben). Und bei der Werbung mit Selbstverständlichkeiten die Klarstellung, dass diese Zutaten in handwerklich gefertigter Wurst, die nicht von einem industriellen Großbetrieb kommt (und die dann stolz sind mal vier von was weiß ich wie vielen zugelassenen aber nicht vom Verbraucher in Wurst vermuteten Stoffen weggelassen haben) anders zusammengesetzt ist.

Damit sind die beiden Kritikpunkte geklärt und nach meinem Rechtsempfinden kann man wegen 3 Sätzen in einem rund dreiseitigen Dokument nicht die Lösung des ganzen Dokumentes verlangen.

Samstag 11.7.2009: Es wurde auch Zeit....

Am 26.6.2009 verlautbarte die ESA, dass sie ihr Bodennetzwerk durch eine dritte Station für "Deep Space" Sonden komplettieren. Eine neue Bodenstation in Argentinien, 1000 km westliche von Buenos Aires soll ab Mitte 2012 zur Verfügung stehen. Und dafür wurde es Zeit. Meiner Meinung nach hätte diese schon vor dem Start von Herschel und Planck zur Verfügung stehen sollen, und nicht erst wenn diese ihre Primärmission schon beendet haben. Es gibt zwei sehr wichtige Gründe mindestens drei Bodenstationen und vielleicht sogar noch mehr. Das eine ist, dass man nur mit drei Bodenstationen eine volle zeitliche Überwachung garantieren kann. Theoretisch würden zwei reichen, wenn sie sich um genau 180 Längengrade voneinander entfernt sind, doch dann gibt es immer noch den Effekt dass eine Sonde sehr nahe des Horizons sich befinden kann und das Signal stark gestört ist. Im Regelbetrieb einer Raumsonde hat man oft einen Orbit bei dem jeden Tag zur gleichen Zeit die Funkverbindung zur Erde aufbaut. Bei Venus Express in ihrem 24 Stunden Orbit ist dies besonders einfach möglich.

Doch es gibt kritische Manöver die man zeitlich nicht so einfach legen kann, wann es einem passt - Das Einschwenken in die Umlaufbahn z.B. Bislang hat die ESA hier auf NASA Hilfe zurück gegriffen. Das ist nun nicht mehr nötig. Es kann aber auch der Fall vorliegen, dass dies technisch nicht möglich ist. Ich kann mir z.B. schlecht vorstellen, dass man Rosetta in einen 24 Stunden Orbit um Churymasov-Geramisenko lenken wird können.

Ein zweiter echt wichtiger Grund ist aber, dass man um bei vielen Sonden jede bedienen zu können, mehrere Stationen braucht. Bei den üblichen 8 Stunden Kontaktzeit pro Tag wäre zwar eine Station für zwei Sonden gut (Zeit zum Neuausrichten mit eingeschlossen) Doch was macht man, wenn zwei Sonden gleichzeitig im selben Sektor sind? Dann muss man das Zeitfenster zwischen beiden Sonden aufteilen, denn mehr als 12 Stunden ist keine Sonde von der Station aus zu sehen. Wenn es drei Sonden im selben Sektor sind (leicht erreichbar bei Marsmissionen), dann wird es schon problematisch.

Die ESA hat jetzt zwei Bodenstationen für vier aktive Missionen (Herschel, Planck Venus Express und Mars Express), dazu kommt Rosetta mit derzeit niedrigem Bedarf an Support.  Eine ganze Reihe von Sonden kommt in den nächsten Jahren dazu: Lisa-Pathfinder, Eddington, Solar-Orbiter, Bepi-Colombo, Exomars, Gaia und Xeus. Dafür sind selbst drei Antennen zu wenig. Die NASA betreibt an drei Standorten insgesamt 15 Antennen: Je 3 26 und 70 m Antennen und neun 34 m Antennen. Also fünfmal mehr Antennen als die ESA. Sicher hat die NASA mehr Raumsonden, aber nicht fünfmal so viele wie die ESA.

Das wäre zu verstehen wenn die Antennen schweineteuer sind - aber die letzte bei Cebreros kostet 30 Millionen Euro. Das ist bei Weltraumprojekten ein Trinkgeld. Kürzlich vergab die ESA eine Studie für einen Studie für ein Triebwerk, die kostete auch 30 Millionen Euro und in den nächsten drei Jahren fließen 335 Millionen Euro in die ESC-B obwohl keine Hardware gebaut wird, nur so mal um die Fixkosten abzudecken.

Wenn ich dran denke, das Herschel und Planck zusammen ein 1700 Millionen Euro Projekt sind, dann müssten da noch 30 Millionen Euro für eine eigene Empfangsstation mit drin sein - das sind weniger als 2 % der Projektkosten.

Was gibt es sonst noch? Mir fällt so langsam auf dass die USA ein Problem haben - sie wechseln viel zu schnell ihre Trägerrakete. Ich arbeite ja gerade an einem Trägerraketenlexikon. Obwohl ich mich in Teil 1 nur mit den US Raketen beschäftige habe ich schon 290 Seiten mit 72 Subtypen zusammen - und das ist noch nicht das Ende. Es kommen sicher noch 15-20 weitere dazu. Ich habe beim Schwimmen mal im Kopf so überschlagen wie groß dann Band 2 mit den russischen Raketen wird und kam bald drauf, dass selbst wenn ich noch China, Europa und den Rest hinzunehme, ich immer noch auf weniger Subtypen komme, so etwa 70. Die USA haben also mehr Raketentypen in Dienst gestellt als der gesamte Rest der Welt - und das will was heißen. Will doch heute jeder seine eigene Trägerrakete entwickelt. Daran ändern tut sich nichts: Wie ich gerade nach der Recherche für die Taurus II festgestellt habe, ist auch deren Zeit begrenzt: Dadurch dass man sie mit den NK-33 Triebwerken antreibt ist ihre Lebensdauer begrenzt: Es gibt noch 66 Exemplare die für maximal 33 Flüge reichen.

Erfreulicherweise kommt nun auch mein drittes Buch "Was ist drin" so langsam in die Puschen und das vierte (Europäische Trägerraketen) wird nun bei Amazon mit Bild gelistet und ist in 4-7 Tagen lieferbar. Mal sehen wie dieses Stück Arbeit, dass mich die letzten sechs Monate viel Freizeit gekostet hat aufgenommen wird. Eigentlich habe ich ja noch anderes zu tun - Mein Launchlog müsste noch erweitert werden, schon alleine für die Charts die ich für die Bücher brauche. (Openoffice Calc streikt bei Grafiken in Printqualität). Aber ich schaue mal wie ich das noch reinschiebe. Wenn das Buch bei den Korrekturlesern ist kann ich ja mal ne Pause machen, obwohl ich denke ich bin inzwischen schon buchschreibsüchtig geworden - ich komme nicht mal zum lesen. Gestern beim Sortieren fiel mir auf, dass ich einen ganzen Stapel von Zeitschriften und vier Bücher durchlesen sollte...

Dienstag 14.7.2009: SpaceX - mal wieder.

Also ehrlich gesagt, ich hätte mir etwas mehr Interesse an dem philosophischen Thema von Thomas. Ich muss sagen, dass ich alles viel pragmatischer sehe: Weltraumfahrt umfasst für mich das was in absehbarer Zeit verwirklichbar ist. Kolonisierter gehören zu Science-Ficton und einige Abenteurer Vorstellungen auch. Obwohl auch Weltraumfahrt, finde ich den Teil der Merchants betrifft nur bedingt interessant. Kommunikationssatelliten mögen wichtig sein, aber nicht besonders faszinierend. Ich bin nach der Einstufung wohl eine Mischung von Forscher und Techno-Freak, aber sicher mehr Forscher.

Doch nun mal dass Buzz Word rausgezogen für hohe Blog Lesequoten - SpaceX. Die haben nämlich heute ihren letzten Start einer Falcon 1 durchgeführt - erfolgreich. Aber da sie schon im nächsten Jahr durch die Falcon 1e abgelöst werden soll wird sie trotzdem in Erinnerung bleiben als eine der Raketen mit der schlechtesten Zuverlässigkeit (und dies obwohl ihr Prospekt doch so die Zuverlässigkeit eher ausstreicht).

Da ich für mein aktuelles Buch wieder mal die SpaceX Website nach Infos abgegrast habe, fiel mir wieder mal wieder auf wie dort nicht alles zusammen passt. Da soll die Falcon 9 komplett wiederverwendet werden und man gibt an 50 Triebwerke pro Jahr zu fertigen. Wenn sie wieder verwendet wird, reichen deutlich weniger. Die Wiederverwendung wurde schon beim Merlin 1B angegeben, doch wie soll das bei einer ablativ gekühlten Brennkammer gehen? Da steht seit Januar eine Falcon 9 auf der Startrampe - und zum gleichen Zeitpunkt sind weder Startanlagen fertig (die Fortschritte tauchen erst jetzt in der SpaceX Website auf) noch die Triebwerke zuende getestet. Aber für die Öffentlichkeit den Eindruck erwecken, man könnte gleich starten. Einer der wenigen privaten Kunden, Avanti Kommunikcations sieht das anders: Die Firma hat ihre Starts von der Falcon 9 auf die Ariane 5/Sojus umgebucht: Die können wenigstens starten und das noch erfolgreich....

Was mich aber nervt sind die falschen Angabem, das ist ja noch schlimmer als früher bei den Sowjets. Da gab es wenigstens keine Angaben. Aktuelles Beispiel: Ich suche im Falcon 9 User Guide nach Angaben für die Stufen. Dort entnimmt man dann, dass alle Nutzlastangaben für eine "Block II" Falcon gelten, also ein noch zu entwickelndes Exemplar mit stärkeren Triebwerken und mehr Treibstoff: Alle Angaben über Masse und Brennzeit sind aber für das derzeitige "Block I" Design - Errechnet man nur den Treibstoffverbrauch von Block II, so wiegt alleine der Treibstoff mehr als die ganze Rakete.

Ach ja Nutzlastangaben. Wie schon prognostiziert: Die Nutzlast nimmt wieder ab. Nachdem sie von 8700 kg auf ein Maximum von 12410 kg anstieg fällt sie nun wieder. Derzeitiger Stand 10450 kg. Warum fällt das eigentlich nur mir auf? Nehmen wir mal an die ESA würde mal ankündigen die Nutzlast der Ariane 5 läge mal bei 8700 kg, mal bei 12.400 kg mal bei 10400 kg - was würde man da denken?

Inzwischen redet SpaceX auch nicht mehr vom Jungfernflug der Falcon 9 in diesem Sommer sondern nur noch von "in diesem Jahr". Ach ja im Jahre 20005 war noch die Rede von "Herbst 2007". Aber dafür gibt es ja ein Launch Manifest, dass 20 Flüge in den nächsten 5 Jahren vorsieht. Ist es nicht erstaunlich, dass Leute ein gut dokumentiertes geschichtliches Ereignis, über das es eine Unmenge von Büchern, Filmen und Audiomaterial gibt (Mondlandung) anzweifeln und sich keiner über diese Firma mukiert, die weder fähig ist, konkrete Angaben über ihre Raketen zu machen, noch Terminpläne einzuhalten, geschweige denn die Angaben nicht laufend zu revidieren. Wenns nicht so traurig wäre, dann wäre SpaceX eine echte Lachnummer.

Immerhin - und da schließt sich der Bogen zum Beginn: SpaceX hat sehr schnell von den anderen "Profiteuren" gelernt: Von kommerziellen Starts ist schon lang keine Rede mehr. NASA COTS Aufträge machen fast alle Flüge aus, und inzwischen mobilisiert Elon Musk sogar seine Fangemeinde damit er bemannte Flüge durchführen kann - die spülen noch mehr Geld in die Kasse.

Was gibt es sonst noch? Mein erstes eigenes Exemplar vom Buch Europäische Trägerraketen Band 1: Von der Diamant zur Ariane-4 - Europas steiniger Weg in den Orbit. Das erste was ich geschaut habe war ob die verrutsche Abbildung hoffentlich die einzige im Buch - und sie war es zum Glück auch. Die DLR will wieder keine Rezension bringen - sie hat nach 2 Jahren das Raketentypenbuch von Eugen Reichl entdeckt und muss nun noch seinen Typenkompass rezensieren und zu viel Weltraumfahrt darf wohl nicht vorkommen. Ich hoffe nun noch auf die SuW, die ich beim dritten Anschrieben immerhin zum Anfordern eines Rezensionsexemplars gewinnen konnte. Weil das Buch nicht automatisch in die Bücherläden wandert, ist es wichtig dass es jemand bekannt macht, sonst verkauft es sich nie. Beim nächsten Buch bin ich fast durch mit dem Daten sammeln, so dass ich in dieser Woche noch ans Korrekturlesen gehen kann. Es werden wohl so um die 384-388 Seiten werden, aber zum gleichen Preis wie das letzte Buch, also rund 20 % mehr Inhalt.

Mittwoch 15.7.12009: Der Fehler des linearen Denkens

Ich habe ja eine neue Seite online gestellt, in denen man empfehlenswerte Raumfahrtbücher angeben kann. Nicht ohne Hintergedanken: So kann ich auch meine eigene Bibliothek ergänzen. Die drei älteren von Michel Van empfohlenen habe ich mir dann auch gleich über Amazon Marketplace bestellt. Man merkt da wie optimistisch 1973 die Zukunft noch gesehen wurde: Nukleare Triebwerke - Einsatzbereit vor 1980. Was dann kommt? Marslandung, Flug zu den äußeren Planeten und bald drauf dann die erste interstellare Reise. Steinhoff ist da nicht der einzige. Ich kann mich noch an ein Kinderbuch erinnern in dem so um das Jahr 1972 die Welt im Jahre 2000 beschrieben wurde - mit fliegenden Autos, Wohnen auf dem Meeresgrund, Roboter als Haushaltshelfer. Warum sahen alle diese die Zukunft so optimistisch? Weil sie alle linear weiter gerechnet werden. Beispiel Raumfahrt: Man hat in 10 Jahren den Mond erreicht, die Nutzlast von Trägerraketen von 1 auf über 100 t gesteigert und wenn man das so linear weiter rechnet ist man eben 10 Jahre später bei 3000 t für eine Marslandung.

Beispiel allgemeines Leben: Nach dem Krieg gab es sowohl in den USA wie auch bei uns eine enorme Veränderung des Alltags - elektrisch betriebene Geräte zogen überall ein und ersetzten mechanische und machten das Leben leichter - Staubsauger, Kühlschrank das alles kannte man vorher nicht im Privathaushalt. Erstmals konnten sich breite Schichten der Bevölkerung ein Auto leisten. Wenn man dies linear weiter spinnt kommt man eben darauf dass auch bald das Flugzeug für jeden zur Verfügung steht oder Roboter alles übernehmen.

Beide Vorstellungen sind nicht eingetreten. Warum? Bei der Raumfahrt hat man schlicht und einfach vergessen, dass diese Steigerung nur mit enormen Mitteln möglich war. Während des Apollo Programms lag das NASA Budget über Jahre bei 3-5 % des Gesamthaushalts. So viel Geld für ein einzelnes wissenschaftliches Programm gibt es nicht über Dekaden. Vor allem würde natürlich eine weitere Nutzlaststeigerung in der Form auch eine Steigerung der Finanzmittel notwendig machen.

Bei der Allgemeinen Betrachtung hat man außer acht gelassen, dass Produktivität nicht endlos gesteigert werden kann und vor allem immer mehr Ressourcen benötigt werden - die sind aber limitiert und so steigen deren Preise an - was schlicht und einfach Energie aufwendige Projekte wie fliegende Autos (die wohl nur mit Helikopterantrieb möglich wären) unmöglich macht.

Die lineare Denkweise vergisst aber auch etwas: Sie kann nur das vorhersehen was es heute schon in Ansätzen gibt. Nahezu jede Veröffentlichung über die Zukunft hat damals die Computertechnik vollständig unterschätzt - obwohl es diese schon gab und sie laufend leistungsfähiger wurde. Aber sie war damals immer noch nicht leistungsfähig genug um sie ohne Programmierkenntnisse bedienen zu können und benötigte immer noch ganze Räume. Was man dachte waren Fortentwicklungen des Fernsehens - Gespräche über Bildtelefon, heute würden wie Videokonferenzen sagen. Aber dass jemand an so etwas wie das Internet gedacht hat, oder dass Leute Tage  vor dem Computer WoW spielend verbringen - das habe ich noch nie gehört.

Was lernen wir daraus? Zukunftsprognosen sind sehr schwierig, wenn nicht unmöglich. Die einzige Prognose de ich wagen werde ist: Die Menschheit wird weiter wachsen, weil sie dass seit Jahrtausenden tut. Sie wird noch mehr Natur in "Agrarland" verwandeln, solange bis jeder bewirtschaftbare Flecken genutzt wird, sie wird die Ressourcen (fossile Brennstoffe, Metalle) verbrauchen bis keine mehr da sind. Warum? Weil sie so seit Jahrtausenden verfährt. Eine Ende wird nur eintreten, wenn dies nicht mehr geht - wenn einfach die Fläche nicht mehr ausreicht für ein weiteres Wachstum, die Rohstoffe erschöpft sind. Doch was dann passiert- das glaube ich kann keiner vorhersehen. Ich vermute mal es wird so gehen wie auf der Osterinsel, auf der die Menschen schon vor Jahrhunderten mit einem begrenzten Biotop konfrontiert waren und nichts gegen ihren Untergang tun konnten. Mehr dazu hier (ganz nach unten scrollen).


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99