Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 242: 12.8.2011 - 18.8.2011

Donnerstag den 12.8.2011: Die Bibel

Nein, es geht heute nicht um einen religiösen Blog, sondern etwas worüber ich beim Stöbern bei Amazon gestolpert bin. Es ging um das Buch Ernährung des Menschen von Ibrahim Elmadfa, das gemischte Kritiken bekam. Die größere Zahl verriss es und die anderen lobten es. Dabei fiel mehrmals der obige Ausdruck, den ich noch aus meiner Studienzeit kenne.

Unter Studenten ist eine "Bibel" ein Fachbuch in dem alles drin steht, was man für ein Fach benötigt, vorzugsweise um die Prüfungen zu bestehen. Meistens geschieht dies aus persönlicher Sicht, weil der Dozent sich nach dem Buch orientiert oder noch schlimmer der Autor dessen ist. Doch eine echte Bibel ist über eine Uni heraus bekannt und akzeptiert und auch von der Fachwelt als "Bibel" anerkannt. Nun was sind die Eigenschaften solcher Bücher? Meiner Ansicht nach folgende:

Es gibt daraus einige Folgerungen. Es wird schwer für ein Buch eine Bibel zu werden, wenn es ein einführendes Buch ist, oder das Fachgebiet sehr weitgefasst. So gibt es prominente Lehrbücher für anorganische Chemie und organische Chemie, wie z.B. den Hollemann-Wiberg, Dickerson-Gray oder Morrison-Boyd (oftmals werden die Bücher von mehreren Autoren geschrieben). Aber weil sie sich an Studenten wenden, die noch in den ersten Semestern stecken, sind sie mehr belehrend, als Fachbücher. Eine typische Bibel ist mehr ein Nachschlagewerk als ein Lehrbuch.

Die Chancen stehen viel besser, wenn es erst von einem höheren Semester gelesen werden können oder sich gleich an Fachleute wenden. Charakteristisch ist auch, dass sie viel Zahlenmaterial enthalten mit dem Studenten erst mal nichts anfangen können, weil es zu sehr ins Detail gehen würde, aber das für Profis wichtig zum Nachschlagen ist.

Bei Fachleuten kann ein Zitat aus der Bibel sehr schnell eine Diskussion beenden nach dem Motto "In XYZ auf Seite 123 steht aber da etwas anderes". Wie schon gesagt gibt es nur wenige echte Bibeln. Für Studenten einer Uni, in der ein Lehrbuch in den Vorlesungen verwendet wird, mögen dieses als die Bibel schlechthin ansehen, doch wenn man im fortgeschrittenen Semester ist oder das Studium beendet hat, sind sie weitgehend nutzlos. Ein Kriterium ist daher, dass es auch nach dem Studium nützlich ist. Also von den Büchern die ich habe würde man wohl nur zwei als "Bibeln" bezeichnen. Das eine ist "Strasburger, Lehrbuch der Botanik" und das andere ist "Belitz, Grosch, Lehrbuch der Lebensmittelchemie". Beide sind gepackt mit Informationen, in der Fachwelt akzeptiert und für Außenstehende nahezu unlesbar. Selbst ich lese den Belitz-Grosch nicht einfach so, sondern schlage konzentriert nach.

Zurück zum Einstieg: Ist Elmadfas Buch eine Bibel? Meiner Ansicht nach nicht. Es ist zwar nicht so geschrieben, dass man es als Unbedarfter lesen kann, aber für mich als chemisch vorgebildeten eigentlich nicht unverständlich. Gegenüber dem Belitz Grosch sogar richtig flüssig lesbar. Ich konnte allerding nicht erkennen, dass es außerhalb des Wirkungskreises von Elmadfa bekannt und akzeptiert ist. Im Gegenteil, viele andere verweisen auf andere brauchbare Bücher. Vor allem aber ist es nicht vollständig. Es behandelt nur ein Teilgebiet der Ernährungslehre, es fehlt die komplette Lebensmittellehre. Vielleicht war das auch der Grund, warum ich es damals kaufte, denn der ist ja Bestandteil auch meiner Ausbildung und so weitgehend überflüssig.

Samstag 13.8.2011: Schlacke

Ich lese mich gerade wieder in die Ernährungslehre ein, vor allem in Ernährungsformen. Es gibt ja zahlreiche alternative Ernährungsformen. Neben Nahrungsformen, die nicht nur akzeptiert sind, sondern die sogar von der Ernährungsforschung begrüßt werden (wie die gemäßigte Firm des Vegetarismus bei dem nur auf Fleisch verzichtet wird, aber Milch und Eier erlaubt sind) gibt es zahlreiche extreme Formen, bei denen nur bestimmte Nahrungsmittel erlaubt sind, es zeitliche Einschränkungen oder nur bestimmte Zubereitungsarten gibt, die erlaubt sind.

Viele dieser Empfehlungen gehen zurück auf Ärzte oder Propagandisten, die sie zu einer Zeit (viele vor mehr als 100 Jahren) aufstellten, als man noch wenig über die chemischen und biologischen Vorgänge bei der Verdauung wusste bzw. was wichtig für den Körper ist. Hier zwei Beispiele:

Die Waerland-Kost

Sie geht auf den gleichnamigen Finnen/Schweden zurück, der in einer an die Ernährung aus dem Himalaja angelehnten Ernährung von Kopfschmerzen, Magenschmerzen und Verstopfung gesundete. Wie üblich wird dann ein philosophisches Bild gesucht, um das zu untermalen. Hier ist es das der Schlacken. Ich fand den Begriff schon suspekt als ich mit glaub ich 15 zum ersten Mal davon hörte, weil es irgendwie so klingt als wäre der Körper ein Hochofen. Schlacken sollen sich in Geweben ablagern. Im Darm sollen sich Fäulnisprozesse etablieren und das Blut sollte übersäuern wenn man die übliche Mischkost ist. Linderung bringt die Umstellung auf Rohkost, ergänzt durch Milch, Sauermilch, Quark und Vollgetreide.

Wir wissen natürlich heute, dass es keine Schlacken gibt. Im Stoffwechsel gibt es Kreisläufe, in denen umgebaut und abgebaut wird. Es gibt Endprodukte die ausgeschieden werden, aber keine Schlacken. Wenn was abgelagert wird, dann ist es Fett um die Organe, das ist heute auch als Gesundheitsrisiko bekannt. Zu dem kommt es bei der Kost nach Waerlandt sicher nicht, denn diese ist relativ ballaststoffreich und sättigend. Zu viel essen kann man da  sicher nicht und sie kuriert natürlich Verstopfung und ohne viel Fett verweilt sie auch kurz im Magen, was die Magenschmerzen von Waerlandt besserte. So ist der gesundheitliche Effekt auf Waerland durchaus erklärbar. Allerdings ist sie auch arm an den Mineralstoffen Eisen, Jod und Calcium. Andere Stoffe liegen gerade an der Bedarfsdeckung, weshalb sie für Schwangere oder Kinder/Jugendliche noch ungeeigneter als für Erwachsene ist.

Die Theorie der Übersäuerung hat sich übrigens länger gehalten und taucht auch heute ab und an auf. Diese basiert zum Teil auf wissenschaftlichen Erkenntnissen. Wenn die Nährstoffe abgebaut wenden entstehen Stoffwechselprodukte, die entweder leicht sauer oder leicht basisch reagieren. Doch der Körper hat ein eigenes Regulationssystem um den p.H. Wert der Körperflüssigkeiten aufrecht zu erhalten um dieses zu stören muss man schon recht drastische Dinge anstellen, nur mit der Nahrung geht das nicht. Trotzdem hat sich diese Vorstellung gehalten, wonach vor allem die säurebildenden Lebensmittel wie Fleisch, Vollkornerzeugnisse schlecht sind, basische wie Sauermilchprodukte oder Obst dagegen gut.

So ist die Übersäuerung auch Basis vieler anderen Ideen wie der Hay'schen Trennkost. Diese basiert auf der Vorstellung, das der Körper Protein und Kohlenhydrate nicht gleichzeitig verdauen sollte. Ansonsten verbraucht er dazu unnötig viel Energie. Nun das letztere wäre ja echt toll, weil ja der Anteil der Übergewichtigen dauernd ansteigt. Doch es entspricht nicht der Wirklichkeit. Protein kann nur zu 80% in Energie umgesetzt werden, doch das hat nichts mit der gleichzeitigen Aufnahme von Kohlenhydraten zu tun. Die Hay'sche Trennkost basiert nun darauf die beiden Stoffe zeitlich zu trennen:

Bis Mittags sollte man proteinhaltige Lebensmittel zu sich nehmen, abends dann kohlenhydrathaltige. Ein Abstand von 3-4 Stunden sollte mindestens zwischen beiden Mahlzeiten liegen. Da zudem die basischen Lebensmittel viermal häufiger gegessen werden sollte, ist die Kost reich an Gemüse, Salaten, Kartoffeln und arm an Käse, Getreideprodukten und Fleisch und daher gibt es zahlreiche Mängel bei Vitaminen und Mineralstoffen. Zudem wird es nicht so ganz einfach, weil die proteinreichen Lebensmittel ja vorwiegend sauer sind, also nur in geringer Menge gegessen werden dürfen. Das läuft dann darauf hinaus abends den größten Teil des Essens zu sich zu nehmen.

Diese Postulate werden auch gerne gemischt. so ist das Programm "Fit for Life" eine Mischung aus Waerlandt und Hayse. Also Trennung von Nahrung nach zeitlicher Aufnahme (hier sogar mit Ausscheidungs und Aufnahmezyklen), Dann finden sich noch anleihen von Bircher ("Sonnenkost") in dem Programm, aber das werde ich mal an anderer Stelle ausführlicher besprechen.

Sonntag 14.8.2011: Was mich nervt

Es gibt immer wieder Dinge die mich nerven. Heute war wieder so ein Tag. Ich gehe beim Metzger einkaufen und möchte ein Pfund Schweinebraten. Also holt die Verkäuferin ein Stück her, von dem man gleich sieht, dass es mehr als 500 g sind und legt es auf die Waage - 802 g. Natürlich verbunden mit der Frage. "Ist etwas mehr, geht das in Ordnung?". Nein, ich will ein Pfund. Also sollte man annehmen, dass, nun da das Gewicht bekannt ist, sie wohl ein Drittel davon abschneidet und dann kommt sie immer noch auf ein gutes Pfund.

Was macht die gute Frau - sie schneidet nicht ein größeres Stück ab sondern eine Scheibe, legt das ganze nochmals auf die Waage - 648 g. Nein sage ich, ich will ein Pfund. Nun schneidet sie eine noch kleinere Scheibe ab, anstatt eine gleich große und tut es erneut auf die Waage - 592 g. Da ich nun befürchtete, es geht in noch dünneren Scheiben weiter, habe ich Ruhe gegeben. doch dann ging es weiter. Anstatt 100 g Kalbleberwurst gibt es 118 g, selbst bei der Schnittwurst immer über 100 g. Eine Frau neben mir die 50 g Wurst haben wollte wurde zuerst ein Reststück angeboten das 152 g wog. Also scheint da System drin zu sein.

Mich nervt so was, ich habe mich schon im Laden geärgert und mir fürs nächste Mal vorgenommen, solange keine Ruhe zu geben bis ich die Menge bekomme, die ich haben will. Es ist ja nichts dabei wenn man mehr verkaufen will und wenn jemand auf die Frage "Darf es etwas mehr sein" das bejaht, ist es ja auch okay. Aber ich habe meinen Wunsch deutlich ausgesprochen, zumal das Pfund ja schon an der oberen Grenze ist das wir zu zweit brauchen. Ich habe mir als ich das Abschneiden immer kleinerer Scheiben nur gedacht, dass die dann wohl kaum noch zu verkaufen sind. Doch im Nachhinein denke ich mir - Ist das mein Problem? Nein eigentlich nicht. Die Verkäuferin ist ja auch nicht neu sondern seit mindestens zwei Jahren im Laden, sollte also genügend Erfahrung haben was so was wiegt. Ich bilde mir ein, nach der ersten Wägung ich selbst eher ein Drittel auf einmal abgeschnitten hätte als die Dame in zwei Schritten.

Der zweite Laden bei dem ich mich immer wieder ärgere ist ALDI. Es ist da ein Punkt und zwar wie am Band die Artikel durchgeschleust werden und gezahlt werden. Praktisch ist ja nach dem Band Schluss. Es gibt keine Zone wo sich die Artikel stauen können, keinen Schutz vor dem Runterfallen. Wenn man also nicht schnell genug einlädt staut es sich oder stoßen die Dinge andere Artikel runter. Eine der Verkäuferinnen schmeißt die Sachen sogar mit richtig Schmackes hinter sich, sodass das schon öfters passiert ist.- Ich habe das bemängelt, aber eine Verhaltensänderung ist nicht zu erkennen.

Das nächste ist das Bezahlen. Ich bezahle bar. Das scheint unerwünscht zu sein, denn jedes Mal wird gleich angefangen das Wechselgeld abzuzählen, bevor ich überhaupt hingelegt habe womit ich bezahlen will. Also ich kein Bummler, ich weiß wo mein Geldbeutel ist und auch in etwa was ich drin habe. aber ab und an habe ich auch Kleingeld das ich loswerden will und dann nervt das. Einmal hat mir der Verkäufer gesagt "Ich habe ja schon das Wechselgeld", aber dann bekam er nur die Antwort "Ich möchte aber passend bezahlen". Gewünscht ist wohl das Bezahlen mit Karte, denn bis das abgebucht ist, vergeht mehr Zeit und in der Zeit kann man weiter einräumen und oft helfen die Verkäufer auch mit, die ja nun kein Wechselgeld rausgeben müssen.

Zuletzt nervt mich noch mein Lieblingskonzern EADS. Ich glaube inzwischen, dass sie nicht wirklich wollen, dass jemand ihre Webseiten besucht. Emails, dass weis ich schon seit Jahren sind ja sehr unerwünscht, denn sie werden grundsätzlich nicht beantwortet. Aber auch die Webseiten sollten wohl nicht für die Öffentlichkeit zugängig sein. Wie sonst ist zu erklären, dass sie dauernd verschoben werden? Die Ariane 5 Launchkits findet man inzwischen schon an der dritten Webadresse und nun sind auch die Ionentriebwerke umgezogen. Ich weiß nicht wie sich EADS das denkt. Ich benutze wie jeder andere Google und wenn ich da nur eine HTTP 404 Fehlerseite bekomme, ärgert mich das. Umziehen ja, aber es gibt ja HTTP redirect, wo man die Leute von der alten Seite automatisch auf die neuen umleiten kann. Kann das bei euch keiner? Das ist doch ein Armutszeugnis, ein Milliardenkonzern bringt nicht mal fertig auf gültige Seiten zu verweisen. Wie sieht es denn dann erst bei der Kompetenz bei der Raumfahrt aus? Stichwort zu teure Ariane 5, Oberstufe mit dem höchsten Leermasseanteil der Welt....

Samstag 13.8.2011: Der Mehrstufenplan für Ionentriebwerke

Es gibt immer wieder Dinge die mich überraschen. Eines ist das Beharren in eingetretenen Pfaden. Wer Bücher vor 40-50 Jahren liest, der stolpert über die exzellenten Zukunftsaussichten von Ionentriebwerken. Doch was ist daraus geworden? Nicht viel. Es ist zum Teil erklärbar. Ionentriebwerke benötigen viel Strom und in den sechziger Jahren meinte man diesen nur durch Kernreaktoren bereitstellen zu können. Doch deren Entwicklung wurde in den USA eingestellt und in den UdSSR erreicht man auch nur mäßige Leistungswerte.

Doch mittlerweile haben Solarzellen enorme Fortschritte gemacht. Die Solarpanels der ISS haben eine Leistungsdichte von 30 W/kg. Also die Solarzellen die 30 Watt Strom erzeugen, wiegen ein Kilogramm. Bei Dawn sind es schon 80 Watt/kg. Bei dem Technologie-Satelliten ST-8 sollten faltbare Solarzellen mit wesentlich leichterer Trägerstruktur mit einer Leistung von 175 W/kg erprobt werden. Nach diesem Papier soll ein Prototyp mit einer Leistung von 300 W/kg existieren. Die Stromversorgung ist der Dreh- und Angelpunkt eines Ionentriebwerks, da sie viel Strom brauchen. Ein Modell, RIT-22 von EADS, wiegt 7 kg und benötigt 5000 Watt Leistung. Selbst bei 175 Watt pro Kilogramm wiegen aber die Solarzellen die eine solche Leistung liefern 28,6 kg. Berücksichtigt man, dass man bei Missionen ins äußere Sonnensystem aufgrund der absinkenden Leistung eine noch größere Fläche braucht zeigt dies das hier noch Optimierungsbedarf besteht. Trotzdem gab es in den letzten Jahrzehnten bei Solarzellen deutlich Fortschritte, während Kernreaktoren praktisch immer noch die gleichen Leistungswerte wie vor 40 Jahren haben. Die besten kommen auf 10 Watt/kg.

Bei den Ionentriebwerken ist es so, dass die heutigen Modelle mit einem Leistungsbedarf von einigen Kilowatt sicher ausreichen für kleine unbemannte Sonden. Heute setzt Dawn 5 Triebwerke ein. Mit leistungsfähigerer Stromversorgung könnte eine Sonde mehr dieser Triebwerke einsetzen und schneller ihr Ziel erreichen, bzw. auch von einer Erdumlaufbahn aus starten. Der Vorteil vieler kleiner Triebwerke ist auch, das bei abnehmender Leistung mit zunehmender Entfernung von der Sonne, man einfach weniger Triebwerke betreiben kann und sich so besser den Verhältnissen anpassen kann. Wenn es aber deutlich über 10-20 Triebwerke geht, dann ist sicher eine Weiterentwicklung zu größeren nötig.

Im Prinzip ist die Leistung steigerbar indem man den Auslass vergrößert. EADS hat ja schon Triebwerke mit 10 - 22 cm Auslassöffnung im Angebot. Noch größerer Durchmesser = mehr Schub. Physikalisch ist die Stromdichte pro Fläche begrenzt, das heißt vierfache Leistung erfordert den doppelten Durchmesser. Leider steigt aber das Gewicht nicht so, sondern doppelter Durchmesser bedeutet meistens achtfaches Gewicht. Weiterhin wird spätestens bei bemannten Raumfahrzeugen dann auch das Volumen ein Problem. Die Lösung ist es neue Techniken einzusetzen. Die ESA hat eine Studie gemacht, die vier Gitter in der Beschleunigungsstufe einsetzt anstatt nur zwei. Das entspricht praktisch zwei hintereinander geschalteten Beschleunigungsstufen. Die Folge ist dass ein Triebwerk mit 20 cm Durchmesser nun 250 kW Leistung verbraucht und 2,5 N Schub erzeugt. Konventionelle Triebwerke liegen dagegen bei 7 kW nur 0,2 N Schub. Die magnetoplasmadynamische Triebwerke, die so gerne als Alternative postuliert werden sind in meinen Augen keine Alternativen, da sie nicht wesentlich leichter oder leistungsfähiger als konventionelle Triebwerke sind. Schon der 50 kW Prototyp hat einen Durchmesser von 1 m.

Bei vielen Triebwerken gewinnt auch die Frage der Kühlung an Bedeutung. Typisch erreichen Triebwerke Wirkungsgrade von 60 - 75%. Bei 100 kW Eingangsleistung gibt es also noch 25 - 40 kW Abwärme die abgeführt werden muss. Bei dem Einsatz von Solarzellen wäre es sicher eine gute Lösung auf der Rückseite eines Teiles der Paneele Radiatorflächen  zu platzieren, da so Strukturmasse eingespart wird und die Fläche auf der Schattenseite sind.

Als Treibstoff wird heute Xenon verwendet. Es hat den Vorteil, dass es als Gas leicht förderbar ist. Es gibt auch Alternativen wie Cäsium und Quecksilber. Sie sind schwerer zu fördern, doch könnten sie von Bedeutung sein, wenn auch das Gewicht der Tanks, die bei Xenon etwa ein Fünftel bis ein Achtel des Inhalts betragen, eine Rolle spielt, was bei Missionen mit hohem Antriebsbedarf gegeben ist.

Wie könnte meiner Meinung nach die weitere Entwicklung aussehen? Ich konzentriere mich auf die staatlich geförderte Raumfahrt. Der Privatsektor ist ja eher noch konservativer (es gibt schon Ionentriebwerke für geostationäre Satelliten zur Lagereglung, aber eingesetzt werden sie selten). Der Plan:

allgemein: Steigerung der Leistung aller Subsystem. Ionentriebwerke mit höherer Leistung, niedrigerem Gewicht oder Volumen. Leistungsfähigere Stromkonverter mit höherer Lebensdauer (Hochspannung muss erzeugt werden), Leistungsfähigere Solarzellen mit niedrigerem Flächengewicht, geringere Tankmassen ...

Erprobung in Demonstrationsmissionen:

Trotzdem wird eine bemannte Mission nochmals zehnmal leistungsfähiger sein müssen und sie ist zeitkritischer als alle unbemannten Missionen. Doch immerhin hat man bis dahin einen Quantensprung zu dem was man heute erreicht hat (Dawn: ca. 1 t Startmasse, 11 km/s Geschwindigkeitskorrektur in rund 4 Jahren - Demonstrationsmission 4: 20 t Startmasse, 14 km/s, 14 km/s in ca. 1-1,5 Jahren.

Vor allem aber entsprechen die Demonstrationsmissionen Anforderungen die es gibt: Start von Raumsonden zum Mars, Jupiter bis Pluto, Bodenprobenrückführung vom Mars,. Aus Demonstrationsmission 1 könnte sogar ein kommerzielles Produkt werden. Als Nebeneffekt könnte die bisherige Praxis Raumsonden mit schubstarken Trägerraketen zu ihren zielen zu befördern eingestellt werden und man stattdessen sie mit ihrem eigenen Antrieb langsam zum Ziel hin spiralt. Bei Juno würde es sogar schneller gehen und Zeit sparen. Aber so fortschrittlich sind ESA und NASA nicht. Sie entwickeln lieber neue Schwerlastraketen...

Dienstag 14.8.2011: Dreißig Jahre PC

Es gibt ja derzeit wieder Jubiläen. Ich habe mir gedacht ob ich was zu 50 Jahre Mauerbau schreiben soll, aber es dann doch gelassen. Es gibt dazu schon viel im Fernsehen und das Thema wird auch so immer wieder aufgegriffen. Was mich allerdings erstaunt hat, ist dass viele Jugendliche mit der Mauer nichts mehr anfangen können. Ich weiß nicht ob das gut ist oder nicht. Meiner Meinung nach sollte man die Geschichte kennen und draus lernen. Zumal es als Folge der Teilung ja immer noch viele Vorurteile zwischen West und Ost gibt.

Aber einen Tag vorher am 12.8.1981 gab es ein anderes Jubiläum. Der IBM PC wurde dreißig. Er ist damit nur wenig Jünger als die Shuttle Bordcomputer. Über ihn wurde auch viel geschrieben. Der Erfolg der durch die offene Architektur und die dadurch ermöglichten Nachbauten kam. Er schuf das Microsoft Imperium mit einem Betriebssystem, das mehr ein schlechter Witz war, weil jeder eines brauchte, egal ob es ein IBM PC oder ein Nachbau war.

Das wesentlichste an der Entwicklung war der Zeitdruck. IBM hatte zu lange gezögert mit der Entwicklung eines eigenen PC und befürchtete nun den Anschluss zu verlieren. Der IBM PC entstand in nur einem Jahr. Neben der Kostenfrage führte auch das zur Auswahl bestehender Bauteile. Offiziell wurde ja der 8088 Prozessor genommen, weil die Peripheriebausteine des 68000 noch fehlerhaft waren. Doch ich glaube, wie die meisten auch, dass die Wahl darauf fiel, damit der PC nicht zu leistungsstark und eine zu große Konkurrenz zu teureren Modellen war. Dafür gibt es auch andere Indizien. Die Wahl der 8088 CPU, die 40% langsamer als der 8086 war, die Taktfrequenz von 4,77 MHz, anstatt der schon verfügbaren 8 MHz (4,77 anstatt 5 MHz, die zweite Normtaktfrequenz, um etwa 50 ct für einen zweiten Schwingquarz für die NTSC Frequenz zu sparen). Alles Designentscheidungen, die den Rechner billig und wenig leistungsfähig machen sollten. Dazu passt auch dass er anfangs nur mit 16 kb Speicher ausgeliefert wurde. Dafür war er trotz dieser mageren Ausstattung ziemlich teuer.

Dazu die inzwischen wohlbekannte Geschichte wie IBM zu ihrem Betriebssystem kam, zeigt auch nicht gerade viel Kenntnis des PC-Marktes und langfristige Planung. In vielem war der PC anderen Neuerscheinungen unterlegen. Der Sirius Victor hatte einen viel höher auflösenden Bildschirm, einen echten 8086 Prozessor und Floppys mit viermal mehr Speicherkapazität. Selbst der Apple III kam mit mehr Speicher heraus, und war nur ein 8-Bit Gerät. Ich glaube es war einfach nur das "IBM" auf dem Schild. Ich weiß noch wie ich damals meinen ersten Heimcomputer kaufte und jemand mit Anzug, weißem Hemd blätterte 12.000 DM für einen IBM PC hin, einfach so, ohne Fragen, ohne ein anders Gerät überhaupt anzusehen und 12.000 DM waren 1982 wirklich eine Menge Geld, sicher mehr als heute 12.000 Euro.

Wie wir alle wissen haben wir noch lange an einigen Folgen der "Schnellschüsse" zu kämpfen gehabt. Die Begrenzung von DOS auf 1 MB, die eigentlich erst aufgehoben wurde, als 1993 mehr Rechner Windows als Oberfläche als DOS nutzten (auch wenn DOS immer noch nötig für Windows 3.1 war) und DOS ausgemustert wurde. Die meisten Hardwarerestriktionen wurden relativ schnell abgeschafft wie das lahme Bussystem, die schlechte Auflösung der Grafikkarte (man musste ja sie zusätzlich zu einer Textkarte kaufen).

Ich glaube selbst IBM hätte nie gedacht, dass man 30 Jahre später immer noch Rechner produziert, welchen denselben Befehlssatz verstehen.  Obwohl bei den Großrechnern Komptabilität wichtig war, weil diese Rechner als Investitionsgut gelten und man nicht alles wegwerfen will, wenn man einen neuen braucht. Sie kannten also die Bedeutung einer langfristig kompatiblen Architektur. Nur war die PC Plattform nicht auf Zukunft ausgerichtet. Meiner Ansicht nach haben sie eine  richtige Entscheidung getroffen - die offene Architektur und Glück gehabt, dass ihr Name schon so bekannt und akzeptiert war. Das gab einen Vertrauensvorschuss, der die Leute auch über die Mängel und den hohen Preis hinwegsehen lies.

Im September jährt sich der zwanzigste Geburtstag von Linux. Da wir hier unter den Lesern einige haben, die das einsetzen (im Gegensatz zu mir), dachte ich mir, das wäre doch wieder eine gute Gelegenheit für einen Gastbeitrag. Überhaupt gibt es viel zu wenige. Es gibt ja noch so viele Themen die mir nicht wichtig sind und die man anschneiden könnte und es gibt ja Leute die hier mit meinen Blogs nicht zufrieden sind. Sei es die Berichterstattung über SpaceX oder das ich meine für mich gibt es zu wenig Infos für MSL/Juno für einen fundierten Artikel. Warum schickt mir keiner einen Blog denn ich veröffentlichen kann, anstatt nur zu kommentieren? Ich würde gerne mehr Gastblogs veröffentlichen. einfach eine HTMNL Datei zuschicken und er erscheint in den nächsten Tagen (Word oder andere Texte machen aus Erfahrung meist Probleme bei den Zeilenumbrüchen).

Mittwoch 18.8.2011: Militärische Experimente

Am Donnerstag hat die USAF ihr zweites HTV-2 bei dem zweiten Testflug verloren. Das HTV wurde mit einer Minotaur 4 gestartet und sollte der Prototyp eines Bombers sein, der jeden Punkt der Erde innerhalb von einer Stunde erreichen kann und Mach 20 (rund 6.900 m/s) erreicht. Es ist das zweite Experiment in den letzten Jahren, bei dem ich mich frage wozu es gut sein soll.

Also jeden Punkt der Erde innerhalb von einer Stunde erreicht auch eine ICBM, nur ist bei der die Nutzlast zu 100% eine Bombe, während es hier ein Bomber sein soll. (Ob bemannt oder nicht weiß man ja nicht). Welchen Vorteil das bringt, sehe ich nicht, nur den Nachteil, dass ich eine viel größere Rakete brauche. Mit RAMjets und Scramjets komme ich auch nicht auf Mach 12. Theoretisch sollten mit Scramjets Mach 12 möglich sein, aber praktisch hat das noch keiner geschafft. Der Rekord sind Mach 9,6 mit der X-43A und die benötigt eine Rakete, damit ihr Scramjet überhaupt wirksam wird. Also für ein operationelles System ist das viel Aufwand. Es werden mindestens eine, wahrscheinlich zwei Raketenstufen benötigt, dazu der Scramjetantrieb, der auch noch im Versuchsstadium ist und ja auch gerade mit der X-43 A erprobt wird.

Das zweite ist die X-37B. Von dem sind ja auch zwei Exemplare gestartet worden. Es ist im Prinzip ein unbemanntes kleines Shuttle. Nur der tiefere Sinn bleibt verborgen. Das die USA ein Shuttle bauen und unbemannt landen können ist glaube ich unstrittig. Schon das Space Shuttle konnte automatisch landen, dürfte es aber nicht. Es gibt heute keine Experimente die man nur kurzzeitig im Weltraum ausführt. Früher wäre das anders gewesen, als Fotografien noch mit Film gemacht wurden. Aber heute arbeiten Militärsatelliten auch über ein Jahrzehnt und übertragen die Daten verschlüsselt zur Erde. Für die Bergung von Satelliten ist es zu klein und selbst wenn es groß genug wäre, würde die Kosten/Nutzenrelation zweifelhaft sein - typisch wiegt ein Shuttle viermal mehr als die Nutzlast, also braucht man eine viermal größere Trägerrakete und dann ist das Shuttle ja auch nicht beliebig oft einsetzbar - ob da die Kosten für den Einsatz nicht die Nachbaukosten eines Satelliten übertreffen? Und mehr als SSO Orbits erreicht es eh nicht. Früher hätte man so was wohl als Waffensystem oder zum Einsammeln feindlicher Satelliten konzipiert, aber das ist ja heute nicht mehr nötig. Es fehlt dazu der Gegner.

Zuletzt gibt es das Space Shuttle selbst. Das es so aussieht wie es heute ist, verdanken wir auch der USAF. Diese wollte 1969 einen Shuttle mit einem 18 m langen Nutzlastraum, der 18,1t in einen polaren Orbit befördern sollte und eine Querreichweite von mindestens 1.800 km hatte. Die NASA plante einen Orbiter mit einem 6,7 bis 9,1 m langen Nutzlastraum, einer Querreichweite von 400-500 km und er sollte 11,34 t in den Orbit befördern. Warum die USAF diese Forderungen hatte, die praktisch einen doppelt so großen Orbiter bedeuteten? Nutzlastgewicht und Länge waren festgelegt durch die KH-9 Satelliten, die schon diese Länge hatten und bei denen die nächste Generation noch schwerer sein würde. Die Querreichweite kam durch eine noch verwegener Mission zustande: Nachdem sich 1967/8 beim Sechstage Krieg und dem Einmarsch in die CSSR zeigte, das Aufklärungssatelliten für die Information bei aktuellen Konflikten völlig ungeeignet waren (die Fotos kamen gerade aus dem Labor, alles vorbei war), dachte die USAF an einen schnelle Start eines Shuttles bei einem Konflikt, der im Nutzlastraum Kameras hatte. Die Astronauten fliegen in einem Orbit über das Zielgebiet, machen Aufnahmen und landen sofort wieder. Da sich die Erde aber in einem Umlauf weiterdreht, würde die Landung rund 1.800 km weiter westlich über dem Pazifik stattfinden und daher brauchte das Shuttle große Deltaflügel um den Landepunkt um rund 2.000 km verschieben zu können - was ebenso den Shuttle riesig und schwer machte. Die vorherigen Entwürfe hatten nur kleine Stümmelflügel oder Flügel für die Bewegung im Unterschallbereich.

Mal abgesehen davon, dass dies schon enormes Vertrauen in die Einsatzfähigkeit des Systems impliziert, denn es setzt voraus dass man es praktisch sofort starten kann - würde man einen Tag warten, dann wäre die Erde ja wieder am richtigen Platz und man benötigt keine Querreichweite. Der Vorteil einer 1-Orbit-Mission ist also nur gegeben wenn die Startvorbereitungszeit klein im Vergleich zu einer Normalmission von 1 Tag Dauer ist. Wenn man 1 Woche Vorbereitungen hat, dann ist es egal, ob die Mission dann 90 Minuten oder 24 stundend dauert.

Interessanterweise wurde 1969 das CCD erfunden und militärisch schon 1976 eingesetzt, lange bevor der erste Shuttle abhob, was die Anforderung nach einer Mission mit Fotokameras obsolet machte.

Wenn man noch weiter zurückgeht, dann fällt einem Dyna Soar ein. Ein Mini Shuttle, das zuerst als Rettungsschiff, dann Aufklärungsgefährt (zur Bergung und Inspektion eigener und fremder Satelliten) und dann als strategischer Bomber gedacht war. Es wurde Anfang der sechziger Jahre entwickelt und 1963 eingestellt und sollte auf einer Titan IIIC starten.

Also über Jahrzehnte hinweg gab es den Traum beim Militär von einem Gefährt, das wie ein Flugzeug fliegt und wie eine Rakete gestartet wird. Warum verstehe ich nicht. Denn wer Weltraunfahrt kennt, weiß, dass dies mit den Anforderungen des Militärs schwer vereinbar ist. Selbst wenn man die Kosten außen vor lässt (eine Rakete ist nicht billig und anstatt einem Bomber + Sprengkopf könnte man auch ohne Probleme mehrere Sprengköpfe starten), so ist doch klar, dass Weltraummissionen nicht gerade spontan verlaufen. Die meisten brauchen Tage der Vorbereitungszeit. Selbst wenn man eine ICBM benutzt wird doch der Gleiter durchgecheckt werden müssen (kann man sich noch erinnern, das ein Shuttle in 7 Tagen wieder startbreit sein sollte? Doch selbst das wäre zu langsam).Vielleicht weil ein militärisches Gefährt irgendwie Flügel haben muss und manövrierbar sein muss, obwohl dies nur in der Atmosphäre von Nutzen ist? Das US-Militär wird es wohl wissen aber nicht sagen.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99