Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 518: 8.1.2018 - 14.1.2018

8.1.2018: John Young und die Blutgrätsche der CSU

Heute mal ein anderes Thema. Gestern ist ja John Young gestorben. Ihr wisst ja ich habe es nicht so mit Astronauten. Ich hätte Probleme, auch als auch nur eine Handvoll der Shuttle-Astronauten zu nennen und selbst alle Deutschen bekomme ich nur nach intensivem Nachdenken zusammen.

John Young stammt noch aus einer Zeit, als jeder die Astronauten kannte. Sie waren vom Start weg Helden und er gehört innerhalb der nicht so großen Gruppe noch zum exklusiven Kreis, der sechs die auf dem Mond landen. Selbst in der Gruppe ragt John Young heraus. Er ist zusammen mit Tom Stafford, der einzige der je zwei Gemini und zwei Apollo-Fluge durchführte. Das für mich außergewöhnliche an John Young war, dass er nicht wie die anderen danach die NASA verließ. Als Superhelden hatten die Apollo-Astronauten alle Möglichkeiten ihren Ruhm zu versilbern. Nicht alle haben das getan, prominenteste Ausnahme war Neil Armstrong. Aber selbst wenn man nicht Geld für die Verwendung seines Namens nahm, winkte allen ein gut dotierter Posten in einer Aerospacefirma, die gerne dafür bezahlten, einen Apollo-Astronauten, als Angestellten zu haben.

John Young blieb bei der NASA. Und zwar als Astronaut. Das verlangt schon viel Stehvermögen, wenn man an den schnellen Ablauf des bisherigen Programms denkt: Zweieinhalb Jahre nach Rekrutierung im November 1962 gab es die erste Mission im März 1965 mit Gemini 3, 16 Monate später folgte Gemini 10. Im Mai 1969, knappe 34 Monate später Apollo 10 und dann im April 1972 Apollo 16. Nun, das war klar würde eine lange Durststrecke folgen. Zwar sollte nach den Planungen das Space Shuttle 1977 starten, doch schon damals war klar, dass dieser Termin sehr optimistisch war. Für die Astronauten bedeutete das: jahrelang warten, bis der nächste Einsatz anstand. Sicher, man musste sich in das neue System einarbeiten, aber nicht 7 Jahre lang. John Young startete dann noch zweimal. Jedes Mal bei prestigeträchtigen Missionen: STS-1, die erste und riskanteste Shuttle-Mission überhaupt und STS-9, der erste Einsatz des Spacelabs. Geplant war auch das er die Mission zum Transport des Hubble Weltraumteleskops leiten würde. Daneben war er seit 1974 Leiter des Astronautenkorps. Nach dem Verlust der Challenger kritisierte er öffentlich das Programm, weiter gehend über die direkten Verlustursachen, wie die Praxis des Kannibalismus bei den Fähren, das überzogene Launchmanifest, dem alle anderen Aspekte, vor allem die Sicherheit geopfert wurden. Von der Funktion wurde er 1987 entbunden, wahrscheinlich wegen dieser Kritik. Er beendete damit die aktive Karriere als Astronaut und war weiter bei der NASA in verschiedenen technischen Leitungsfunktionen aktiv, zuletzt als technischer Direktor des Johnson Space Centers. Er ging erst am 31.12.2004 in den Ruhestand – mit 74 Jahren. Das ist einzigartig. Ich kenne niemand der so lange am US-Raumfahrtprogramm gearbeitet hat, außer vielleicht Jesco von Puttkamer.

Ich werde John Young im Gedächtnis behalten. Damit schrumpft die Zahl der lebenden Mondfahrer weiter – erst kürzlich starb ja Eugene Cernan. Aus rein biologischen Gründen werden es noch mehr werden. Schließlich sind alle Apollo-Astronauten, die noch leben, weit jenseits der Achtzig. Sie hätten es sich wohl auch nicht, als sie noch aktiv waren, träumen lassen, das das Apolloprogramm der Endpunkt der bemannten Erforschung anderer Himmelskörper und nicht der Anfangspunkt sein würde.

Was gibt es noch?

Das neue Jahr ist irgendwie paradox. Trump ist ein Jahr im Amt. Lässt kein Fettnäpfchen aus, isoliert immer mehr die USA in der Welt und trotzdem steigen DAX und Dow Jones. Bei uns ist es noch komischer. Die Wirtschaft brummt, die Arbeitslosenzahl sinkt – und wir haben keine Regierung. Nun beginnen ja erneut die Sondierungsgespräche – mehr als drei Monate nach der Wahl. Und schon gibt es Entrüstungsstürme – gegen die Bürgerversicherung der SPD, natürlich von der Ärztekammer. Das würde eine „Zweiklassengesellschaft“ bedeuten. Hä? Die gibt es doch schon längst. Wer privat versichert ist, kommt schneller dran und auch eine bessere Versorgung. Es ist bezeichnend für diesen Berufsstand, dass er sich dagegen wehrt, das alle die gleiche Versorgung bekommen. Gerade das Gegenteil was man erwartet. Gerade bei der Gesundheit sollte es doch keine Unterschiede geben, auch wenn es sie sonst im Leben gibt. Erstaunlicherweise gibt es aber nicht mal im Grundgesetz einen Passus dafür. Wenn die Ärztekammer vermeiden will, das man lange auf einen Arzttermin warten muss sollet sie einfach mehr ausbilden, nicht einen Verknappungsnotstand aufrechtzuerhalten nur, damit eine Berufsgruppe gut verdient.

Ich weiß nicht, warum sich die Parteien so viel Zeit lassen. Vielleicht weil man hofft, dass so mehr Zeit vergeht und man dann sagen kann „jetzt haben wir es 6 Monate versucht, es klappt nicht, dann können wir Neuwahlen machen“. Die CDU spekuliert drauf, dass der Wähler die Partien abstraft, die nicht für eine Koalition bereit ist. Die FDP ist ja schon deutlich in den Umfragen gesunken. Besonders Michael Lindner. Klar, außer FDP-Politikern versteht das Verhalten keiner. Wenn ich nicht regiere, setze ich 0 % meines Programmes durch. Wenn ich mitregiere, egal ob „falsch“ - will meinen man hat nicht so viel vom Programm durchgesetzt, wie man wollte – so sind es aber immer mehr als 0 %. Und am Programm der anderen kann man eh nichts ändern, das „falsche“ kommt dann, auch wenn man nicht mitregiert.

Die Idee ist wohl, dass die SPD genauso abgewatscht wird. Merkel macht das ganz geschickt. Die CDU steht als gesprächsbereit da, aber damit es ja nicht zu einem Ergebnis kommt, gibt es ja die CSU – sind zuverlässig da, wenn es schon im Vorfeld darum geht, Hindernisse aufzubauen. Die CDU/CSU hatten im Parteiprogramm für die Wahl sich mühsam auf Richtlinien für die Flüchtlingspolitik geeinigt. Die gelten nun alle nicht mehr. Stattdessen neue Ideen für Verschärfung oder wie man sich bei den AFD-Wählern anbiedern kann. Ich wollte was über die CSU-Politiker schreiben, aber eigentlich sprechen Dobrindt, Scheuer, Söder und Seehofer für sich. Der CSU kann ihre bundespolitische Wirkung egal sein. Sie vertritt ja nur Bayern, hat meiner Ansicht also im Bundestag nichts zu suchen. Aber ich prophezeie, dass sie mit der Richtung nur noch mehr Wähler verprellt. In Bayern steht ja auch bald eine Landtagswahl an. Es ist doch immer das Gleiche. Immer wenn eine rechte Partei Erfolg hat, meinen die etablierten Parteien Erfolg zu haben, indem sie rechte Parolen schwingen, Gesetze, die eigentlich nur angewandt werden müssen verschärfen und anderes tun, um diese "verlorenen Schäfchen" zurückzugewinnen. Die wählen aber weiter das Original, dafür verlieren sie massiv Wähler in der Mitte. Ehrlich: ich kann mir nicht vorstellen, dass es in Bayern so viele Leute gibt, die so intolerant sind wie CSU-Spitze.

Aber zurück zu den Koalitionsverhandlungen. Der Plan könnte nach hinten gehen. Vielleicht hat man nach einigen Monaten auch die SPD in der Wählergunst verprellt, aber vielleicht stellen die Wähler auch etwas anderes fest: Wir haben seit Monaten keine ordentliche Regierung und es geht trotzdem. Dann rächt sich der Mutti-Kurs: Einfach nur Tagespolitik machen, funktioniert. Ändert aber auch nichts. Vielleicht merkt dann der eine oder andere, dass man vielleicht mal doch eine Regierung ohne CDU haben sollte. Ich glaube aber das die nächste Wahl wieder keine regierungsfähige Mehrheit bringt. Es sind einfach zu viele Parteien für eine reine Zwei-Parteienkoalition im Parlament und die SPD will ja nicht. Ich vermute, dass auch die AFD ihr Votum halten wird. Zwar hört man nun nichts mehr von ihnen, aber die CSU macht ja Reklame für sie und ich schätze ihre Wähler für persistent ein.

11.1.2017: Moden der Ernährung 1

Gestern kam bei Quark & Co eine Sendung über das Abnehmen und auch im ersten moderiert sich Tim Mälzer gerade wieder durch eine Reihe von Ernährungssendungen und hat gerade am Montag die gute Nachricht bekommen, dass er mit 103 kg bei 1,81 m Größe nicht abnehmen muss und mit 6.000 Schritten genug tut. Na ja ich sehe es etwas anders. Aber das lieferte mir den Aufhänger für den heutigen Blog, den ich auch wegen der Länge als Artikel zur webseite übernommen habe. Es geht um die Moden der Ernährung.

Moden kennt ja jeder. Also klar die Mode an sich. Mal ist Minirock modisch, dann wieder lang. Mal soll es verspielt sein, dann wieder strenge Linie. Angeblich kommt ja alles wieder, selbst Modesünden wie Neonfarben, Schulterpolster und Hochplateauschuhe.

Doch auch sonst gibt es Moden. Bei Autos habe ich das Gefühl ist es gerade der Trend zu immer größer. Im Audiobereich ist gerade wieder die Schallplatte angesagt.

Ich habe auch das Gefühl es gibt so Moden bei der Ernährung. Fangen wir mal mit dem Grundsätzlichen an. Dem Schönheitsideal. Ich muss sagen ich tue mich da schwer, es nur für eine Mode zu halten. Mir kann man sicher nicht nachsagen, dass ich mich viel beeinflussen lasse. Ich mache eine Menge Trends nicht mit und eigentlich schon immer mein Ding. Was andere über mein Aussehen und mein Verhalten denken, juckt mich recht wenig. Aber trotzdem finde ich, dass es so was, wie absolute Kriterien für die Schönheit gibt. Jetzt mal nur von der Figur zu sprechen. Muskeln beim Mann, runde, weibliche Figur bei der Frau sieht besser aus als die Extreme keine Muskeln / dürr bzw. nur Fettpolster/dick. Irgendwie fühlt man sich dann auch bestätigt, wenn man dann klassische griechische Figuren anschaut – obwohl die Frauen würden heute keinen Job bei GNTM bekommen und die Männer keinen Job als Pornostar (damals waren kleine Penisse en vogue). Aber das kann auch nur an der Zeit liegen. Zufällig hatten eben die Griechen das gleiche Ideal wie wir. Im Barock war Dicksein in. Rubens Bilder sind der stehende Beweis. Auch bei uns hat sich im Nachkriegsdeutschland niemand an den Dicken gestört. Nicht zuletzt muss man nur einen Blick über den Tellerrand werfen und sehen, was in anderen Völkern "schön" ist. Das geht los von durchbohrten Lippen über mehrere Kilo Metall am (optisch verlängerten) Hals bis hin zu eingeschnürten, verkrüppelten Frauenfüßen in China bis vor 100 Jahren. Und auch bei uns waren mal Wespentaille, zusammengeschnürt mit Korsett ganz „modern“. Kurzum: auf das Gefühl, das man weiß, was "gesund" aussieht, kann man sich nicht verlassen.

Doch die Ernährungswissenschaft unterfüttert unsere heutige Vorstellung ja mit Fakten. Demnach lebt man eben im BMI-Bereich von 20 bis 25 am längsten – ist aber auch schon wieder in der Diskussion. Nach aktuellem Stand gilt das nur für Jugendliche. Je älter man wird, desto höher darf der BMI sein. Und das zeigt schon das Problem: Irgendwie ist die Wissenschaft dauernd im Wandel. Zeit mal die Ernährungsmoden durchzunehmen, sprich welches Lebensmittel hat man nun gerade mal verteufelt.

Also bin ich mal in mein Regal gespurtet und habe mein Buch aus dem LK Ernährungslehre, aufgelegt 1982 rausgeholt (Cornelia Schlieper: Grundlagen der Ernährung) und mal verglichen mit dem, was derzeit gerade mal verteufelt wird.

Salz

Nach meinem Buch leiden 10- 20 % der Bevölkerung unter Bluthochdruck. Das ist schlimmer geworden. Ein Abruf beim Statistikportal ergab 36,5 % gefährdete, 26,1 % behandelte und 7,8 % beaufsichtigte Personen mit Bluthochdruck. 1980 galt es als ausgemacht: Salz verursacht Bluthochdruck. Man sollte weniger 3 g Salz pro Tag zu sich nehmen. Zu Unterstützung noch Reis-Obst, Obst und Safttage. Hmm, da graust mir schon die Beschreibung. Das Ganze beruht auf einer Veröffentlichung eines amerikanischen Arztes aus den Fünfziger Jahren mit nur 100 Patienten. Wer sich etwas mit Statistik auskennt, weiß, dass diese Personenzahl viel zu klein ist, um einen echten Nachweis durchzuführen. Wenn man heute den Nachweis über die Wirkung von Vitaminen oder anderen Ernährungsformen wissenschaftlich untermauern will, dann fasst man Studien zusammen, sodass man auf 10.000 oder mehr Teilnehmer kommt. Die Auswahl von nur 100 Patienten bedeutet nicht nur, dass der Zufall eine viel größere Rolle spielt. Sie ist auch selektiv, denn es wurden ja nur Personen genommen, die Bluthochdruck hatten. Ob viel Salz auch anderen, die keinen Bluthochdruck haben, schadet darüber liefert diese Studie gar keine Daten.

Das Salz den Blutdruck steigert hielt sich aus zwei Gründen. Das Erste ist, das Salz tatsächlich in den Körperflüssigkeiten vorhanden ist die außerhalb Zellen fließen. Gemäß chemischen Gesetzen strömt aber Wasser zum salzhaltigeren Medium, um die Konzentration auszugleichen. Das erschien also bedingt logisch (wenn man ignoriert, das Kalium als Antagonist in den Zellen ist und die Nieren natürlich auch Salz ausscheiden). Das zweite ist, das es nicht ganz aus der Luft gegriffen ist. Von den Personen, die Bluthochdruck haben sind ein Teil natriumsensitiv, das heißt, bei einem Teil der Bluthochdruckpatienten hilft der Verzicht auf salzhaltige Ernährung tatsächlich. Nur bekommt man aber keinen Bluthochdruck alleine vom Salz und auch bei den meisten mit Bluthochdruck nützt salzarme Nahrung nichts.

Zuletzt noch eine andere Zahl. Wäre der Zusammenhang gegeben, so müsste es heute weniger Patienten geben. Das Buch gab als durchschnittliche Aufnahmemenge 1980 12 g Salz pro Tag an, heute sind es noch 8,4 g bei Frauen und 10 g bei Männern. Die Aufnahme an Salz ist also gesunken, der Anteil der Personen mit Bluthochdruck dagegen angestiegen. Er muss daher andere Ursachen haben – heute wird Stress als Hauptfaktor genannt. Der taucht im Ernährungsbuch von 1982 nicht auf.

Zucker

Das Buch erschien zu früh um Zucker als großen Schädling anzuführen. Zucker wird in dem Buch zwar auch bei den ernährungsbedingten Krankheiten aufgeführt, aber nur weil er Karies verursachen soll. Das ist inzwischen auch widerlegt. Es ist nicht relevant, wie viel Zucker man aufnimmt, sondern wie lange er in Kontakt mit den Zähnen ist. Da sind klebrige Kaubonbons viel schlimmer als Schaumgebäck, das nur aus Zucker und Eiweiß besteht. Daneben hat man heute die Säuren in Getränken im Verdacht Karies zu verursachen, egal ob die Getränke mit Zucker oder Süßstoff gesüßt sind.

Seitdem hat der Zucker jedoch rapide an Renommee verloren. Inzwischen machen ihn viele für Übergewicht und Diabetes verantwortlich. Klar, Diabetes heißt im Volksmund ja auch „Zuckerkrankheit“. Natürlich ist Zucker bei Diabetes nicht in größerer Menge angeraten, da er schnell aufgenommen wird und den Blutglucosespiegel schnell ansteigen lässt. Das war es aber schon. Es gibt weder den Heißhunger nach Zuckerkonsum, noch andere Hormonschwankungen, die ihm nachgesagt werden. Das einzige Verbrechen des Zuckers ist, dass er nicht sättigt, weil er schnell, teilweise in der Mundschleimhaut, quantitativ im Zwölffingerdarm aufgenommen wird. Damit isst man leichter mehr als man essen sollte, da eine Sättigung erst nach einiger Zeit sich einstellt und die noch dazu von der Füllung des Magens abhängt, zuckerhaltige Speisen passieren den Magen aber schnell. Doch dieses „Verbrechen“ haben auch andere Lebensmittel, die leicht verdaulich sind, begangen.

Süßstoff

Wenn Zucker so schlecht sind, dann steigen wir doch einfach auf Süßstoffe um. Ha! Nicht ohne die Ernährungsprofis. Süßstoffe werden seit einigen Jahren madig gemacht. Nachdem sich inzwischen rumgesprochen hat, dass die These „Süßstoffe verursachen Krebs“ auf eine Verunreinigung in den 70-ern Jahren bei einem US-Hersteller bezog, in Europa nie die Gefahr bestand (anderes Herstellungsverfahren) haben es nun einige ganz schlau gemacht: Sie schreiben einfach alle negativen Wirkungen des Zuckers dem Süßstoff zu. Also auch hier sollte dann Heißhunger entstehen, der Blutglucosespiegel würde stark schwanken, weil der Körper durch den Süßgeschmack auf Zucker einstellt, der dann nicht kommt und es würde Insulin ausgeschüttet werden, was dann langfristig zu Diabetes führt. Das Dumme nur: Niemand hat das jemals beobachtet. Man kann ja Glucose und Insulin im Blut bestimmen und die ändern sich durch Süßstoffaufnahme gar nicht. Logisch, der Körper hat zwar auf der Zunge Rezeptoren für Süßgeschmack, doch die Rezeptoren in den Zellen, die verantwortlich für die Hormonausschüttung sind, reagieren nur auf Glucose und kein anderes Molekül. Warum die Leute drauf kommen? Weil in Ferkelmastfutter Süßstoff ist. Ferkel sollen es ja fressen und die sind süße Muttermilch gewöhnt und würden ungesüßtes Futter weniger konsumieren. Man hat eine Beobachtung vom Tier, noch dazu „Kleinkinder“ auf den Menschen übertragen. So weit hätte man nicht mal gehen müssen. Auch menschliche Babys und Kinder mögen Dinge die süß sind lieber. Kinderprodukte sind süßer, auch weil die Kinder Süße nicht so stark empfinden wie erwachsene, dafür nehmen sie bitter viel stärker wahr, was die Abneigung gegen Spinat und anderem Gemüse erklärt. Das ist evolutionär sinnvoll. Bittere Dinge sind oft giftig. Süße Früchte fast nie. So schützt sich der Körper, schlussendlich hatte man damals erst als Erwachsener die Lernphase durchgemacht, zu wissen, welche Pflanzen genießbar ist und welche nicht.

Fructose

In meinem Buch und bis vor wenige Jahre galt Fructose als die Alternative für Zucker bei Diabetikern. Bis vor wenigen Jahren waren alle Diabetikerprodukte mit Fructose hergestellt, anstatt Zucker. So Schokolade, Marmelade, Kuchen. Das war bequem. Fructose hat ähnliche Eigenschaften wie Zucker, anders als Süßstoffe auch dieselbe Masse, so muss man Rezepte nicht abändern. Untersuchungen bei Ratten ergaben, dass Fructose noch negativer als Glucose das Sättigungsgefühl beeinflusst. Ratten, die soviel Fructose zu sich nehmen konnten, wie sie wollten, wurden dicker als eine zweite Gruppe, die so viel Glucose essen konnte, wie sie wollte. Zudem gab es bei den Ratten typische ernährungsabhängige Krankheiten wie Gicht, Fettleber, Bluthochdruck und eine Insulinresistenz.

Gefunden wurde beim Menschen, dass Fructose die Plasmakonzentration von Tri­glyceriden und LDL-Cholesterin erhöht. Beide Parameter begünstigen die Entstehung von Arteriosklerose und erhöhen das kardiovaskuläre Risiko. Beobachtet wurden bei Diabetikern auch nichtkrankhafte Fetteinlagerungen in die Leber, die nach Reduktion der Fructoseaufnahme wieder verschwanden. Inwieweit Fructose an der Entstehung der nicht alkoholbedingten Fettleber beteiligt ist, ist noch nicht geklärt. Man stellte fest, dass die Hormone Leptin, Insulin und Ghrelin, welche die Nahrungsaufnahme regulieren, auf Fructose anders ansprechen als auf andere Kohlenhydrate wie Haushaltszucker. Deshalb soll die Sättigungsregulation geringer sein, und dies führt zu einer erhöhten Aufnahme.

2010 wurde Fructose aus der Diätverordnung gestrichen und ist seitdem nicht mehr Produkte für Diabetiker zugelassen, die nun eigentlich auch Früchte meiden sollten – dort kommt Fructose natürlicherweise am häufigsten vor.

Daneben gibt es eine Fructoseintoleranz, die wie die bekanntere Laktoseintoleranz auf einem zu wenig aktiven Enzym beruht.

Kohlenhydrate

Relativ neu und im meinem alten Buch nur gestreift war 1980 der „Low Carb“ Trend. Wie man an dem englischen Wort sieht, kommt das aus dem Land der unbegrenzten Ernährungsirrtümer. Robert Atkins hat diese Ernährungsform propagiert. Ohne wissenschaftliche Absicherung, einfach nur als Postulat. Das biochemische Grundprinzip ist, das unser Körper auf eine Grundversorgung mit Kohlenhydraten angewiesen ist. Bekommt er diese nicht, so muss er diese aus Eiweiß bilden, das ist aufwendig und mit Energieverlusten verbunden. Zudem nutzt er bei Eiweiß schon einen größeren Teil der Energie nicht bei der Nahrungsaufnahme. Daher soll man, wenn man kohlenhydratarm lebt, essen dürfen so viel man will, ohne zuzunehmen. Dazu kommt, dass die vor allem eiweißreiche und fettreiche Nahrung gut sättigt. Ob es dem Körper gut tut, ist eine andere Frage. Wer sowieso schon Probleme mit Blutfettwerten hat (siehe weiter unten bei Arteriosklerose) bei dem gehen diese Werte nun durch die Decke und wer eine Veranlagung zu Gicht hat, kommt ebenfalls mit der hohen Proteinmenge nicht zureicht. Bei allen anderen geht das ganz gut, auch wenn die Leute durch die entstehenden Ketokörper ihr Risiko für eine Azidose, ein Umkippen des pH-Wert des Bluts deutlich erhöhen. Nach Ansicht von Ernährungsexperten sollte man eine Mindestmenge an Kohlenhydraten – das Gehirn, aber auch einige Organe benötigen Kohlenhydrate als Energiequelle – von etwa 70 bis 90 g nicht unterschreiten.

Ich habe allerdings nie verstanden, warum jemand so eine Diät macht. Da Kohlenhydrate tabu sind, fällt alles weg, was Zucker und Stärke enthält: nicht nur jede Art von Süßigkeiten auch Brot, Reis, Nudeln, Kartoffeln. All das ist verboten von pflanzlichen Nahrungsmitteln bleiben nur Öle und Gemüse übrig. Schon Obst hat zu viel Zucker. Ich mache einmal in der Woche einen Fastentag. An diesem Tag esse ich nur Suppe, Gemüse, Obst. Doch selbst der fällt mir leichter als ein Atkinstag. Morgens ein Frühstück ohne Brot und ohne Müsli? Was kann man da noch essen? Wurst und Käse ohne Brot, Rühreier oder geratenen Speck. Selbst Naturjogurth geht wegen der enthaltenen Laktose nicht. Ganz lecker aber nicht ohne Brot. Dann Mittags ein Steak – ohne Beilagen. Kein Nachtisch, keine Schokolade, nicht Mal Zucker in den Kaffee und abends dann nochmals das Programm, wie beim Frühstück - nein danke. Die meisten nehmen mit Atkins ab, weil sie bald schon die erlaubten Lebensmittel nicht mehr essen, man bekommt dann schnell einen Widerwillen gegen das, was man essen darf.

12.1.2017 Moden der Ernährung 2

Fett

Erstaunlicherweise kam man erst nach den Kohlenhydraten auf das Fett als Verursacher von Übergewicht – dabei lagert unser Körper doch Fett und nicht Kohlenhydrate ab. Also war nun das Fett der Bösewicht. Dazu kam , dass natürlich Arteriosklerose mit Fett zusammenhängt, allerdings nur tierischem Fett und dem hohen Gehalt an gesättigten Fettsäuren und Cholesterin. Anders als auf Kohlenhydrate zu verzichten fällt es vielen leicht, auf Fett zu verzichten. Wer eine vegetarische oder gar vegane Ernährung betreibt, ernährt sich meist fettarm, den Pflanzen haben viel weniger Fett als tierische Nahrungsmittel. Das grundsätzliche Problem der „Low fat“-Kampagne: Obwohl nun seit einigen Jahrzehnten in den USA eine "Low Fat" Kampagne läuft, indem sich Lebensmittelhersteller darin überbieten, dass ihre Produkte wenig Fett enthalten (inzwischen als „Light-Welle“ auch zu uns geschwappt, hat sich die Zahl der Übergewichtigen stetig erhöht. Der Grund ist relativ einfach und leider zu banal: es ist völlig Wurst ob man seine Kalorien in Form von Fett oder Kohlenhydraten zu sich nimmt. Es zählt die Gesamtmenge und wer zu viel isst, egal von was wird dick.

Eiweiß

Als Ableger der Atkinsdiät gab es dann noch für besonders Harte die Dukan-Diät. Besser bekannt als „Hollywood-Diät“, da angeblich viele Stars auf sie schwören. Ist bei Atkins nur Eiweiß und Fett erlaubt, so ist es bei Dukan nur noch Eiweiß, wegen der hohen spezifisch-dynamischen Wirkung, sprich der schlechten Effizienz unseres Verdauungssystems, das Eiweiß nur zu 80 bis 86 % verwertet. Das Ganze ist noch einseitiger als Atkins, noch schwerer durchzuhalten, weil nun nur noch eiweißreiche und fettarme Produkte erlaubt sind wie mager Fisch und Filet. Zudem geht die Diät, da diese Produkte in der Regel teuer sind, so richtig auf den Geldbeutel. Entsprechend verheerender ist Lehrmeinung zu diesem Diätkonzept.

Eiweiß ist aber auch so in Verruf gekommen, zumindest einige Eiweißprodukte wie Wurst oder „rotes Fleisch“. Das soll das Krebsrisiko erhöhen. Das ist auch der Fall, nur muss man sich die Studienlage anschauen. Es ist nicht so, dass man nun gleich Krebs bekommt, weil man Wurst isst, sondern das Risiko für eine Unterart des Darmkrebs, ist signifikant, aber nicht extrem erhöht. Das ist wie wenn man beim Lotto zwei anstatt eines Tippscheins ausfüllt. Man hat nun eine um 100 % höhere Chance auf einen Sechser – das man ihn gewinnt ist trotzdem extrem unwahrscheinlich.

Arteriosklerose

Arteriosklerose begünstigt Koronalkrankheiten und damit schlussendlich einen Herzinfarkt. Die primäre Ursache sind Ablagerungen an den Blutgefäßen, die durch eine dauerhafte Entzündung entstehen und die Cholesterin enthalten.

Darum wird seit Jahrzehnten prognostiziert Cholesterin zu vermieden. Das Paradoxe: Cholesterin wird von Körper selbst gebildet. Von dem Cholesterin, das vom Darm aufgenommen wird, stammt etwa 80 % vom Körper selbst. Es wird mit den Gallensäuren zur Fettverdauung ausgeschüttet. Nur an den oberen 20 % kann man mit de Ernährung etwas drehen. Da wäre für mich die Diskussion schon am Ende gewesen, denn selbst wenn ich viel in der Ernährung tue, z.B. den Cholesteringehalt der Nahrung halbiere, kann ich die Aufnahme nur um 10 % reduzieren. Doch der Arzt misst ja nicht die Aufnahme, er misst den Cholesteringehalt des Blutes und der hängt von der Menge von mehreren Lipoproteinen (Proteine, die Fett im Blut transportieren) ab und diese hängen nur bedingt von der Cholesterinaufnahme ab. Es gibt zahlreiche Faktoren, die sie beeinflussen, so Stress oder Bewegung. Schlussendlich sind es hormonelle Regelungen, die bei inzwischen auch hormonell behandelt werden. Cholesteinsenker gehören in den USA zu den meist verkauften Medikamenten. Trotzdem hat man den Spiegel, ab dem die deutsche Ärztekammer ein Eingreifen für notwendig hält, in 35 Jahren von 260 auf 190 mg/l gesenkt. In meinem Buch von 1980 stand noch das der „normale Spiegel“ bei 150 bis 200 mg/dl liegt, das heißt: Was 1980 noch „normal“ war, ist heute therapiebedürftig. Die Folge: Wendet man das Kriterium an, so sind schon bei den 20 Jährigen rund ein Drittel therapiebedürftig, und da der Cholesteringehalt im Blut auch ohne Änderung der Lebensweise ansteigt, nimmt dieser Anteil mit steigendem Alter deutlich zu. Bei den über 40 jährigen liegt im Mittel das Gesamtcholesterin bei über 240 mg/dl – da sind dann fast alle betroffen. Schon alleine die Logik sollte einem Sagen, das da was nicht stimmen kann. Es kann ja nicht die ganze Bevölkerung ab einem bestimmten Alter krank sein.

Man möge einem Blick auf diese Karte einer Herstellers einer cholesterinsenkenden Margarine werfen. Nach der haben 2013 mehr als 50 % der Bevölkerung einen zu hohen Cholesterinwert. Der „Niedrigste“ Wert von Hessen liegt auch schon bei 48,5 %. Wo bitte bleiben dann die ganzen Folgeerkrankungen von Cholesterin, die müssten dann doch auch enorm zugenommen haben (mein Buch von 1980 spricht von 10 bis 20 % der Bevölkerung). Auf das Konto von Koronalen Herzkrankheiten (KHK) gehören mit Abstand die meisten Todesfälle in Deutschland. Würden die Krankheiten genauso zunehmen wie die Einstufung des Cholesterins als Risikofaktor, so müsste die Lebenserwartung in Deutschland sinken. Das tut sie aber nicht.

Fettsäuren

Zurück zur Arteriosklerose. Die Ablagerungen enthalten nicht nur Cholesterin. Cholesterin wird zusammen mit Fettsäuren befördert, vor allem gesättigten Fettsäuren, also sind die auch im Verruf gekommen. Dagegen hat man lange Zeit mehrfach ungesättigte Fettsäuren empfohlen, die würden den Cholesterinspiegel senken. So steht es auch in meinem Buch als Empfehlung. Inzwischen ist man wieder schlauer und empfiehlt nur noch Omega-Fettsäuren, die sich in der Nahrung aber recht selten finden. Diese sind Vorstufen von entzündungshemmenden Hormonen – eine Entzündung der Blutwand ist ja der Grund, warum sich überhaupt etwas ablagern kann. Die normalen, mehrfach ungesättigten Fettsäuren wie die in pflanzlichen Ölen häufige Linolsäure dagegen sind Vorstufen von entzündungssteigernden Hormonen und damit sollte man sie heute auch meiden.

Der zweite Gewinner sind einfach ungesättigte Fettsäuren, sprich die Ölsäure und das wird alle Liebhaber von Olivenöl freuen, hat aber auch schon dazu geführt, dass es nun für Rapsöl fast nur noch Rapssorten mit wenig mehrfach ungesättigten Fettsäuren und viel Ölsäuren verwendet werden. Der normale Raps gehört eigentlich zu den Ölfrüchten mit viel Linolsäure.

Fluorid

Inzwischen in Verruf gekommen ist Fluorid. Fluorid ist für die Härte des Zahnschmelzes notwendig, aber auch in kleiner Menge in einigen Enzymen vorhanden. Es ist aber eigentlich kein essenzielles Element. Fluorid hat es geschafft, in 30 Jahren von fast einem essenziellen Nahrungsbestandteil fast zu einem Nahrungsgift zu werden.

Dabei ist die Faktenlage nicht neu. Das grundsätzliche Problem bei Fluorid ist, das die Aufnahmemenge die gewünscht ist und die die schon schädlich ist sehr nahe beieinanderliegen. Zu hohe Mengen führen zur Knochenentkalkung bei Erwachsenen. Kinder sind noch empfindlicher. Die optimale Dosis liegt derzeit bei 1mg/Tag. Ab 2 mg/Tag kommt es schon zu ersten Schäden (Ablagerungen auf den Zähnen, die aber noch ein kosmetisches Problem sind). Weiterhin ist Fluorid sehr ungleichmäßig verteilt, vor allem Wasser kann sehr fluoridreich sein, weshalb Trinkwasser maximal 1,5 mg Fluorid/l enthalten darf. Daneben wird Salz teilweise fluoridiert. Wegen der besonderen Bedeutung für die Kariesprophylaxe ist es in Zahnpasta (0,145 % die Menge von 1 mg Fluorid sind in 0,67 g Zahnpasta enthalten) enthalten. Die Gefahr der Überdosierung wird heute aber stärker gesehen als noch vor 30 Jahren. Schluckt man die Zahnpasta z. B. immer runter, trinkt Mineralwasser mit hohem Fluoridgehalt (für dieses gilt die Trinkwasserverordnung nicht) und salzt noch mit fluoridiertem Salz, so kann man leicht ein Vielfaches der optimalen Menge aufnehmen. So ist im Gespräch von Fluorid in Zahnpasta zu warnen (sollte nicht geschluckt werden) und die in anderen Ländern praktizierte Trinkwasserfluoridierung ist auch rückläufig.

Ausgestorbene Ernährungskrankheiten

Mein Buch verzeichnet noch Jodmangel (Kropfbildung) und Obstipation (Ballaststoffmangel) als ernährungsabhängige Krankheit. Davon habe ich lange Zeit nichts mehr gehört. Iod ist deswegen außer der Diskussion, weil seit den Achtzigern der Verbrauch von iodiertem Salz, auch im Gewerbe massiv zugenommen hat. Den Jodmangel gibt es damit nicht mehr.

Verstopfung gibt es immer noch, der Ratschlag mehr ballaststoffreich zu essen, um Obstipation zu vermeiden ist auch der gleiche geblieben, aber anscheinend gilt es nicht mehr als echte Krankheit, dafür ist die Fernsehwerbung allerdings voll mit Werbung für Medikamenten gegen Verstopfung.

Ganz groß im Kommen: Allergien

Allergien gab es schon immer, wobei wir hier eher von Nahrungsmittelintoleranzen sprechen sollten, zu denen mehr als nur Allergien gehören. Die meisten sind erblich und der Anteil der Bevölkerung, der betroffen ist, ist konstant. In meinem Buch kommen sie gar nicht vor. Glaubt man der Werbung, so scheint sich der Kreis der Betroffenen jedoch drastisch erhöht zu haben. Es wird geworben mit:

„ohne Laktose“ - in Deutschland haben 10 – 20 % der Bevölkerung eine zu wenig aktive Laktase, das ist das Enzym, das Laktose in seine Bausteine Glucose und Galactose spaltet. Sie vertragen aber trotzdem Laktose, nur eben nicht so viel auf einmal. Das heißt: fermentierte Produkte wie Käse oder Joghurt sind kein Problem, frische Milch oder Sahne dagegen eines. Die Laktose kann man enzymatisch spalten und so gibt es inzwischen auch laktosefreie Milch und andere Produkte zu kaufen. Der Sinn von laktosefreien Schokoriegeln oder Nuss-Nugatcremes (dort wird Milchpulver zugesetzt) erschließt sich mir jedoch nicht, denn wie oben angesprochen ist es ja ein Mengenproblem – die kleine Menge an Milchpulver in einem Nutellabrot verträgt der Darm ohne Problem. Hauptbestandteil von Nutella sind ja Öl und Zucker und nicht Milchpulver.

„ohne Gluten“ - Gluten, eine Proteinfraktion, die in Weizen und Roggen vorkommt, verursacht eine schwere Autoimmunkrankheit die Zöliakie. Die Betroffenen müssen glutenhaltige Lebensmittel lebenslang meiden. Das betrifft vor allem Brot, andere Waren, die man nicht nur aus Mehl sondern auch aus Stärke herstellen kann, wie Kuchen oder Nudeln konnte man schon immer glutenfrei produzieren. Betroffen sind jedoch nur 0,2 bis 0,5 % der Bevölkerung.

„Ohne Zusatzstoffe“ - es gibt Allergien gegen Zusatzstoffe, am häufigsten gegen einige Konservierungsstoffe, relativ selten gegen einige Azofarbstoffe. Doch verglichen mit den Allergien gegen Nahrungsmittel sind nur wenige betroffen, die Datenlage ist wegen der geringen Zahl der bekannten Fälle dürftig. Zwischen 0,01 bis 0,2 % wird geschätzt. Trotzdem kann man mit der Werbung „ohne Konservierungsstoff“ (auch wenn gesetzlich vorgeschrieben ist, dass das Lebensmittel gar keine Konservierungsstoffe enthält) heute noch die Verbraucher für dumm verkaufen.

Inzwischen müssen auch alle allergenen Lebensmittel gekennzeichnet sein – außer gegen diese einzelnen Stoffe haben 2-3 % der Bevölkerung eine Allergie gegen bestimmte Lebensmittel. Die häufigsten müssen seit 2005 im Zutatenverzeichnis hervorgehoben werden. Der Effekt dieser Maßnahmen ist vor allem der, das sehr viel mehr Menschen glauben, sie haben eine Allergie, als noch vor 30 Jahren, obwohl der prozentuale Anteil gleich geblieben ist. Vor allem kann man damit toll werben. So kann ein Lebensmittel, das gar kein Weizen oder Roggenmehl verwendet, wie ein Öl oder ein Schinken damit werben, „glutenfrei“ zu sein.

Das Paradoxe der Ernährungsirrtümer

Noch nie gab es so viele Dinge, die man bei der Ernährung falsch machen kann. Irgendwie muss sich das doch auch an den Statistiken ablesen lassen. Doch die geben den Protagonisten von „Alles ist Gift“ nicht recht. Die Lebenserwartung steigt an. Trotz zunehmender Zahl an Übergewichtigen, obwohl inzwischen nach Grenzwertabsenkung ein Großteil der Bevölkerung behandlungsbedürftige Cholesterinwerte hat. Daran ist sicher auch die medizinische Versorgung schuld, aber nicht alleine. Noch nie war es so leicht seinen Tagesbedarf zu decke. Dank Vitaminisierung von Lebensmitteln sogar, wenn man sich einseitig ernährt. Natürlich leben dann die Leute länger. Denn riskant sind weniger Junk-Food und Süßigkeiten, als vielmehr Mangelernährung und einseitige Ernährung wie nach Atkins oder Dukan.

14.1.2018: Monte-Zumas Rache

Sieben Tag nach dem Start der US-Geheimnutzlast „Zuma“ gibt es noch immer Rätselraten. Für alle, die es nicht so genau verfolgt haben, hier eine kurze Zusammenfassung der wenigen Fakten, die es gibt:

Wie man sieht, viel Informationen gibt es nicht. Das wahrscheinlichste Szenario, das mit den Fakten im Einklang steht, ist das: Es ist unwahrscheinlich, dass die USAF einen Satelliten startet, der sich im ersten Orbit nur wenige Stunden hält. Selbst früher, als man Satelliten schneller in Betrieb nahm, als heute, wo das Wochen dauern kann, waren die ersten Umlaufbahnen mindestens über einige Tage stabil. So gibt es zwei mögliche Ursachen:

Die Medien haben sich auf das letzte Szenario gestürzt. Ich halte es auch für das wahrscheinlicher. Denn dann passt das zu der Verlautbarung von SpaceX, ihre Rakete habe einwandfrei funktioniert. Rein formal sehen sie ihre Verantwortung erfüllt, wenn der Orbit erreicht ist, wenn Northrop-Grumman den Nutzlastadapter gebaut hat, dann geht ab dann die Verantwortung an sie über.

Nun ja nicht ganz, wenn das Pentagon bei Fragen zum Start an SpaceX verweist, dann sieht das für mich aus, als würden sie SpaceX für verantwortlich halten und nicht Northrop-Grumman.

Nun zu meinen Interpretationen. Es ist ohne irgendwelche Fakten natürlich sehr spekulativ. Aber im Prinzip gibt es bei zwei Firmen natürlich zwei Verantwortungsbereiche. Dazu muss man nur ansehen, wie das normalerweise abläuft. Der Adapter wird unten fest auf der Rakete verschraubt. Oben wird der Satellit angebracht. Er wird durch Spannbänder fixiert, die fest angezogenen Bänder halten ihn in der Position. Am Boden des Adapters sind Federn angebracht und die werden durch das Gewicht des Satelliten zusammengedrückt.

Bei der Abtrennung geschieht Folgendes: Die Stufe übermittelt an den Adapter ein elektrisches Signal, das meist simpel nur dazu genutzt wird, pyrotechnische Ladungen elektrisch zu zünden. Sie treiben Schneidmesser an, welche die Spannbänder durchtrennen. Dadurch ist der Satellit frei und die Federn am Boden drücken ihn weg. Da kann natürlich etwas schiefgehen. Für unseren Fall wären zwei Dinge wahrscheinlich. Es kann sein, dass die Sprengbolzen nicht zünden, dann bleibt der Satellit verbunden. Es kann aber auch sein, das die Rakete das Signal zum Ablösen gar nicht erst überträgt oder es nicht ankommt, z. b. durch falsche Verkabelung (Erfahrene fühlen sich an die Fehlstarts F7 und F8 der Europa erinnert, als zwischen Französischer und deutscher Stufe falsch war und dadurch das Selbstzerstörungssystem bei der Stufentrennung ausgelöst wurde).

Wenn das Pentagon nach den Kommentaren SpaceX für verantwortlich hält, dann weist das mehr auf die zweite Ursache hin.

Unabhängig davon, ist aber mehr schiefgelaufen. Denn es ist ja nicht so, als das man die Abtrennung nicht bemerkt. Bisher hat SpaceX immer Kameras mitgeführt. Das ist heute Standard. Selbst ESA-Satelliten haben, die an Bord, die mechanische Vorgänge aufnehmen wie Entfaltung von Solarpaneelen oder Abtrennung von Hüllen. Warum sollte SpaceX bei diesem Start darauf verzichten. Da wäre dann sofort zu sehen, ob der Satellit abgetrennt wird. Selbst wenn nicht und es keinerlei Verbindung zwischen Satellit und Rakete gibt, dann gibt es doch Messwerte. Jede Rakete hat Beschleunigungssensoren und eine Inertialeinheit an Bord. Die Auslösung der Sprengbolzen führt zur Schwingungen. Danach werden die Federn aktiv. Sie beschleunigen nicht nur den Satelliten. Sie bremsen nach Aktio = Reaktio auch die Stufe ab. So was wird registriert und mit der Telemetrie übertragen.

Was machte aber die Oberstufe? Sie führte danach ein starres Programm aus, dass zwei Stunden nach erreichen des Orbits das Deorbitieren vorsah. Die Absetzung der Nutzlast wird wahrscheinlich direkt nach Erreichen des Orbits erfolgen. Zwei Stunden Zeit das Programm zu stoppen. Das hat SpaceX nicht getan. Danach wären Oberstufe und Zuma zumindest im stabilen Orbit gewesen. Man hätte versuchen können Zuma noch frei zu bekommen. Wahrscheinlich ohne Erfolg. Aber selbst wenn nicht, dann hätte die USAF versuchen können die Mission trotzdem durchführen. Zugegeben, mit einer 4 t schweren Oberstufe wie ein Klotz am Bein (den Treibstoff hätte man ablassen müssen, doch das geht auch ohne die Stufe zu deorbitieren). Wahrscheinlich hätte das die Mission von Zuma stark verkürzt, vielleicht wäre es auch nicht gegangen. Zumindest hätte man aber weitere Tests durchführen können und so das Problem einkreisen können. Damit gibt es die Chance einen ähnlichen Vorfall in Zukunft zu vermeiden.

Was aber macht SpaceX? Nichts. Satellit im Orbit. Mission erledigt. Erinnert mich an das Sprichwort „Operation erfolgreich, Patient tot“. Oder an den Fall des DHL-Mitarbeiters, der ein Päckchen auslieferte, niemanden antraf und eine Paketkarte hinterlies „Päckchen ist in der Mülltonne“. Die wurde an dem Tag geleert …

Ich vermute, das Pentagon sieht es so wie ich: Eine Mission einer Rakete ist erfolgreich und beendet, wenn die Nutzlast im Orbit ist. SpaceX kann sich hier nicht zurückziehen auf den Standpunkt, dass der Nutzlastadapter nicht von ihnen stammt. Sie hätte dann prüfen müssen, ob alles an diesem Adapter mit ihnen kompatibel ist oder es Probleme geben könnte. Vielleicht vertrauen sie, wenn nicht genau klärbar ist, woran es liegt, auch einfach eher Northrop-Grumman, die seit fast 60 Jahren im Geschäft sind als dem Newcomer SpaceX.

In jedem Falle hat der letzte Start einen Milliardenteueren Satelliten im Ozean versenkt. Es ist der erste Auftrag dieser Höhe an SpaceX. Direkt vom Pentagon gab es bisher nur Starts für nicht so wertvolle Satelliten wie die GPS, die in Serie gebaut werden. Wenn da einer verloren geht, dann wird ein neuer gebaut. Direkt von der Air Force gab es keine Aufträge für richtig teuere Nutzlasten. Aber die USAF spart auch und hat seit einigen Jahren die Politik, dass sie nicht mehr Satellit kauft und dann einen Start separat ausschreibt, sondern Nutzlast schlüsselfertig im Orbit als Auftrag vergibt und über die so beauftragten Firmen bekommt dann SpaceX die Startaufträge, so auch hier.

Das Shotwell so kategorisch die Verantwortung von sich weist halte ich nicht für einen Beweis ihrer Unschuld. SpaceX hat eigentlich nur etwas zugegeben, wenn es offensichtlich war. Mal ein paar Erinnerungen:

In all diesen Fällen war von 100 % Erfolg die Rede. Es war niemals ein Fehlstart, aber auch kein 100%-Erfolg, wenn nicht alle Missionsziele erreicht wurden. In allen Fällen leugnete SpaceX Abweichungen, solange es nur ging. Warum sollte es diesmal anders sein?

Es geht ja noch weiter. Der aktuelle Report des unabhängigen Sicherheitspaneels ASAP empfiehlt die Falcon 9 nicht zu zertifizieren, bevor SpaceX das Versagen der Druckfrische richtig versteht.

Wie sieht es bei den Folgen für kommerzielle Flüge aus. Zuerst einmal relativ positiv: Für Versicherungsprämien maßgeblich sind die gemeldeten Verluste. Das waren bisher nur drei: Der Orbcomm der beim CRS-2 mitflog war versichert. Daneben einige Cubesats die beim Fehlstart 2015 verloren gingen und natürlich der Amos, der es nicht mal bis zum Start schaffte. Das ist bei drei Totalverlusten günstig. Auf der anderen Seite kann man nach nunmehr 38 Startversuchen Bilanz ziehen: 3 Totalverluste entsprechen einer Zuverlässigkeit von 1:16. Nicht sehr hoch. Kleiner als die Designauslegung der Ariane 1, die zu einer anderen Zeit und nicht von einer Raumfahrtnation gebaut wurde die schon 20 Jahre lang erfolgreich Trägerraketen im Einsatz hatte. Die aktuellen Träger der USA, aber auch Europas liegen deutlich höher und haben eine Designauslegung von mindestens 1 Fehlstart auf 50 Starts. Natürlich geht auch ein solches Konzept aus – nimmt man 4 % höhere Versicherungsprämien als unmittelbare Folge an, so ist das bei einem typischen Preis von 200 bis 250 Millionen Dollar für einen Satelliten bis zur Inbetriebnahme immer noch ein Gewinn, wenn der Start mehr als 8-10 Millionen Dollar billiger als bei der Konkurrenz ist und ist die Mission kritisch kann man dann ja immer noch zu Arianespace wechseln.

Bald soll ja die Falcon Heavy starten. Musk hat schon im Vorfeld die Erwartungen heruntergeschraubt und spricht von einem „High Risc“ Flug. Ich teile das nicht. Denn wäre es ein Hochrisikoflug so bräuchte SpaceX mindestens zwei Testflüge, für den Fall das die Rakete verloren geht, das man beim zweiten Flug dann nachbessern kann und mindestens eine Rakete den Orbit erreicht, so wie damals bei den Testflügen von Ariane 1+5 (was die ESA allerdings auch nicht davon abhielt, die Cluster Satelliten beim 501 mitzuführen).

16.1.2018: Der Deimos Orbiter

Er ist ein Stiefkind der Planetenforschung. Leicht erreichbar, liegt praktisch vor der Haustür eines anderen Ziels: Deimos. Seit 1997 gab es 15 Missionen zum Mars. Vier weitere werden bis 2020 folgen. Da sollte man meinen. Man hat dort alles erforscht? Alles? Nein ein kleiner unbeugsamer Mond (wahrscheinlich bevölkert von Galliern) leistet der Erforschung standhaft Widerstand. Es ist Deimos!

Gerechterweise muss man sagen, dass auch der zweite Marsmond Phobos nicht besonders beliebt ist. Aber immerhin: Drei Missionen zu ihm wurden gestartet, wenn auch keine erfolgreich war und es gab einige sehr nahe Vorbeiflüge durch Mars Express an Phobos die zur Erkundung genutzt wurden. Aber Deimos?

Bevor ich weiterfahre, holt eure Taschentücher raus, ihr braucht sie. Hier eine Auflistung aller Aufnahmen, die jemals, in 50 Jahren Marsforschung von Deimos gemacht wurden. Der Browser des NASA PDS listet zwar über 11.400 Aufnahmen mit Deimos auf. Doch wenn man sich auf die Instrumente beschränkt die ihn nicht als Punkt zeigen, dann bleiben nur drei Kameras übrig: Viking Orbiter (167), MOC (2) und HiRISE (76). Nicht im PDS sind noch 5 Aufnahmen von Mariner 9. Dazu kommen noch 91 von Mars Express.

Von diesen rund 250 Aufnahmen sind nur zwei dabei bei denen nicht der ganze Mond in das Bild passt. Das sind zwei Aufnahmen von Viking, gewonnen bei einem nahen Vorbeiflug. Eine Schande und das bei so vielen Missionen.

Die Frage ist nun warum? Eigentlich wäre es ja so einfach: jeder Orbiter und davon gab es ja nicht wenige, schwenkt zuerst mal in einen elliptischen Marsorbit ein. Von dort aus könnte er eigentlich Deimos untersuchen. Nur erfolgt das nicht. Heute machen alle Orbiter Aerobraking. Während sie das durchführen, sind die Instrumente zum Schutz meist inaktiv. Aber mit etwas gutem Willen hätte man das kurzzeitig unterbrechen können, wenn die minimale Distanz zu Deimos erreicht ist. Das muss nicht unbedingt dann sein, wenn die Apoapsis bei Deimos ist, da die Bahn ja zum Marsäquator geneigt sein kann.

Analog hätte man bei Mars Express erst mal einen Orbit mit einer Annäherung an Deimos erreichen können und dann nach weiterer Verkürzung der späteren von 11.700 km Distanz.

Kurzum. Ich meine es wäre Zeit für einen Deimos Orbiter. Nun ist das nur ein kleiner Mond. Ein einfacher Satellit würde also reichen. Zeit für einen der (zumindest bei mir) so beliebten Rubrik „Technische Spinnereien“. Hier mal die Randbedingungen:

DV-Abschätzung

Zuerst mal muss das gesamte Geschwindigkeitsvermögen bekannt sein. Ich habe den NASA-Trajectory Browser befragt und er nennt für 2020 bis 2030 ein Gesamt-dV vom 200-km-Erdorbit heraus von 4,25 bis 4,46 km/s reaktiv zur Marsfluchtbahn in einem 200-km-Marsorbit. Zwei zeitlich erreichbare Startfenster 2024 und 2026 haben eines von 4,26 km/s. Das ist das dV relativ zu einer Fluchtbahn beim Mars. Um in einen 200 x 80,000 km Orbit einzuschwenken braucht man noch etwas mehr, nämlich 103 m/s. Diese erste Bahn würde man durch Aerobraking bis auf Deimos Orbit (23.460 km vom Zentrum entfernt) absenken. Danach müsste man die Periapsis anheben. Das ergibt dann folgende dV Bilanz:

Operation

dV

Verlasen der Erde

3,63 – 3,68 km/s

Einbremsen in Marsorbit 200 x 80.000 km

0,67 – 0,73 km/s

Aerobraking (Absenken/Anheben Periapsis auf 120 km)

9 m/s

Zirkularisieren 200 x 20.0060 km

0,66 km/s

Verschiedene Manöver / Reserve

0,2 km/s

Gesamt:

5.22 km/s

Nutzlastabschätzung

Die Vega-C soll 800 kg mehr als die Vega in den Referenzorbit (polar, 700 km Höhe) bringen. Gilt die Steigerung prozentual für den niedrigen Orbit, dann müssten es 3.600 kg in den LEO sein. Bei US-Stufen dieser Masse liegt das Voll/Leermasseverhältnis bei 8 bis 10:1. Das befüllte Antriebssystem von Rosetta erreicht 11:1. Ich nehme mal die goldene Mitte: 1:9,5. Ein 420-N-Triebwerk von EADS erreicht einen spezifischen Impuls von 321 s = 3149 m/s. Macht man damit eine Abschätzung, indem man die Ziolkowski-Gleichung bemüht, so kommt man auf eine Nutzlastmasse ohne Antriebssystem von 343 kg. Knapp aber machbar. Es liegt immerhin besser als die beiden genannten Marsorbiter Odyssey (327) und MCO (294 kg).

Tune me up

So kleine Antriebssysteme haben eine hohe Trockenmasse. Die Tanks müssen auf 30 Bar Druck ausgelegt sein. Das Druckgas wiegt wegen der Druckgastanks für die Druckgasförderung auch nicht wenig. Hier wären es bei 3257 kg Startmasse 343 kg Trockengewicht. Die Stufe wiegt also genauso viel wie die Nutzlast. Das ist nicht aktzeptabel.

Meine Vorstellung ist es daher, wie bei der Breeze M einen Teil abzuwerfen. Am besten natürlich so spät wie möglich. Der Großteil der Geschwindigkeitsänderung erfolgt bei der Erde. Meine Vorstellung ist es daher Tanks abzuwerfen, wenn man sich in einem hochelliptischen Erdorbit befindet. Nimmt man ein dV von 3000 m/s bis zum Abwurf an (10.800 m/s = 150.000 km Apogäum) so sieht die Rechnung so aus:

 

Punkt

Masse

200 km Kreisbahn Erde

3.600 kg

200 x 150.000 km

1.388 kg

Abwurf Tanks, Druckgastanks

1.128 kg

Deimosumlaufbahn

558 kg

Ohne Antriebssystem

490 kg

Eine deutliche Verbesserung: Es sind nun 147 kg mehr oder 42 % mehr Gewicht.

In der Praxis ist es aber nicht so einfach. Das 400-N-Triebwerk ist zu schubschwach. Bei nur einem Triebwerk müsste man enorm viele Zündungen nahe des Perigäums durchführen. Mit 4 Triebwerken kommt man aber nach 3 Zündungen eine 592 x 151.000 km Bahn bei einer Endmasse von 1.331 kg. (Der Unterschied zu obigen 1.388 kg sind 130 m/s Gravitationsverluste). Berücksichtigt man die Gravitationsverluste, dann kommt man auf eine Nutzlast im Orbit von 463 kg.

Das sind rund 100 kg mehr als gefordert – also möglich. In der Masse liegt der Orbiter dann zwischen den schon angesprochenen Orbitern um Mars Express, der ohne Antriebssystem 521 kg wiegt.

Wissenschaft

Prinzipiell kann man natürlich viele Instrumente einsetzen. Bei dem Verhältnis von 1/7 sind 66 kg. Das reicht für einige Instrumente. Viele scheiden aus, so Instrumente zur Untersuchung von Teilchen/Feldern (in dieser Distanz erwartet man keine mehr) oder Atmosphären.

Eine sinnvolle Suite würde ich nennen:

Das wäre das Minimum. Man könnte es noch ergänzen.

Da man sich dem Mond relativ nahe nähern kann, man muss dazu nicht mal einen Orbit um Deimos einschwenken, sondern es reicht einen Marsorbit einzunehmen, dessen Periapsis leicht innerhalb von Deimos Bahn und dessen Apoapsis leicht außerhalb liegt, kann man sich ihm leicht auf 20 bis 50 km Distanz nähern und bei langsamen Vorbeiflügen erfassen.

Sekundärnutzen

Warum man einen Deimos-Explorer noch nie umgesetzt hat, ist mir ein Rätsel. Es gibt nämlich einen Sekundärnutzen. Deimos hat eine Umlaufszeit von 30 h 17 Minuten. Er liegt damit leicht außerhalb der geostationären Bahn von Mars (24 h 37 Minuten), die in 17.030 km Distanz verläuft. Eine Geschwindigkeitsänderung von 97 m/s und der Orbiter ist ein geostationärer Marssatellit. Das kann die Aufgabe einer erweiterten Mission sein, wenn er Deimos erkundet hat.

Was kann der Orbiter im geostationären Orbit machen? Primär natürlich die Daten von Landesonden empfangen. Bei der kleinen Distanz reicht ist die Datenrate hoch. Wenn der Orbiter wie MCO und Odyssey eine 1,3-m-Antenne hat und der Lander eine Rundstrahlantenne mit 5 Watt Sendeleistung. Dann kann der Lander rund 1 Mbit/s von den Polen und 1,5 MBit/s vom Äquator übertragen werden. Anders als bei den heutigen Orbitern hat der geostationäre Orbiter für eine Hemisphäre dauernden Funkkontakt. Damit wäre auch eine Richtantenne möglich. Für einen Rover mit 60 Grad Öffnungswinkel kommt man auf 30 Mbit/s und mit einer kleinen, 30 cm großen Phase-Array Antenne bei einem stationären Lander (20 Grad Öffnungswinkel) auf über 280 Mbit/s. Alle angaben für das X-Band.

Die bisherigen US-Mars Orbiter hatten alle Weitwinkelkameras zur Beobachtung des Marswetters (MGS, MCO, MRO). Damit diese aus dem niedrigen Orbit den Mars abbilden konnten, hatten sie extreme Weitwinkelobjektive (140 bis 180 Grad Gesichtsfeld). In 17.000 km Distanz ist der Mars global ohne Verzerrung mit einem leichten Teleobjektiv abbildbar. Bei einem 4 x 4 K Sensor und 8.000 km Bildgröße erhält man eine Bodenauflösung von 2 km. Derselbe Sensor müsste Deimos aus 32 km Distanz komplett abbilden. Daher bieten sich also eine Telekamera und eine Weitwinkelkamera an.

Neben dem Spektrometer im sichtbaren Bereich/nahen IR für die mineralogische Kartierung bietet sich als Ergänzung für die Marsbeobachtung ein Spektrometer an, das nur bei engen Spektralbereichen wie dem Absorptionsbereich von Wasserdampf oder Staub arbeitet. Die liegen im mittleren IR. Da der Satellit stationär ist, reicht für ein solches Instrument eine einfache Punktmessung aus, der Sensor wird dann zeilenweise über die Planetenoberfläche geführt. Man würde dann ein Bild erhalten, das die Konzentration von Wasserdampf oder staub zeigt. Derartige Instrumente werden gerade beim Trace Gas Orbiter eingesetzt.

Datenabschätzung

Nimmt man dieselbe Datenrate wie Mars-Express (im Mittel 2 GBit/Tag) und eine Primärmission von 365 Tagen bei Deimos an, so sind dies 730 GBit. Wenn die Kameradaten 1/3 ausmachen und man jeden Punkt der Oberfläche zweimal abbildet (überlappende aufnahmen) so wären dies bei unkomprimierten Daten und 12 Bits/Punkt rund 10 Milliarden Pixel, bei rund 1.000 km² Oberfläche mithin eine Kartierung mit einer Auflösung von unter 0,4 m. Das bedeutet, dass man wirklich detaillierte aufnahmen bekommt. Selbst in Farbe wäre die Auflösung unter 1 m. Spektren wird man bei derselben Datenmenge mit einer räumlichen Auflösung von 5 bis 10 m erstellen können (256 / 1024 Punkte/Spektrum). Voraussetzung wäre ein intelligenter Bordcomputer, der eine Szene nur einmal aufnimmt und Teile des Bildes verwirft, die schon beobachtete Gebiete nochmals zeigt. Bei Orbitern ist das einfacher, weil sie immer einen Streifen aufnehmen. Bei Deimos ist die Form unregelmäßig und die Entfernung schwankend. Zudem müsste man wegen der wechselnden Entfernung des Mars von der Sonne und daher schwankenden Datenrate einen großen Speicher haben, um Daten der Opposition bei der Konjunktion zu übertragen.

Als geostationären Satellit würde die Übertragung der Daten der Landemissionen Priorität haben. Bei Mars Express schwankt die Datenmenge pro Tag um den Faktor 10. Die Zahl der Bilder vom Mars würde noch mehr schwanken, da von der Datenmenge die konstante Datenmenge der Landesonden abgeht. Das MSL überträgt im Mittel 250 Mbit/s. Nimmt man 500 Mbit/s als Datenmenge an, so würde, wenn der Orbiter genauso leistungsfähig wie Mars Express wäre, man in der Opposition nur Daten der Landesonden übertragen. Bei der Konjunktion dagegen bis zu 4,5 Gbit/Tag, im Mittel 1,5 GBit/Tag. Das wäre dann bei einer Kompression von 5, 65 Aufnahmen von je 16 Mpixeln.

Resümee

Die Kombination von Deimos-Forschung und geostationärem Satelliten ist sinnvoll. Man baut einen Satelliten und hat einen dreifachen Nutzen:

Schade das so was nicht in den Marsplänen auftaucht.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99