Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 339: 18.7.2013 - 22.7.2013

18.7.2013: Das schwarze Loch in Berlin

Elektrisiert war die Astronomiegemeinde durch die Entdeckung eines schwarzen Loches: nicht im Zentrum der Milchstraße, sondern in Berlin. Zwar hatten Hawking und andere schon lange die Möglichkeit von "Mini" und "Mikro" Schwarzen Löchern die kleiner und leichter als 3,2 Sonnenmassen sind postuliert, aber niemand glaube man könnte eines erzeugen. Selbst im CERN wo man durch den neuen Beschleunigerring extrem hohe Energien auf kleinsten Raum erzeugt sind die schwarzen Löcher die dort entstehen nicht stabil, sie verdampen zu schnell.

Stabil sind schwarze Löcher die bei der Fusion von Neutronensternen, weißen Zwergen oder einer Supernova entstehen und mindestens die 3,2-fache Sonnenmasse haben. Sie können wachsen und größer werden, aber sie sind unvergänglich. Kleinere schwarze Löcher sind dagegen vergänglich, sie verdampfen, weil sie mehr Energie abgeben als die aus der Umgebung aufnehmen, außer diese enthält Gase oder andere Materie welche das Schwarze Loch speist. Dabei handelt es sich um einen sich beschleunigen Vorgang sehr kleine Schwarze Löcher explodieren schließlich.

Doch wie ist es zu dem schwarzen Loch gekommen und warum ist es anders als die des CERN stabil? Nun, die Entstehung war der Beweis, das die Gesetze der Naturwissenschaft auch auf soziale Aspekte anwendbar sind. Die meisten schwarzen Löcher entstehen durch die Fusion von zwei weißen Sternen / und / oder Neutronensternen. Ein Stern hat sehr lange zeit ein ruhiges "Leben", bläht sich aber zum Ende seines Daseins auf, weil der Kernbrennstoff im Zentrum erschöpft ist. Das Brennen wandert nach außen und der Stern wird heller, größer und erscheint bedeutender, doch ist dies nur die letzte Phase. Ist der ganze Brennstoff im Zentrum verbraucht, so kollabiert dieses und die Hülle wird abgestoßen. Übrig bleibt der Kernbereich der sehr klein ist (etwa so groß wie die erde) und sehr heiß. Er wird daher als weißer Zwerg bezeichnet. Stoßen zwei weiße Zwerge zusammen, so können sie je nach Masse einen Neutronenstern oder ein schwarzes Loch bilden.

Nun kam es zu der Entstehung des schwarzen Lochs, als sich am Sonntag bei einer Wahlkampfsendung durch Zufall der Vorsitzende der Piratenpartei Bernd Schlömer und der Spitzenkandidat der FDP Rainer Brüderle anrempelten. Die weiter hinten postierten Journalisten, die dieses Ereignis überlebten beschrieben, die Folgen als eine Explosion ohne Knall, aber mit einem grellen Lichtblitz. Danach sei an der Stelle nur noch ein schwarzes Loch gewesen. Doch wie konnte es dazu kommen. Eine erste Erklärung ist, dass beide Parteien dasselbe wie ein Stern durchliefen: die FDP durchlief lange Zeit ein stabiles "Leben" mit beständigen Wahlergebnissen, mit kleinen Schwankungen. 2009 blähte sie sich dagegen auf, erreichte ein vielfaches der früheren Stimmen, nur um wenige Monate später zu kollabieren und aus den meisten Landtagen zu fliegen. Dies war die Entwicklung zum weißen Zwerg und wie ein Zwerg wurde die FDP auch von der CDU und vor allem Kanzlerin Merkel behandelt. Ein noch schnellere Entwicklung durchlief die Piratenpartei, die aus dem nichts entstand, sehr schnell in Landtage einzog um danach wieder ins absolute Nichts zu fallen. Astronomen vergleichen die Entwicklung mit einem hellen blauen Überriesen, der nur kurz lebt, dabei hell leuchtet und einen Neutronenstern hinterlässt. Kommt ein Neutronensten einem weißen Zwerg zu nahe, so bildet sich ein schwarzes Loch.

Erstaunlicherweise scheint dies im politischen Berlin keinen zu berühren. Peer Steinbrück sagte, er weine Brüderle keine Träne nach. Seehofer betonte, dass man sowieso eine Koalition mit den Grünen anstrebe und Jürgen Trettin meinte, die FDP und Piraten wären eh überflüssig gewesen. Vielmehr macht man sich Gedanken wie man das schwarze Loch erforschen und nutzen könnte. Derzeit ist das Gebäude, in dem das Miniloch sich befindet von der Polizei abgeriegelt. Weniger zum Schutz des schwarzen Loches, als vielmehr der Allgemeinheit, da es Röntgenstrahlung aussendet und die Wände diese absorbieren. Die Charité möchte das Loch für Röntgenreihenuntersuchungen und zur Krebsbehandlung nutzen. Derzeit wird untersucht wie viel Strahlung es ist und wie man das Loch stabil erhalten kann.  In den letzten Tagen wurden täglich 2 bis 3 Kilogramm Materie hinein geworfen und die Strahlung nahm nicht zu, somit dürfte es gleich groß bleiben. Ein kleines Loch gibt Energie ab und verdampft so, führt man aber zu viel Materie zu so wächst es und könnte das Gebäude, einen Häuserblock oder sogar Berlin verschlucken. erreicht es eine Masse von mehr als 1 Million Tonnen würde es zum Erdmittelpunkt sinken und dort verbleiben, die Folgen wären mit Sicherheit starke Veränderungen der Bewegung der Materie des Erdmantels und dadurch Vulkanausbrüche und Erdbeben. Bis jetzt wird das Loch mit Staatsanleihen "gefüttert". Man kam darauf als ein Journalist einen Bußgeldbescheid wegen Falschparkens hineinwarf um es zu testen und sich herausstellte, dass danach der Vorgang nicht mehr bei der Polizei verzeichnet war. Da ein schwarzes Loch ist eine eigene Welt, abgeschottet von unserer Raum-Zeit ist, wird alles was in ein schwarzes Loch fällt, wird aus unserer Welt herausgelöst. Offensichtlich reicht dazu schon der schriftliche Nachweis aus. Finanzminister Schäuble rechnete vor, dass die Staatsverschuldung innerhalb von 3 Tagen schon um 308 Millionen Euro abgenommen hat. Ein schwarzes Loch würde bei dieser Rate so die Staatsverschuldung jährlich um über 37 Milliarden senken.

Schäuble ist daher auch dagegen, Umweltministers Altmaiers Vorschlag, das Loch zum Entsorgen von Atommüll zu benutzen umzusetzen. "Der Gedanke ist reizvoll, doch dieser ist nicht so dosierbar wie Papier. Die Castoren wiegen jeweils mehrere tonnen, ein einziger würde das Schwarze loch erheblich vergrößern und wir wissen nicht ob wir es dann noch beherrschen können.".

Stromkonzerne überlegen rund um das Loch ein Kraftwerk zu bauen. Die abgegebene Leistung würde bei einem Wirkungsgrad von nur 10% ein Kraftwerk von 240 MW Leistung ersetzen. Es wäre auch denkbar, für diesen Zweck weitere schwarze Löcher in Betrieb zu nehmen. Damit wäre die BRD sehr bald völlig unabhängig von fossilen Energieträgern und die klimaziele schon weit vor 2020 erreicht.

Nur gibt es da ein Problem. Wie erzeugt man weitere Löcher? Teilen scheint nicht möglich zu sein. Sämtliche Abgeordnete der FDP in den Länderparlamenten und im Bundestag, sowie alle im Vorstand sind untergetaucht. Westerwelle blieb im UN Gebäude und weigert sich dieses zu verlassen. Rössler hat einen Charterflug nach Vietnam genommen und hofft dort durch sein Aussehen nicht mehr aufzufallen und die Regierungen von Venezuelas, Boliviens, Ecuadors und Russlands berichteten, dass sie von Asylanträgen ehemaliger Piratenparteimitgliedern überhäuft werden.

Für die Parteimitglieder scheint aber nach Ansicht von Astrophysikern keine Gefahr zu bestehen. "So wie wir die Entstehung verfolgt haben, muss dass es zu einem schwarzen Loch kommen kann, bei den beteiligten Personen in etwa der Lebenslauf eines Sterns vorliegen. Das dürfte bei den Verantwortlichen in der Partiespitze der Fall sein, nicht jedoch bei den einfachen Parteimitgliedern. Trotzdem erfreuen sich seitdem, FDP Aufsticker in hellblau und Piratenparteisticker in Lila großer Beliebtheit. offenbar wollen Mitglieder der beiden Parteiem eine zufällige nahe Begegnung vermeiden.

Laut Merkel sei es aber auch nicht geplant, weitere schwarze Löcher zu "erzeugen". "Eine Opferung einzelner, zum Wohle der Allgemeinheit steht im Widerspruch zu den Menschenrechten", erklärte Regierungssprecher Seibert. Eine Nachfrage, warum aber Berlins Bürgermeister Wowereit und Fraktionsvorsitzender der Piraten in Berlin Oliver Höfinghoff von der Polizei inhaftiert wurden und Gerüchte, die Verschuldung Berlins würde sehr bald sich von 90 auf 18 Milliarden reduzieren und alle Probleme beim Flughafen BER seien nun gelöst" wollte er aber nicht kommentieren.

19.7.2013: Sinnvolle Einsatzmöglichkeiten von Doppelmissionen

Sehr bald nach Beginn der Raumfahrt etablierte es sich Missionen in Doppelpack zu starten. Sehr bekannt ist dies bei den Raumsonden, doch es gab auch Erdsatelliten bei dem es mehrere Exemplare gab oder sogar eine Serie, so bei den Satelliten der OAO, OGO und OSO Serie und natürlich bei Wetter- und Kommunikationssatelliten. Doch letztere sind etwas besonderes, weil man für ein operationelles System sowohl für die globale Kommunikation wie auch eine zuverlässige Wettervorhersage mehr als einen Satelliten braucht.

Ich will mich mit der Untersuchung daher auf wissenschaftliche Missionen beschränken. Also warum wurden Satelliten in kleinen Serien gestartet oder zumindest als Doppelmission.

Nun der offensichtlichste Grund ist, um zu gewährleisten, dass eine Mission auch erfolgreich ist. Das naheliegende Risiko ist das Startrisiko, das in den sechziger Jahren noch hoch war, aber in den Siebzigern schon bei den meisten Trägern das heutige Niveau erreichte. So stellten die USA die Doppelstartpraxis auch 1977 mit Voyager 1+2 ein, danach gab es (mit einer Ausnahme) nur noch Einzelmissionen. Russland, die ihre Proton mit einer selbst in den Siebzigern noch hohen Ausfallrate einsetzten, gaben diese Praxis erst 1988 mit Phobos 1+2 auf.

Neben dem Ausfall der Trägerrakete konnte natürlich auch etwas mit der Sonde selbst passieren. Die USA hatten hier enorm viel Glück. Alle Raumsonden, die ohne Probleme einen Erdorbit verließen, waren zumeist erfolgreich. Bis 1994 scheiterten nur die Landungen zweier Surveyors. Danach gab es eine Reihe von Verlusten, doch dies betraf immer Einzelsonden, da dies dann die normale Praxis war. Bei den russischen Sonden, mit erheblich mehr Ausfällen auch auf dem Weg zum Planeten, dürfte dies ein wichtiger Grund gewesen sein, trotzdem gibt es einige Fälle in denen nicht einmal Doppelstarts ausreichten auch nur eine Sonde heil zu ihrem Ziel zu bringen.

Ein zweiter Grund ist, dass zwei Sonden es ermöglichen entweder eine bestimmte Aufgabe aufzuteilen oder mehr Daten zu gewinnen. Das Aufteilen finden wir bei vielen Missionen. Bei den Lunar Orbitern wurden die Mondlandeplätze von verschiedenen Orbitern fotografiert, da jeder nur einen begrenzten Filmvorrat hatte. Mariner 8+9 teilten sich die Aufgaben "Globale Kartierung" und "regionale hochauflösende Aufnahmen" auf. Mariner 9 musste schließlich beides durchführen. Voyager 1+2 teilten sich die Monde bei den Vorbeiflügen auf und erlaubten auch die Beobachtung der Gasplaneten über längere Zeit. Venera 15+16 teilten sich die Radarkartierung auf.

Besonders bei Landesonden ist wichtig, dass jede nur einen Ausschnitt zeigt. Raumsonden die einen Orbit einschwenken können, wenn sie auch nur Einzelsonden sind den ganzen Planeten erfassen - es dauert bei einer Sonde eben länger. Doch eine Landesonde kann nur ein Gebiet untersuchen. Selbst wenn sie wie heute mobil ist. Das gilt auch für Vorbeiflugsonden. Maximal die Hälfte der Oberfläche ist aus naher Distanz zugänglich. Wenn man Glück hat rotiert der Himmelskörper schnell, sodass man auch die andere Seite aus größerer Entfernung ablichten kann.

Bei Satelliten im Erdorbit haben wir einen weiteren Grund. Hier ist man sehr oft an einer Langzeituntersuchung interessiert. Die OSO Serie wurde über zwei Jahrzehnte eingesetzt, nur eben mit immer neuen Instrumenten, um das Beobachtungsspektrum zu erweitern, aber auch die Sonne über mehr als einen Sonnenzyklus (11 Jahre) hinweg zu beobachten. Hier wird oft ein identischer Satellitenbus und unterschiedliche Instrumentierungen genutzt.

Astronomische Satelliten haben noch ein anderes Manko: Die meisten Beobachtungen brauchen viel Zeit. Entweder um ein Objekt nach Veränderungen zu untersuchen, oder weil es eine lange Belichtungszeit erfordert. Es gibt aber unzählige Objekte zu beobachten und auch viele Anfragen von Astronomen, von denen nur ein Teil auch umgesetzt werden kann. Mehrere Satelliten erlauben hier einen Zugewinn an beobachteten Objekten oder Beobachtern.

In der Regel ist ein Nachbau eines Satelliten oder einer Raumsonde billiger als das erste Exemplar. Das liegt daran, dass die Entwicklungskosten für die Sonde aber auch die Experimente nur einmal anfallen. Es wird billiger wenn schon entwickelte Instrumente oder Busse genutzt werden, wie man zum Beispiel bei Mars und Venus Express sehen kann. Bei US-Raumsonden gab es einen Durchschnitt von 30 bis 40% der Kosten für das zweite Exemplar. So ähnlich lag auch der Nachbau von Cluster. Die Originalsatelliten gingen beim Ariane 5 Jungfernflug verloren. Das Programm kostete 460 Millionen Euro (ohne Start). Der Nachbau inklusive zweier Starts auf Sojus (60 Millionen Euro) nur noch 214 Millionen. Dies ist jedoch nicht immer so. Cryosat war dank eines schon bestehenden Busses recht preiswert und TerraSAR-X auch. Die Nachbauten (Cyrosat 2 und TanDEM-X) waren daher nur wenig billiger. Bei sehr komplexen Neuentwicklungen wie den Viking Lander kann ein zweites Exemplar aber auch nur 15% des ersten kosten.

Was folgt daraus?

Nun für Orbiter zu anderen Planeten ist sicher nach wie vor ein Einzelstart sinnvoll. Hier kann man durch eine längere Mission einen zweiten identischen Orbiter ersetzen. Bei Landesonden wird es schon kritischer. Die beiden Rover Spirit und Opportunity (eine Ausnahme der Einzelstartregel) zeigen sehr gut, dass zwei Landegeräte in zwei unterschiedlichen Gegenden auch unterschiedliche Dinge finden können. Genauso unterscheiden sich die Fotos der Venera Landesonden voneinander. Sinnvoller ist aber auch nur das Landegerät erneut zu verwenden, aber die Fragestellungen und Instrumente anzupassen. Gerade der Mars zeigt zwar, dass es regionale Unterschiede gibt, aber die größeren Erkenntnisse, durch den Einsatz neuer (oder anderer) Untersuchungsmethoden zustande kommen.

Anders sieht es bei Vorbeiflugsonden aus. Sie sind zwar außer der Mode, aber für bestimmte Missionen immer noch die einzige Möglichkeit. Die äußeren Planeten, ihre Monde aber auch alle KBO (Kuiper Belt Objects) sind heute nur mit Vorbeiflugsonden erreichbar. Das gilt auch für langperiodische Kometen.

Nehmen wir New Horizons. Die Sonde wird zwar an Pluto in nur rund 10.000 km Entfernung vorbeifliegen. doch sie wird nur eine Hälfte des ehemaligen Planeten erfassen können. Da Pluto in 6,38 Tagen einmal um die Achsel rotiert, entstehen die besten Aufnahmen der anderen Seite 3,2 Tage vor der Ankunft. Bei einer Geschwindigkeit von 15 km/s relativ zu Pluto ist da die Sonde dann noch über 4 Millionen km von Pluto entfernt und dieser nur etwa 100 Pixel groß. Eine zweite Sonde könnte nicht nur die andere Hälfte erfassen sondern bringt noch einen zweiten Vorteil mit: Liegen zwischen den Ankunftsterminen mehrere Monate, so kann man das Messprogramm anpassen. Das zeigte sich bei Voyager. Voyager 2 errichte den Jupiter vier Monate nach Voyager 1 und den Saturn 9 Monate später. Das reichte aus das Messprogramm anzupassen. Beim Jupiter wurden weitere Observationen von Io und eine Aufnahmesession um den Ring zu fotografieren eingeschoben. Beim Saturn die gesamte Überwachung der Ringe neu geplant.

Missionen zu den äußeren Planeten Uranus und Neptun haben auch noch den Vorteil, dass die Anforderungen an die Instrumente sehr ähnlich sind. Das gilt auch mit Einschränkungen, wenn man die Sonden zu einem KBO schickt. Da ein Flug über Jupiter als Sprungbrett über jeweils 3-4 Jahre möglich ist, kann man die Starts auch verteilen und erreicht so eine kleine Serienproduktion. Als Nebeneffekt wäre auch das Jupitersystem besser untersucht und bei genügend naher Vorbeiflugdistanz könnte eine Sonde so einen Teil der ausgefallenen nahen Mondbeobachtungen von Galileo nachholen. 2008 hätte New Horizons, wenn sie das primäre und sekundäre Startfenster versäumt hatte z.b. zu Neptun (in etwa gleicher Energiebedarf) oder Uranus (etwa 1,5 km/s weniger) geschickt werden können. Starts zu Neptun über Jupiter wiederholen sich alle 12 Jahre und zu Uranus alle 13 Jahre.

In der Summe wäre es wünschenswert, wenn man soweit es geht Synergien nutzt. Das kann dadurch geschehen, dass man ganze Raumsonden erneut einsetzt (Bsp. Venus Express aus Mars Express entwickelt), oder Instrumente möglichst oft einsetzt oder gleich zu einem modularen System kommt das man für verschiedene Missionen aber auch wissenschaftliche Satelliten einsetzen kann. Die klassische Doppelstartmission wird man nur bei Vorbeiflügen noch sinnvoll einsetzen können.

22.7.2013: Mineralstoffe und ihre Aufnahme

Derzeit gibt es wieder mal einige Werbespots für Mineralstoffpräparate. Einen habe ich schon vor Jahren unter die Lupe genommen, das war das "Apothekenmagnesium" in "Apotheken Qualität". Dieser Begriff ist nicht genau definiert und bezieht sich meist auf Wildkräuter wo man Verunreinigungen nicht ausschließen kann bzw. die Wirkstoffe unterschiedlich stark konzentriert sein können. Bei einem Mineralstoff ist er völlig unangebracht, weil dieser als Salz relativ einfach analytisch auf Reinheit geprüft werden kann und man ja eine Quelle mit unveränderlicher Aufarbeitung oder Reinheit nimmt. Da hätte ich eher Abkürzungen wie "p.A." (pro Analysi, für die Analyse geeignet, eine der wichtigsten Qualitäten bei chemischen Substanzen).

Aber darum geht es heute nicht, sondern um die Aufnahme von Mineralstoffen im Speziellen und das Werbeversprechen von Tetsept mit dem Magnesium mit dem Wirkbeschleuniger "MTS". Ein Besuch der Website von Tetsept ergab, dass es nicht nur Magnesium mit diesem Zusatz MTS gibt.

Fangen wir mit etwas grundsätzlichem an. Wie werden Mineralstoffe aufgenommen? Es gibt drei Mechanismen wie der Körper Nährstoffe, Vitamine oder Mineralstoffe aufnehmen kann. Die grundsätzliche Problematik ist diese: es gibt in einem Medium, das eine Zelle umgibt oder an sie angrenzt eine Konzentration eines Stoffes und innerhalb einer Zelle eine andere. Das Medium kann der Darminhalt sein, aber auch das Blutserum oder der Harn sein. Der Stoff soll nun in die Zelle gelangen. Die einfachste Möglichkeit ist die der Diffusion. In diesem Falle ist in der Zelle die Konzentration des Stoffes kleiner als außen. Sofern die Membran durchlässig für diesen Stoff ist, kann dieser in die Zelle eindringen und die Konzentration ausgleichen. Dieser Transport kommt zum Stillstand, wenn außerhalb der Zelle wie innerhalb die gleiche Konzentration herrscht. Dieser Transport wird als "passiver Transport" bezeichnet. Angewandt auf die Aufnahme von Stoffen aus dem Darm muss dieser Transport zum Stillstand kommen, wenn innerhalb der Zelle die gleiche Konzentration wie im Nahrungsbrei herrscht. Die Zelle kann nun dem Stoff weiter in die Blutbahn abgeben und so die Konzentration im Zellinneren absenken, aber es wird immer Reste im Nahrungsbrei geben und dieser Transport ist zudem sehr langsam.

Am häufigsten in unseren Zellen ist jedoch der aktive Transport. Es gibt zahlreiche verschiedene aktive Transportvorgänge, aber alle benötigen Energie. Üblich ist das der Stoff der transportiert werden kann, an der Zellaußenseite an ein Transportprotein andockt, dieses Protein transportiert den Stoff durch die Zelle und an der Innenseite wird er wieder abgespalten, wofür Energie verbraucht wird, um die Bindung zu lösen. Der Vorteil dieses Transportmechanismus ist, dass er gegen den Konzentrationsgradienten erfolgen kann. Das ist wichtig (wenn z.B. die Zellen Glucose aus dem Blut aufnehmen sollen, obwohl sie selbst Glucose enthalten, oder die Niere den Harn konzentrieren muss, und dabei eine höhere Konzentration erreicht als im Serum herrscht. Vor allem aber kann man nur so die Nährstoffe und Vitamine aus dem Nahrungsbrei aufnehmen, da sonst die Aufnahme stoppen würde, wenn der Nahrungsbrei die gleiche Konzentration wie das Blut hätte. Ein Großteil der Nahrung wäre so ungenutzt. Daher braucht das Verdauungssystem auch einen guten Teil der Gesamtenergie unseres Grundumsatzes, etwa 15% nur um die Nährstoffe überhaupt aufzunehmen.

Eine Zwischenform ist die erleichterte Diffusion. Bei ihr koppeln auch Stoffe an Transportsysteme an der Zelloberfläche oder spezifische Kanäle an, aber es wird für den Transport keine Energie benötigt. Wie bei der Diffusion kommt dieser Transport zum Stillstand, wenn die Konzentration innen und außerhalb der Zelle gleich hoch ist. Er ermöglicht aber dass ein Stoff ins Zellinnere gelangt für den die Membran undurchlässig ist.

Nährstoffe und Vitamine werden vor allem aktiv transportiert, bei den Mineralstoffen ist die Situation von Element zu Element unterschiedlich. Calcium, das ist relativ gut untersucht wird wahrscheinlich durch Diffusion oder eine erleichterte Diffusion aufgenommen. Im Mittel wird nur 25 bis 35% des Calciums in der Nahrung auch in den Darm aufgenommen. Bei Magnesium folgt dieses zwar auch der Potentialdifferenz, aber einfache Diffusion kann man ausschließen. Kinder mit einem Magnesiummangel aber normaler Calciumversorgung lassen auf spezifische Transportproteine schließen, die aber noch nicht bekannt sind. Da auch Magnesium im Mittel nur zu 40% resorbiert wird, kann kein aktiver Transport vorliegen. Bei dem aktiven Transport der Makronährstoffe (Fett, Eiweiß, Kohlenhydrate) werden über 90% aufgenommen.

Es ist bekannt dass die Aufnahme von Mineralstoffen aber von der genauen Zusammensetzung des Nahrungsbreis abhängt. Es gibt Faktoren, welche die Aufnahme erhöhen oder absenken. Calcium aus Milchprodukten, wo es als eine Verbindung als Calcium und Eiweiß, vorliegt wird sehr gut aufgenommen. Das gleiche gilt wenn sehr viele organische Säuren vorhanden sind, weshalb auch vorgeschlagen wird Calcium als Salz einer organischen Säure wie der Apfelsäure oder Zitronensäure zuzuführen. Die Säuren bilden einen Käfig um das Mineralstoffatom und mit den Säuren wird auch der Mineralstoff aufgenommen. Es ist aber auch möglich, dass Stoffe mit den Mineralstoffen, die ja alle Kationen sind reagieren und dann schwerlösliche Salze bilden. Bekannt ist dies von der Oxalsäure die in Rhabarber und Spinat steckt und der Phytinsäure, die im Getreidekorn vorkommt. Bei Calcium und Magnesium wird der Einfluss aufgrund der hohen Menge der Elemente und ihrer chemischen Natur als gering eingestuft. Bei Zink ist aber bekannt, das Zink aus pflanzlichen Nahrungsmitteln um ein vielfaches weniger stark aufgenommen wird als Zink aus tierischen Lebenmsitteln.

Bei Tetesept wird beworben, dass es ein spezielles Transportsystem MTS enthält, oder wie der Hersteller schreibt: "Das zum Patent angemeldete Transportsystem MTS® besteht aus speziellen Bausteinen, die eine körperverwandte Struktur aufweisen und besondere Transporteigenschaften besitzen. Diese aktivieren den Nährstoff-Transport und sorgen so für eine optimierte Nährstoff-Zufuhr im Körper. "

Ich dachte dann zuerst an einen Stoff der Magnesium bindet z.B. eine organische Säure wie Zitronensäure. Man kommt aber ins Grübeln, wenn damit auch Vitaminpräparate beworben werden, wie eine Packung mit B-Vitaminen. Nun werden aber Vitamin meist aktiv aufgenommen. Schauen wir und mal die Zutatenliste der Magnesiumtabletten an:

Magnesiumoxid (60,5%); Füllstoffe: Mikrokristalline Cellulose, Polyvinylpyrrolidon; Trennmittel: Magnesiumsalze von Speisefettsäuren; L-Argininhydrochlorid (1,1%); Cyclohexanhexol (Inositol 0,9%); Überzugsmittel: Hydroxypropylcellulose, Hydroxypropylmethylcellulose; Trennmittel: Siliciumdioxid; Farbstoff: Titandioxid; Trennmittel: Talkum; Pyridoxinhydrochlorid (Vitamin B6 0,08%); Überzugsmittel: Öl, pflanzlich.

Verwendet wird reines Magnesiumoxid, das nicht besonders gut wasserlöslich ist. Wenn es stark gepresst wird, das hat der Autor schon bei anderen Tabletten festgestellt, ist es unverdaulich und kommen als ganze Tablette wieder im Kot zum, Vorschein. Was das geheimnisvolle MTS sein soll? Nun man muss rätseln. Ein Vergleich mit zwei anderen Magnesiumpräparaten ergab als Unterschied nur das L-Ageninhydrochlorid und den Inosit. Der letztere könnte als Süßmittel fungieren, da auch andere Magesniumpräparate gesüßt sind. Mit seinen vielen -OH Gruppen kann Inosit auch Magnesium komplex binden. Arginin ist eine weitverbreitete Aminosäure, zahlreiche Lebensmitteln enthalten rund 10% Arginin. Sie hat drei Amino- und eine Säuregruppe, dadurch ist die Gesamtladung im dissoziierten Zustand positiv und das Salz erfordert ein Anion, wie hier das Chlorid. Auch diese Aminosäure könnte an Magnesium binden. Das diese beiden Substanzen unter dem MTS zu verstehen sind, dafür spricht auch die Angabe der Menge in Prozent, denn als Nahrungsmittel (beworben wird es als Nahrungsergänzungsmittel und nicht als Medikament) muss bei allem was ausgelobt wird, die Prozentangabe angegeben werden und das ist eben nach den Angaben auf der Verpackung das Vitamin B6, das Magnesium und das geheimnisvolle MTS.

Kann Magnesium mit dem Transportmittel, also Inosit oder Arginin aufgenommen werden? Es sind rund 30-mal mehr Magnesium als Inosit und Arginin zusammen enthalten. Weiterhin ist das Molekül sehr leicht (Atommasse 24), während Arginin eine Molmasse von 174 und Inosit eine von 180 hat. Jedes Molekül wird aber maximal ein Magnesiumatom binden, eher dürfte es wahrscheinlich sein, dass mehrere Moleküle ein Magnesiumzentralatom umgeben. So können die geringen Mengen kein wirksames Transportvehikel sein.

Noch mysteriöser wird es bei dem Calciumpräparat. Hier macht das Calcium schon 88,7% des Inhaltes ganzen aus. Da ist eigentlich klar, dass der Rest keine besonders resorptionsfördernde Eigenschaft haben kann. Sehr seltsam ist auch die Zusammensetzung des Präparates. Wie andere Calciumpräparate enthält es auch Vitamin D. Vitamin D ist notwendig für die Einlagerung des Calciums in die Knochen, sonst nützt das aufgenommene Calcium dem Körper nichts. Daneben enthalten die Tabletten aber auch Vitamin E und K, die nichts mit dem Knochen- oder Calciumstoffwechsel zu tun haben. Für die Aufnahme der fettlöslichen Vitamine benötigt man Fett. der einzige fettlösliche Stoff in dem Zutatenverzeichnis sind aber Speisefettsäuren, die jedoch erst nach dem Vitamin E (0,4%) folgen, also nur in kleiner Menge vorhanden sein dürften.

Dafür ist nicht in der Beschreibung Eisenphosphat erwähnt, obwohl eine Tablette 43% des Eisenbedarfs deckt. Vielleicht ist beim Calcium Eisenphosphat das geheimnisvolle MTS?

Was offen ist ist ob dieses "MTS" überhaupt wirksam ist. Da der Hersteller schuldig bleibt, um was es sich in jedem Präparat handelt und in welcher Menge es vorhanden ist und wie es wirken soll, bleiben mir sehr große Zweifel. Bei den Mineralstofftabletten machen die Mineralien den Großteil der Masse aus. Es sind zwar resorptionsfördernde Mechanismen bekannt (s.o.)  doch in beiden Fällen handelt es sich um die billigsten und einfachsten Verbindungen nämlich Calciumcarbonat ("Kalk") und Magnesiumoxid ("Magnesia"). Würde zu den gehobenen Preisen der Präparate, die Salze der Zitronensäure also Calcium- und Magnesiumzitrat eingesetzt werden, so könnte man von resorptionsfördernden Präparaten sprechen und dies zu recht bewerben.

Die kleinen Menge an diffusen Wirkstoffen, kann dies nicht leisten. Der Hersteller benennt daher auch nicht das MRS und gibt seine Funktion nur sehr schwammig an "Das zum Patent angemeldete Transportsystem MTS® besteht aus speziellen Bausteinen, die eine körperverwandte Struktur aufweisen und besondere Transporteigenschaften besitzen. Diese aktivieren den Nährstoff-Transport und sorgen so für eine optimierte Nährstoff-Zufuhr im Körper. ". Also anstatt durch Studien nachgewiesene Wirkung hat man ein Patent beantragt - ob es wirkt ist bei Patenten nicht wesentlich, sondern nur ob es etwas neues ist, und ein beantragtes Patent ist kein erteiltes Patent.

In der Summe sind es Mineralstofftabletten mit fast derselben Zusammensetzung wie diese für einen Bruchteil des Preises aus dem Supermarkt nur mit nicht bewiesenen Werbeversprechen.

22.7.2013: Ich brauche ein neues Projekt - Das noch offene Rätsel

In den letzten Monaten bin ich nicht wirklich weitergekommen bei meinem aktuellen Ernährungsbuch. Das liegt zum einen an der Jahreszeit. Schon in den letzten Jahren war ich in den Wintermonaten produktiver als im Sommer. Da fehlt die Lust ewig lange zu recherchieren, überhaupt am Computer zu arbeiten und ich habe auch mehr zu tun vor allem im Garten und am Haus. Aber auch sonst fehlt es mir so an der Lust was neues zu machen. Nicht, dass ich nicht genügend Ideen hätte über Bücher, von Raumfahrt über Computer zu Ernährung ist da alles dabei.

Aber da ich den nicht ganz uneigennützigen Gedanken habe, dass die Bücher auch von vielen gelesen werden, habe ich doch die Lust an neuen Büchern verloren. Denn damit hapert's. So nach einer gewissen Zeit fehlt auch der "Thrill", wenn man schon mal zwanzig publiziert hat ist das 21-sten irgendwie nichts besonderes mehr.

Es ist ja nichts neues. Ich habe viele Jahre lang die Website aufgebaut, aber irgendwann die Lust verloren. ab und an aktualisiere ich was, aber es gibt keinen Antrieb mehr für ganz neue Sektionen.

Auch beim Blog hatte ich mehrmals schon einen Totpunkt wo ich dachte mir fällt nichts neues mehr ein. Der Blog hat einen entscheidenden Vorteil: anders als bei Webseiten wo ich bei den Dateinamen leicht nachprüfen kann ob ich schon was geschrieben habe, landen die Einträge für den Blog erst mal in durchnummerierten Dateien und dann im Blog. Ich bin überzeugt das ich etliche Themen schon mehrmals durchgekaut habe, aber das wieder vergessen habe. Weiterhin generiert er Rückmeldung, was bei den Büchern und der Website nicht der Fall ist, außer es beschweret sich jemand wenn was nicht stimmt oder die Grammatik etwas "schief" ist. Außerdem muss ja noch jemand die Informationspolitik und die Verharmlosungen und Lügen von SpaceX auseinander nehmen.

Was relativ neu seit einigen Jahren ist, das nichts neues da ist was sich am Horizont als neues Projekt abzeichnet. Ich dachte mir mal, ich mache wieder einen Ausflug in die Hardware. Ich dachte an eine Wetterstation die Luftdruck, Temperatur und Luftfeuchtigkeit misst und an eine Arduino Plattform. Wäre mal interessant. das Wetter außen über ein Jahr zu verfolgen. Die Daten könnte man entweder auf SD-Karten ablegen oder regelmäßig auslesen. Aber ein kleiner Test. was man dafür braucht brachte Ernüchterung 100 Euro kommen da nur für die Ausrüstung mit Temperaturfühler zusammen und Fühler für Luftdruck (keine Druckmessung von Gewichten / Kraft) scheint es gar nicht zu geben. Also insgesamt zu aufwendig und teuer bin ich (ich bin ja nicht der Bastler und Tüftler, sondern mehr an der Programmierung interessiert).

Ich denke ich werde wohl wieder was programmieren, da gibt es zwar auch immer wieder Wellen, wo mir das Spaß macht und mal wieder nicht, aber es ist doch eine dauerhafte Größe seit ich 15 bin. Damit bin ich ab nächster Woche wieder im Kundenauftrag beschäftigt.

Dann ist ja noch ein Rätsel offen. Ich bin ja froh was gefunden zu haben, dass ich mit einigen Klicks nachprüfen kann und bei dem Google gar nichts nützt.  Das komische in unserer Zeit ist ja das es Quizshows im Fernsehen zu Hauf gibt, aber alle so einfache Fragen haben, dass wenn die Kandidaten einen Tablett PC hätten sie ohne Probleme in einer Viertelstunde mit einer Million nach Hause gehen können. Abgefragt wird nutzloses Spezialwissen, das nicht jeder kennt. Wenn ich ein Rätsel mache, dann muss klar sein, dass man nicht es mit so einer Anfrage lösen kann. Interessant wäre ja mal eine Quizshow die tatsächliches Schulwissen abfragt. Da hätte ich schon einige Fragen:

Das sind alles dinge die im Schulunterricht mal in Geschichte, Biologie und Erdkunde dran waren. Besser als manche Fragen die unnützes Wissen abfragen. Nicht das alles was in der Schule kommt wichtig wäre, aber man kann es noch als Allgemeinbildung ansehen. Und natürlich sind die Fragen dann auch ergebnisoffen zu stellen, also nicht mit 4 Antwortmöglichkeiten zur Auswahl. Ich halte nichts von Multiple Choice Fragen. Wie war das noch zur Zeit des großen Preises - Fragen wo man auch Antworten geben kjonnte und die Kandidaten nach 90 Minuten Show nicht mit Hunderttausenden sondern einigen Tausendern heimgingen.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99