Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 436: 5.9.2015 - 23.9.2015

5.9.2015: Die Heisenbergsche Unschärferelation und Ariane 6

Ich bin gerade beim Schreiben des Ariane 6 Kapitels, genauer gesagt meiner Meinung dazu (die man dann auch hier lesen wird können) und da fiel mir etwas auf.

Es handelt sich um ein Phänomen, das in der Physik unter der Heisenbergsche Unschärferelation bekannt ist. Die Aussage ist vereinfacht gesagt die, dass man die Position und den Impuls eines Gegenstandes oder Teilchens nicht mit beliebiger Genauigkeit messen kann.

Es gilt dp * dx > h

dx Steht für die Unsicherheit der Ortsmessung und dp für die Unsicherheit der Impulsmessung (das ist das Produkt aus Geschwindigkeit und Masse). Diese Unsicherheit muss größer als die Naturkonstante h sein. h, das Plancksche Wirkungsquantum hat den Wert von 6,6... x 10-34. Da h so klein ist, spielt das Phänomen im Alltag keine Rolle. Selbst ein Atom ist noch zu groß und massereich, als das die Aussage wesentliche Bedeutung hat wenn man bei einem Atom Geschwindigkeit und Ort messen will.

Die Aussage hat auch nichts mit der Messtechnik zu tun. Würde man z.B. den Ort eines Elektrons feststellen wollen, so könnte man es "fotografieren". Da für eine Abbildung es aber von einem Lichtteilchen getroffen werden muss und ein Lichtquant schon im visuellen Bereich ausreicht bei vielen Elektronen sie zum Verlassen der Schale zu bewegen ist danach der Impuls ein völlig anderer.

Umgekehrt: will man den Impuls messen indem man es auf eine Meßapperatur prallen lässt, so wird es abgelenkt und er Ort ist daher verändert. Damit ist die Unsicherheit in der Ortsmessung stark angewachsen.

Aber wie schon gesagt, außer diesen messtechnischen Problemen die wahrscheinlich schon bedeutsam werden, bevor man auch nur in die Nähe von h kommt ist die Heisenbergsche Unschärferelation eine gesetzmäßige prinzipielle Eigenschaft der Quantenwelt.

Eine Folge der Unschärferelation ist auch, dass wenn man eine der beiden Messgrößen genau wissen will (z.B. dx die Abweichung im Ort soll ein kleiner Wert sein). So muss, damit das Produkt immer noch größer als h, ist die andere Größe sehr schlecht bekannt sein (in diesem Falle wäre dann dp sehr groß).

Und genau das scheint bei der Ariane 62/64 zugeschlagen zu haben. Wenn man sich mal umschaut, so gibt es sehr wenige Daten die noch dazu selbst in einer Quelle widersprüchlich ist. Nimmt man z.B. die Brenndauer x Schub der beiden kryogenen Stufen so passt die so errechnete Treibstoffmenge nicht zu der Angabe auf dem selben Blatt. Noch lustiger wird es aber bei der Nutzlast, die scheint sehr unscharf zu sein:

Das sind doch sehr "unscharfe Werte". Obwohl also die Nutzlast nicht richtig feststeht und andere Parameter der Rakete auch nicht, fand ich in einem Dokument von Safran eine genaue Aufstellung wer wie viel an der Ariane 64 verdient, die etwas über 110,31 Millionen Euro pro Stück in der Herstellung kostet. GKN in Schweden wird z.B. für 210.000 Euro die Turbinen für Wasserstoff und Sauerstoff für das Vinci herstellen - ein Triebwerk das noch nicht vollständig entwickelt ist.

Das erklärt doch alles! Die genaue finanzielle Aufstellung, die wohl wichtig war für die ESA, damit der Auftrag an die Industrie vergeben wurde, hat zu einer völligen Unsicherheit über Nutzlast, Treibstoffzuladung, Startmasse etc. geführt. Nur scheint h hier eine andere Konstante mit einem viel höheren Wert zu sein.

Was folgt daraus? Nun irgendwann wird die Ariane 6 entwickelt sein, dann stehen die genauen technischen Werte fest. Gemäß der Heisenbergschen Unschärferelation muss dann der Startpreis völlig ungewiss sein....

11.0.2015: Mit der V-2 ins All

Vor einiger Zeit hat mir Michael K. diesen Link zur BBC geschickt, In ihm geht es um die Möglichkeit, dass man die A-4 (besser bekannt unter der Bezeichnung V-2) benutzen konnte um eine Person ins All zu schicken. Als Mittelstreckenrakete würde es nicht in den Orbit reichen, doch für einen suborbitalen Hüpfer in jedem fall.

Bei Tests erreichten A-4 eine Höhe von 183 km, dabei ist unbekannt mit welcher Zuladung. Die meisten senkrechten Starts erreichten eine kleinere Gipfelhöhe. Die US-raketen z.B. maximal 165 km. Die meisten Starts erfolgten allerdings nicht senkrecht. Doch überliefert ist eine Endgeschwindigkeit von 1485 bis 1600 m/s.

Ich habe eine Simulation gemacht die den Luftwiderstand mit einbezieht. Bei einer Fläche von 2,14 m² und einem cw-Wert von 0,08 kommt man auf eine Brennschlusshöhe von 46,7 km und eine Gipfelhöhe von 211 km, nicht ganz passend zu den 300 km im Artikel. Das bei einer Nutzlastspitze von 975 kg Gewicht. Der ganze Trip dauert rund 468 s, nach 254 s ist die Gipfelhöhe erreicht.

Die organale A-4 hatte einen Sprengkopf von 785 kg Gewicht. So viel würde ein Passagier mit Ausrüstung nicht wiegen. Setzt man dafür 250 kg an, so kommt man auf fast 262 km Höhe und 520 s Flugzeit. Das ist noch höher als bei den Mercury Kapseln die zwar mit den leistungsfähigeren Redstone gestartet wurden, aber auch schwerer waren. Zudem starteten diese nicht senkrecht sondern in einer Kurve. Es liegt auf jeden Fall über den 100 km die man ansetzt als Kriterium das man im All gewesen ist. So hoch kommen Suborbitaltouristen heute nicht mehr.

Die Nutzlastspitze übersteht den Wiedereintritt das tut die ganze Rakete. Es dauerte einige Zeit bis man das gewährleistet hatte (zwischen erstem erfolgreichem Start der A-4 und dem Einsatz vergingen zwei Jahre).

Wie könnte das bemannte Unternehmen ablaufen? Meiner Ansicht nach gibt es zwei Möglichkeiten: Entweder man birgt die ganze Spitze (Kapsel) oder nur den Piloten. In beiden Fällen hätte man nach Brennschluss die Kapsel von der Rakete abgetrennt. Das ging damals schon ohne Probleme. Sprengbolzen an der Verbindung und einige Federn in der Rakete reichen dazu aus. Im ersten Fall hätte man einen Fallschirm an der Spitze der Kapsel ausgelöst, im zweiten müsste der Pilot aussteigen wie man das bei Wostok tat. Ich halte letzteres für gefährlicher und wenn man die Kapsel auf Wasser niedergehen kann für unnötig. Dort verhindert das Wasser eine zu harte Landung.

Die Spitze wird massiv gewesen sein, so wäre es am einfachsten sie auch luftdicht zu gestalten, sie würde dann einfach schwimmen. Bei einem geschätzten Innenvolumen von 0,3 m³ reicht die Luft für einige Stunden aus bevor der Kohlendioxydgehalt bedrohlich wird, selbst wenn sie hermetisch verschlossen ist zudem könnte der "Astronaut" eine Sauerstoffmaske mit Sauerstoffflasche tragen. Eine A-4 konnte von einer erfahrenen Mannschaft in 12 Minuten auf den Start vorbereitet werden, länger als eine Stunde dürfte man nicht dazu brauchen, weil sonst zu viel Sauerstoff verdampft.

Stark wäre die Spitzenbeschleunigung gewesen - bei 200 kg Gewicht für Astronaut, Sitzplatz und sonstiges in der Spitze lag sie bei 87 m/s, fast 9 g, bedingt durch die kurze Betriebszeit von nur 63 s. Wird die Kapsel schwerer so wird es angenehmer. In der Anfangszeit der Raumfahrt wurden 6 g erreicht und von den Astronauten toleriert, nimmt man das als Maßstab so müsste die Zuladung allerdings 1,6 t betragen. Dann erreicht man keine sehr große Höhe mehr.

Mit Sicherheit braucht man so etwas wie einen Konturensitz. Viel Platz gibt es nicht An der Basis hat die Nutzlastspitze 96 cm Durchmesser, die Höhe beträgt 1,24 m. Man kann eine neue entwickeln, das taten die Amerikaner für ihre Atmosphärenuntersuchungen mit den erbeuteten V-2. Ein Fenster wäre nicht schlecht.

Doch wie riskant ist es? Die in Massen abgeschlossenen V-2 hatten eine schlechte Zuverlässigkeit, etwa 20% der auf London abgefeuerten gingen verloren, Das lag primär an Sabotage durch die Zwangsarbeiter. Die A-4 die für Erprobungen eingesetzt wurden und besonders gekennzeichnet wurden hatten geringere Fehlerquoten, vielleicht weil sie nicht sabotiert wurden, vielleicht weil man sie vor dem Start nochmals überprüfte. Hier waren es nur 4%. Auf einen ähnlichen Wert (3,5%) kamen die Sowjets die die A-5 nachbauten und als R-1 zuerst testeten und dann als Mittelstreckenrakete stationierten.

Bei den 73 von den US-Streitkräften gestarteten A-4 sah es schlechter aus 68% der Versuche wurden von der US-Army als erfolgreich eingestuft. Allerdings gab es in 71% auch Änderungen an der Rakete und 52% waren schwerer als vorgesehen. Dazu kommt das diese Zahl nichts aussagt ob die Rakete scheiterte oder das Experiment so glückten nicht alle Starts mit einer WAC Bumper die man als zweite Stufe auf die A-4 montierte - das lag aber nur an der Bumper die nicht zündete.

Nimmt man 4% als typisch für eine unveränderte A-4 so wäre das sogar ein toller Wert: 96% Zuverlässigkeit, damit wäre man als 1961/62 die ersten Starts stattfanden hoch zufrieden gewesen. Die Atlas die John Glenn ins All transportierte, scheitere vorher achtmal bei 18 Orbitalstarts. Die Gesamtbilanz aller 166 Starts die bis Ende 1961 stattfanden sieht auch nicht besser aus: Hier scheiterten 55 Starts. Beides sind Versagerquoten von 45%. Selbst wenn man nur das Jahr 1961 nimmt, also die frühen Fehlschläge weglässt so sind es immer noch 16 von 54 Starts, also fast 30%.

Doch was wäre gewesen wenn die Briten einen Astronauten ins all geschickt hätten? Das wäre nach dem Artikel schon 1951, zehn Jahre vor Gagarin möglich gewesen.  Vielleicht wäre die Geschichte anders verlaufen. Es hätte keinen Sputnikschock gegeben, vielleicht aber hätte das USA und UdSSR viel früher in die Raumfahrt gedrängt, wahrscheinlich gäbe es kein Mondprogramm als Antwort auf eine angebliche sowjetische Dominanz in der bemannten Raumfahrt und vielleicht wäre England auch eine Raumfahrnation geblieben. Das Land zog sich Ende der sechziger Jahre zurück als man die Black Arrow einstellte. Seitdem gibt es keine Trägertechnologie, nur wnige wissenschaftliche Nutzlasten meist nur kommerzielle Satelliten. England hat sein Budget zwar in den letzten Jahren stetig auf 300 Millionen Pfund erhöht, verglichen mit Deutschland (2500 Millionen für ESA, nationales Programm und Luftfahrt-/Energieforschung die nun auch vom DLR durchgeführt werden) ist das doch bescheiden. offensichtlich will man in England nicht nur keine Flüchtlinge sondern auch keine Satelliten.

13.9.2015: Die Sache mit den Cubesats

Letztes Jahr gab es eine Steigerung der Cubesat Starts um 40%. Cubesats wurden 1995 geschaffen, als eine standardisierte Plattform für Kleinstssatelliten. Sie wiegen maximal 1 kg und sind würfelförmig mit Abmessungen von 10 x 10 x 10 cm. Für komplexere Projekte kann man auch vielfache dieser Größen nehmen, so hat Planetlabs z.b 3U Einheiten von 10 x 10 x 30 cm Größe für ihre Satelliten gewählt. Erstaunlich ist wie viel man heute miut solchen Minisatelliten machen kann. Einschränkender als die Masse ist meistens die geringe Größe: Das Volumen/Gewichtsverhältnis liegt bei größeren Satelliten meist bei 4-5 dm³/kg, hier ist es nur bei einem 1 dm³/kg. Das limitiert vor allem die Stromversorgung durch Solarzellen bei nur 0,01 m² Fläche (bei üblichen Wirkungsgraden sind das maximal 3 Watt)

Gedacht als Projekte für Studenten, die so einen eigenen Satelliten kreieren können, zum Test von Bauteilen oder Technologien, sowie für kleine Organisationen hat sich dies verselbstständigt. Das Beispiel Planetlabs zeigt es schon: man kann selbst solche kleine Satelliten kommerziell nutzen. Planet Labs hat es fertiggebracht in den winzigen Satelliten ein Teleskop einzubauen, das immerhin 3,5 m Auflösung hat. Erstaunlicher ist mehr dass man es fertig bringt diese Bilder auch zu übertragen - schließlich lässt die Oberfläche von 0,03 m² nicht viel Platz für Solarzellen und eine Parabolantenne für eine Richtantenne hat auch keinen Platz. Inzwischen gibt es selbst Vorschläge Cubesats zum Mond zu entsenden.

Trotzdem gibt es zu wenige Startgelegenheiten für Cubesats. Warum? Nun sie teilen die Nachteile jeder Sekundärnutzlast, aber in verschärfter Form. Eine Sekundärnutzlast muss sich der Hauptnutzlast unterordnen. Da man sie nicht an der Hauptnutzlast anbringen kann, das würde wohl der Kunde nicht dulden kann man sie nur oberhalb oder unterhalb anbringen. Oberhalb ging nur mit einer Doppelstartvorrichtung, diese bietet nur Arianespace an. Sie ist aber teuer und addiert rund 500 kg Gewicht - dies für Satelliten die nur 1 kg wiegen. Die zweite Möglichkeit ist darunter. Dafür gibt es eine Reihe von Möglichkeiten.

Die gängigste ist an dem Adapter der zwischen Oberstufe und Nutzlast liegt. Adapter für Satelliten sind standardisiert und es gibt sie in verschiedenen Durchmessern. Die meisten Oberstufen haben einen größeren Durchmesser. Ein Adapter vermittelt zwischen dem Standardanschluss und der Oberstufe. Er ist meistens konisch, manchmal auch zylinderförmig. An seiner Außenseite oder einem an ihm befindlichen Ring kann man Sekundärnutzlasten anbringen.

Anbringungen an der Oberstufe oder ihrer Instrumentierung sind auch möglich, aber heute selten.

Die verbreitetste Methode ist es heute Cubesats mit einem Transporter zur ISS zu bringen und von den Astronauten durch einen Cubesat-Deployer auszusetzen. Die meisten Cubesats nehmen heute diesen Weg und er ist der einfachste.

Das verwundert: Nur ein Drittel der Transportkapazität der Frachter entfällt auf die Fracht. Da die Transporter auch bezahlt werden, ist jedes Kilogramm Nutzlast viel teurer als ein Kilogramm Satellit. Der Grund dafür ist, das es für den LSP sehr unattraktiv ist kleine Sekundärnutzlasten zu befördern. Er muss einen Ring für die Beförderung installieren, das kostet Geld und er nimmt nur wenig ein. Arianespace hat sogar den Start von weitaus größeren Sekundärnutzlasten auf der Ariane 5 eingestellt. Die Starts der Transporter zur ISS werden dagegen von den Weltraumbehörden bezahlt und die haben schon Probleme den Platz in den Transportern voll auszunutzen. Den LSP kosten diese Starts nichts.

Kann man daran etwas ändern? Nur bedingt. An dem schlechten Verhältnis zwischen Aufwand und Nutzlast lässt sich nur bedingt etwas ändern. Man könnte zwar dran denken die Cubesats nicht einzeln zu starten sondern viele in einem Container. Doch dann muss gewährleistet sein, dass diese sich beim Start nicht gegenseitig beschädigen. Der Container muss sich zuverlässig öffnen und er addiert weitere Masse und Kosten. Eine weitere Möglichkeit ist es sie fest an der Oberstufe oder VEB zu befestigen. Die meisten Nutzlastverkleidungen haben einen größeren Durchmesser als die Oberstufen und sind an deren Oberteil angebracht. Das Gibt Einschränkungen bei der Beweglichkeit. Wenn man sie fest befestigt ist aber auch an ein Aussetzen in höheren Orbits denkbar. Da Cubesats nicht mehr Weltraummüll bilden sollen ist es sinnvoll diese direkt an der Stufe zu befestigen. So gibt es nur ein Stück Weltraummüll und nicht dutzende. Leider gibt es dann noch größere Einschränkung hinsichtlich elektrischer Leistung und Sendemöglichkeiten, weil die Oberstufe zusätzlich abschirmt.

Meiner Ansicht nach aber sollte es neben den Cubesats auch größere standardisierte Satelliten gibt in der 10 kg und 100 kg Klasse. Gerade für Unternehmen sind diese Größen auch interessanter. Planetlabs hat z.B. Rapideye übernommen die fünf Satelliten von über 100 kg Gewicht Zudem erlauben sie komplexere Projekte anzugehen, die sich in einem Kilogramm nicht verwirklichen lassen. Die Cubesats passen in das Konzept dahingehend hinein, dass man mehrere in dem Körper eines 10 kg Satelliten unterbringen kann.

Was ich für absolut überflüssig halte ist ein dezidierter Cubesat Launcher. Rocketlab entwickelt einen der 150 kg Nutzlast hat und eine 1U Einheit für 80.000 Dollar starten kann. Das entspricht 12 Millionen Dollar für die komplette Rakete, das ist nicht gerade preisgünstig. Vielmehr wäre sinnvoll wenn wenigstens alle Weltraumagenturn auf ihren Starts auch wenn es Mehrkosten verursacht Cubesats, aber auch größere Sekundärnutzlasten mitführt. Bei Preisen von 80.000 Dollar pro Satellit (die Herstellungskosten dieser liegen meistens darunter) wäre der "Start" von Cubesats wären ein gutes Zubrot für Astronauten - die müssten nur auf einen Teil ihrer persönlichen Ausrüstung verzichten und dafür Cubesats zur ISS bringen lassen - leider ist die Masse dieser Personal Preference Kits auf 1 kg beschränkt. Ich finde das erstaunlich, bedenkt man was für Gimmicks sonst zur ISS fliegen.

Ein Vorteil der Starts zur ISS ist auf jeden fall neben der hohen Frequenz von 5-6 Versorgungsflügen alleine auf US-Seite pro Jahr der niedrige Orbit - die Satelliten verglühen innerhalb von 2 Jahren wieder. Hier könnte man auch die Versorger selbst mit Cubesats ausrüsten - angebracht am Servicemodul von Sojus würden sie 180 Tage im All bleiben, bei Dragon, Cygnus und HTV sind es nur einige Wochen, doch vielleicht ist selbst das lohnend. Hier könnte man dran denken die Raumschiffe selbst mit einzubeziehen z.B. Strom aus dem Bordnetz oder Sendevorrichtungen zur Verfügung zu stellen.

22.9.2015: Kapitalismus

Nachdem mein alter Blogeintrag über den Kommunismus eine neue Diskussion entfachte, dachte ich mir gebe ich meinen Senf zum Gegenteil, dem Kapitalismus. Nach Wikipedia wurde der Begriff erstmals um 1842 in der heutigen Bedeutung verwendet, bekannt geworden ist er sicher durch Karl Marx. In den Kommunistischen Staaten wurde der Begriff dann inflationär benutzt, meist sprach man vom "kapitalistischen Ausland", was wohl heißen sollte "hier lebt ihr auf der glücklichen Insel der kein Kapitalismus die Macht hat". Für mich klang dass immer als Zwangsabgrenzung, so wie wenn britische Politiker vom "Kontinent" reden, zu dem sie nicht dazugehören wollen. (dazu als persönlichen Seitenhieb: tut mir den Gefallen und tretet aus der EU aus, dann steht ihr wenigstens nicht mehr im Weg, das wäre dann wenigstens konsequent, seit Magret Thatcher geht mir die englische EU-Politik mit ihrer Sonderrolle auf den Senkel)

Der Begriff lehnt sich ab vom "Kapital", zum einen Standardwerk von Marx, zum anderen als Begriff für Reichtum verbunden mit Macht. Denn Geld oder Eigentum bedeutet Macht. Mit Geld kann man fast alles kaufen selbst Staatsstreiche oder Präsidenten. Heute fokussiert es sich auf Geld als Vermögen, doch es gab schon früher die Macht. In der Antike und im Mittelalter durch Landbesitz. Wer Land besaß der konnte im Mittelalter weitgehend über die Verfügen, die es bewirtschaften. Diese Leibeigenschaft endete erst in Deutschland im 18-ten Jahrhundert.

Als Ideologie wurde es durch Smith und Holmes, die postulierten, dass wenn jeder seinen Reichtum vermehrte dies zum Wohle aller wäre. Dieser Ideologie hängen die USA ja heute noch an, doch dazu später mehr. Erstaunlicherweise hat das seine Ursache in einer Form des Protestantentums für die Arbeit als Pflicht ansieht und Reichtum in Gewisser Sinne daher ein Symbol für einen "anständigen" weil arbeitsamen Lebenswandel ansieht.

Meiner Meinung nach macht man aus einem elementaren Bedürfnis eine Ideologie. Was in jedem steckt ist das er es gut haben will, danach kommt die Familie, Freunde, aber immer weiter abgestuft. für die Gemeinde oder gar den Staat hat man nur noch schwache Fürsorgegefühle. Was bei uns Menschen (meistens) nicht gut läuft, ist das dieses Gefühl abflaut, wenn der Reichtum zunimmt. Es gibt zwar Untersuchungen die zeigen, dass Personen glücklicher werden bis sie etwa 5000 Euro im Monat verdienen, danach macht mehr Geld nicht mehr (oder nicht so stark) glücklicher. Aber bei den wenigsten setzt dann eine Kehrtwende ein und sie sagen sich "Ich habe genug Geld für mich und gebe das was nun noch reinkommt, wieder an die Gesellschaft zurück". Wenn, dann ist es oft eine Altersfrage: Sobald die Menschen in der zweiten Lebenshälfte ankommen und sich vergegenwärtigen, dass sie irgendwann mal sterben müssen, fangen sie an zu überlegen, ob sie nicht zu Lebzeiten ihr Geld ausgeben und eine positive Rückmeldung bekommen. Leider geschieht das oft nicht in der Form das die profitieren, die für den Reichtum mitverantwortlich sind. Carnegie als Stahl-König ist heute noch bekannt durch seine Stiftungen und Museen. Die Arbeiter die bei ihm schufteten merkten aber nichts vom Sinneswandel. Ähnlich engagiert sich nun Bill Gates im Kampf gegen Malaria, aber seine Software wird trotzdem nicht verschenkt (das macht nun Microsoft mit Windows 10, aber nur weil sie auch den Markt der Nicht-PC Hardware erobern wollen und dort dominieren Apple und Google bei den Betriebssystemen). Ich merke das auch bei mir. So knapp über 40 fing bei mir ein Umdenken an - weniger Arbeit, mehr an mich denken. Dem verdankt ihr auch die Bücher. Dieses Jahr ist meine Mutter gestorben und das Gefühl kommt auf "Du bist bald der nächste". Für einen langfristigen Trend ist es noch zu früh, aber ich habe dieses Jahr viel ausgegeben für neue Sachen und Renovierung und die Lust irgendwas zu arbeiten ist ziemlich gering, wie man auch an den wenigen Blogeinträgen sieht.

Da es keine Grenze gibt bis zu der wir Reichtum anhäufen ist reiner Kapitalismus - und das hat Marx richtig erkannt - eine Gefahr. Heute ist das noch ausgeprägter als zu seiner Zeit. Es gibt einige Superreiche die sind so reich, dass sie mehr besitzen als ganze (kleinere) Länder. Die Lösung war für ihn der Kommunismus. Doch schon die Parole "Arbeiter aller Länder vereinigt euch" war damals nicht umsetzbar. Selbst wenn damals "Alle Länder" Europa war. Im Zeitalter des Nationalismus waren die Arbeiter aus anderen Ländern nicht die Genossen sondern eher Feinde. Heute spielt man die Arbeiter in den Ländern gegeneinander aus indem Unternehmen ihre Produktion verlagern. Nach 1990 zuerst in den ehemaligen Ostblock, heute nach Fernost,

Heute wird in Zeiten der Globalisierung die Ohnmacht des Staates offensichtlich. Wenn ein Staat Unternehmen oder Großverdiener zur Kasse nimmt, dann wandern sie ab. Arbeitsplätze werden ins Ausland verlagert und bei reichen Personen der Hauptwohnsitz in Monaco angemeldet. Als Folge subventioniert Deutschland bis heute zahlreiche Branchen, die Körperschaftssteuer macht nur 4% des Steueraufkommens aus. Im Prinzip zahlen Unternehmen also kaum Steuer (selbst wenn man die Gewerbesteuer hinzurechnet, sind es nur 12% des Steueraufkommens). Doch das reicht ja nicht. Wie wir alle wissen werden unsere Kleider in Bangladesch unter menschenunwürdigen Bedingungen genäht. Die Teile und Rohstoffe der meisten Produkte kommen aus der ganzen Welt. Das Minimieren der Lohnkosten und damit das Maximieren des Verdienst führt zu solch skurrilen Zuständen, dass deutsche Krabben zum Puhlen nach Marokko verschifft werden.

Verselbständigt hat die Sache sich bei der Börse, wo man ohne Arbeit Geld verdienen und verlieren kann. Früher musste man ja noch arbeiten oder andere ausbeuten, nun wird man reich nur durch spekulieren (oder arm, auch dafür musste man früher mehr tun und sei es nur das Geld persönlich zum Fenster rauszuwerfen) Das ganze hat sich längst vom Wert der Unternehmen verabschiedet. Ursprünglich waren Aktien mal Anteilsscheine am Wert des Unternehmens. Doch wenn an der Börse Kurse wie im August innerhalb von Tagen um 5% fallen, oder seit 2008 um den Faktor 3 ansteigen - dann korreliert das schon lange nicht mehr mit dem Wert der Unternehmen.

Trotzdem boomt die Börse - Schuld daran sind die Regierungen, die den Leitzins so stark abgesenkt haben, dass ein Sparbuch nicht einmal die Inflation als Ertrag mehr abwirft. Das Geld wird also immer weniger wert. Zwar war es auch früher schon so, dass die Sparbuchzinsen nicht viel höher als die Inflation waren (waren die Sparbuchzinsen höher, so war es auch die Inflation), aber sie waren wenigstens meistens höher als die Inflation. Nun haben wir seit 10 Jahren die Situation, dass die Zinsen niedriger als die Inflation sind. Wer nun sein Geld an der Börse anlegt, hat es schwer. Er steht vor einer Flut von Aktien, Fonds und anderen „Produkten“, wie Zertifikaten oder Optionsscheinen. Ohne eine genaue Information, ist das Risiko aufs falsche Pferd zu setzen groß. Wer selbst mit Aktien handelt, also nicht über eine Bank, sondern einen Direktbroker, der spart zwar die Bankgebühren, aber er muss sich noch besser informieren: nicht nur über die Aktien, die er kauft, sondern auch über den Broker. Hier sind online Broker Bewertungen eine Hilfe. Hier kann man sich über die positiven wie negativen Bewertungen von Kunden über Broker informieren.

Inzwischen ist das vom Menschen abgelöst, die meisten Käufe und Verkäufe finden durch Computer statt. Da arbeiten die Banken dran ihre Rechner möglichst nahe an die Zentralrechner der Börsen zu bekommen, weil selbst die Signallaufzeit schon wichtig ist. Welche Folgen das hat zeigte ein Börsensturz in den USA in den Achtzigern, als durch einen kleinen Abwärtstrend in vielen Softwarepaketen automatische Verkäufe angestoßen wurden. Ganz skurril fand ich die Idee einer Firma das zu "entschleunigen" und das sollte angeblich von vielen Unternehmen gefördert werden: Das Netzwerkkabel ist 1 km lang und auf einer Rolle aufgewickelt. Da hätte man gleich den Standort 1 km weiter verlagern können und 1 km entspricht einer Verzögerung von 5 µs bei der üblichen Geschwindigkeit von 200.000 km/s von Elektronen in einer Kupferleitung. Eine Entschleunigung wäre bei mir, wenn man programmbedingt (vielleicht als Vorschrift) die Reaktionszeiten von Software auf den von Menschen anheben würde. Wenn ich annehme das jemand vor dem Bildschirm sitzt und auf eine Kursveränderung reagiert, dann muss er zumindest den Verkauf eintippen mit Kurs, Anzahl etc. Rechnet man dafür 10 s Zeitaufwand so sollte Software auch diese 10 s Verzögerung haben. Zumindest würde das die Gefahr von softwarebedingten Kursstützen verringern.

Die USA waren ja lange der "kapitalistischste" Staat in dem Sinne, dass es wenige gesetzliche Vorschriften gab die Unternehmer "beeinträchtigen". Der Kündigungsschutz ist fast nicht existent, eine Krankenversicherung gibt es erst seit einigen Jahren (damit haben die USA den Stand von 1883 in Deutschland erreicht). Doch hat es den Leuten dort genutzt? Ein Postulat ist ja, das ungezügelter Kapitalismus nicht nur den Reichen nutzt sondern allen, weil Unternehmer immer die beste Entscheidung fällen und Eingriffe des Staates nur zusätzliche Kosten und Bürokratie verursachen. Die USA stehen beim Pro-Kopf-Einkommen nur an dritter Stelle hinter Luxemburg und Norwegen. Schweiz, Schweden und Deutschland folgen dicht dahinter. Nun haben zumindest Deutschland und Schweden einen Sozialstaat, auch wenn er vielleicht nicht perfekt ist, Schweden soweit ich weiß sogar einen besseren als bei uns. So viele wirtschaftliche Vorteile bringt ungezügelter Kapitalismus also nicht. Auch als Indiz sollte einen Stutzig machen, dass die USA Nettoimporteur sind, also mehr importieren als exportieren. Wenn die Wirtschaft dort regiert und brummt, sollte sie doch mehr Güter herstellen als die Leute brauchen und damit exportieren.

Eine Frage stellt sich: Ist der Staat machtlos gegen die Globalisierung? Im Prinzip sind ja die Reformen, die wir unter Schröder hatten (bei Merkel gab und gibt es ja keine) eine Reaktion auf die Globalisierung, auch wenn sie anders verkauft werden. Nur wenn die Lohnkosten niedrig genug sind, so sagt die Wirtschaft können wir in Deutschland produzieren, sonst müssen wir auslagern. Mehr noch: in der Landwirtschaft sind Saisonarbeiter aus den Ostblockstaaten seit langem üblich, obwohl es genug Arbeitslose gäbe, nur wollen diese (und das zu Recht) nicht für einige Euro pro Stunde arbeiten. Daran hat sich beim Mindestlohn auch nichts geändert, der wird für ausländische Arbeitnehmer einfach nicht bezahlt. Meiner Ansicht nach kann der Staat etwas tun, zumindest wenn er eine gewisse Größe und Wirtschaftsmacht hat. Er kann Waren verteuern die unter Bedingungen hergestellt werden die weitaus schlechter als die hier sind. Importzölle gab es schon immer und sie sind auch ein guter Weg. Wenn man z.B. Kleidung die in Banglasch genäht wurde mit einem Zuschlag versieht der dem entspricht wie wenn sie bei uns gefertigt würde, dann hätte das zwei Entwicklungen: in Bangladesch würden die Bedingungen besser werden, denn die Unternehmen wollen die Zölle vermeiden und die deutsche Textilindustrie wäre konkurrenzfähiger und würde wieder expandieren. Das geht nur wenn ein Land eine gewisse Bedeutung auf dem Weltmarkt hat und man Grauimporte verhindern kann. Das würde z.B. bei Holland nicht gehen. Die weltwirtschaftliche Bedeutung ist zu klein, und Grauimporte sind aus Belgien, Deutschland und Frankreich leicht bei den vielen Grenzen möglich.

Das ist aber auch ein gesellschaftliches Problem und daher auch meine Ansicht von Kapitalismus als "Egoismus als Gesellschaftsform" - wir alle könnten ja etwas gegen die Zustände tun. Einfach keine Produkte kaufen wo man weiß das andere für diese ausgebeutet werden. Die meisten kennen ja die Missstande, aber die wenigsten richten ihr Einkaufsverhalten danach. In Deutschland ist das noch schlimmer als woanders. Ich glaube nicht das man woanders mit "Geiz ist Geil" oder "Ich bin doch nicht blöd" so erfolgreich Werbung machen kann. Manchmal habe ich das Gefühl muss man sich ja schon rechtfertigen für etwas mehr ausgegeben zu haben als nötig. Und solange sich die Gesellschaft als solche nicht ändert, wird es auch beim Kapitalismus bleiben.

Soviel für heute. Morgen etwas mehr zum Thema Zement.

23.9.2015: Zement

Eigentlich mag ich ja den Lesch, vor allem weil er Klartext redet wenn es um die politische Bedeutung der Forschung und ihrer Ergebnisse geht. Darum ging es auch in einem Beitrag über "Frag den Lesch". Es ging um den "Klima Killer Zement". Die Aussage: Es werden 3 Milliarden Tonnen Zement pro Jahr produziert, der Kohlendioxydausstoß soll viermal so hoch wie beim weltweiten Flugverkehr sein. Das scheint auch zu stimmen. Zumindest der Spiegel berichtet ähnliches. Danach ging es in der Sendung um die Klimafolgen und Alternativen und da muss ich sagen: Schuster bleib bei deinen Leisten. Wenn ich nichts von Chemie verstehe, weil ich Physiker bin (leider meiner Erfahrung nach bei Physikern der Normalfall) dann sollte ich den Mund halten.

Fehler Nummer 1: "Bei der Produktion von 1 Tonne Zement werden 870 kg CO2 frei". Er begründet das aufgrund des Brennens bei 1450 Grad Celsius. Dabei wird im beim Einspieler etwas später deutlich, dass der Werkstoff Calciumcarbonat ist. Beim Brennen passiert chemisch folgendes:

CaCO3 + Energie → CaO + CO2.

Setzt man die molaren Massen an, so entfallen bei der rechten Seite, den Produkten auf das Calciumoxid 56 g und das Kohlendioxyd 44 g. Das bedeutet alleine durch die Produktion von Calciumoxid wird pro Tonne CaO 785 kg Kohlendioxyd freigesetzt. Calciumoxid ist der Hauptbestandteil von Zement, er besteht zu 58 bis 66% aus diesem Material. Das bedeutet von den 870 kg Kohlendioxyd die pro Tonne Zement emittiert werden entfallen 450 bis 522 kg also der größte Teil auf das vorher gebundene Kohlendioxyd und nicht den Herstellungsprozess. Wenn man den Wett der ITAS Studie nimmt, die sich mit dem unten angesprochenen Magnesiumcarbonat-Zement beschäftigen dann beträgt der weltweite Durchschnitt bei der Zementproduktion 740 kg Kohlendioxid-Emission pro Tonne, dann macht also dass gebundene Kohlendioxid zwei Drittel aus - entsprechend gering sind die Energieinsparpotentiale.

Es wird noch besser. Im zweiten Teil geht es um eine Alternative: Magnesiumsilikat (übrigens als falsche chemische Formel (MgO3Si) dargestellt, richtig wäre MgSiO3) soll Kohlendioxid binden und daraus soll Magnesiumcarbonat werden. Die Selbstverständlichkeit mit der er diese Erkenntnis herausposaunt ist schon erstaunlich "Das Verfahren  Magnesiumcarbonat herzustellen ist ja schon aus dem Chemie Unterricht bekannt, das sind die kleinen weißen Stäbchen die man verwendet hat, also man wusste das schon".

Aha ja: Den Chemieunterricht den Lesch genossen hat, möchte ich sehen. War dem Schullabor ein Hochofen angeschlossen? Magnesiumcarbonat wird nicht aus Magnesiumsilikat hergestellt. Silikate gehen mit fast allen Elementen eine stabilere Verbindung ein so auch mit Magnesium. Das Magnesiumcarbonat, das wir heute abbauen, stammt aus durch Wasser über Jahrmilliarden herausgelöst gelösten Magnesium Ionen die mit dem Kohlendioxyd der Luft reagieren. Niemand stellt es aus Silikat her, weil man für den nötigen Schnellgang viel Energie braucht, denn auch hier muss man das Magnesium aus einer Chemischen Bindung lösen. Lesch preist es trotzdem als Alternative zu Calciumoxid, weil es Kohlendioxid bindet nach

MgSiO3 + CO2 → MgCO3 + SiO2

Da der Rest der entsteht Quarz ist, ist vielleicht auch dem Laien klar, dass man dafür viel Energie braucht den Quarz ist chemisch sehr inert. Er reagiert nicht einfach so mit Magnesiumcarbonat zu Magnesiumsilikat.

Noch bedeutender ist aber das Magnesiumcarbonat nicht die Bindungsfähigkeit von Calciumoxid hat. Aufgrund einer chemischen Reaktion bildet Calciumoxid mit Wasser ein neues Mineral, das als Gerüst wirkt und die anderen Teile des Betons einschließt. Das macht Magnesiumcarbonat nicht. Es bildet zwar das basische Magnesiumcarbonat mit Wasser (und gibt dabei wieder zwei Drittel des gebunden Kohlendioxyds frei) aber bildet dann keine feste Gerüstsubstanz. Ich habe nach Magnesiumsilikat und Magnesiumcarbonat in diesem Zusammenhang gesucht, aber außer einigen allgemeinen Ausführen wie hier nichts gefunden. Die auch dort falsch angegebene Summenformel lässt drauf schließen, dass auch die ZDF Redeakteure nicht weiter gesucht haben. Lediglich ein Patent wo man eine Calciumoxid - Magnesiumcarbonatmischung zum Verhärten von Erdreich, das zu weich ist, einsetzen will geht in die Richtung, doch dabei geht es nicht um einen Untergrund der betoniert wird, sondern das Binden das dort enthaltenen Wassers.

Die Webseite von Klimakiller.info verweist aber auf eine ITAS Studie die sich mit diesem "Magnesiumzement" beschäftigt. Liest man die im Original durch, so wird klar, dass zum einen die Bindung des Kohlendoxyds Energie erfordert - das mildere Verfahren läuft bei 100 bis 200°C und 120 bis 150 Bar Druck im Autoklaven ab und zum anderen dieser Zement zumindest der bindende Anteil nicht aus Magnesiumcarbonat sondern Magnesiumoxid/Magnesiumcarbonat besteht. Magnesiumoxid bildet aber wie Calciumoxid feste Hydroxyde und wird auch als Keramikwerkstoff verwendet. Es bildet mit den Magnesiumsilikaten, die man auch als Ausgangsstoff nimmt, Mischkristalle die ähnlich wie Zement erhärten. Neben dem kleinen Anteil an Magnesiumcarbonat (minimal 20%, maximal 50%) am Zement spricht auch dagegen dass man das Magnesiumoxid selbst wiederum aus Magnesiumcarbonat bildet bei etwa 600 bis 700°C und dabei wird natürlich Kohlendioxid frei nach

MgCO3 + Energie → MgO + CO2

Das heißt - in der Summe hat man wenig Kohlendioxid eingespart erst recht nicht welches chemisch gebunden wie uns Lesch vormachen will. Da man für die Produktion auch Energie braucht, im Falle des Magnesiumzements auch sehr viel um die Ausgangsmineralien abzubauen und zu reinigen beträgt die Kohledioxidbilanz -20 bis +141 kg Kohlendioxyd pro Tonne Zement, Portlandzement der aus Calciumoxid als Bindemittel besteht hat eine Bilanz bei optimierter Prozessführung von 201 bis 420 kg Kohlendioxyd, wenn z.B. das Calciumoxid nicht nur als Calciumcarbonat sondern anderen Calciumverbindungen wie Gips oder Anhydrid stammt. Daneben gibt es Mischungen aus Calciumoxid mit anderen Mineralien wie z. B Calciumhydroxid. Auch hier gibt es neuere Forschungen an Alternativen. So viel besser steht also dieser neue Zement gar nicht da. (Von den mechanischen Eigenschaften ganz zu schweigen).

Das alles hätte man nachlesen können, wenn man dem Link auf Klimainfo gefolgt und beim ITAS eine suche gestartet hätte, aber dazu hat es wohl nicht gereicht (ich habe weniger als eine Stunde dazu gebraucht das Paper querzulesen, es ist sogar in Deutsch). Ganz ehrlich: das war schwer geschludert und eine sehr schlechte Leistung.

Es bleibt natürlich ein Problem, dass wirklich zu viel Zement produziert wird. Nach der ITAS vor allem in Asien und dort ist die Produktion so ineffizient wie bei uns vor der Ölkrise. Wenn man den weltweiten Durchschnittsverbrauch von 740 kg Kohlendioxid pro Tonne nur auf die obere Grenze von 420 kg pro Tonne bei modernen Verfahren senken würden, wäre schon viel gewonnen. Noch wichtiger wäre weniger mit Zement zu bauen. Der geht ja nicht nur in Häuser.

Eine kurze Recherche ergab, dass ein Einfamilienhaus etwa 200 bis 250 t wiegt. Nicht alles davon ist Zement. Zum einen gehen Dach, Fließen ab, dann selbst wenn es vollständig betoniert wurde (meist werden ja die Mauern bei uns noch gemauert also aus Stein gemacht und nur der Keller und die Decken betoniert) besteht Beton  nur zu einem Achtel aus Zement. Geht man von 200 t Beton aus, so enthält ein Einfamilienhaus also 25 t Zement. Das sind bei 4 Bewohnern 6,25 t pro Person. Nimmt man an dass es 50 Jahre steht so sind das 0.125 t pro Jahr. Da weltweit aber 3 Milliarden Tonnen hergestellt werden also 0,4 t pro Einwohner/Jahr) muss der größte Teil woanders hin gehen, z.B. in Straßen oder andere Versiegelungen. Dort anzusetzen wäre also sinnvoller.

 
Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99