Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 348: 8.9.2013-13.9.2013

8.9.2013: Realsatire

Eigentlich hatte ich bei dem langweiligen Wahlkampf, den wir gerade haben mal wieder eine Satire machen. Früher ging es noch um fundamentale Fragen wie "Freiheit statt Sozialismus" oder "geistig moralische Erneuerung". Heute läuft der Wahlkampf, nach den Erfahrungen die man 1990 machte (als Lafontaine sagte die Einheit wird teuer und die SPD verlor und 2002/5 als Schröder doch tatsächlich wagte mal ein Reformvorhaben umzusetzen, das die Leute finanziell belastet als Kuschelveranstaltung. Nur nichts negatives sagen. Mit der neuen Regierung sinken die Steuern und Arbeitslosenzahlen und schulden und wenn doch jemand mal sagt das das nicht geht wie letzten Sonntag im Fernsehduell Steinbrück sagt das man an den Pensionen sparen muss dann kommt gleich von Merkel der Hinweis "Lehrer und Polizisten nun aufmerksam hinhören".

Also dachte ich mir, ich mache mal zum Scherz ein Parteiprogramm in dem lauter Dinge drin sind die sich gegenseitig ausschließen. Von jeder Partei einen Punkt der ihr am Herzen liegt. Von der CSU die Autobahnmaut, von der alternative Deutschland ein Einreiseverbot für Ausländer, von den Piraten die Abschaffung des Urheberrechts etc. ...

Doch da sah ich den Wahlwerbespot der FDP im Fernsehen. Und ich muss sagen, besser kann man es nicht machen: Steuern senken, Soli abschaffen, mehr Lohn, mehr Rente und trotzdem die Schulden abbauen. Und wie ich schon sagte bei "Freiheit statt Sozialismus": "Rot-Rot-Grüne Schuldenmacherei oder solide Finanzen. Rot-Rot-Grüne Steuererhöhung oder Entlastung. Rot-Rot-Grüne Bevormundung oder persönliche Freiheit".

Das ist genau diese Art von Wahlversprechen die sie vor vier Jahren schon machten. Ich finde diese Partei so unerträglich. Machen darauf jeden zu vertreten, dabei sind sie nur die Interessenvertretung einer Spitzengruppe von Wohlhabenden. Nur sagen sie das nicht. stattdessen machen sie auf Wohltäter. Schon wegen der unverschämten Wahl(ver)sprechen 2009 hätten sie es verdient unter der 5 Prozent Hürde zu bleiben (was Sie auch bleiben würden, wenn sie nur von denen gewählt werden, die sie vertreten). Dazu passt auch Reiner Brüderle der mich immer an einen Versicherungsverkäufer oder Beamten erinnert, aber nicht an jemand den ich wählen würde. Beim Fernsehspot hatte ich schon Schwierigkeiten ihn zu verstehen, beim Internet Spot ging es besser. Aber wenn man schon bei einem Spot, der ja gedreht wird mit x-Proben es nicht mal hinbekommt deutsch und deutlich zu reden, warum sollte ich ihn dann wählen. Man kann ihn ja nicht mal verstehen. Er merkt das ja nicht wenn ihn die Heute Show mit seinem unverständlichen Gebrabbel auf die Schippe nimmt meint er die haben seine Stimme verfremdet. Nein Rainer, Du redest So. Machst aus jedem S ein "Sch" und lässt die Pausen zwischen den Wörtern weg. Das versteht selbst in Hessen kein Schwein!

zu Realsatire passt auch diese Mail, die ich ohne Kommentar hier wiedergebe:

Sehr geehrter Herr Leitenberger !
 
Auf Ihren zahlreichen Webseiten sieht man immer wieder Beispiele einer
falschen Verwendung von "das" und "dass (daß)". Dazu möchte ich hier
nur ein Beispiel angeben (siehe die Angaben zu Ihrem Lebenslauf):
 
" ... Bald aber erkannte ich, das sich dort alles um industrielle Chemie und
      Verfahrenstechnik dreht und ich merkte das dies nicht das richtige
      Studienfach für mich war. ... "
 
Richtig ist natürlich:
 
" ... Bald aber erkannte ich, dass sich dort alles um industrielle Chemie und
      Verfahrenstechnik dreht und ich merkte, dass dies nicht das richtige
      Studienfach für mich war. ... "
 
Sie sollten also solche falschen Schreibweisen versuchen zu beseitigen, wegen
der Vielzahl Ihrer Seiten aber wohl schwierig bzw. zeitaufwendig zu leisten.
 
Mit freundlichen Grüßen,
Ihr wohlmeinender
xxxxxxxxxxxxxxx
der sich für Ihre Darstellung der Geschichte
von Turbo Pascal / Delphi interessiert hatte.
 
Dort schrieben Sie beispielweise:
" ... Der Grund das man BASIC überall fand, war das die Sprache so einfach war, wenn auch
      im Vergleich zu heutigen Dialekten wie Visual BASIC eine sehr rudimentäre Untermenge
      der Sprache eingesetzt wurde. Die Umsetzungen von größeren Sprachen auf die kleinen
      Maschinen krankte an vielen Unzulänglichkeiten, vor allem daran das der Speicher der
      Computer zu klein war. ... ". (Falsche Schreibweisen habe ich unterstrichen.)

9.9.2013: Galileo und die Oberstufenfrage

Das Buch von Heppenheimer über das Space Shuttle beschäftigt sich auch mit Oberstufen und schnitt hier auch Galileo an. Das erinnert mich an etwas das mir schon bei der Recherche zu Galileo auffiel: wie sollte die Raumsonde zu Jupiter kommen?

Eine Transferbahn zu Jupiter erfordert relativ zur Erdoberfläche eine Geschwindigkeit von mindestens 14,2 km/.s Relativ zum Erdorbit eines Space Shuttles sind es noch 6,4 km/s. Das ist eine ganze Menge. Galileo wurde als Projekt am 14.4.1977 genehmigt, 6 Monate später gab es am 14.10.1977 die Planung der Mission. Sie sollte im Januar 1982 starten, mit einem Marsvorbeiflug Energie sparen und auf einer dreistufigen IUS gestartet werden. Galileo sollte 1.958 kg schwer sein.

Nun die IUS gab es noch nicht und die zweistufige Version war nicht leistungsfähig genug. Diese konnte 2270 kg in den GEO befördern - die Nutzlastmasse entspricht Galileo, doch für den GEO Orbit benötigt man nur 4,2 anstatt 6,4 km/s. Boeing bot als Lösung eine dreistufige IUS an. Die erste Stufe wäre dabei zweimal eingesetzt worden. Ich konnte das nicht glauben. Also habe ich nachgerechnet. Eine dreistufige IUS hätte die Sonde auf 5652 m/s beschleunigt. Die Startmasse hätte 27.550 kg ohne Befestigung betragen. Trotzdem war dies nicht ausreichend, so war auch ein Vorbeiflug an Mars geplant, der 1 km/s addiert hätte, aber auch die Mission um ein Jahr verlängert. Die IUS befand sich seit 1976 in der Entwicklung.

Das war riskant. Die Sonde war so in zweierlei Weise an zwei Schwachpunkte gebunden. Die IUS in dieser Kombination war an der maximalen Nutzlastgrenze des Shuttles. Da dieses noch schwerer wurde, war bald klar, dass nur die beiden leichtesten Orbiter Atlantis und Discovery die Sonde starten konnten und das auch nur mit 109% Startschub und einem Leichtgewichttank, der 3 t leichter als der normale war. Das zweite war, das wenn man das Startfenster 1982 verpasste, der Mars nicht mehr als Swing-By nutzbar wurde. Man verpasste auch das Startfenster und so war die nächste Planung die, dass man die Atmosphärensonde und den Orbiter separat startete. Die Kapsel wog schlussendlich 339 kg. Zieht man diese Masse ab, so wäre die dreistufige IUS aber auch nicht ausreichend gewesen. Ich erhalte 5920 m/s als Endgeschwindigkeit. Deutlich unterhalb der 6400 m/s ie man braucht.

Damit es klappt hätte Galileo um 416 kg leichter werden müssen, oder die Oberstufe. Fast so viel brächte übrigens eine Kombination IUS+PAM D obwohl sie um 8 t leichter ist, weil die IUS Zweitstufe eine hohe Leermasse aufweist.

Was die USA damals hatten, war die Titan 3E. Die Titan 3E war eigentlich nur eine Titan 3C mit einer zusätzlichen Centaur Oberstufe, die man weitgehend ohne Veränderungen von der Atlas übernommen hatte. Ab 1982 stand auch die Titan 34D zur Verfügung mit verlängerten Stufen. Hätte man sie um die aktuelle Centaur D der Atlas ergänzt, Basierend auf der LEO Nutzlast der Titan 34 hätte diese Galileo zu Jupiter transportieren können. Ich errechne über 2200 kg Nutzlast, das lässt sogar noch etwas Spielraum für den Nutzlastadapter. Nur kurz hat man diese Lösung als Backup zum Shuttle erwogen.

Stattdessen entwickelte man eine eigene Centaur Oberstufe für das Shuttle, die Centaur G. Es waren zwei Stufen geplant: Eine kleinere Version für die Air Force (die nur den GEO Orbit erreichen wollte, dafür aber größere Nutzlasten transportieren wollte und eine größere für die NASA, obwohl diese nur zwei Nutzlasten hatte: die ISPM Sonde (später Ulysses genannt) und Galileo. Die Centaur G Prime hätte Galileo um 7218 m/s beschleunigen können. Die Centaur G Prime hätte Galileo sogar im späteren Fluggewicht (das noch auf 2.380 kg mit Adapter stieg) transportieren können.

Die Entscheidung für die Entwicklung von Galileo fiel, als 1981 klar war das die Sonde nicht vor 1985 starten würden könnte. Mit der IUS wäre selbst bei zwei Starts ein Swing-By an Venus und erde nötig (VEGA), das die Mission um 3 Jahre verlängern würde und 200 Millionen an Missionskosten addieren würde. Zusammen mit den teuren IUS Oberstufen schien da die Centaur G Entwicklung nicht so viel teurer zu sein und man hätte auch eine Alternative für zukünftige Raumsonden. Die Risikobewertung fiel zugunsten der Centaur aus. In allen Kriterien wurde ihr ein geringes Risiko beschieden.

Im Nachhinein muss aber selbst ich als Verfechter von kryogenen Antrieben sagen, das dies doch sehr blauäugig war. Sicher es gab niemals Probleme mit der Centaur wie Explosionen im Orbit. Die Probleme waren meist vorzeitige Triebwerksabschaltungen oder ähnliches. Davon wäre das Shuttle dann nicht betroffen, da dann die Stufe schon ausgesetzt war.

Aber eine Stufe mit 21 t schwappendem Triebstoff im Frachtraum? Zudem musste sie innerhalb von wenigen Stunden nach dem Start ausgesetzt werden, weil selbst mit Isolation der Treibstoff sich schnell erwärmt. Auch der Start musste pünktlich erfolgen, sonst wäre es problematisch den Treibstoff am Verdampfen zu hindern und bei einer Notlandung war vorgesehen, dass man den verdampfenden Wasserstoff an einer Seite des Orbiters entließ und den Sauerstoff an der anderen um eine Knallgasexplosion zu verhindern - nicht gerade professionell. Zudem wäre die Stufe bei einer Notlandung zu schwer gewesen. Das Shuttle sollte mit maximal 14,5 t Nutzlast landen. So musste man einen Teil des Treibstoff durch die Leitungen die zu den Haupttriebwerken führen ablassen müssen. Das alles ist doch sehr mit der heißen Nadel gestrickt.

Wie wir wissen wurde die Centaur gestrichen als man nach der Challenger Katastrophe die Sicherheitsrisiken überall im Shuttle Programm nicht mehr so nachlässig einschätzte wie vor diesem Ereignis. Als Folge konnte man nun Galileo nur noch mit der IUS starten - und zwar mit der zweistufigen Version. Das machte nun nicht nur einen Vorbeiflug an Erde oder Venus nötig um Jupiter zu erreichen, sondern sogar drei. Die Mission verlängerte sich um über 4 Jahre und wurde um 487 Millionen Dollar teurer.

 Mit 2380 kg Startgewicht war Galileo zwar nun zu schwer für eine Titan 34E. Auch die neue Titan 4 wäre keine Alternative gewesen, da ihre Centaur ein um 1 t höhere Trockengewicht hatte. So gab es realistischer Weise keine Alternative zur VEEGA Bahn mit ihren Kosten und Risiken. Der Antennenausfall hatte übrigens nichts damit zu tun, der entstand durch den mehrmaligen Transport der Sonde per Truck durch die ganzen USA von Florida (Startort) nach Kalifornien (Bauort).

10.9.2013: Die Cholesterin Lüge

Derzeit beschäftige ich mich wegen des aktuellen Ernährungsbuches mit ernährungsbedingten Krankheiten und da gibt es ja eine die ist so umstritten wie keine: Arteriosklerose und Cholesterin. Als ich noch Ernährungslehre in der Schule hatte, so Anfang der achtziger Jahre war alles klar: Cholesterin ist ursächlich für Arteriosklerose und dieses wiederum für Herzinfarkt. Einige Krankheiten zeichnen sich durch einen erhöhten Cholesterinanteil im Blut aus und man sollte daher generell Cholesterin in der Nahrung reduzieren. Dreißig Jahre später ist das immer noch die offizielle Empfehlung der DGE. So sollte man weil Eier viel Cholesterin enthalten nur 1-2 mal pro Woche essen.

Nun habe ich schon im Studium erfahren, das vom Cholesterin, das in den Adern kursiert, das meiste vom Körper selbst produziert wird. 80-90% stammen aus dieser Quelle, 10-20% aus der Nahrung. Unter diesem Gesichtspunkt ist es relativ unsinnig das Nahrungscholesterin stark zu reduzieren. Ich bin heute wieder drauf gekommen, weil in einem aktuellen Lehrbuch, dass ich lese, ich erstmals den Passus fand "das 70-75% aller Hyperlipidämiker nur unbefriedigend auf diätetische Maßnahmen reagieren". Allerdings wird eine Seite später dann doch eine cholesterinarme Diät empfohlen.

Nun ehrlicherweise muss man sagen, geht dieses Buch nur auf die Erkrankten ein. Andere wie die DGE, oder auch Mediziner die Grenzwerte für den Cholesteringehalt festlegen, machen dagegen ganze Bevölkerungsgruppen zu Patienten. In der Apothekenrundschau fand ich mal eine Anzeige mit einer Deutschlandkarte, wo nach Bundesland der Anteil der Bevölkerung mit zu hohem Cholesteringehalt eingetragen war: der niedrigste Wert betrug 55%, der höchste 70%.

Also selbst wenn man keine Ahnung von Ernährung hat, sollte man doch bei solchen Zahlen mal den Verstand einschalten. Es kann doch nicht sein, das über die Hälfte, je nach Studie sogar bis zu 80% der Bevölkerung therapiebedürftige Cholesterinwerte haben. Dann sind diese meiner Ansicht nach festgelegt und nicht die Bevölkerung krank.

Ein paar Fakten die relativ unstrittig sind:

Erstens: Es gibt Hyperlipoproteinämien bei denen der Cholesteringehalt im Blut erhöht ist. (Es gibt verschiedene Formen, bei denen auch andere Lipidfraktionen verändert sind). Sie können primär sein, also z.B. vererbt. Sie können auch sekundär als Folge anderer Krankheiten entstehen. (vor allem anderer ernährungsbedingter Krankheiten wie Diabetes oder Übergewicht).

Zweitens: An der Arteriosklerose ist ein erhöhter LDL Gehalt beteiligt. LDL ist das primäre Transportvehikel für Cholesterin. Aber es ist nicht der einzige Faktor. Andere Faktoren haben sich als ebenso oder bedeutender erwiesen wie Übergewicht, Rauchen, Stress, mangelnde Bewegung

Drittens: Cholesterin durchläuft im Verdauungssystem einen Kreislauf: Es wird mit der Gallenflüsigkeit ausgeschüttet und im Dickdarm wieder resorbiert. Vom resorbierten Cholesterin macht das Nahrungscholesterin nur einen kleinen Teil aus. Sinkt die Menge des aufgenommenen Cholesterins, so produziert die Leber neues.

Aus diesen Tatsachen wird für mich folgendes deutlich:

Erstens: Die Veränderung der Nahrung kann den Blutcholesteringehalt nur wenig ändern. Zum einen weil es den kleineren Teil des aufgenommenen Cholesterins ausmacht und zum zweiten weil der Körper selbst welches produziert wenn er zu wenig aus dem Darm aufnimmt.

Zweitens: Viel mehr scheint nach Studien die Reduktion von Übergewicht und mehr Bewegung zu bringen. Beide Faktoren können den Blutcholesterinwert um bis ein Drittel senken. Daher ist dies als erstes bei einem Erkrankung zu raten. Das betrifft vor allem beim Vorliegen einer sekundären Hyperlipoproteinämie, also einer Erkrankung bedingt durch andere ernährungsbedingte Krankheiten, an deren Spitze Übergewicht steht.

Drittens: Die Festlegung von Grenzwerten für das Cholesterin, die einen Großteil der Bevölkerung nicht erreicht, nützt man nur einem: der Pharmaindustrie, denn wie bekannt ist und oben erläutert kann man ja nur mit der Ernährung die niedrigen Werte nicht erreichen. Und bei 55-70% je nach Bundesland kann die Ursache auch nicht an Übergewicht und mangelnder Bewegung liegen. So viele übergewichtige und Faule gibt es nicht, zumal auch schlanke und sportliche zu hohe Cholesterinwerte aufweisen können.

Viertens: Es fehlt meiner Ansicht nach der Beweis, das es einen Zusammenhang nur zwischen Cholesteringehalt im Blut und dem Auftreten von Arteriosklerose bei Gesunden gibt (also nicht an einer Lipoproteinämie erkrankten oder ohne weitere Risikofaktoren wie Übergewicht oder Stress). Die Einschränkung der Cholesterinaufnahme für die allgemeine Bevölkerung ist daher nicht wissenschaftlich zu vertreten.

11.9.2013: Neues von meiner Lieblingsfirma

SpaceX enttäuscht mich nie. Keine Firma ist so zuverlässig und hat einen so hohen Unterhaltungsfaktor. Man darf sie nur nicht ernst nehmen und das glauben was sie sagen. Also ich beziehe mich auf diese Meldung. Da beteuert die Firma seit zwei Jahren, die Falcon 9 "v1.1" wäre nur ein kleines Upgrade, alles nur ein bisschen gestreckt und ein bisschen leistungsfähigere Triebwerke und wundert sich, wenn die NASA ziemlich verärgert ist, weil sie für den Start von JASON-3 die Falcon erst wählte, als es schon vier Flüge gab, mit der Aussicht, dass sie bis zum Start dann genügend Flüge absolviert hat, um den NASA Anforderungen an Zuverlässigkeit zu genügen und nun erfolgt der mit der Falcon 1.1, die eben diese Flüge nicht aufweist. Auf Orbital wird nun Druck gemacht, möglichst schnell nach dem COTS Testflug in wenigen Tagen im Dezember den ersten operationellen Flug durchzuführen, auch weil nun beim ISS Transport die Weichen neu gestellt sind und drei Flüge der Falcon 9 erfolgen müssen bevor der nächste Transport erfolgen darf (siehe Meldung).

Und nun gibt Musk zu wäre man "extrem paranoid" wegen des flugs, weils eben doch eine neue Rakete ist - vorher wollte man das nicht zugeben, man hätte Kunden vergrätzen können. Ansonsten gibt es nichts neues. Weder erfährt man etwas auf offiziellem Wege, wie das statische Zünden am 7/8 Swptember verlief (meine Prognose: es gab wohl Probleme, denn gute Nachrichten werden eher rausposaunt) noch wann der Starttermin ist. Außer Spaceflight.now scheint den keiner zu wissen, dabei steht er in 5 Tagen an. Anders als früher gibt es auch diesmal kein Video, vielleicht kehrt die Firma ja wieder zu der Praxis bei der Falcon 1 zurück und schickt alle Aufnahmen mit 30 Sekunden Verzögerung in die Welt, damit man rechtzeitig den Stöpsel ziehen kann (so geschehen bei der Falcon 1, dritter Start, wie eine ehemalige Mitarbeiterin inzwischen bestätigt hat). Wenns nicht so traurig wäre, man könnte drüber lachen.

Was will die Firma diesmal machen? Nun nach dem Aussetzen der Nutzlast einen weiteren Test der zweiten Stufe durchführen. Das hat den profanen Sinn festzustellen, welche Nutzlast die neue Falcon 9 bei Ausschöpfung aller Kapazitäten hat. Bei nur 500 kg Nutzlast müsste der Treibstoff mehr als ausreichend sein um die Stufe aus dem Erdgravitationsfeld zu befördern, schließlich beträgt die normale LEO Nutzlast über 13 t und 3 t soll sie auf Fluchtgeschwindigkeit befördern können.

Man wird meiner Ansicht nach aber eine größere Menge in der ersten Stufe lassen. Denn diese soll ebenfalls ein Manöver durchführen. Sie soll vor der Wasserung erneut zünden und so die Aufprallgeschwindigkeit reduzieren. Genügend Treibstoff gibt es, bei nur 500 kg Nutzlast müsste man wenn man 500 kg Reserven vorsieht in der ersten Stufe noch über 200 t ungenutzten Treibstoff haben. Es müsste meiner Überschlagsrechnung nach sogar genügend sein um die stufe wieder komplett abzubremsen, das heißt die Aufstiegsgeschwindigkeit wieder abzubauen ohne aerodynamische Abbremsung oder ähnliches zu nutzen.

Was viel interessanter ist sind diese beiden Aussagen:

“Just before we hit the ocean, we’re going to relight the engine and see if we can mitigate the landing velocity to the point where the stage could potentially be recovered, but I give this maybe a 10 percent chance of success,” Musk said. 

. “Ultimately, I think we could see a drop in cost per launch of 25 percent or more, just from reuse of the boost stage,” he said. 

Also: die derzeitige Stufe hat eine Chance von 10% einen Aufprall auf dem Wasser zu überleben, trotz Abbremsen vor dem Aufschlag. Da steht also noch viel Arbeit an, bis man 100% erreicht. Der Nutzen sind aber nur 25% Reduktion der Startkosten, die übrigens, das haben sowohl meine Berechnungen wie auch Verlautbarungen von Musk mit einer Halbierung der Nutzlast einhergehen. Macht für mich nicht viel Sinn.

Laien mag die Firma ja mit Demonstrationen wie Grasshopper beeindrucken (das der Schub eines Triebwerkes so geregelt wird, dass eine Rakete schwebt oder langsam nach unten, sinkt ist Technologie der sechziger Jahre, da braucht man nur eine Schaltung die den Schub an die Daten eines Radar-Höhenmeters und Geschwindigkeitsmessers koppelt, so was konnten schon so einfache Sonden mit analogen Rückkopplungssystemen wie die Surveyors 1967!). Aber die wirklichen Probleme sind doch andere - die stufe muss den Wiedereintritt ohne Beschädigungen überleben, sie muss den Startort präzise wieder erreichen und nicht 1 km davon entfernt landen. Bis diese gelöst sind, werden noch etliche Falcon 9 im Meer aufschlagen.

Meiner persönlichen Meinung nach ist das auch mehr ein Alibiprogramm. Schließlich gibt es ja das mehrfache Zitat von Musk, er wäre gescheitert, wenn die Wiederverwendung nicht klappt". Da muss man eben mit wenig kosten so tun als würde man noch dran arbeiten.

Tja und Weil SpaceX so gerne mit Zahlen herumwirft: Arianespace hat dieses Jahr (bis September) kommerzielle Abschlüsse im gleichen Umfang abgeschlossen wie SpaceX in der Firmengeschichte bisher. (jeweils 1 Milliarde Dollar). Siehe hier. Der Ausfall der Proton hat eher dazu geführt das die Atlas 5 einen neuen Vertrag bekommen hat (den ersten seit einigen Jahren)

13.9.2013: Die NSA Hardware

Während die Politik beteuert, dass unsere Daten sicher seien, kommen nun immer mehr Details ans Tageslicht. Noch weiß man wenig über das Prism Programm, doch seit einigen Tagen etwas mehr über die Hardware, die die NSA einsetzt. Eine US-Hackgruppe hat eine Board zugespielt bekommen und zusammen mit dem Chaos Computer Club die Funktionsweise entschlüsselt.

Bei dem Board handelt es sich genauer gesagt um einen Einschub für einen Server im klassischen 19 Zoll Format mit einer Höhe von 1 HE. Die Schnittstellen sind spartanisch, es gibt nur zwei Netzwerkschnittstellen und eine proprietäre Schnittstelle für den Anschluss eines Massenspeichers. Auf dem Einschub selbst gab es eine 3,5 Zoll Festplatte, eine Mini-SATA in einem Steckplatz auf dem Board und dass eigentliche Board selbst. Es gelang den Einschub nach außen zu schmuggeln, da er offensichtlich repariert werden musste - das Netzteil war defekt.

Die meisten Geheimnisse konnten schon die US-Hacker aufklären, unter anderem die Arbeit der Chips. Die erste Überraschung war, das fast keine Standardhardware verbaut war. Alle Chips waren zudem gelötet, was für eine Massenfertigung im großen Stil spricht. Eine zentrale Lage hatte ein DSP-Prozessor von Texas Instruments. Es handelt sich um einen der Prozessoren der Reihe C667. Allerdings passte die Typennummer zu keinem bekannten Exemplar. Eine Anfrage bei Texas Instruments blieb unbeantwortet. Die Zahl der Lötpunkte unter dem Chip und die Leitungen zu den ARM Chips deuten aber daraufhin, dass er mit 256 anstatt 64 Bit arbeitet. Neben dem Prozessor sind 4 GByte RAM fest verlötet.

Den meisten Platz nehmen aber 16 weitere Prozessoren von Freescale ein. Auch hier passte die Typennummer zu keinem auf dem Markt befindlichen Muster. Ifentifizierbar waren sie jedoch als ARM Cores. Der Hersteller (Freesacale) gab ebenfalls keine Auskünfte. Offener war dagegen ARM, die selbst ja keine Chips herstellen, sondern nur entwerfen und lizensieren. Demnach ist die Bezeichnung vergeben für einen Nachfolger eines breit eingesetzten Kryptographieprozessors. Dieser 32 Bit Chip wird eingesetzt in Festplatten und WLAN Stationen. Er verschlüsselt und entschlüsselt den Inhalt nach dem AES Verfahren mit 128, 256 oder 512 Bit breiten Schlüsseln. Bei Festplatten sind die Leistungsdaten recht gut bekannt, da man hier die Geschwindigkeit messen kann. Er erreicht 100 MByte/s beim entschlüsseln und 40 MByte beim Verschlüsseln.

Die Seriennummer des Designs steht nun für einen 356 Bit Prozessor mit acht Kernen, der von ARM für die Ver- und Entschlüsselung von 10 Gigabit Ethernet in Echtzeit entwickelt wurde. Er ist nicht nur erheblich schneller, sondern anders als sein Vorgänger auch beim entschlüsseln genauso schnell wie beim verschlüsseln. Beide Prozessoren erledigen diesen Job direkt in Hardware. Laut ARM wurde der Kern an einige Firmen lizensiert, darunter auch Freescale, aber keine hat bisher ein Produkt auf den Markt gebracht. Na ja außer diesem Exemplar für die NSA.

Auf der kleinen 16 GByte SSD befand ich ein Betriebssystem mit einigen Programmen. Das Betriebssystem ist UNIX-basiert, hat jedoch nur wenige Ähnlichkeiten mit bekannten Linux Distributionen. Nicht verwunderlich, da es nur eine Linux Distribution für den DSP 6670 gibt. Dies ist Ti LINUXMCSDK. Doch Ti hat auch Linuxe für ARM Cores und wahrscheinlich aus beiden ein neues Betriebssystem für beide Chips entwickelt. Wozu die Platine fähig ist fanden die Hacker bald aus. Über Telnet kam man auf die Konsole und da gab es Programme wie "NetDump", "Decrypt256" etc. Sehr bald fanden sie heraus, dass man mit Decrypte256 256 Bit breite AES Schlüssel aus den Hash-Werten rekonstruieren kann. In 73,5 Stunden ermittelte die Platine so den Schlüssel für das eigene WLAN Netz. (Das Passwort ist so nicht ermittelbar, doch mit dem Schlüssel kommt man ins Wlan). Das erscheint langsam, und es gibt auch einen Service, der dies in 24 Stunden schaffen soll. Dieser nutzt aber einen Cluster aus Tausenden von Rechnern in der Cloud, während es hier nur eine Platine eines 42 HE großen Servers ist. eines dieser Racks sollte es also schon in zwei Stunden schaffen und die NSA hat sicher mehr als einen dieser Server. Es scheint eine Arbeitsteilung zu geben: Der DSP von Ti generiert Kombinationen, die dann an die 16 ARM Chips weitergegeben werden und jeder überprüft eine Kombination um sie mit dem Hash zu vergleichen. Das geht solange bis die korrekte Kombination gefunden ist. Je schneller ein Schlüssel ausprobiert werden kann, desto schneller ist das Wlan geknackt.

Die Entschlüsselung der Arbeit der Festplatte war dagegen ein Werk des Chaos Computer Clubs. Während man bei den Chips noch den Hersteller ausmachen konnte, hatte die Festplatte vom "Typ Conner TD-10K24A3". "Conner" als Festplattenhersteller existiert aber schon seit 1996 nicht mehr, als sie mit Seagate verschmolz. Offensichtlich wurde der Firmenname als Deckname neu verwendet, damit die Fertigung der Platten für die NSA nicht bei den Aufträgen und Bilanzen auffällt. Die US-Gruppe konnte die Platte aber mit keinem Betriebssystem und keinem Rechner ansprechen. Da sie leer war konnte man auch mit den Programmen auf der SSD keine Daten auslesen.

Der Chaos Computer Club hatte jedoch ein Mitglied, das hauptberuflich in einem Datenrettungszentrum arbeitete. Er konnte das Geheimnis in zahlreichen Nach-Feierabend Untersuchungen lüften. Grund für die Nicht-Operabilität war die Formatierung der Festplatte. Alle Sektoren habe eine Größe von 1536 Bytes. Normal sind dagegen 512 Bytes. Die Struktur konnte zuerst nicht entschlüsselt werden, da man die Festplatte (wohl aus Sicherheitsgründen) bis auf Bit ebene gelöscht hatte. Ein Aufruf von DumpEth brachte sie aber in heftige Aktivität. Als man dies abbrach, konnte man die Struktur entschlüsseln. Der äußere Bereich enthält 64 Byte große Inhaltseinträge. 32 Byte bestehen aus dem TCP Header, 32 Bytes aus der Sektoradresse des Datenblocks, in der ein IP Datenblock von 1500 Bytes untergebracht ist. Dieser hat eine Größe von 1536 Bytes, 1500 Bytes für die Nutzdaten und 32 Bytes für die Adresse des zeitlich folgenden Sektors.

Die gesamte Struktur ist auf das Protokollieren von IP Daten ausgelegt. Dadurch das der Header im Verzeichnis steht kann man recht schnell alle Rahmen bestimmen, die zu einer bestimmten IP Adresse oder einer bestimmten Verbindung (Port) gehören.

Der Chaos Computer Club hängte das Board an einen Rechner der synthetisch erzeugte Daten über Netz schickte, dadurch war die Vollständigkeit des Mitschnitts genau bestimmbar. Nach 3 Stunden war die 1 Terabyte Festplatte bei Gigabit Ethernet voll. Es fehlte nicht ein Rahmen. Es war klar, das bei 10 Gigabit die Festplatte nicht mithalten konnte, so schnell ist keine Festplatte, selbst bei optimierter Struktur. Doch bei stufenweiser Erhöhung der Datenrate konnte die Platte bis 2,2 Gigabit/s (275 MByte/s) alle Rahmen mitschneiden - zum Vergleich die schnellsten SATA Platten für Server erreichen in den äußeren Zonen 200 MByte/s.

so wie es aussieht hat die NSA also Spezialhardware konstruieren lassen, nur mit dem Ziel Netzwerkverkehr mitzuschneiden und zu entschlüsseln. Angesichts der Kapazitäten (es gibt ja ganze Gebäudekomplexe nur für die Rechner) kann einem da schon Angst und Bange werden.

14.9.2013: Die Laserkommunikation

Technisch gesehen ist es ja relativ einfach:  Laserkommunikation ist enormen Faktor effektiver als die Kommunikation mit Radiowellen. Hervorgehoben werden zwei Dinge. Das eine ist das die Bandbreite viel höher ist. Kommunikationssatelliten haben typischerweise einen 30 MHz Bereich pro Transponder. Bei 2 GHz die man pro Frequenzband frei hat, sind das dann nicht mal 70 Transponder und diesen Bereich darf meistens ein Satellit nicht alleine nutzen. Laserkommunikation erfolgt dagegen im nahen Infrarot bei 1000-1500 nm Wellenlänge, was einer Frequenz von 200 bis 300 Teraherz entspricht. Ein genutzter Bereich von 1 nm entspricht dann 132 GHz, also rund das 4000-fache des 30 MHz Bandes.

Das zweite ist das ein Laser viel stärker fokussiert werden kann, dass beim Empfänger mehr Photonen pro Flächeneinheit ankommen. Für die Satelliten im geostationären Orbit würde dies z.B. heißen dass man sie näher zusammenrücken kann ohne das sie sich stören. Entsprechend braucht man auch einen kleineren Empfänger (hier Teleskop, anstatt Radioantenne) Erstaunlicherweise gibt es kaum Informationen über die Eignung dieser Technologie für interplanetare Kommunikation.

Der Test der Laserkommunikation fing an mit Artemis und Spot 4. Hier wurden zwei Teleskope von je 250 mm Durchmesser genutzt. Die Laserleistung betrug nur 37 bzw. 60 mW. Damit wurden 50 MBit vom LEO in den GEO Orbit transferiert, wobei man eine erheblich niedrigere Fehlerrate bei den Bits maß als vorgegeben (1 pro 1 Million, gemessen 1.2 pro 1 Milliarde.

Weitere Test der Kommunikation mit erdnahen Satelliten nun auch vom Erdboden aus (wo die Atmosphäre dann doch etwas mehr stört) folgten. Das neueste ist die Laserkommunikation an Bord des Mondorbiters LADEEE. Er soll nun schon 622 Mbit/s aus Monddistanz mit einem 10 cm großen Teleskop und 0,5 Watt Sendeleistung senden. Der Empfänger auf der Erde sind vier 40 cm Teleskope. Von der Erde zum Mond sind es übrigens auch schon 20 MBit/s.

Das ist eine Menge, aber wenn die Abnahme des Signals nach Distanz wie bei Radiowellenkommunikation gilt, dann sind das noch 163 Bit/s aus Jupiterentfernung. Erstaunlicherweise hat man dies noch nicht experimentell bei Raumsonden erprobt. Das einzige was ich fand, als ich für einen neuen Aufsatz für "Mini-Raumsonden" nach einer Möglichkeit suchte, Daten optisch über interplantare Distanzen zu übertragen war die geplante Übertragung beim Mars Communication Orbiter. Dieser sollte ein 30,5 cm Teleskop mit einem 5 Watt Laser einsetzen.

Als Empfänger waren mehrere Möglichkeiten angedacht. Der Einsatz des ausgemusterten 5 m Mt Palomar Teleskops, das selbst in größter Entfernung einige Megabit/s erlaubt (bis zu "einigen Dutzend Megabit" bei geringer Entfernung). Dann könnte man ein neues Teleskop in der 5-10 m Klasse konstruieren. Da dieses keine astronomischen Objekte beobachten sollte, reicht ein einfacher Spiegel, ohne Sekundärspiegel und mit einem kleinen Blickfeld. Durch die einfache Konstruktion wäre es 3-5 mal preiswerter als ein astronomisches Teleskop. So wäre ein 8,5 m Teleskop nicht teurer als ein astromisch genutztes 5 m Teleskop. Die letzte Möglichkeit wäre ein Array von kleinen Teleskopen. Hier würde man die Daten zusammenführen. Ihr Vorteil wäre, dass man einen Sonnenschutz einbauen kann, sodass es arbeiten kann bis der Sender nur noch wenige Grad von der Sonne entfernt ist

Immerhin: Verglichen mit der Sendeanlage des MRO ist der Aufwand gering und ein 3 m Teleskop kostet auch nicht mehr als eine 30 m Antenne. Der Beitrag kommt auch zu dem Schluss, das die Laserkommunikation um den Faktor 10 bis 1000 der Kommunikation mit Radiowellen überlegen ist. Was mich interessieren würde, ist ob auch die Missionskosten entsprechend sinken. Cassini kostet derzeit in der erweiterten (billigen) Mission 60 Millionen Dollar pro Jahr, 45 Millionen braucht man alleine damit die Raumsonde betriebsbereit bleibt. Selbst New Horizons, die ja den größten teil der Reise schlummert kostet 221 Millionen Dollar für knapp 10 Jahre. Der Betrieb von astronomischen Teleskopen ist dagegen recht preiswert. sollte das auch für die Laserkommunikation gelten, so wäre schon alleine dies ein Grund diese Technologie einzuführen.

Link:

http://trs-new.jpl.nasa.gov/dspace/bitstream/2014/38024/1/04-0216.pdf

http://lib.semi.ac.cn:8080/tsh/dzzy/wsqk/SPIE/vol4635/4635-1.pdf


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99