Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 392: 19.7.2014 - 26.7.2014

19.7.2014: Es ist langweilig ...

... und zar nicht nur in der Weltraumfahrt, sondern auch bei den Prozessoren. Das wurde mir klar, als ich in der Recherche für frühere x86 Generationen in alten ct' Artikeln nachgeschaut habe. Damals kamen Vergleiche zwischen den neu erschienen 32 Bit Prozessoren (MicroVax, NS3032, MC68020, V70) und der 80386, Artikel über neue RISC Architekturen und den Pentium. Viele waren selbst beim Pentium optimistisch, dass diese Architektur der Vergangenheit angehörte. Das war so nach  dem Muster "Der Pentium hat 3,3 Millionen Transistoren und emuliert mit einer RISC Schicht eine x86 CPU, der Alpha hat mit 1,7 Millionen Transistoren die dreifache Geschwindigkeit - klar das diese Emulationsarchitektur untergehen wird".

Wie wir wissen ist das heute Vergangenheit. Heute sind andere Zeiten. Die ct' schreibt nichts mehr über Prozessorengrundlagen, dafür wie man mit dem Handy den 3D Drucker fernsteuert, für die die sogar zum Bedienen des PC zu faul sind. Vor allem aber findet x86/x64 Chips überall, vom Smartphone als kleinstem Gerät bis zum schnellsten Supercomputer. Alle anderen Architekturen die es mal gab wurden an den Rand gedrängt, egal ob es nun PowerPC, MIPS, SPRAC sind. Andere wie PA-RISC oder Intels eigene Entwicklungen wie der i860 oder Itanium wurden eingestellt.

Ich kann mich an keine neue Prozessorarchitektur erinnern, die in den letzten zwanzig Jahren neu vorgestellt wurde (also keine Weiterentwicklung einer bestehenden ist wie dies bei ARM11 der Fall ist). Das zeigt schon die Misere. Dabei gibt es heute mehr den früher die Möglichkeit des Wechsels. Das zeigen Smartphones, Tabletts und Co. Früher war die Software der Grund warum x86 so erfolgreich war und auch Windows. Jeder kannte Windows, jeder kannte gängige PC Programme. Mehr und mehr musste man die auch nicht mehr kaufen, weil es Freeware Alternativen gab. Das zeigte schon Linux - es mochte umsonst sein, es mochte Zig Distributionen mit x-verschiedenen Oberflächen für jeden Zweck geben - selbst mit Aktivierungszwang und Unterbinden der Mehrfachinstallation von Schlüsseln konnte nichts an der 99% Dominanz von Windows ändern.

Bei dem Smartphone installiert man aber keine Anwendung mehr, man startet eine App. Bei der ist es Wurst auf welchem Gerät sie läuft. Firmen ersetzen mehr und mehr Programme sogar durch Web Dienste, bei denn dann gar kein Programm mehr installiert wird. Dann ist die Hardwareplattform noch unbedeutender.

Auf der anderen Seite gibt Intel seinen Konkurrenten jede Menge Steilvorlagen. Erweiterungen der Architektur seit dem Pentium erfolgten fast ausschließlich bei den Fließkommaoperationen. Das fing mit MMX bei der zweiten Pentium Generation an und hörte bei AVX512 auf. Darüber freuen sich die Betreiber von Supercomputern, doch die meisten Prozessoren stehen in Servern oder in heimischen PC's und dort wird selten mit Fließkommazahlen gearbeitet - Textverarbeitung, Surfen selbst Spiele und Videodekodierung kommen weitgehend ohne Fleißkommaoperationen aus, und selbst wenn man welche braucht z.B. in Excel, dann haben die Anwender wohl kaum so große Arbeitsblätter, dass sie 100 Milliarden Rechnungen pro Sekunde ausführen.

Das wäre die Chance für AMD und andere Anbieter anstatt die ganzen Erweiterungen von Intel nachzumachen wäre für viele Anwender ein Prozessor mit mehr Integereinheiten oder mehr Kernen sinnvoller (die Integreinheiten könnte man nach außen durch Hyperthreading ansprechbar machen). Intel selbst hat das ja erkannt und den Xeon Phi auf Basis der P54C, also der Pentium Architektur geschaffen, allerdings weil dieser Rechner ja auch für Supercomputer gedacht ist mit der AVX Erweiterung. Aber dann gehen ben 50 Kerne auf einen Chip anstatt 16 bei den höchstintegrierten Xeons. Nächstes Jahr werden es dann 70 sein. Mir wäre ein Prozessor mit 16 einfachen Kernen auch lieber als eienr mit 4-6 und vielen Erweiterungen die ich gar nicht nütze.

Aber das sich daran was ändert ist weit und breit nicht in Sicht.

21.7.2014: Erste Erfahrungen mit Createspace

Vor einiger Zeit hat mir jemand im Blog den Hinweis gegeben bei Createspace zu veröffentlichen. Createspace ist ein Subunternehmen von Amazon. Amazon will nachdem sie schon mit Kindle Direct Print eine eigene Plattform für E-Books haben nun auch normale gedruckte Bücher selbst veröffentlichen.

Warum sollte man als Autor dort veröffentlichen? Nun das offensichtlichste Argument ist die Verdienstspanne. Sie ist deutlich höher als BOD. Daneben kostet jedes Format gleich viel, auch DIN-A4 bzw., das US-Gegenstück Letter. Das leitet mich hinüber zum ersten Kritikpunkt.

Noch ist die Plattform auf die USA ausgerichtet. Das spürt man an allen Ecken und Enden. Es geht los bei den angebotenen Formaten, die eben "Letter" beinhalten aber kein A-4. Während ich das noch als kleines Hindernis ansehe, geht es aber weiter wenn man dann ein Buchprojekt anlegt. Ich wollte als erstes eine aktualisierte Ausgabe meiner Europäischen Trägerraketen 1 und 2 veröffentlichen. Es beinhaltet die aktuelle Ausgabe des Bandes 1 (gerade erst auch bei BOD erschienen) mit dem neuen OTRAG Kapitel, Band 2 mit einer aktualsiierten Sektion über die Ariane 5 ME, Ariane 6 und den Inhalt des Vega Buches. Da nun auch große Format möglich sind auf 540 Seiten in Letter untergebracht anstatt 800 im BOD Format 17 x 22.

Also erst mal wollte ich es "Europäische Trägerraketen" nennen. Das geht auch, doch wenn man dann dzumen nächsten Schritt weitgeht, ist aus den beiden "ä" ein Sonderzeichen geworden. I Think I see not right würde da wohl Lübke sagen: Eine Plattform die heute noch nicht mehr mit Nicht-ASCII Zeichen zurechtkommt? Wie provinziell ist das denn? Daraufhin habe ich es erst Mal in "Europas Raketen" umbenannt in der Hoffnung, dass man die Einschränkungen nicht in dem Buch selbst hat.

Provinziell ist auch der Vertriebsweg. International geht es nur über Kindle und Amazon. In Buchhandlungen, an Institutionen (Bibliotheken) und andere Plattformen nur in den USA. Schon alleine deswegen kann es nur eine Ergänzung zu BOD sein, denn ich kann als Autor bei BOD und Amazon sehen wie viel dort verkauft wird und kann den meisten Umsatz mache ich immer noch mit dem normalen Buchhandel.

Trotzdem ist es attraktiv, denn die Kombination von größerem Format und höheren Quoten würde die Kosten auf 39,99 reduzieren - bei den 20-25% Verdienstspanne die ich sonst ansetze (deutlich höher als bei einer Verlagspublikation, doch ich bin ja selbst der Verlag, bekomme keine Werbung, keine Rezensionsexemplare etc.) würde es bei BOD 78 Euro kosten - also fast das doppelte. Weniger Kosten .- mehr potenzielle Käufer.

In den Schritten, die es zu durchlaufen gibt, ähnelt Createspace BOD. Also man gibt zuerst Die Daten des Titels ein, lädt dann Buchblock hoch, gestaltet das Cover online oder lädt es hoch, gibt dann Kataloginformationen und Angaben über den Autor ein. Nach einer Prüfung kann man es dann freigeben.

Was mir auffiel ist, dass es deutlich mehr Schritte gibt. Im positiven Sinne kann man so mehr beeinflussen. Ich finde es dadurch eher umständlich. Besonders nervig ist, dass man diese alle erneut durchlaufen muss, wenn man am Manuskript oder Cover was ändert. Das war bei BOD nicht nötig. Auch nervig ist, dass alle Tools mit Flash arbeiten. Sowohl die Online Viewer (warum kann man kein PDF runterladen?) wie auch das Hochladtool. Das war extrem nervig, weil nach dem Hochladen eine Prüfung ansteht, die nicht offline erfolgen kann (warum eigentlich?) und der Browser bei mir dann 100% GPU Last erzeugt, was selbst den Mauszeiger hakelig macht.

Doch das dicke Ende kam noch. Nachdem man auch die Kindle Publikation abgenickt hat, kann man ein Kindle-PDF herunterladen. Es ist (eigentlich nicht verwunderlich) identisch zum hochgesandten. Dann kommt eine Review der erst nach einem Tag beendet ist. Da es bei BOD innerhalb von Stunden geht vermute ich also eine "menschliche" Durchsicht, und man kann erneut ein PDF herunterladen. Nun kam die große Überraschung: Bilder fehlten, andere sind verstümmelt (siehe Screenshoot). So was ist mir bei BOD nicht passiert. Da kam als Bug vor, dass ein bestimmtes GIF Format nicht erkannt wurde, doch hier handelte es sich um JPEG Bilder unterschiedlicher Quellen. Das sich das jemand auch nur für 1 Minute angesehen hat glaube ich nicht, denn schon nach wenigen Seiten kommt der Erste Rahmen um den der Text herumläuft und wo die Bildunterschrift noch zu sehen ist. Erklären kann ich mir es nicht. Im Forum fand ich den Hinweis es gäbe Probleme mit Transparenz, doch es handelt sich in allen Fällen um JPG und die kennen keine Transparenz, zumindest zeigt Irfan View keine Transparenz an. Zerstörte JPEG haben auch nichts mit Transparenz zu tun.

Da ich einige Schreibfehler im Ariane 6 Kapitel entdeckte, als ich dieses in die Zweitauflage der Internationalen Raketen aufnehmen wollte, habe ich diese Seiten nochmals als PDF exportiert (Open Office wird leider immer instabiler je mehr Bilder man hat, das war schon früher ein Problem, aber nun wird es nahezu unbeherrschbar) und mit PDF-SAM das Dokument neu erstellt - es ist nun 190 mb anstatt 135 mb groß, mal sehen ob es am Format liegt. Wenn die Bildfehler aber erneut auftauchen, dann war es das mit Createspace. Das wird mir dann zu viel Arbeit alle Bilder die betroffen sind auszutauschen, zumal ich nicht weiß woran es liegt.

Also wenn die Bilder erneut fehlen, dann wars das mit Createspace.

Zum Schluss noch eine gute Nachricht: Nachdem ich die alten, dieses Jahr auslaufenden Verträge bei BOD gekündigt habe, bekomme ich für Vertragsverlängerungen die günstigeren Konditionen, das heißt keine monatliche Gebühr mehr und damit gibt es auch keinen Grund die Bücher vom Markt zu nehmen. Das betrifft nun den alten Band US-Trägerraketen, der zwar nicht mit der Neuauflage mithalten kann, aber meiner Meinung nach immer noch um einiges besser ist als die beiden Bücher zum gleichen Thema eines anderen Raumfahrtauthors. Sowohl was die Daten wie auch die vermittelte Geschichte angeht. Niels scheinen die Fakten ja besonders am Herzen zu liegen und er rechnet immer das Startgewicht nach - und ist dann enttäuscht wenn das nicht aufs Kilogramm stimmt. Das mache ich nicht, ich übernehme offizielle Angaben und die differieren zu der Summe, weil man z.b. die Nutzlast und Nutzlasthülle weglässt oder man kann den Treibstoff berücksichtigen der bis zum Abheben verbraucht wird (macht ungefähr 1% des Startgewichts aus) oder eben nicht. Immerhin habe ich keine solchen Schnitzer wie mein Konkurrent, bei dem der Schub kleiner als das Startgewicht ist und die Rakete so nicht mal abheben könnte...

Was mich interessieren würde - keiner hat sich zu meinem Raumfahrtquiz geäußert. War es zu leicht, war es zu schwer? Traut sich keiner die Punkte zu sagen, die er erhalten hätte?

Dann will ich noch das Abba Rätsel auflösen:

Elvis Presely, Abba und die Beatles haben als Gemeinsamkeit, dass sie alle auch Lieder in Deutsch veröffentlichten. Bei Presley war es nur eines "Muss i denn zum Städele hinaus", bei den Beatles einige, das bekannteste "Sie liebt dich" und von Abba gibt es bis Waterloo auch deutsche Versionen z. B. von Ring Ring und Waterloo selbst.

22.7.2014: 45 Jahre Mondlandung - Liebesglück im Internet - Bio vs. Billigfleisch

Weil ich nicht so viel neues zu schreiben habe und auch nicht zu viele Satiren verfassen möchte (da fallen mir dauernd neue ein...) heute mal wieder ein kleiner Blog der sich um Sachen dreht die so gestern zutragen,

Das erste ist das Jubiläum 45 Jahre erste Mondlandung. Es ist bei uns in Deutschland kaum gewürdigt worden, obwohl und vielleicht gerade weil Weltraumdokumentationen sich in den letzten Jahren inflationär vermehrt haben. Ich kann mich nicht erinnern, das es so viele in den Achtzigern und frühen Neunzigern gab. Da gab es nur Spacenight. Ich glaube mit dem Spielfilm "Apollo 13" und seinem enormen kommerziellen Erfolg gab es so eine Wende. Da wurde (vor allem den US-Sendern, aber auch den Deutschen) klar, dass Raumfahrt, vor allem bemannte Raumfahrt die Leute interessiert. Vielleicht muss auch einfach mal eine Generation vergehen bis ein Thema wieder interessant ist.

Das ich überhaupt so viele Raumfahrtbücher geschrieben habe, verdankt ihr dem 40-jährigen Jubiläum. Im Sommer 2009 verkaufte sich mein Erstling "Das Gemini Programm" über 500-mal. Das motivierte mich noch mehr Bücher zu schreiben, ansonsten hätte ich es nach der mageren Resonanz und der Kritik seitens des DLR aufgegeben. Würde sich jedes Buch 500-mal pro Jahr verkaufen, dann könnte ich davon leben, leider ist es aber eher in der Region von 50-mal. Immerhin beobachte ich ein Ansteigen der Verkaufszahlen (in moderatem Maß) beim Gemini Programm und dem absoluten Ladenhüter Skylab. Für das sich wohl niemand außer mir interessiert.

Bei Createspace hat es mit den mit PDF SAM neu erstellten Dokumenten geklappt, allerdings entdeckte ich dann noch zwei überblendete Tabellen ausgemacht und nochmals ein Dokument hochgeladen. Wenn das okay ist, dann hoffe ich kann es bald Online gehen. Es wird 37,99 Euro kosten, dabei habe ich denselben Verdienst wie bei BOD bei der gleichen Textmenge. Der hohe Verdienst ist übrigens nur gegeben, wenn man das Buch über Amazon verkauft, wenn ich die Summe aus der "expanded Distribution" umrechne, müsste ich um auf denselben Verdient zu kommen fast dasselbe berechnen wie bei BOD. Wie ich aber schon von einer ARTE Sendung über die Amazon Printplattform weiß, führen die meisten US-Buchhändler die Bücher von Createspace nicht. Kunststück, Amazon ist ja die Hauptkonkurrenz und hat schon zum Buchhandelssterben in den USA geführt. Bei uns noch nicht, wohl auch wegen der Buchpreisbindung.

Dann kamen gestern zwei Sendungen die ich interessant fand. das eine "Liebesfalle Internet". Er beschäftige sich mit Betrügereien bei Singlebörsen. Das ging von den ominösen russischen Frauen, die Geld brauchen, um erst mal nach Deutschland zu reisen und so Männer abzocken. Während man da sicher noch viel Naivität unterstellen kann (und ich stelle mir immer die Frage: warum jemand im Ausland nach jemanden sucht, der nicht mal deutsch spricht) zeigte der Film im folgenden dass die ganze Branche wohl nichts als Betrug im Auge hat. Das reicht von Fake-Accounts bei allen gängigen Portalen, wo man pro Chat-Nachricht Geld zahlen muss, über das Verlangen von "geldwertem Ersatz" beim Marktführer Parship bei nur wenigen geschriebenen Nachrichten und Kündigung während der Widerspruchs Frist über 163 Euro bis hin zu den Testportalen die 50-80% der ersten Jahresgebühr als Vermittlungsprovision bekommen und nach einem einfachen System den Testsieger feststellen - der der am meisten Provision zahlt hat die meisten Benutzer und ist daher Testsieger ....

Betrug hin oder her - auch hier staune ich über die Naivität der Beteiligten. Ich kann jemanden nur kennenlernen wenn ich ihn physisch vor mir sehe. Zum einen kann ich beim Schreiben ein geschöntes Bild von mir verbreiten, zum anderen sind es oft Kleinigkeiten die einen stören oder die einen faszinieren und welche Persönlichkeit jemand ist bekommt man wohl nur im direkten Kontakt raus. Am Ende des Beitrags wird das auch klar: nur 6% der Paare finden über das Internet zueinander.

Der zweite Beitrag war über "Bio Fleisch vs Billigfleisch". Der Ansatz war interessant. Einen bekennenden Biofleischesser und eine Billigfleischkonsumentin wurden für 5 Tage zu einem Biohof und einem konventionellen Mastbetrieb geschickt und mussten dort auch handwerklich mithelfen. Also Ausmisten, Füttern, Wurst machen, Gülle entsorgen. Bei der Schlachtung waren sie nur im Biohof dabei, da war das noch (soweit das geht) human. Das Schwein kam einzeln rein, wurde noch gestreichelt und dann blitzschnell mit einer Elektrozange betäubt. Das ist was anderes als in einem großen Schlachthof wo das im Sekundentakt geht anstatt ein Schwein pro Tag und man dann auch keine Rücksicht mehr auf die Tiere nimmt. Dort haben die Leute so wenig Zeit, dass nicht mal gewährleistet ist, dass die Tiere wirklich tot sind bevor sie ausgenommen werden, wie ja schon Filmaufnahmen gezeigt haben. Vielleicht hätte das die Billigfleischesserin zum Nachdenken gebracht, aber wahrscheinlich auch nicht. Die Frau hatte ein Gemüt wie ein Metzgerhund (seitdem weiß ich auch woher der Ausdruck kommt). "Das sind hals Nutztiere ist mir doch egal woher mein Fleisch kommt". wörtliches Zitat einer Frau die rekordverdächte 2,5 Kilogramm Fleisch pro Woche isst. Bundesdurchschnitt sind 1,08 kg. Überhaupt war die Gewichtung komisch: Vier Tage im Biohof und einen Tag im konventionellen Hoif.

Fakten gab es im Beitrag nur wenige, auch war das ganze verzehrt, denn Bio ist nicht gleich Bio. Das war ein Vorzeigehof mit 45 bis 50 Schweinen (zum Vergleich: der konventionelle Betrieb hatte 2300) die Freilauf haben. Das ist nach EG-Bioverordnung nicht gefordert, der Platz den ein Schwein von 50 kg Gewicht einnehmen darf, beträgt für konventionelle Tiere 0,5 m² und bei Bio müssen es nur 0,8 m² plus 0,6 m² Freilauf sein. Also so viel besser ist das auch nicht. (In einem mit 40 Personen voll besetzten Reisebus hat man übrigens genau die 0,5 m² Platz) Aber ein Faktum war interessant und das zeigt die ganze Misere: Beim Fleisch ist dem so, dass der Züchter 26% des Preises bekommt, der Schlachter 13% und der Markt 53%, der Rest ist dann die MWST. Bei Biofleisch verdienen die Züchter nicht mehr sie haben nur höhere Kosten hinsichtlich Arbeitsaufwand und Futter. Sie geben sie an die oberen Stufen einfach weiter. Es wird aber doppelt so teuer wie "Billigfleisch" weil jeder proportional aufschlägt. Also der Schlachter verdient doppelt so viel dran, obwohl er nicht mehr Arbeit hat, der Handel verdient 100% mehr. Würde man die Verdienstspanne dieser beiden Teile auf den des konventionellen Fleisches senken, so wäre Biofleisch nur um 26% teurer als konventionelles und würde anstatt rund 7 Euro pro Kilogramm knapp 9 Euro kosten, anstatt 12.

Wie immer profitieren andere, nur nicht die Bauern und die Tiere. Denn würde Bio nur ein Viertel mehr kosten, so bin ich überzeugt würden es auch mehr kaufen. Die zweite Alternative ist es weniger Fleisch zu essen. Ich esse seit Jahresbeginn nur noch Fleisch und Wurst jeden zweiten Tag, wodurch sich mein Konsum halbiert hat, eventuell sogar noch geringer ist, weil ich nun Probleme habe Wurst zeitnah zu verbrauchen und auch an "Fleischtagen" (abwechselnd Tage mit/ohne Fleisch zu machen ist für mich die einfachste Möglichkeit das durchzuhalten) abends Käse oder was anderes esse, weil 100 g Wurst an der ich normalerweise 3 Tage lang esse nun für 6 Tage reichen muss und dann ist sie nicht mehr frisch.

24.7.2014: Die Tücken des deutschen Rechts

Das deutsche Recht ist schon sehr komisch. Da kam am Freitag in einer Sendung ein Fall, den man zuerst für einen Schildbürgerstreich hält. Eine Frau will ihr Haus verkaufen, weil sie altersbedingt nicht mehr die Treppen rauf kommt. Der Immobilienmakler möchte einen Flurplan, Also geht sie zur Behörde. Die fragen aber nur nach der Baugenehmigung. Die hat sie nicht. Wie sich später herausstellt, hat das im Jahr 1944 gebaute Haus keine Baugenehmigung. Das soll während des Krieges öfters vorgekommen sein, eventuell hatten da die Behörden bei Bombenangriffe größere Probleme als die heutigen Behörden.

Doch das dicke Ende kommt noch: die Behörde will nun das lächerliche 70 Jahre alte Haus abreißen! Man fasst es nicht. Wenn der, der das Haus 1944 gebaut hat jemanden im Affekt getötet hat, dann wäre das als Totschlag nach 15 Jahren verjährt. Aber ein "illegal" gebautes Haus darf nach 70 Jahren abgerissen werden. Da hakts doch. Noch besser: das Haus ist ja nicht unbekannt. Es ist nicht illegal im Wald gebaut worden, sondern steht ordentlich in einer Straße mit anderen Häusern. Denn alle Besitzer dürften jahrzehntelang Abgaben, Grunstückssteuer und andere Zahlungen leisten. Woanders würde ich so was als "stillschweigendes Anerkenntnis des Status Quo" bezeichnen, aber nicht bei Behörden. Anscheinend geht es auch einfach ein Haus abzureißen. Wer dagegen einen Mieter hat der partout nicht ausziehen will, trotz Kündigung weiß dagegen, wie lange das bei einem Mietsverhältnis dauert. aber einen Hauseigentümer kann man wohl so von heute auf morgen das Heim "entsorgen".

Mir schwante ja so was schon bei der Aberkennung des Doktortitels von Ex-Ministerin Schawan. Den konnte man auch nach knapp 30 Jahren aberkennen. Nun ist das im weitesten Sinne Betrug, aber normaler Betrug verjährt nach 5 Jahren. Nicht, dass man das durchgehen lassen soll. Aber in manchen Dingen ist unser Recht auch schon komisch. Das zeigte sich auch als man vor einigen Monaten Kunstwerke aus der Nazizeit bei einem Sammler gefunden hat. Da drehte sich es darum ob es Beutekunst ist (enteignet) oder nur für ein Appel und ein Ei gekaufte Kunst. Das erste scheint auch 70 Jahre nach Kriegsende nicht verjährt, das andere ist längst verjährt.

Was mich doch etwas beunruhigt ist die abhängig von Dokumenten. In diesem Falle einer Baugenehmigung. Gottseidank wurde unser Haus 1982 umgebaut und daher gibt es bei uns eine Baugenehmigung. Aber was wenn nicht? Sollten nicht die Behörden eine haben? So langsam verstehe ich auch warum mir mein Vater mit 18 meine Geburtsurkunde feierlich übergab. Anders könnte ich wohl sonst nicht beweisen, dass ich lebe ....

26.7.2014: Man traut ja dem Militär alles zu ...

... nicht zu unrecht. Denken wir an die kuriosen Erfindungen und Projekte in die man auf der ganzen Welt Unsummen verpulvert hat. Die USA haben mindestens drei Versuche gestartet, sich gegen anfliegende Raketen zu schützen und dafür mindestens 125 Milliarden Dollar ausgegeben. Ein Versuch führte sogar zu Stationierung - bis Farmer das verboten. Die waren von der Idee Atomraketen mit anderen Atomraketen abzuschießen irgendwie nicht so begeistert.

Im Irak hat man riesige Kanonen entwickelt, aber auch funktionierende Erfindungen sind äußerst skurril. Da ist der Marschflugkörper, erfunden als "V1" von den deutschen im zweiten Weltkrieg - das skurrile ist es eine billige Waffe (ein konventioneller Sprengkopf) mit einem teuren Transportvehikel zu kombinieren. Ähnliches gilt den GPS-gelenkten Granaten, wobei hier die Zusatzkosten noch vertretbar sind. Auch Flugzeuge die nur noch vom Computer stabil geflogen werden können, weil sie sonst sofort abschmieren würden zähle ich dazu.

Weil es das alles gibt, trauen viele dem Militär auch in der Aufklärung viel zu. Michael K. hat in einem alten Blog die frage gestellt ob ich glaube dass man Bierflaschen vom Orbit aus erkennen könnte, also nicht Flaschen an sich sondern Bierflaschen (wobei man das Etikett entziffern muss). Nun bevor ich darauf antworte will ich mal ein Beispiel das KH-9 Hexagon System nehmen. Von dem hat man auch lange Zeit eine enorm große Auflösung versprochen. Bis hinunter zu 10 cm ging dies. Die Logik war eigentlich immer dieselbe:

Ich habe schon früher darauf hingewiesen, dass es viele Gründe gibt die gegen den Vergleich mit Hubble spricht. Der offensichtlichste: Die Kamera ist bei Hubble um diese hohe Auflösung zu erreichen in Längsrichtung fest eingebaut. Ein Satellit mit der Konstruktion könnte am Erdboden nur einen kleinen Streifen abbilden und wenn er was anderes aufnehmen soll, so muss man den ganzen Satelliten drehen - das dauert und verschwendet viel Zeit. Ich war daher schon immer der Meinung die Kamera müsste quer eingebaut sein und sie müsste in der Länge kleiner als der Durchmesser sein, damit man sie drehen kann. Damit ist aber die Auflösung rund viermal kleiner.

Als dann in den Neunzigern die Details über Corona freigegeben wurden, war auch klar, dass dieses System genau so funktionierte. Eine Kamera war quer eingebaut, ein rotierender Spiegel lenkte das Licht um, um so einen Streifen quer zur Flugrichtung von einigen Hundert Kilometern Breite  abzubilden. Warum sollte man das bewährte Prinzip ändern. Was man nicht wusste, war wie die Nachfolgesysteme Gambit und Hexagon funktionierten. Besser gesagt, welche Aufgaben sie hatten. Doch eine einfache Auflistung der Startdaten lässt einen Rückschluss zu:

Alternativname Starts Erfolge Erfolgreich [%] Einsatzzeitraum
CORONA 130 113 86,92 1959 – 1972
GAMBIT 91 86 94,51 1963 – 1984
HEXAGON 20 19 95,00 1971 – 1986
KENNAN 6 6 100,00 1976 – 1984

Der erste Hexagon startete ein Jahr vor Einstellung von Corona. Gambit lief überlappend mit beiden Programmen und auch KENNAN lief überlappend (inzwischen durch CRYSTAL abgelöst). Daraus kann man ableiten, dass Hexagon Corona ablöst. Corona waren aber keine Detailaufklärer sondern hatten die Aufgabe sehr große Gebiete in mittlerer Auflösung abzubilden. Die Detailaufklärung erfolgte mit Gambit, von dem man inzwischen auch weiß das es die Rolle des Detailaufklärers hat.

Inzwischen wurde auch Hexagon der Geheimhaltungsstatus entzogen und siehe da - anstatt einiger Zentimeter Auflösung hat die hochauflösende Kamera maximal theoretische 60 bis 100 cm Auflösung je nach Kontrast. In der Praxis bei Film eher weniger wie auch veröffentliche Aufnahmen zeigen. Der riesige Satellit war nötig um viele Filmkapseln mitzuführen und vor allem ein sehr aufwendiges Kamerasystem das 167 mm breiten Film mit einigen Kilometern pro Stunde durch das System zog, denn Streifen waren bis zu 595 km lang.

Nun wir wissen was Hexagon leistet. Das hält die Leute aber nicht davon ab weiter zu spekulieren. Schließlich arbeitet das Nachfolgesystem Kennan mit CCD - die sind lichtempfindlicher und keine erschöpfliche Ressource wie Film, zudem überlappte sich der Einsatz mit Hexagon - sind sie die Nachfolger von Gambit? Sicher, aber 5-10 cm halte ich für keine gute Auflösung. Zum einen hat man sie 1976 als das System eingeführt wurde mit den verfügbaren Sensoren sicher nicht erreicht. Zum anderen hat man dann ein massives Datenübertragungsproblem. Auf Film kann man in kurzer Zeit enorme Datenmengen speichern. Ein Hexagon konnte auf 90 km Film 160 Millionen km² in je nach Kontrast in 60-100 cm Auflösung abbilden. Das wäre bei digitalen Daten rund 444 Terabyte. Die 1976 zu verarbeiten als das System in Betrieb ging war wohl unmöglich. Man hätte rund 5 Millionen Magnetbänder gebraucht um das zu speichern. Daneben muss man sie übertragen. Selbst mit einem Satelliten und 30 MBit/s, (ein Transponder über GEO-Satellit, keine Kompression) müsste ein Satellit rund vier Jahre ununterbrochen senden.

Das sind die Zahlen für 60 cm Auflösung, man möge nun auf 5-10 cm hochrechnen....

Der überzeugendste Beweis dass die Nachfolgesatelliten gestrichen wurden, die NASA zwei der Satelliten bekam und auch sie Weitwinkeloptiken haben (zehnmal größeres Blickfeld als Hubble), was eine hohe Auflösung ausschließt. Da nun das Militär auf zivile Satelliten setzt die derzeit maximal 0,45 m Auflösung haben (nächste Generation 0,25 m). Warum sollte diese schlechter sein als das was man schon hat? Auch andere Nationen wie Frankreich oder Russland haben alle Systeme im Betrieb die bei knapp 1 m Maximalauflösung liegen. Die Plejades Satelliten welche die Helios ablösen haben z.B. die gleiche Auflösung sind aber durch Fortschritte in der Technik wie die zivilen Nachfolger erheblich leichter.

Die Frage ist natürlich auch, welchen Nutzen es bringen soll, Fotos mit 10 cm Auflösung zu haben (neben den Nachteilen bei der Datenmenge, Gewinnung und Auswertung). Für militärisches Gerät das einige Meter groß ist, ist die Auflösung viel zu fein und Menschen kann man leichter mit anderen Methoden überwachen wie z.B. dem Abhören von Telefongesprächen und selbst wenn man sie nur zählen will, so kommt man mit groben IR-Aufnahmen, wo jeder ein helles Pixel erzeugt einfacher zählen.

Ich vermute daher das auch heute die Satelliten keine 5 bis 10 cm Auflösung haben. Ich würde sie eher bei 30-60 cm ansetzen.

28.7.2014: Kann man die Startrate von Trägern vorhersagen

Ich fand Bynaus Artikel gestern zu SpaceX Startrate ganz interessant und dachte mir ich schreibe meine Gedanken in einen eigenen Artikel. Zuerst mal zur Prognose: ich habe auf 6 Starts getippt und liege wie Bynaus so derzeit gut im Rennen. Nach den letzten Ankündigungen (dazu in den nächsten Tagen in einem gesammelten "SpaceX-Neuigkeiten-Update" mehr) ist der nächste CRS-Flug (der übernächste) für Mitte September angekündigt, wenn es keine Verzögerungen gibt käme die Firma dann auf noch zwei weitere Flüge in diesem Jahr Das wären dann sieben. Doch bisher gab es immer Verzögerungen, aber am Jahresende sind wir schlauer.

zuerst mal zur Bynaus Modellierung. Leider hat er nichts zu der Gleichung der Kurve geschrieben. Da ich mal im Studium mit Statistik zu tun habe, zählt für mich nicht die Kurve (mit einem Polynom kann ich z.B. eine Kurve durch jedes Datenmaterial ziehen ohne Fehler), sondern die Gleichungen und wie sie zum Datenmaterial also die statistischen Basiswerte wie Regressionskoeffizient oder Gestimmtheitsmaß passen. Ich habe mit meinem Programm Lineare Regression (das anders als der Name es suggeriert auch andere mathematische Modelle bietet) das Datenmaterial untersucht und kam als beste Annäherung auf die Gleichung:

Y = a + b*ln(x)

mit a = = 237,399541
und b = = 573,699665

 
[cm]
[m/s]
Y = a + b*ln(x)
Abweichung %
  1:
 
1
187
237
 +27,0%
  2:
 
2
718
635
 -11,6%
  3:
 
3
857
868
 +1,2%
  4:
 
4
1001
1033
 +3,2%
  5:
 
5
1213
1161
 -4,3%
  6:
 
6
1278
1265
 -1,0%
  7:
 
7
1312
1354
 +3,2%
  8:
 
8
1414
1430
 +1,2%
  9:
 
9
1501
1498
 -0,2%

Wie man sieht korrespondieren meine Daten für die Kurve sogar noch besser als die Bynaus. Der Korrelationskoeffizient R ist 0,994375. Kein überragender Wert für Messreihen, aber man würde davon abgeleitete Ergebnisse wohl in der Analytik noch akzeptieren.

Die Grafik gibt die Kurve mit den Messwerten und dem Vertrauensband an, das ist vereinfacht gesagt das Intervall um die Kurve in der mit 95% statistischer Wahrscheinlichkeit die "wahren" Werte liegen.

Nach dieser Kurve würde der 12 Start nach 1663 Tagen erfolgen (am 23.12.2014, der sechste dieses Jahr), am 31.12.2015 würde der 23-ste Start erfolgen, das bedeutet 11 Starts nächstes Jahr, am 24.12.2016 würde der 43-ste Start erfolgen (20 Starts 2016) ...

Doch ist das Modell auf Raketen anwendbar? Zuerst erscheint es paradox, im Normalfall modelliert man mit Regressionen gesetzmäßige Zusammenhänge die es in der Natur gibt. Das Programm habe ich entwickelt um Messungen auszuwerten. Bei vielen Substanzen wurde die Konzentration so ermittelt, dass man die Substanz in bekannten Konzentrationen mit derselben Apparatur vermaß ("Eichkurve") und dann die unbekannte Konzentration bestimmte und anhand der bekannten Meßwerte die ungekannte Konzentration errechnete. Da es Fehler gab, sowohl beim physikalischen Verfahren wie auch bei den Konzentrationen bzw. Subtanzen sich verändern konnten (war extrem beim Vitamin B6, das ich mal in einer Studienarbeit untersuchte), lagen schon die Eichwerte nicht auf einer Geraden und mittels dieser physikalischen Verfahren konnte man so den Meßfehler bestimmen. Nach internen Vorgaben sollte er kleiner als 5% sein.

Nun ist der Raketenbau aber eine menschliche Aktivität und keine physikalische Messgröße. Was dagegen spricht hat Bynaus schon in den Bemerkungen zu SpaceX gebracht. Mir fielen beim Nachdenken aber auch Pros ein. Wir kennen in der Ökonomie die Lernkurve: Ein Gut wird immer billiger zu produzieren je mehr man davon herstellt. Das kann man auch auf die Zeit die man pro Stück braucht übertragen. Höhere Stückzahlen bedeuten mehr Erfahrung, man wird schneller. Es lohnen sich Maschinen für die Automatisierung und man wird nochmals schneller. Der Zuwachs ist anfangs sehr schnell, doch hat man dann automatisiert so kommt man langsam auf eine Sättigung bei der man die Stückzahl nicht mehr steigern sollte.

wo könnte man das bei Raketen beobachten? Doch wohl zuerst bei einem Muster das sehr häufig für viele Zwecke eingeätzt wird und nicht einem das man nur für wenige Starts braucht wie z.b. die Saturn. Anbieten würde sich das Shuttle das ja alle US-Raketen ablösen sollte. Nach den Planungen wäre auch die Startrate steil angestiegen um sich dann bei 48 Stück einzupendeln und die Kurve folgte dem auch bis zum Januar 1986. Das beste Beispiel das mir spontan einfiel war aber die R-7. Wie die Grafik zeigt, folgt die Startrate der R-7 auch einem zuerst schnellen Anstieg und dann flacht sie langsam ab. Der Anfang ist weniger steil, weil man erst die Oberstufen (Block E, I und L) entwickeln musste, bis man die Versionen Vostok, Sojus, Molnija hatte.

Auch hier die statistischen Werte:

 
[cm]
[m/s]
Y = a + b*ln(x)
Abweichung %
  1:
 
1957 
2 
3,796
 +89,8%
  2:
 
1958 
5 
6,654
 +33,1%
  3:
 
1959 
4 
9,511
 +137,8%
  4:
 
1960 
9 
12,366
 +37,4%
  5:
 
1961 
7 
15,220
 +117,4%
  6:
 
1962 
14 
18,072
 +29,1%
  7:
 
1963 
16 
20,923
 +30,8%
  8:
 
1964 
26 
23,772
 -8,6%
  9:
 
1965 
35 
26,620
 -23,9%
 10:
 
1966 
38 
29,467
 -22,5%
 11:
 
1967 
39 
32,312
 -17,1%
 12:
 
1968 
42 
35,155
 -16,3%
 13:
 
1969 
44 
37,997
 -13,6%
 14:
 
1970 
44 
40,838
 -7,2%
 15:
 
1971 
44 
43,677
 -0,7%
 16:
 
1972 
48 
46,515
 -3,1%
 17:
 
1973 
54 
49,351
 -8,6%
 18:
 
1974 
52 
52,186
 +0,4%
 19:
 
1975 
59 
55,019
 -6,7%
 20:
 
1976 
55 
57,851
 +5,2%
 21:
 
1977 
56 
60,682
 +8,4%
 22:
 
1978 
59 
63,511
 +7,6%
 23:
 
1979 
62 
66,339
 +7,0%
 24:
 
1980 
63 
69,165
 +9,8%
Regressionskurve: Y = a + b*ln(x)
mit a                   =
-42398,981585
und b                   =
5594,648144
Anzahl der Meßwerte     =
25
davon ausgeschlossen    =
 0
Korrelationsoeffizient R=
0,969743
Bestimmtheitsmaß R²     =
0,940401

Hier ist die Korrelation R erheblich schlechter und liegt bei 0,97 (unter 0,99 dürften wir keine Eichkurve verwenden und erwünscht waren 0,995 bis 0,999, das sieht man auch an dem stark ausgeweitetem Vertrauensbereich, nur der obere ist noch erkennbar). Daran sieht man, das es eben doch nur ein Modell ist. In der Praxis muss man eben die Begleitumstände kennen. So gehorcht die Ariane 1-5 Statistik z.b. nicht der Kurve, es wurden hier verschiedene Träger zusammengefasst mit Problemen durch frühe Fehlstarts aber auch operativen Einschränkungen wie ELA-1 das nur 4-5 Starts pro Jahr erlaubte. Schaut man nur auf die die Ariane 4, die nun als nicht neu entwickeltes Modell ideale Voraussetzungen hat und mit ELA-2 auch mehr Starts ermöglichte, so sieht man dann doch einen schnellen Anstieg der Startrate bis sie sich bei 10-12 Starts pro Jahr stabilisierte.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99