Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 265: 11.1.2012 - 21.2.2012

11.1.2012: Bahnberechnungen im Erdorbit

Ich habs zwar schon mal ausführlich in meiner Website, aber ich schneide es mal im Blog an, auch weil ich dann wieder einen kleinen Füller habe. Das wichtigste zuallererst: Da alle Bahnen im dreidimensionalen Raum verlaufen, sind in Wirklichkeit alle Manöver Geschwindigkeitsvektoren, die sich zu den Bewegungsvektoren addieren. Ohne genaue Kenntnis des Bewegungsvektors und des Geschwindigkeitsvektors ist so die Bahn nicht bestimmbar. Es gibt nur eine Ausnahme: Wenn beide Vektoren in derselben Richtung liegen, also man in die Flugrichtung beschleunigt oder abbremst. Auf diesen Spezialfall, der aber trotzdem der häufigste ist, wollen wir uns konzentrieren.

Die Geschwindigkeit an einem beliebigen Punkt x in einer Umlaufbahn ist berechenbar nach:

v=Sqrt(GM × ((2 ÷ x)-(1 ÷ Halbachse))

Sqrt: Quadratwurzel

x: Position in m (gerechnet vom Erdmittelpunkt aus)

GM: Produkt aus Gravitationskonstante und Masse der Erde 3.987x1014. m³/s

Halbachse: (Kleinster Abstand der Bahn + größer Abstand der Bahn)/2 (jeweils gerechnet zum Erdmittelpunkt in Metern).

Für eine Kreisbahn ist bei jeder Position x die Geschwindigkeit gleich. Bei einer elliptischen Bahn ist sie am höchsten beim erdnächsten Punkt der Bahn und am niedrigsten beim erdfernsten Punkt. Nehmen wir die Berechnung mit einem mittleren Erdradius von 6371000 m für einen GTO Orbit (200 x 35943 km) Dann beträgt die Geschwindigkeit im erdnächsten Punkt der Bahn 10242 m/s und im erdfernsten sind es 1592 m/s (die Berechnungen erfolgen bei mir mit einem Programm mit genauen, nicht gerundeten Werten, so können ihre Resultate leicht anders sein).

Gegenüber den Werten für kreisförmige Bahnen (200 km kreisförmig und 35943 km kreisförmig) fallen die Unterschiede auf:

  GTO-Bahn Kreisbahn
200 km Höhe 7784 m/s 10242 m/s
35943 km 3069 m/s 1592 km/s

Das gibt vor wie man zwischen zwei Bahnen die Übergänge macht. Nehmen wir an, wir befinden uns zuerst in einer Kreisbahn in 200 km Höhe. Beschleunigt man nun hier um 2399 m/s (die Differenz zu 10242 m/s), so weitet sich die Bahn auf und erreicht ein Apogäum in 35943 km Höhe. Dort angekommen ist man zu langsam. Beschleunigt man nun um 1477 m/s, so erreicht man die Kreisbahngeschwindigkeit und die Bahn wir kreisförmig. Bei kleineren Veränderungen, sagen wir nur 500 m/s wird bei einer Zündung im Apogäum das Perigäum angehoben und bei einer Zündung im Perigäum das Apogäum angehoben. Will man die Werte erniedrigen, so muss man gegen die Bewegungsrichtung zünden. Alle anderen Zeitpunkte bewirken, dass eine Zündung immer Apogäum und Perigäum gleichzeitig beeinflussen.

Diese Gesetzmäßigkeit kann man auch bei Stufen sehen, die nach Erreichen der Kreisbahngeschwindigkeit noch sehr lange arbeiten. So was ist z.B. bei der Aestus-Oberstufe der Fall gewesen. Sie steigen dann durch das Aufweiten der Bahn schon während der Zündung in die Höhe und dieser Betrieb in größerer Erdferne führt zum Anheben der Perigäums. Das ist energetisch unerwünscht, da es Hubarbeit ist die für den Treibstoff mit verrichtet wird. Die Aestus-Oberstufe hatte so GTO-Bahnen mit einem Perigäum von 500 bis 600 km Höhe. Bei der ESC-A sind es nur 250 km Höhe und bei der alten Ariane 4, bei der nur ein kleiner Teil der Betriebszeit der Oberstufe für das Aufweiten der Ellipse entfiel, waren es nur 200 km.

Eine interessante Tatsache ist, dass die beiden Zündungen im Apogäum und Perigäum zusammen nur 3876 m/s Geschwindigkeit zum Addieren sind, während die Differenz in den Kreisbahngeschwindigkeiten 4715 m/s beträgt. Dieser "Zweiimpulsübergang" ist also energetisch günstiger als der direkte Transfer, der schon wegen der langen Flugzeit von 5 Stunden bis zum Apogäum problematisch ist.

Raketen die nicht diese Zweiimpulstransfers durchführen können wie die Ariane 1-5 (mit Ausnahme der Ariane 5 ES), weil die Oberstufe nicht wiederzündbar ist, haben daher oft starke Nutzlasteinbußen, wenn eine höhere Bahn erreicht werden soll. Denn dann muss die Aufstiegsbahn so gelegt werden, dass die letzte Stufe auf der Zielbahnhöhe noch arbeitet, sonst erreicht man keine kreisförmige Bahn in dieser Höhe. Ansonsten wird um die Hubarbeit für den Treibstoff zu begrenzen die Höhe auf ein Maß begrenzt bei dem die Nutzlast innerhalb weniger Orbits nicht mehr in die Atmosphäre eintritt also meistens >160 km aber <250 km.

Übermorgen geht es dann an Inklinationsänderungen.

13.1.2012: Bahnberechnungen im Erdorbit: Teil 2

Nun geht es im zweiten Teil um Inklinationsänderungen, etwas was offensichtlich auch Experten ein Rätsel ist. Diesen Eindruck hatte ich zumindest, als die Columbia verlorenging und dort einige "Experten" vorschlugen, man hätte die Raumfähre doch an die ISS andocken und evakuieren können - dumm nur wenn das aufgrund 20 Grad Inklinationsunterschied physikalisch nicht geht.

An und für sich ist die Tatsache recht einfach: auf einer niedrigen Erdumlaufbahn bewegt sich eine Raumsonde mit 7,5 km/s auf einer Bahn mit einer bestimmten Neigung zum Äquator. Diese hängt vom Startort ab. Da der Startort beim ersten Umlauf wieder überflogen wird, kann Inklination nicht kleiner als die geographische Breite sein, zumindest nicht viel kleiner (die Rakete bewegt sich südwärts und damit findet ein Teil der Brennphase bei einem niedrigen Breitengrad statt, wodurch die Inklination sinkt). Eine höhere Inklination ist immer möglich, wenn man Richtung nördlich oder südlich startet.

Wenn die Bahn erreicht ist, dann ist eine Inklination schwer zu ändern. Diese Tatsache beruht darauf, dass man dazu die Richtung der Geschwindigkeit verändern muss. Mein Paradebeispiel, für allem die das nicht glauben ist einfach: Mal auf der Autobahn mit 200 km/h fahren und schauen was passiert, wenn man das Lenkrad plötzlich um 90 Grad dreht. Dann muss man nur das erlebte (und überlebte?) auf 28.000 km/h übertragen.

Wers berechnen will:

vd= 2× sin(Winkel ÷ 2) × v

vd: Betrag um die Inklination zu ändern

Winkel: Winkeldifferenz in Grad

v: momentane Bahngeschwindigkeit

Also rechnen wir mal für Columbia: v = 7600 m/s, Winkeldifferenz=21 Grad, so erhalten wir dass dazu 2770 m/s nötig sind, was die rund 300 m/s maximale Korrekturkapazität von Columbia weit überfordern würde.

De Fakto übersteigen schon kleine Winkeländerungen daher die verfügbaren Treibstoffvorräte. Das ist im Normalfall kein Problem, weil in der Regel der Satellit gleich in den Orbit mit der gewünschten Inklination gestartet wird. Es scheitert nur, wenn die Inklination kleiner als die geographische Breite sein soll. Das ist in der Praxis bei GTO/GSO Bahnen der Fall. Dann gibt es mehrere Strategien.

Wenn die Zielbahn sowieso in einem Zweiimpulstransfer erreicht werden soll, dann gibt es die Option, zuerst nur eine Parkbahn zu erreichen, die stabil ist, und dann am Äquator die nächste Zündung durchzuführen. Diese Geschwindigkeit wird dann bei 0 Grad Breite addiert und dadurch sinkt die Inklination der Übergangsbahn ab. Diese Strategie setzt eine wiederzündbare Oberstufe voraus und wird z.B. bei der Centaur so durchgeführt. Schlussendlich muss die Inklination aber irgendwann doch abgebaut werden. Sieht man sich die obige Formel an, so kann man leicht erkennen, dass man dies dann macht, wenn die Geschwindigkeit v minimal ist. Also bei einem Übergang in den GSO zweckmäßig nicht im Perigäum bei rund 10,2 km/s sondern im Apogäum bei nur 1,5 km/s Geschwindigkeit.

Trotzdem benötigt man natürlich mehr Treibstoff wenn man von einer höheren Inklination aus startet. Da der Transfer vom GTO in den GSO vom Satelliten mit seinem eigenen Antrieb durchgeführt wird (zumindest bei zivilen Satelliten, beim Militär ist es sowohl in Russland wie auch den USA die Oberstufe die das durchführt) geht das von dem Treibstoffvorrat ab, der später zur Verfügung steht und der letztendlich heute die Lebensdauer eines Kommunikationssatelliten limitiert.

Da dieser Treibstoffvorrat fest ist, gibt es, wenn der Kommunikationssatellit selbst leichter ist, als die mögliche Nutzlast der Trägerrakete verschiedene Strategien den Treibstoffvorrat der nach dem Erreichen des GSO noch verbleibt. Bei US-Trägern ist es der supersynchrone GTO. Der supersynchrone GTO ist eine Bahn, dessen Apogäum höher als beim GTO liegt. Im Folgenden will ich mal zeigen wo die Unterschiede liegen:

  GTO supersynchroner GTO
Perigäum 200 km 200 km
Apogäum 35943 km 66.000 km
Geschwindigkeit im Perigäum 10242 m/s 10540 m/s
Geschwindigkeit im Apogäum 1592 m/s 958 m/s
Inklinationsänderung von 28 Grad auf 0 Grad im Apogäum 770 m/s 463 m/s
Absenkung des Apogäums auf   379 m/s

In der Praxis ist es etwas komplizierter, weil im Apogäum ja auch die Anhebung des Perigäums erfolgt und dann sich Geschwindigkeitvektoren addieren. Beim supersynchronen hebt man das Perigäum auf 35943 km an, und senkt dann das Apogäum ab. Für diese Bahn benötigt man zuerst 958 m/s um das Perigäum anzuheben, dann 378 m/s um das Apogäum abzusenken. Schon diese Summe ist kleiner als die beim Übergang vom GTO in den GSO nötigen 1477 m/s. Dazu kommt dann noch dass man bei Angleichung der Inklination etwas weniger Energie aufbringen muss.

In der Gesamtsumme sind natürlich die rund 300 m/s miteinzubeziehen, welche die Trägerrakete zusätzlich für das höhere Apogäum aufbringen muss, sodass die Gesamtbilanz eher schlechter ist. Der supersynchrone Orbit ist eine Lösung wenn die Trägerrakete Reserven hat, also die Nutzlast kleiner ist als die maximal mögliche, aber da der Satellit nur vorgegebene Treibstoffvorräte hat, kann er nicht schwerer werden.

Eine zweite Praxis setzen die Russen bei der Breeze-M auf der Proton ein. Hier wird die Oberstufe mehrmals im Perigäum gezündet und dabei dieses angehoben. Bis zu fünf Zündungen sind möglich. Das Anheben des Perigäums reduziert zwar nicht die Inklination, aber es reduziert die Geschwindigkeit die der Satellit aufbringen muss wenn er den GTO erreicht. Eine weitere Möglichkeit ist es mit der Breeze-M die Inklination im Apogäum abzubauen und gleichzeitig das Apogäum anzuheben.

Beim letzten Start von Asiasat 7 wurde das Perigäum in zwei Stufen angehoben. Beim letzten Schritt wird im Apogäum nochmals das Perigäum angehoben und gleichzeitig die Inklination reduziert. Diese aufwendige Vorgehensweise ergibt Transferorbits die durch das angehobene Perigäum noch weniger Treibstoff vom Satelliten erfordern um den GSO zu erreichen. Wenn wie beim letzten Start Asiasat 7 nur 3.800 kg wiegt, die Proton aber 6.300 kg transportieren kann wird so ein GTO von 13386 x 35586 x 0 Grad erreicht. der Satellit benötigt dann nur noch 620 m/s um den GSO zu erreichen, anstatt 1477 m/s. Der Preis ist allerdings auch hoch: Denn um 1500 m/s gegenüber einem konventionellen Orbit einzusparen wird die Nutzlast um 40% reduziert. Diese Vorgehensweise geht auch nur, weil die Breeze-M mit lagerfähigen Treibstoffen arbeitet, denn die letzte Zündung findet erst 10 Stunden nach dem Start statt.

15.2.2012: Konscht

Heute mal ein etwas vom Mainstream abweichender Blog. Es geht um Kunst. Ich bin drauf gebracht worden. Da gibt es derzeit bei uns in der Straßenbahn Werbeplakate über eine Ausstellung von Monet, Twombly und Turner mit provozierenden Zitaten, z.B. eines Kritikers von Monet über ein Bild, das selbst eine Tapete interessanter wäre. Dann gab es den Geburtstag von Gerhardt Richter einen Kommentar von Thomas Gottschalk, als er ein Bild aus lauter farbigen Linien hatte "Mit Buntstift und Lineal hätte ich das auch hinbekommen, aber ich versteh ja nichts davon" und dann ist gerade Susan in den "Desperate Housewives" in einem Kunstkurs und der Lehrer bestraft sie mit Missachtung weil sie zwar handwerklich perfekt arbeitet, aber ohne Gefühl, ohne Schmerz.

Zeit mal das Thema Kunst anzugehen, genauer gesagt moderne Kunst. Ich mag moderne Kunst nicht. Ich entdecke einfach in Farbklecksen auf der Leinwand oder Werken wie dieses von Twombly keine Kunst. Das sind für mich Streiche auf der Leinwand. Gab es nicht mal Elefanten die auch so mahlten oder waren das Affen?

Es ist natürlich leicht nun zu sagen: "Kunst kommt vom Können", also Kennzeichen wäre ein sehr handwerkliche Arbeit, ja je perfekter diese ist desto besser ist die Kunst. Doch das ist zu einfach. Es ist sicher erkennbar, dass die Kunst im Laufe der Jahrhunderte zurst immer mehr in Richtung Perfektion strebte. Nicht nur in der immer natürlicheren Darstellung, sondern auch wie Licht und Schatten eingesetzt wurden, Stimmungen aufgebaut wurden.

Ich kann mich noch an einen Besuch in einem Berliner Museum erinnern, wo ich am interessantesten nicht die Rembrandt fand, sondern Stillleben, also Obstschalen. Was mich beeindruckt hat, war, dass diese so plastisch waren, als wären sie kein Gemälde, sondern echt. Ich halte es auch für keinen Zufall, dass die Kunst begann von dem Ideal der perfekten Wiedergabe der Natur abzurücken, als die Fotografie immer besser und perfekter wurde. In gewisser Sinne hat sie damit der Kunst ein Feld abgejagt, denn vieles was produziert wurden waren doch Portraits. Wenn man aber jemanden so abbilden kann wie er ist. Wozu braucht man noch einen Maler? Um jemanden so abzubilden wie er nicht ist! Also ich erwarte von einem Bild das es sich von einer Fotografie unterscheidet. Leute wie ich, wollen wohl ein Bild, auf dem sie besser aussehen als in Wirklichkeit, und sei es nur wenn das Gesicht in einem wohlgefälligen Licht getaucht ist oder die Augen besonders glitzern. Andere mögen auch ein Bild von sich das mehr eine Karikatur ist. Wenn jemand nur eine Fotografie nachmalt, dann ist das keine Kunst.

Wirklich ist oft nicht wichtig, was abgebildet ist, sondern wie es wirkt. Die Ausstellung hier zeigt ja auch drei sehr unterschiedliche Maler. Turner malte sehr viel stimmungsvolles, vor allem Seelandschaften. In Deutschland würden mit diesem Stil wohl die Romantik verbinden und David Kaspar Friedrich nennen. Ich mag auch die Bilder von Monet, wie allgemein den Impressionismus, weil man sich zwar von der Perfektion verabschiedet hat, aber die Bilder lassen die Dinge erkennen und sie reduzieren sie auf wichtige Dinge, ohne sich in den Details zu verlieren.

Was für mich keine Kunst ist, auch wenn man Millionen dafür zahlt ist "Kunst" die man erklären muss. Da schwingt ja auch das was Gottschalk sagte mit "Davon versteh ich ja nichts". In meinen Augen muss man Kunst nicht verstehen, nicht erklärt bekommen, nicht die Gefühle des Künstlers nachvollziehen (was will mir der Maler damit sagen?). Kunst, das kann ein Großteil der Bevölkerung erkennen, ohne erklärt zu bekommen, dass es Kunst sei. Es kann auch nicht anders sein, denn sonst könnten wir ja nur mit zeitgenössischer Kunst was anfangen. Was wissen wir von den Kommentaren von Boticelli zu seinen Bildern? Welche Erklärungen hat und Raffael hinterlassen? Kunst also solche zu erkennen funktioniert einfach bei den meisten. Es funktioniert mit den Malereien in Pharaonengräbern, obwohl diese extrem abstrakt sind. Es funktioniert mit realistischen Abbildungen wie der Venus von Milo, es funktioniert auch wenn das Schönheitsideal sich seit Rubens von beleibt auf magersüchtig gewandelt hat, und es im Mittelalter offensichtlich noch nicht die Entdeckung der Proportionen und Perspektive gab oder die Personen doch sehr unvorteilhaft dargestellt wurden.

Nein, Kunst muss nicht Gefühle des Malers oder seine Erlebnisse im Krieg ausdrücken. Sie ist sofort verständlich. Wenn sie das nicht ist, dann ist sie keine Kunst. Dann sind es eben nur Flecken oder geometrische Muster auf der Leinwand oder Sperrmüll, anders arrangiert. Besonders schlimm wird es ja wenn "Aktionskunst" dauerhaft wird. Auch ein Event kann Kunst sein, und etwas zu verhüllen wie es Christo macht kann einen neuen Blickwinkel aufwerfen und auch Kunst sein, aber es ist dann eben auch etwas temporär. Wenn aber jemand aus einer Aktion um mehr zu verdienen was dauerhaftes macht wie im zum Beispiel Beuys, als er mal den Kudamm fegte und den Müll zu Kunst erklärte oder Butter in die Ecke eines Zimmers schmetterte und ebenfalls zu Kunst erklärte wird es albern. Vor allem wenn dann die Museen dieses Material am Verrotten hindern müssen und der Künstler eine Putzfrau verklagt weil sie eine dreckige Badewanne sauber scheuerte ....

Mich würde interessieren wer die ganzen modernen Künstler puscht. Irgendjemand muss doch bereit sein für Bilder die auch Kleinkinder malen können Tausende auszugeben. Meine Vermutung ist ja dass es so was ist wie die Hoffnung dass irgendwann noch mehr wert ist und wie immer wenn viele auf steigende Preise spekulieren, genereieren sie eine Nachfrage die dann tatsächlich die Preise ansteigen lässt.

Im Schwäbischen ist es sprachlich nur ein kleiner Schritt von "Konscht" zu "Kruscht". Auch das Sammeln von Kruscht, also wertlosen Sachen die die Betroffenen für wertvoll oder unentbehrlich halten, scheint bei uns sehr populär zu sein (ich kenne genug Schwaben die Kruscht sammeln). Daher mein Vorschlag: nennt das eine Kunst, das andere Kruscht.

17.2.2012: Die Software wird schneller langsamer als die Hardware schneller wird

Dieses von Nikolaus Wirth beschriebenen Phänomen wird inzwischen auch als "Wirthsches Gesetz" bezeichnet. Demnach wird der Fortschritt bei der Hardwareentwicklung durch immer ineffizienter programmierte Software ausgeglichen. Nun ganz so schlimm würde ich es nicht sehen. Aber ich will mal dieses Thema aus einer anderen Perspektive aufgreifen. Und zwar will ich die Stationen der Benutzerfreundlichkeit von Anwendungen bei PC's Revue passieren lassen.

Als die 8-Bit-Rechner einen Hauptspeicherausbau von annähernd dem Maximum was adressiert werden konnte, so 48 bis 64 Kbyte hatten, konnte man mit CP/M die ersten Anwendungsprogramme betreiben. Wer mal mit Wordstar, DBASE oder Multiplan gearbeitet hat, weiß aber auch von den Einschränkungen. Wordstar hatte kryptische Tastenkombinationen. Formatierungen gab es als Steuerzeichen auf dem Bildschirm und genauso wie bei Multiplan konnte man beim Scrollen sehen wie sich jede Zeile neu aufbaute. Dbase lieferte Datensätze langsam zurück, 1-2 pro Sekunde.

Unter MS-DOS und 16-Bit Rechnern wurde die Software schneller, konnte größere Datenmengen bearbeiten und zum Ende hin gab es sogar eine Andeutung des Ausdrucks durch fett, Unterstreichen oder Kursiv auf dem Bildschirm, wenn allerdings nicht im richtigen Font.

Die nächste Stufe war die grafische Oberfläche. Erstmals war es möglich die reale Welt irgendwie auf dem Computer abzubilden, wenn auch mit Krücken wie Icons für Dateien. Aber immerhin musste man sie nicht mit Befehlen kopieren, sondern konnte sie mit der Maus verschieben, wie im richtigen Leben. Für die Anwendungen bedeutete dies auch, dass nun der Bildschirm den Ausdruck wiedergeben konnte, angefangen von Texten über Bildschirmmasken.

Wie bei der Textoberfläche dauerte es dann Jahre bis Jahrzehnte bis diese Oberfläche perfektioniert wurde. Wenn ich zum Beispiel die Grundfunktionalität von Winword 2 nehme und sie mit Openoffice heute vergleiche, so ist letzteres natürlich schicker, es geht heute Online-Rechtschreibprüfung und Grammatikprüfung, aber die Grundfunktionen haben sich kaum geändert. Dabei ist heute ein Rechner 100-1000 mal schneller als der, auf dem WinWord 2 lief.

Nun scheint es den nächsten Schritt zu geben, nicht auf dem PC sondern einem Smartphone. Es wird mit Gesten gesteuert, erkennt Sprache und antwortet mit Sprache, was dazu geführt hat dass nun nach den zahllosen Leuten die bisher schon alleine redend durch die Gegend gelaufen sind, weil sie mit jemanden anderen telefonieret haben noch viel mehr dazu kommen werden, die bald mit niemanden mehr telefonieren, sondern ihrem Smartphone reden. Aber es ist eine weitere Stufe der Benutzerfreundlichkeit, denn nun muss ich keine Menüpunkte mehr lernen, nicht mehr selbst suchen, sondern ich kann eine umgangssprachliche Frage stellen.

Betrachtet man sich diese Entwicklung, so ist sicher der Computer seitdem um den Faktor 10.000 schneller geworden. Wenn man nur die Anzahl der Transistorfunktionen nimmt, dann liegen zwischen einem Z80 und dem schnellsten Intel Prozessor heute rund der Faktor 200.000. Ist die Software um so viel leistungsfähiger geworden? Oder ist sie viel langsamer geworden? Ich denke man kann es nicht allgemein beantworten. Nehmen wir nur mal den Desktop von Windows. Er war unter Windows 3 einfarbig, heute ist er  transparent, Fenster scheinen durch, es gibt Verläufe. Wer sich technisch auskennt weiß, das es viel einfacher ist eine Fläche monochrom auszufüllen, als jedes Pixel transparent in Abhängigkeit vom Hintergrund zu setzen. Dafür geht sicher viel der Mehrrechenleistung drauf. Das nächste ist die Perfektionierung von Anwendungen. Bei Textverarbeitung erkennbar in Hintergrundformatierung, Grammatikprüfung und Assistenten die Hilfestellung geben und den Anwender überwachen. Auch dafür braucht man mehr Rechenleistung. Irgendwann ist dann ein Stadium der "Vervollkommnung" erreicht und mehr Leistung bringt nicht mehr Nutzen, dann denke ich, ist der Schritt reif für ein völlig neues Bedienkonzept wie eb4m heute die Sprachsteuerung und das Parsen umgangssprachlicher Ausdrücke.

Das zweite ist natürlich auch, dass die Softwareentwicklung sich ändert. Früher wurde sie in Assembler programmiert, dann in C. Heute dominieren interpretierte Sprachen wie Java, C# oder es wird gar der Code vom Anwendungsprogramm interpretiert wie bei Javascript oder Flash. Bibliotheken wachsen an und damit auch der Overhead. Man muss sich nur ansehen wie groß ein "Hello World" mal war und wie groß es heute ist.

Zuletzt entwickeln sich Systeme historisch. Altlasten werden weiter geschleppt, es wird nur erweitert und selten neu begonnen. Alleine dadurch werden sie langsam. Es ist kein Zufall, das die Sprachsteuerung bei Smartphones eingeführt wurde und funktioniert, während man auf dem PC seit 20 Jahren erst mal das Sprachsystem trainieren muss und wenn dann kann der PC Text erkennen und abtippen, aber er kann nicht den Inhalt verstehen und dann mir eine Auskunft erteilen. Es ist viel einfacher ein Gerät vom Tabula Rasa aus zu entwickeln das genau dies kann, als das alte System Windows um diese Funktionen zu erweitern. Dabei ist der Prozessor in einem IPhone um ein vielfaches leistungsschwacher als ein aktueller Prozessor von AMD oder Intel.

Ich denke die letzten beiden Punkte, die Altlasten und die immer stärkerer Programmierung in interpretierenden Sprachen sind die Hauptgründe für das Wirtsche Gesetz.

19.2.2012: Whitney Houston und die Vega

Wie ihr sicher mitbekommen habt, ist am Sonntag überraschend Whitney Houston gestorben. Ich dachte eigentlich sie hätte mit den Drogen abgeschlossen. Vor 2 Jahren kam sie bei Wetten Dass und stellte ein neues Album vor. Da war sie abgehoben wirkt jedoch nicht gerade süchtig. Ich weiß nicht ob sie wieder angefangen hat oder dies die Spätfolgen sind. An einen Unfall glaubt keiner. Schon gehen die Spekulationen los ob es Medikamente wären oder wie Focus spekuliert, sie an Borderline Syndrom erkrankt ist.

Eine ist aber auffällig: sie konnte nicht an ihre Erfolge aus der Mitte der achtziger bis Anfang der neunziger Jahre anknüpfen. Bei ihrer Stimme ist es ja praktisch wurst was sie singt, das wird ein Hit. Trotzdem klappt es nicht und die letzten Alben waren mehr eine Zusammenfassung früherer Erfolge.

Dann war gestern noch der Fehlstart der Vega. Und er verlief reibungslos. Schaut man sich die Reihe der Fehlstarts in Russland an, die Erststarts von Safir, Unha und KSLV die scheiterten oder auch die beiden Verluste der Taurus bei den letzten beiden Einsätzen ist das nicht selbstverständlich. Wären wir Raumfahrtlehrlinge wie ein US-Unternehmen, dass gerade noch 6 Monate an ihrer fehlerfreien Software arbeiten muss, bis sie den NASA-Anforderungen genügt, dann würden wir ja schon von einem "guten Tag" reden, wenn die Rakete von der Startrampe abhebt und wenn sie taumelnd in einer falschen Bahn landet, dann wäre wohl der Jubel unendlich. Aber wir sind Europäer, Profis, wir haben die Großrakete entwickelt und den USA und UdSSR Entwicklungshilfe geleistet. Wir starten einfach und erreichen eine Bahn mit perfekter Präzision.

Ich habe beschlossen wie beim ersten Band über europäische Raketen auch den Teil über die Vega auszukoppeln. In den letzten Wochen habe ich vieles ergänzt was nun bekannt war, die Entwicklungsgeschichte abgeschlossen, über den Jungfernflug und die VENUS II Studien geschrieben. Also etwa 20% des Inhaltes neu bzw. verändert. Das werde ich dann zeitnah veröffentlichen, auch weil der nächste Starte erst in einem Jahr ist. Leider ist das das einzige Buch das ich zeitnah fertigstellen kann, denn seit Januar habe ich leider dauernd was zu tun. Eigentlich wollte ich ja nicht mehr Vollzeit arbeiten. Wegen der Deadline für das Programm ist das nun aber nicht mehr der Fall. Drei Tage in der Woche programmiere ich, zwei Tage unterreichte ich, weil ich da nun auch doppelt so viele Stunden habe. Es ist derzeit echt stressig.

Den heutigen Musiktippp muss man nicht groß raten. Er ist von Whitney Houston und passt wohl gut zu ihr: One Moment in Time.

20.12.2012: Linux - das wird nichts mehr: Die Antwort

Mein letzter Beitrag zu Linux hat ja mehr Kommentare als SpaceX verursacht und wieder etwas Leben in den Blog gebracht. Da es so viele Kommentare mit unterschiedlichen Gesichtspunkten sind an dieser Stelle eine Antwort an alle.

Worauf ich wetten konnte, war das irgendjemand mit der Argumentation kommt: "Linux ist so weit verbreitet in Routern und Servern".... Wenn man den Aufsatz liest, so dürfte klar sein, dass es um von Endusern genutzte Geräte geht. Dass bei anderen Gebieten Linux besser platziert ist, ist kein Wunder. Windows gibt es z.B. nur auf der x86 Schiene und es ist immer ein grafisches System. Nur ein Minimalsystem, das nicht mal eine Textoberfläche hat wie sie ein Server oder Router braucht kann man nicht draus machen, schon alleine weil es für viele Prozessoren nicht verfügbar ist.

Der zweite Punkt ist dass bei allen anderen Einsatzgebieten nicht damit gerechnet wird, dass Enduser am Betriebssystem sind, selbst Hardware und Software installieren. Wenn ich eine administrierte feste Umgebung habe, habe ich kompetentes Personal, dass ich darum kümmert und dann ist es egal welches Betriebssystem man einsetzt.

In der Tat sehr ich auch, dass für den Normaluser die Zyklen von Linux zu schnell sind, und vieles in dem Projekt sich aufsplittert. Der normale User setzt sein Betriebssystem einmal auf: wenn er den Rechner kauft. Er will nicht jährliche Updates. Auch Windows erscheint nur alle 3-4 Jahre neu. Er wird auch mehr verwirrt, durch zig grafische Oberflächen (neben KDE und Gnome gibt's ja noch ein paar) und der Möglichkeit verschiedenste Dateisysteme einzusetzen (ich bin nicht genau informiert was es da gibt, werfe aber mal ReiserFS, ext2 und ext3 in die Runde).

Vielfalt hat auch manchmal Tücken, zumindest bei den Kernkomponenten eines Betriebssystems wäre ein Standard besser. Bei den Distributionen geht es weiter. Manche wollen nur absolut freie Software (unter der GPL) dabei haben, was dann schon Videotreiber von Herstellern, Openoffice, Java oder anderes populäres ausschließt. Auch so verprellt man Anwender.

Ich glaube auch nicht das es die Spiele sind, weswegen Linux noch ein Nischendasein führt. Glaubt man den verkaufszahlen, so steckt nur in 10-20% der PC's ein spiele-grafikfähiger Chipsatz. Der Rest sind Büro PC's. Die Leute die ich kenne die einen PC nutzen spielen auch meistens nicht damit sondern skypen, surfen etc. Natürlich gibt es Spieler, doch die sind eine Minderheit der PC-Nutzer.

Selbst wenn Laptops Desktops-PC's abgelöst haben, ändert das nichts: Im Gegenteil, auf einem Notebook Linux zum Laufen zu bekommen ist noch schwieriger als auf dem Desktop wo es weniger Chipsätze und weniger Subversionen und Hardwarebesonderheiten gibt. Ob sich jemand auf Dauer mit den 4-6" Bildschirmen von Smartphones zufrieden gibt? Ich denke sie werden den Computer ergänzen, aber nicht ersetzen. Das ist wie mit dem Smart, der kann auch keinen Kombi ersetzen....

Das Windows normalerweise vorinstalliert ist und man Linux in der Regel selbst installieren muss kann nicht das Argument sein. Denn erstens ist die Installation von Linux ja nicht schwieriger. Zum zweiten kann ja gerade der Hersteller für die Versorgung mit Treibern sorgen. Im Gegenteil, eigentlich müsste gerade bei Herstellern daher enorm beliebt sein, denn es spart bares Geld. Windows ist im Vergleich zur Hardware sehr teuer geworden. Mein erster Windows PC kostete rund 3.800 DM, Windows 79 DM mit Handbuch (gibts heute schon nicht mehr). Der letzte kostete 479 Euro, Windows Home Premium liegt bei 78 Euro. Das bedeutet. Heute kostet Windows rund ein Sechstel eines PC, es waren mal nur 2%. Es ist also um den Faktor 7-8 teurer geworden. So würde sich mit Linux ein deutlicher Preisvorteil ergeben.

In der Tat könnten große Unternehmen und Verwaltungen hier voranschreiten. Zum einen gibt es den Kern dessen was man braucht also Office, Browser etc. auf Linux, zum andern brauchen diese oft spezielle Branchensoftware, die ab einer bestimmten Größe auch spezielle entwickelt wird und die PC's werden administriert, es gibt also eine EFV-Abteilung. Das Problem ist dann eher die Sozialisation. Also Windows kennt fast jeder, da muss man niemanden mehr einweisen. Bisher ist da der Durchbruch ausgeblieben. Die Stadt München hat vor einigen Jahren mal getönt alle PC's auf Linux umzustellen. Seitdem hat man aber nichts mehr gehört. Ich glaube kaum, das irgendein Abteilungsleiter wegen Bestechung entscheidet, denn so was wird zentral und weit oben entschieden, denn wenn jeder Abteilungsleiter entscheiden könnte hätten wir zig- Insellösungen.

Das Linux nichts das beste vom Ei ist, merke ich auch gerade bei meinem Programmierjob. Da setze ich eine Explorerkomponente ein, also ein Programmteil, das meinen Programmen die Funktionalität des Windows Explorers gibt. Ich brauche nur einen kleinen Teil, es geht darum Dateien markieren und zu navigieren. Seit die Firma ihr "Netzlaufwerk" von Windows Servern auf eine Linux Samba Lösung umgestellt hat gibt es Probleme. Erst wenige, dann immer mehr. Das ich die Komponente im Quelltext hatte nützte gar nichts, denn die Exceptions kamen beim Aufruf ganz normaler Windows API Funktionen. Wohlgemerkt: Die Komponente arbeitete vorher 10 Jahre ohne Probleme und tut es bei mir immer noch. Nun dachten wir, es ist zu alt, die Komponente wurde seit 2002 nicht mehr weiterentwickelt und sind zu einem kommerziellen Produkt gewechselt. Doch das Problem blieb und beim Beobachten alternativer Explorerersatzteile, wie den Salamander gab es auch merkwürdiges Verhalten. Verschob jemand ein Verzeichnis das ich gerade offen hatte, dann bekam das der Salamander nicht mit und man konnte es noch öffne, sah aber keine Dateien mehr drin. Wir werden damit leben müssen, denn die Windows Shell werde ich bloß wegen Samba nicht neu erfinden. Notfalls muss man eben den Zugriff auf Netzwerklaufwerke sperren.

So, nun der heutige Musiktipp. Ich kam drauf weil ich heute New Girl gesehen habe und da sollten Kids den Song mit Glocken spielen - klingt echt schräg. Es ist wohl einer der bekanntesten Movie-Songs, er stammt von einem Boxerfilm - muss ich mehr sagen?

-

21.2.2012: Ausgebremst und Ausgewulfft

Nun ist er doch gegangen. Unser EX-Bundespräsident Christian Wulff. Ich mochte ihn nie, er war zu glatt, ging stark in Richtung Teflon-Mann und Schwiegermutterliebling. Eben zu glattgebügelt. Und der Scherbenhaufen für die Bundesregierung, die zwar mit noch besserem Sekundenkleber als Wulff auf ihren Sesseln klebt aber nun schon zwei Bundespräsidenten in weniger als zwei Jahren verschlissen hat ist groß. Schade nur, dass wir wohl keine Staatsanwaltschaft dazu bewegen können gegen die Regierung zu ermitteln und selbst wenn - Merkel würde wohl kaum zurücktreten.

Wer wird wohl der nächste? Ich befürchte wieder so eine Null wie die beiden letzten. Er wird zwar das richtige Parteibuch haben, aber nicht die richtige Besetzung fürs Amt sein. Von einem Bundespräsidenten erwarte ich dass er weil er ja nicht regieren tut, die Freiheit nutzt wirklich die Wahrheit zu sagen, vielleicht sogar politische Leitlinien vorzugeben, so eine Art politisches Gewissen. dazu gehört auch zu sagen wenn die Regierung Mist verzapft. Ich kann mich nur an einen Bundespräsidenten erinnern, den ich aktiv mitbekommen haben, der diesem Maßstab gerecht wurde und das war Richard von Weizsäcker. Helmut Schmidt wäre die Idealbesetzung, doch er ist zu alt für den Job.

Das zweite wäre jemand der nur repräsentiert, also ein paar nette Worte bei Einweihungen und an Weihnachten verzapft. Dann brauchen wir keinen Politiker, Thomas Gottschalk wäre eine Idealbesetzung für diese Art von Job. Es ginge aber wohl jeder andere der Weichspül-Moderatoren wie wir sie zu Hunderten im Fernsehen sich tummeln.

Oder seien wir mal ganz wagemutig. Engagieren wir Hans-Joachim Heist alias Gernot Hasknecht für den Job. Er bringt die Missstände immer auf den Punkt. Hier zum Thema "FDP und die Mehrwertsteuer für Hotels".


Dann könnte der Bundespräsident wirklich jede Woche im Fernsehen kommen und die Weihnachtsrede würde ich mir auch wieder anschauen...

Dann zu was anderem. Dem zweiten Blogthema - ausgebremst. Geht es nur mir so, oder nervt euch das auch so? Also ich meine wenn man nicht so vorwärtskommen kann wie man will. Man führt sich eingeengt, gegängelt. Dabei ist die Verzögerung ja meist nicht die Rede Wert. Irgendjemand räumt an der Supermarktkasse im Zeitlupentempo seinen Korb voll, sodass man warten muss. Ein Fussgängerpaar blockiert den Fahrradweg und weicht erst aus, wenn man absteigen muss, trotz rechtzeitigem Klingeln. Jemand meint im Schwimmbad in der für Schwimmer abgesperrten Bahn unbedingt seine Aquajogging-Übungen abhalten zu müssen und zwingt einen dauernd um ihn herumzuschwimmen.

In allen Fällen ist die zeitliche Verzögerung minimal, einige Sekunden, vielleicht eine Minute, aber es nervt, wenn man nicht vorwärts kommt oder man gezwungen wird langsam zu fahren. Es ist in allen Fällen ja nichts großes. Es ist kein Berufsverbot, es ist nicht das Verbot das Land nicht verlassen zu dürfen oder eine Einschränkung der Meinungsfreiheit. Es ist im Prinzip eine Kleinigkeit, aber es nervt enorm.

Was gibt es noch? Es gibt eine neue Model-Show. Nein nicht die von Heidi, sondern auf Vox "das perfekte Modell". Der Unterschied: Es gibt zwei Models die mit Teams gegeneinander kämpfen, die Mädchen kommen immer mit vollem Namen und Hauptunterschied - es geht auch freundlich. Also der Unterschied zu GNTM ist wie Tag und Nacht. Ofensichtlich geht es auch wenn man sich wirklich um die Mädchen kümmert, man anständig mit ihnen redet und Entscheidungen (dass jede Folge welche Fliegen) einfach sagt. Also ich hatte ja andere Befürchtungen weil vor allem Eva Padberg mit ihren dunkel geschminkten Augen nicht sehr freundlich aussieht, aber im Verhalten ist sie anders als Model-Domina Heidi Klum menschlich okay.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99