Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 264: 5.2.2012 - 13.2.2012

5.2.1012: Die Vega: ich freu mich drauf

Am 9.2.2012 steht nun endlich der Erststart der Vega an. Er hat sich ziemlich verzögert, ich habe nochmal in mein Buch Europäische Trägerraketen Band 2 reingeschaut und stand mal ein Datum von Mitte 2006 ....Entsprechend haben sich auch die Entwicklungskosten verdoppelt. Nun soll er am 9.2. stattfinden.

Nun über die Vega könnte man viel meckern. Als erstes natürlich dass wir überhaupt keine Rakete brauchen: Als sie endgültig 2003 beschlossen wurde, war klar, dass der Hype mit kleinen Satelliten ja schon vorbei war. Dann wurde sie deutlich teurer als geplant. Anstatt 20 Millionen Dollar sind es nun 32 Millionen Euro, also ungefähr das doppelte. Dann war das Verhalten Italiens, dass praktisch die anderen Staaten erpresste (Austritt aus dem Ariane Weiterentwicklungprogramm, wenn niemand anders die Vega mitfinanziert) auch nicht die freien Art.

Aber sehen wir die Situation mal anders: Anstatt russische Raketen zu finanzieren können wir auch die Satelliten selbst starten. Und dank der galoppierenden Inflation in Russland sind die russischen Starts ja inzwischen auch nicht mehr so viel billiger als die Vega. Wie ich diesem Artikel entnehme, hat die Vega die Starts der Sentinel gewonnen, nachdem man auch die Rockot als Alternative untersucht hat. Es reicht ja schon, wenn CNES und ESA der Sojus einen Weltraumbahnhof bauen. Auch die wäre übrigens zu ersetzen - man müsste nur eine Vega parallel an einen Ariane 5 Booster montieren. Ein paar Modifikationen wären nötig, weil auf der Zentralstufe die gesamte Hydraulik für das Schwenken der Booster steckt und natürlich auch die Steuerung. Doch würde diese Rakete rund 7,4 t in einen LEO Orbit oder 2,2 t in einen GTO- oder Galileo-Übergangsorbit transportieren. Mit ein paar Modifikationen könnte die EAP-Vega dann auch die Sojus für den Start der Galileosatelliten ersetzen (ohne Modifikationen ist die Nutzlast von 1280 kg in den Galileoorbit zu klein für zwei Satelliten).

Dann gäbe es auch eine höhere Produktionsrate und geringere Kosten. Spätestens wenn noch ein paar Jahre der Anstieg bei Rockot & Co so weitergeht wird sie eh wirtschaftlich sein, Natürlich hätte vieles besser laufen können. Man hätte das Projekt schneller abschließen können und ich hätte mich auch über eine deutsche Beteiligung gefreut. Doch neben der Lobbypolitik der Bundesregierung die Astrium LV keine Konkurrenz machen möchte (50% Beteiligung an Eurockot) fällt es auch schwer einen deutschen Beitrag bei der Vega zu finden. MT Aerospace hat Erfahrungen mit Boostern, doch diese Kernkompetenz wollten die Italien haben. Astrium Bremen baut zwar lagerfähige Oberstufen, aber diese hätten die Nutzlast nicht erhöht, sondern nur die kosten und ihre Entwürfe für kryogenen Stufen sind so schwergewichtig, dass sie auch nichts bringen würden. Vielleicht eine kleine Beteiligung am AVUM wäre möglich, mehrere Apogäumsantriebe anstatt dem ukrainischen Triebwerke, aber das dann wohl gewesen.

Wie wird es weitergehen? Ursprünglich sollte das VERTA Programm, das sich an den Jungfernflug anschließt, ja dazu dienen die Rakete in der Produktion billiger zu machen und die Rakete weiter zu entwickeln. Davon scheint nur das erste übrig geblieben zu sein. Mehrere Vorschläge gab es, so verlängerte erste und zweite Stufen mit 100 anstatt 80 t und 40 anstatt 23 t Treibstoff oder eine neue Oberstufe. Dem letzten sehe kritisch gegenüber. Eine flüssige Oberstufe würde die Rakete verteuern aber nur wenig Nutzlast bringen. Verlängerte Stufen wären okay, wenn das preiswert geht, doch sollte man das vorher prüfen. Einfacher wäre es sicher die zweite Stufe als Booster zu montieren. Das bringt je nach Anzahl 50 bis 90% mehr Nutzlast und man braucht überhaupt keine Entwicklungsarbeit.

Die Frage ist vielmehr, ob man es braucht. Die Vega wird die Ariane 5 mehrere Nutzlasten befördern können und anders als die Ariane 5 wird sie diese auch auf unterschiedlichen Bahnen aussetzen können. Das wird schon beim Jungfernflug erprobt, so werden die Cubesats auf einer anderen Bahn als Lares ausgesetzt. Doch bei erwarteten 1-2 Starts pro Jahr wird es schwierig werden, Nutzlasten zu finden die man kombinieren kann. So wäre eine weiterentwickelte Vega nur nützlich wenn man man größere Nutzlasten hat, die von der Vega nicht befördert werden können. Wenn sie sie zu leistungsfähig ist rückt sie in die Nähe der Sojus mit ihrer Nutzlast von 4,9 t in den Vega Referenzorbit.

Ich halte es für besser erst mal zu sehen ob es den Bedarf für eine Vega Weiterentwicklung gibt. Aber erst mal freue ich mich auf den ersten Jungfernflug einer europäischen Rakete seit 15 Jahren. Nachdem die Jungfernflüge von Ariane 5 und Ariane 5 ECA scheiteten, kreuze ich diesmal alle Finger. Mal sehen ob die Italiener gründlicher arbeiten als die Franzosen....

7.2.2012: Pixelmannia

Zum wiederholten Male (ich hatte mich schon mal damit beschäftigt) heute mal wieder mein Hauptaugenmerk auf Digitalkameras, genauer gesagt ihre CCD/CMOS-Sensoren. Die Problematik ist recht einfach erklärt: Seit es die Sensoren gibt, packt man immer mehr Pixel drauf, auch wenn das nun seit zwei Jahren anscheinend zum Stillstand gekommen ist. Analog, wie der Computer über immer mehr Speicher verfügen muss, hat eine Digitalkamera immer mehr Pixel.

Doch anders, als bei einem RAM-Baustein, kommt es nicht nur darauf an, eine Ladung zu speichern, sondern in endlicher Zeit möglichst viele Photonen, die dann Elektronen aus dem Halbleitermaterial herausschlagen. Je mehr Pixel drauf sind, desto kleiner ist die Fläche jedes Pixels, desto weniger Photonen fallen pro Zeiteinheit drauf und desto weniger Elektronen werden herausgeschlagen. Die Folgen sind drastisch:

Das Rauschen steigt an, weil zu einem konstanten Eigenrauschen ein immer kleineres Nutzsignal an. Das drückt sich in verrauschten Bildern aus, oder Kameras rechnen es weg, wodurch je nach Algorithmus die Farben knallig oder die Details weich gezeichnet werden.

Man bewegt sich immer mehr in Richtung "Schönwetterkamera". Eigentlich sind CCD/CMOS Sensoren empfindlicher als fotografischer Film. Meine alte 3-MP-Kamera kann ohne Problem bei Tag innerhalb des Hauses Aufnahmen machen, bei starkem Deckenlicht und ruhiger Hand auch bei Kunstlicht ohne Blitz. Bei viel kleineren Sensoren ist das fast unmöglich.

Die Lösung? Nun es gibt viele. Das eine sind größere Sensoren. Bei Digitalkameras sind Sensorgrößen von 1/2.5" und 1/1.8" üblich. Die ersten haben beim 4:3 Format Abmessungen von 5,8 x4,3 mm und die anderen 7,2 x 5,3 mm. Typischerweise packt man heute auf die ersten 8-10 MP und die zweiten rund 12-14 MP. Ein Pixel ist dann nur noch 3 µm² groß, also rund 1.7 x 1.7 µm. Das ist verdammt wenig, nur rund die dreifache Wellenlänge des Lichts. Wenn man die Sensoren größer machen würde, wäre es kein Problem mehr Pixel drauf zu packen. Es gibt ja auch Sensoren im 35-mm-Format, also wie bei alten Negativen (35 x 24 mm). Selbst wenn diese 50 MP aufweisen (derzeit so das Maximum) ist jedes Pixel noch 16.8 µm² groß, belegt also die 5-fache Fläche und ist um den Faktor 5 lichtempfindlicher oder rauschärmer.

Das wäre eine Entwicklung wie bei anderen Geräten. Wenn man einen Fernseher mit 52° Diagonale kauft, ist der ja auch teuer als einer mit 32". Größere Sensoren haben allerdings auch Folgen. Das Gehäuse wird größer, die Optik ebenso. Auf der anderen Seite sinken die Ansprüche. Die Ansprüche an die Optiken sind bei den kleinen Pixeln sehr hoch - und sie werden nicht von jeder Kamera gehalten. Natürlich gehen dann bei kompakten Kameras keine 20-fach Zooms. Doch habe ich Zweifel an deren Nutzen. Je größer der Zoombereich, desto ruhiger muss man die Kamera halten, bzw. wenn man das Zittern einfrieren will, muss man die Belichtungszeit stark reduzieren. Das ist natürlich kontraproduktiv, wenn man sowieso lichtempfindliche, kleine, Pixels hat.

Es würde dann zu verschiedenen Klassen kommen - kompakten Knipserkameras mit kleinen Gehäusen und wenigen Pixeln und Kameras mit größeren Gehäusen und mehr Pixeln.

Das Zweite wäre es, für qualitätsbewusste Anwender eben auch Kameras mit weniger Pixeln anzubieten. Hier sehe ich allerdings am wenigsten Chancen. Denn das Umdenken beginnt erst, wenn man mal verwaschene oder verrauschte Bilder hat und man die gestochen scharfen eines Kollagen mit einer alten Kamera sich ansieht.

Die dritte Lösung wird wohl die einfachste aber auch suboptimale sein, das "Binnen". Unter diesem Fachausdruck versteht man das Zusammenfassen von mehreren Pixeln. Das ist bei astronomischen Sensoren üblich um das Eigenrauschen zu unterdrücken. Es muss aber auf dem Chip implementiert sein und nicht erst nach Digitalisierung der Signale. Denn dann hat man ja schon das Rauschen mit verstärkt. So könnte man 2 oder 4 Pixel zusammenfassen. Am geeignetsten wäre die 2x2 Pixeladdition, da dies die Größe einer Elementarmaske ist, die über dem Chip liegt. Als Folge würde die Farbechtheit erhöht werden, weil schon ohne Binning sich die Farbinformation auf vier Pixel verteilt. Aus einem 12 MP Modell würde aber dann eine 3 MP Kamera werden - das ist für viele wohl zu wenig. Die heutigen Kameras nutzen meist kein Binning, sondern nehmen bei kleineren Formaten eben einfach nicht jedes Pixel.

Die Frage ist übrigens, wofür man so viele Pixel braucht. Ich will hier zwei Argumente dagegen anführen. Jedes Bild muss ja irgendwann angesehen werden. Da sind heute Monitore mit maximal 2560 x 1600 Pixeln. Das sind 30" Monster, die nur bedingt kompatibel mit heutigen Schreibtischen sind. Viele haben noch einen 22" mit 1680 x 1050 Pixeln. Das sind 4 bzw. 1.7 MPixel. Dass wir jemals Monitore bekommen, die 12 MP anzeigen ist unwahrscheinlich, denn dann sind die Pixel so klein, dass man sie mit dem Auge nicht mehr erkennen kann.

Beim Ausdruck sieht es auch nicht besser aus. Handelsübliche Belichter in Labor haben Auflösungen von 200 Zeilen (400 Pixeln) pro Zoll. Beim 10 x 13 Format sind das also rund 1600 x 2000 Pixel. Nun kommt natürlich immer das Argument mit den Vergrößerungen. Das Problem: Vergrößert an, dann nimmt auch der Abstand ab, denn aus 20 cm Entfernung kann man kaum ein DIN-A3 Blatt überblicken. In der Summe benötigt man also nicht mehr Auflösung. Mehr Auflösung braucht man nur für den Fall, dass man einen kleinen Ausschnitt manuell in der Bildverarbeitung ausschneidet, als neues Bild speichert oder ausdruckt und bei der Erstellung vergessen hat, die Zoomfunktion zu benutzen. Okay, und das machen dann 90% der Anwender? Wohl eher 1%.

Im Prinzip muss sich die Auflösung nach dem Auge richten. Dessen Auflösung beträgt je nach Umgebungsbedingungen 60 bis 120 Bogensekunden, das sind in 35 cm Abstand, (einem typischen Betrachtungsabstand von kleinen Fotos) 0.1 bis 0.2 mm. Daher sind 400 Pixel pro Zoll (0,635 mm/Pixel) schon mehr als genug. Da man nur einen sehr kleinen Bereich bewusst wahrnimmt und auch dieser sich verschiebt, ist es relativ blödsinnig große Fotos mit hoher Auflösung zu erstellen, die keiner bewusst wahrnehmen kann.

So gesehen, reicht sowohl für die Betrachtung am Monitor wie auch den Ausdruck ein 3 MP Modell schon aus, ja mit Abstrichen auch ein 2 MP Modell. Natürlich kann man auch die Anforderungen hochtreiben. CCDs für die Astronomie haben Pixelflächen von 25-144µm²m, lassen also auch professionelles Fotoequipment alt aussehen. Doch sie sind eben für Langzeitbelichtungen oder extreme Anforderungen konzipiert. In der Industrie finden sie auch Anwendung wenn die Belichtungszeit extrem kurz ist, z.B. bei laufenden Fließbändern Flaschen auf Defekte untersucht werden müssen. Ich schließe mich der Meinung von 6MP.org an. Diese Website vertritt die Meinung das bei 6 MP die beste Auflösung bei noch minimalem Rauschen vorliegt und es danach schlechter wurde. Allerdings berechnet diese Website den Wert anhand von 2/3" Sensoren, die man heute nicht mehr findet. Für die kleineren 1/2.5" und 1/1.8" Sensoren sind dies nur 4 bzw. 2.7 MPixel. Und das ist denke ich auch für praktische Zwecke mehr als auseichend.

9.2.2012: Eine Nation auf dem Weg zum Weltraumzwerg

Nun hat die russische Akademie der Wissenschaften den vorläufigen Untersuchungsbericht über die wahrscheinliche Versagensursache von Phobos-Grunt veröffentlicht. Es sollen importierte Elektronikbauteile aus Asien gewesen sein, die nicht weltraumqualifiziert waren. Ja, viel peinlicher geht es nicht mehr. Aber vorher waren doch schon die echten Schuldigen bestimmt: Medwedew sprach davon die schuldigen zu bestrafen, was darauf hinausläuft, als hätte jemand bewusst die Mission sabotiert. Das ist natürlich auch voll logisch bei einer rein wissenschaftlichen Mission. Oder Popojewitsch von der russischen Akademie der Wissenschaften der gleich wusste, dass die USA durch Radarstationen die Elektronik der Sonde gestört hatten. Zuerst von Alaska aus, und nachdem selbst Laien anmerkten, dass man bei der Flugbahn  von Alaska aus die Sonde gar nicht stören konnte, weil die ersten beiden Flüge nicht Alaska streifen, war es dann ein NASA-Radar auf den Marschallinseln. Selbst wenn - das Radar wird auch sonst nicht abgestellt, wenn Satelliten es überfliegen. Warum fallen dann andere Satelliten nicht aus?

Mal abgesehen, davon, dass offensichtlich 20 Jahre nach dem Zusammenbruch der Sowjetunion in den Führungsetagen dort noch das Weltbild "Wir hier und da der böse Kapitalismus der unsere Missionen sabotieren will" herrscht, ist auffällig, dass sich die Fehlschläge häufen. Zwischen Dezember 2010 und 2011 fanden 30 Missionen mit russischen Trägern statt. Davon scheiterten 5. Das sind 16,6% - der höchste Wert seit den frühen sechziger Jahren. Beschränkt man sich nur auf die russischen Nutzlasten, so sieht es noch schlechter aus, da auch in der Vergangenheit bei der Proton es mehr Fehlschläge bei russischen Nutzlasten als westlichen Starts gab, was schon auf die Misere hindeutete.

Es wird aber schlimmer. Nun hat es einen Progressstart für die ISS erwischt. Wann wird es die bemannte Sojus erreichen? Wenn man von russischer Technik redet, dann meistens in dem Zusammenhang von "erprobt, wenn auch nicht auf dem technisch aktuellen Stand". Nun das "erprobt" ist nur so gut wie die Fertigung. Natürlich kommen nun keine Designfehler vor, aber das nützt gar nichts, wenn die Produktion schlampt, es nur eine mangelhafte Kontrolle und Qualitätssicherung gibt. Russlands Raumfahrtindustrie hat einen rasanten Abstieg zu verzeichnen, die ganz im Gegensatz zu dem Großmachtgehabe steht. Ein frisch von der Uni kommender Ingenieur verdient bei Lawotschkin z.B. nur noch 340 Euro. Die Bezahlung ist mies und die Inflation ist hoch. Die Kosten von Phobos-Grunt haben sich z.B. zwischen 2009 und 2011 verdoppelt - das ist alleine aufgrund der Verzögerung nicht begründbar. So steht die Vega auch trotz massiv angestiegener Startkosten gar nicht mehr so schlecht da, weil auch dir russischen Träger deutlich teurer wurden. Vor wenigen Jahren kostete bei Starsem z.B. ein Sojusstart von Baikonur aus noch 50 Millionen Dollar. 2010 war dann schon von 70 Millionen Dollar von Kourou aus die Rede, und als die Sojus STK letztes Jahr startete, waren es 70 Millionen Euro pro Start.

Da praktisch der gesamte Mittelbau fehlt, also Fachleute, die nicht gerade von der Uni kommen und auch nicht vor der Pensionierung stehen, die Folge von 20 Jahren kontinuierlichen Abstiegs, wird die Situation nicht besser werden. Denn alleine mit Geld ist es nicht getan. Man braucht auch qualifiziertes Personal. Im Gegenteil: Nun gehen auch noch die die geblieben sind in Rente. Der Abbau geht weiter. Bis Russland diesen Blutverlust aufholen wird, werden Jahre, wenn nicht ein Jahrzehnt vergehen. Aber das der politische Wille da ist eben nicht nur "Schuldige" zu suchen, sondern die Ursachen zu beseitigen, scheint nicht gegeben zu sein. Wahrscheinlich wird es erst ein Umdenken geben, wenn auch die Starts noch stärker betroffen werden die von zahlenden Kunden aus dem Westen bezahlt werden oder noch schlimmer Astronauten/Kosmonauten ums Leben kommen. Aber so wie ich Medwedew und Putin kenne, wird auch dann nur nach Schuldigen gesucht ... Ein Tipp: Schaut mal in den Spiegel.

11.2.2012: Jupiterforschung "on the Fly".

Jupiter nimmt eine Sonderstellung im Planetensystem ein. Er ist der Planet, der am stärksten eine Raumsonde beschleunigen kann, er ist aber trotzdem von allen Riesenplaneten noch am einfachsten zu erreichen. Wünschenswert wäre zwar aus energetischen Gründen, dass er noch näher an der Erde wäre. Nur für uns wäre, das wohl nicht so wünschenswert.

Jupiter ist eine Art Sprungbrett im Sonnensystem. Bedingt durch seine Masse kann er eine Raumsonde stark beschleunigen, sodass sie das Sonnensystem verlassen kann oder einen Zielplaneten viel schneller erreicht. Alternativ kann er die Bahn um 90 Grad umlenken, sodass die Sonde nun die Pole der Sonne überfliegt oder den sonnenfernsten Punkt soweit absenken, dass eine Raumsonde in die Sonne stürzt. Würde man diese Manöver ohne Jupiter durchführen, dann bräuchte man erheblich mehr Treibstoff.

Mehr noch: Bei jedem Planeten kann man den Energieerhaltungssatz zum Vorteil ausnützen. Das Paradoxon das dabei entsteht ist, dass wenn man beim Passieren eines Planeten ein Raketentriebwerk zündet und um 1 km/s beschleunigt wenn man im Unendlichen ist, man mehr als 1 km/s gewonnen hat. Das klingt paradox, liegt aber daran dass die Energie im Quadrat ansteigt und wenn die potentielle Energie die durch die Gravitationskraft des Planeten zuerst addiert wird wieder abgezogen wird, so verbleibt mehr Restenergie als wenn 1 km/s ohne die potentielle Energie addiert wurde. So kann man durch einen Antrieb bei Jupiter noch stärker beschleunigen oder abbremsen.

Auf der anderen Seite ist Jupiter auch ziemlich groß. Von der Erde aus hat einen Durchmesser von 48 Bogensekunden. Das ist zwar dreißigmal kleiner als der Mond, aber selbst in kleinen Teleskopen ist er mehrere Monate bevor eine Raumsonde ihn erreicht bildfüllend. Die Grenze des Magnetfelds wird auf der sonnenzugewandten Seite auch etwa einen Monat vor der Passage passiert. Auf der Rückseite kann sich der Schweif bis zum Saturn erstrecken.

Auf der anderen Seite kann sich eine Raumsonde nahe des Jupiters nur kurze Zeit aufhalten. Die verschiedenen Projekte für Europa-Orbiter gehen maximal von einigen Monaten bei Europa aus. An einen Io Orbiter ist gar nicht erst zu denken.

Nun ist die Galileomission ja im wesentlichen gescheitert. Juno wird vor allem die Umgebung Jupiters erforschen, also sein Magnetfeld und die Strahlengürtel. Ansonsten gibt es seit Jahrzehnten Pläne für weitere Nachfolgemissionen, sowohl auf ESA wie NASA Seite. Sowohl Orbiter die wie Galileo den Mond umrunden sind geplant, wie auch Orbiter die Europa kartieren sollen.

Die Frage ist: Gehts nicht auch einfacher? Gerade weil Jupiter ein Sprungbrett ist, eignet er sich für einige Missionsszenarien:

Vorbeiflugsonden zu Neptun und Uranus: Beide Planeten sind wahrscheinlich für Orbiter in den nächsten Jahrzehnten unerreichbar. Man benötigt dazu entweder enorm viel Zeit um hinzukommen oder muss viel Energie bei der Ankunft vernichten. Vorbeiflugsonden scheinen daher noch der sinnvollste Ansatz sein. Vorbeiflugsonden könnten auch Atmosphärenkapseln mitführen. Jupiter kann die Raumsonden rapide beschleunigen und wegen seiner Natur (er ist auch ein Gasplanet) kann er durch die gleichen Instrumente untersucht werden. Es gibt zu Neptun und Uranus jeweils alle 12-13 Jahre ein Startfenster, bei dem Jupiter günstig steht. Will man zu Saturn aufbrechen (alle zwanzig Jahre gibt es hier ein Startfenster), so kann Jupiter die Reise um 1-2 Jahre verkürzen. Dazu kommen dann noch Missionen die das Sonnensystem verlassen müssen, z.B. um das interstellare Medium zu erforschen oder Orbiter über die Sonnenpole und Sonden, welche in die Sonne stürzen.

Würde man jede dazu nutzen die Jupiterforschung voranzubringen, wozu dann auch nahe Vorbeiflüge an den galileischen Monden gehören, dann würde in der Summe die Meßzeit von Galileo erreicht oder überschritten werden. Ja mehr noch durch die verschiedenen Ein/Austrittsrouten sind die Missionen flexibler als Galileo, deren Orbitalebene fest lag. Der Vorteil verschiedener Missionen ist, dass Instrumente weiterentwickelt oder ausgetauscht werden können, wodurch man mehr Informationen als von Galileo oder einer einzelnen Jupitermission erhält.

Natürlich wäre eine dezidierte Jupitermission wünschenswert. Doch seien wir mal ehrlich: seit Galileo warten wir auf eine, und alle Pläne werden regelmäßig weiter in die Zukunft projiziert. Besonders schade finde ich dabei, dass man die Chance ausließ, Juno mit einem wirklich leistungsfähigen Kamerasystem auszurüsten. Nichts gegen die Junocam, aber ein Nachbau der Abstiegskameras die bei Marsraumsonden nur einige Aufnahmen beim Abstieg machen sollten mit Weitwinkelobjektiv und Bayer-Pattern auf dem Chip kann wohl kaum mit einem Teleskop, einem großen Chip und einem Filtersystem bis zum Nah-IR konkurrieren.

Aber wahrscheinlich gehts Jupiter wie der Venus: Solange man nicht über Mikroben spekulieren kann wie beim Mars (auch wenn die wenigsten Wissenschaftler glauben dass man auf dem Mars welche finden wird), erscheint er uninteressant.  So gesehen sollte man direkt die Idee eines Ozeans voll von Leben unter Europas Eisedecke pushen....

13.2.2012: Linux: Das wird nichts mehr.

Es gibt einen uralten Unix Witz. Er ist ganz kurz und ich habe ihn sicher schon vor 20 Jahren zum ersten mal gehört: "Unix ist das Betriebssystem der Zukunft, und das schon seit 10 Jahren". Wenn man "Unix" durch "Linux" und 10 durch 20 ersetzt, dann passt er auch gut auf Linux. Dabei hat Linux einen epochalen Höhenflug hinter sich: Nach Auswertungen von Webstatistiken (der Browser überträgt welches Betriebssystem der Benutzer einsetzt), hat sich die Zahl der Linuxuser in den letzten 12 Monaten verdoppelt: auf 1,4 Prozent.... Bei mir sieht es anders aus. Der Anteil stieg nur von 2,93 auf 3,17%.

Die Frage ist nun, warum führt Linux immer noch dieses Nischendasein? Selbst MacOS ist besser platziert, obwohl Linux verschenkt wird und MacOS nur mit ziemlich teurer Hardware verkauft wird bzw. ohne diese keinen Sinn macht. Man sollte meinen das Windows nach dem Fiasko mit Vista an Boden verloren hat. Bis die nächste brauchbare Version ach XP erschien vergingen acht Jahre. Warum sind dann nicht alle zu Linux gewechselt? Vieles was man früher als Nachteil anführen konnte gilt heute nicht mehr. Es gibt die wichtigsten Programme die man braucht. Openoffice hat ja inzwischen sogar MS-Office auf Windows Konkurrenz gemacht. Vielleicht gibt es weniger Spiele, aber wer wirklich nur spielen will, kauft sich sowieso eine Spielkonsole.

Meiner Ansicht nach ist es auch nicht die Verfügbarkeit von Treibern oder die angeblich höhere Sicherheit (solange das System so wenig Marktbedeutung hat, dass keiner Viren dafür programmiert ist die Sicherheit vielleicht praktisch gegeben, sollte aber nicht so betont werden, denn beweisen ist sie eben nicht). Der Grund ist viel einfacher: Die Sozialsation. Windows ist so lange auf dem Markt, dass jeder der nicht gerade zum ersten Mal vor einem Computer steht schon damit gearbeitet hat. Selbst wenn man sich nicht auskennt, so hat doch jeder einen Bekannten, der bei Problemen helfen kann. Das ist bei Linux wegen der geringen Marktbedeutung nicht gegeben. Okay, ich spare zwar 70 Euro für eine Windows Lizenz. Aber bis ich bei Linux mich so gut auskenne wie bei Windows, muss ich viel Zeit investieren. Zeit die ich besser nutzen könnte, und das nur um 70 Euro zu sparen? Die Situation ist natürlich eine andere, wenn ich sowieso hauptberuflich oder als Freizeitbeschäftigung mich primär um Computer kümmere. Zahlreiche bauen sich ja zuhause ein ganzes Netzwerk auf. Einen Webserver, ein NAS für die Daten, einen Desktop-PC, ein Notebook und dann noch einen Multimediarechner am Fernseher. Dann investiere ich so viel Zeit in das Hobby, das ich mich sicher auch gerne mit Linux auseinandersetze und bei vielen Rechnern spare ich auch wirklich Geld. Nur - das sind eben die Computerfreaks und nicht die Masse die eben einen Rechner hat.

Meiner Ansicht nach werden Linux und Windows von etwas anderem abgelöst werden: Den Surfgeräten. Die meisten benutzen einen Rechner ja mehr zum Surfen, Twittern, Mailen als das sie Texte bearbeiten oder Fotos verändern. Ansehen kann man sie auf den Webpads & Co ja auch. Und hier zeigt meine Statistik auch deutlich den Anstieg. Vor einem Jahr betrug der Anteil dieser Geräte insgesamt 3,07% (immerhin damals schon mehr als Linux). Heute liegt er bei 7,54%, also mehr als doppelt so hoch. Wobei die Gewinner das iPad und Android sind. Beide konnten ihren Anteil in dieser Zeit vervierfachen. Es ist die Veränderung der Geräte: fragte man früher wozu man einen Computer braucht bekam man die Antwort: "Zum Spielen, Texte bearbeiten". Heute eben braucht man ihn zum Surfen. Daten kann man schon im Netz ablegen. Apps einfach installieren ohne groß Installer aufzurufen. Die Unkompliziertheit und vor allem das die Geräte genau das können was die Leute wollen, macht sie so erfolgreich. Im einem gewissen Sinne ist das vergleichbar mit der Spielkonsole. Diese kann natürlich auch einen PC nicht ersetzen. Und man kann wegen der höheren Rechengeschwindigkeit auf dem PC sogar bessere Spiele spielen. Aber trotzdem kann der PC die Konsole nicht ersetzen, denn sie ist einfach unkomplizierter und für den Zweck geeignet. Man braucht nicht so viel Platz, kein Keyboard und kann sie einfach an den Fernseher anschließen. Genauso reicht zum Surfen auch eben ein Webpad aus (auch wenn ich damit keine Mails beantworten würde). Ich denke Microsoft wird sich eher davor fürchten, als vor Linux.

Bill Gates startete den Krieg gegen Netscape, weil er befürchtete wer bestimmt mit welchem Browser man ins Netz geht, der diktiert die Plattform. Er hat recht gehabt. Einmal war er wirklich visionär. Auch wenn ich denke, er sah damals in den prognostizierten Netzcomputern die Konkurrenz. Nun gibt es die Geräte und wie er es sich dachte hatte er recht: es spielt für den Nutzer keine Rolle ob es mit Android oder iOS läuft, auch nicht welche Prozessor drin ist und von wem der Browser stammt. Hauptsache man kommt ins Netz, auf Facebook oder weis ich wo hin.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99