Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 634: 12.10.2021 - 24.10.2021

12.10.2021: Die Oktobernachlese zu SpaceX

… ist diesmal relativ kurz, viel Aktivität gab es ja nicht. Ein Starlink Start und der der Inspriation4 Crew. Noch immer warten alle auf den ersten suborbitalen Flug des Starships, wobei das wichtigste Indiz dafür nur ein Antrag bei der FAA ist, immerhin angeheizt von Musk durch Fotos von Arbeiten an der Kombination.

Wer mich kennt, weiß, dass ich wenig zur Inspriation4 Mission schreibe. Warum auch? Es gab schon seit Jahrzehnten Weltraumtouristen. Nun gibt es ein Vehikel, das wiederverwendbar ist und automatisch arbeiten kann, sodass (anders als bei der Sojus) ein Pilot entfallen kann und infolgedessen wird es auch mehr private Raumflüge geben, die so auch billiger sind, schlussendlich fliegen gleich vier ins All, teilen sich die Kosten und das Raumschiff hat die NASA bezahlt und SpaceX verwendet es nach dem (ersten) NASA-Einsatz nochmals.

Es wurde kritisiert, dass die Besatzung wenig von sich hören lies. Gewohnt von der ISS war, dass man den gesamten Sprechfunk abhören konnte. Aber es ist eben eine „private“ Mission. Da wird gefiltert weitergegeben was einem nützt. Es muss ja nicht jeder mitkriegen das einem schlecht wird oder man irgendwelche Probleme hat. So richtig „privat“ ist die Mission auch nicht, denn nicht umsonst wurde sie mit derselben Bahnneigung wie die ISS gestartet. Zwar hätte sie wegen der Cuopla nicht andocken können, kann so aber alle Bodenstationen und Kommunikationswege nutzen die für die ISS etabliert wurden. Das Starlink-Netz von SpaceX befindet sich bei der Orbithöhe von 575 km ja unterhalb der Mission, und selbst wenn, ob die Antenne auch im Weltall bei anderen Relativgeschwindigkeiten funktioniert hätte, ist zweifelhaft.

Was man von der Inspriration4 Mission erfahren hat, reiht sich aber in die Vorkommnisse bei der Erprobung des Starships ein, bei dem zuerst Prototypen bei der Druckbeaufschlagung explodierten und dann bei der Landung oder danach. Nun ist es eine Nummer kleiner – es dreht sich um eine nicht funktionierende Weltraumtoilette und kaltes Essen. Das verwundert. Warmes Essen gibt es im US-Raumfahrtprogramm seit Apollo, Weltraumtoiletten seit Skylab. Aber es passt zu SpaceX. Es scheint als müsste die Firma jede technische Entwicklung neu zu erfinden. Tanks und Druckbeaufschlagungssysteme die nicht explodieren, Weltraumtoilette, die Produktion von heißem Wasser oder den Mikrowellenofen. Die Dragon funktionierte, da war ja auch die NASA beteiligt, aber eine Toilette ist bei den Flügen zur ISS nicht notwendig, da das Andocken an die Iss schnell geht. So was kenne ich sonst nicht. Es ist ja auch nicht so, dass andere Firmen bei jedem Produkt bei Null anfangen. Wenn Daimler ein neues Auto baut, können sie auf 100 Jahre Erfahrung zurückblicken. Und seit Erfindung des Buchdrucks kann man diese Erfahrung auch weitergeben, indem man sie aufschreibt und druckt, heute ergänzt durch weitere Methoden, mit denen man Informationen aus den Leuten herausholt, die man als Erfahrungswissen bezeichnet, wie Audio- oder Videointerviews. SpaceX hat inzwischen alle hochkarätigen Angestellten verloren, die seit Firmengründung bei der Firma waren, letzten Monat kam Hans Koenigsmann bei einer neuen Firma unter, schon seit letztem November hat Tom Mueller die Firma verlassen und inzwischen eine eigene Firma aufgemacht. In den Nachrichten liest man immer wieder, wie ein ehemaliger SpaceX Mitarbeiter woanders anheuert. Doch erklärt dieser Schwund das Phänomen? Eigentlich nicht. Denn das Wissen über die Konstruktion steckt ja nicht in dem Chef, sondern auch zahllosen Mitarbeitern und – zumindest andere Firmen machen dies so – es wird dokumentiert, schon alleine, damit man neue Angestellte besser schulen kann.

Das wird dann noch interessant, wenn die SpaceX Pläne reifen. Bisher haben sie Dinge gebaut oder entwickelt bei denen sie auf Erfahrungen einer Weltraumindustrie zurückgreifen können. Das gilt auch für das Starship, ein geflügeltes Vehikel, das aus em Weltraum wiederkommt und landet gab es schon 1981 und seitdem mit dem X-37B sogar ein Zweites in den USA (Russland hat auch eines entwickelt). Aber das Auftanken von Nicht-Druckgeförderten Triebwerken mit leicht verdampfenden Treibstoff und das nicht nur einmal, sondern mehrmals wie für Mondmissionen benötigt, ist was Neues. Ebenso zum Mars zu fliegen und zu landen. Wenn ich dran denke wie viele Versuche es gab die erste Stufe zu landen – das geschah erst beim fünften Versuch – dann wird es sicher etliche Versuche geben, bis ein Lunar Starship Menschen zum Mond befördern kann oder man gar an Marsexpeditionen denken kann. Bei Letzteren kommt hinzu, dass man aufgrund der Startfenster auch nicht einfach nach einem Fehlschlag den nächsten Versuch starten kann, sondern 26 Monate warten muss. Spätestens dann wird das iterative Vorgehen von SpaceX an die Grenze kommen.

Dann hat noch die ct‘ im Betatest die Starlink Antenne getestet. Sie benötigt viel Strom, bis zu 180 Watt. Ohne aktive Heizung (im Winter nötig) rechnet die ct‘ bei 2 Stunden Nutzung pro Tag mit 120 Euro Stromkosten pro Jahr. Die Antenne selbst kostet 559 Euro, ein Monat 99 Nutzung Euro. Ohne Smartphone funktioniert der Router nicht, da man nicht über ein Webinterface an die Einstellungen herankommt. Wieder ein SpaceX Sonderweg, genauso wie das Kabel, dass über den Netzwerkanschluss die Antenne mit Strom versorgt. POE ist zwar standardisiert, aber das kümmert SpaceX wenig, denn über POE kann man maximal 100 Watt übertragen keine 180 Watt. Entsprechend hatte der Tester Probleme das Kabel für die Außenmontage zu verlegen, weil es zu dick war. Beim ersten Test in der Großstadt riss die Verbindung laufend ab, weil im verwendeten Frequenzband schon ein Blatt Papier genügend Strahlung blockiert, von Mauern und Gebäuden ganz zu schweigen. Auf dem freien Land auf dem Dach montiert – also mit idealen Bedingungen - gab es pro 24 Stunden im Durchschnitt 37 Sekunden Ausfall, maximal 10 Sekunden am Stück. Die Datenraten lagen in der Spitze bei 235 MBit Down und 24 Mbet/s Uplink, gingen aber auch auf 70 Mbit/s im Downstream zurück.

Das dürfte sicher der Knackpunkt neben den hohen Kosten von über 1300 Euro pro Jahr sein. Der Test fand im August statt, als die erste Sphäre für Starlink schon voll ausgebaut war. In der Betaphase kann man die Hardware nicht kaufen, sondern muss sich bei SpaceX bewerben. Versorgt Veden natürlich zuerst Influencer wie die Computerzeitschrift. Wenn schon die wenigen Kunden – weltweit waren es nach Musk Angaben 100.000, dazu führen das zeitweise die Downlinkrate unter die versprochenen 100 Mbit/s rutscht, wie wird das dann erst bei einem operationellen System mit viel mehr Kunden werdem? Jeder der ersten Generation der Satelliten hat je nach Quelle 10 bis 40 GBit Kapazität, kann also maximal 100 bis 400 Kunden mit der Nennkapazität versorgen. Entsprechend kommt eine Studie auch zu dem Schluss, das Starlink selbst bei "sehr optimistischen Annahmen" in der BRD maximal 1,3 Mio. 100 Mbit/s-Anschlüsse bereitstellt. Selbst die Firmen, die sich seit Jahrzehnten mit Kommunikation über Satelliten beschäftigen, sehen Konstellationen (allgemein, nicht nur Starlink) skeptisch. Weil die Satelliten, wenn sie erst mal im Orbit sind, die Gefahr von Kollisionen vergrößern, würde ich mir wünschen, das man erst mal einige Jahre mit den beiden Netzen in der Ausbauphase 1 Erfahrungen sammelt, bevor man an einen Ausbau auf 12.000 oder gar 40.000 Satelliten in Betracht zieht. Ebenso wäre es wünschenswert, wenn andere Firmen wie Amazon mit dem Aufbau eigener Netze abwarten, wie sich die beiden Vorteiter schlagen. Denn sind die Satelliten einmal im Orbit, dann bleiben sie dort auch lange.

Zuletzt gibt es auch noch Ärger mit dem Kontrakt beim Lunar Starship. Inzwischen hat Blue Origin gegen die NASA-Entscheidung prozessiert. Inzwischen argumentieren die NASA Rechtsanwälte dahin gehend, das der Prozess es unmöglich machen würde auf dem Mond zu landen „but that it will never actually achieve its goal of returning the United States to the Moon,“. Das passt zu der Kritik an der Auswahl von SpaceX, die nicht nur meiner Ansicht nach nur erfolgte, weil es das billigste Angebot war und die Finanzierung zu gering. SpaceX musste auch eine Reduktion der ersten Rate deswegen hinnehmen. An der Situation hat sich nichts geändert, noch immer hat dieser Teil des Mondenlandeprojektes nicht die Finanzierung erhalten, um selbst das Angebot von SpaceX zu finanzieren. Warum man also einen Auftrag vergibt, wenn selbst der billigste Anbieter nicht finanziert werden kann ist mir ein Rätsel. Sollte man nicht erst mal eine Finanzierung haben? Erinnert mich irgendwie an das Mautdebakel von Andi Scheuer, wo er auch nicht warten wollte ….

Dann noch zu etwas anderem hat primär nicht mit SpaceX zu tun, fängt aber an zu nerven. Es ist das seit einigen Monaten wieder ausgebrochene Wettrennen um Rekorde. Das ging los mit dem Wettrennen Bezos und Branson, wer den ersten Suborbitalflug mit Passagieren durchführt und nebenher noch eines wer von beiden Firmengründern als Erster selbst fliegt. Das ging weiter mit Rekorden im Alter (jüngster / ältester Raumflieger), beide neu verbessert von Bezos Blue Origin.

Die Inspiration4 Mission war ja auch ein Beispiel dafür. Selbst in deutschen Medien wurde hervorgehoben, das nun die erste Protese ins All geflogen ist, oder der erste Mensch mit Protese. Isaakman hat extra das Kommando an Sian Prcotor abgegeben, die damit die erste schwarze Kommandantin eines Raumschiffs wurde – angesichts dessen das dieses völlig automatisch arbeitet, ist das relativ bedeutungslos. Und natürlich war dies der erste Raumflug der nur aus Personen bestand die nicht Angestellte einer Regierungsbehörde sind (Weltraumorganisationen, Militär). Nun setzen die Russen nach und starteten vorgestern eine Besatzung mit einer Schauspielerin und einem Produzenten um einen Film an Bord des russischen ISS-Segments zu drehen. Auch hier kam die Idee dafür erst, nachdem die Ankündigung kam, dass Tom Cruise einen Film an Bord der ISS drehen will. Man glaubt es kaum, mehr als 60 Jahre nach dem Beginn des Weltraumrennens müssen die Russen noch Rekorde vor den Amis aufstellen. Dann noch die Meldung, dass nun William Shatner beim nächsten Flug von Blue Origin mitfliegen wird, Shatner ist 90 und würde damit den erst wenigen Monate alten Altersrekord von Wally Funk mit 82 Jahren brechen.

Das ist wirklich albern. Weltraumfahrt dreht sich um Erkenntnisse, Wissenschaft. Schon die bemannte Raumfahrt an sich haben damit wenig zu tun. Es geht bei Nationen vielmehr um Prestige, mit dem man punkten kann, selbst bei uns, denn die ISS rückt immer dann in den Vordergrund, wenn ein deutscher Astronaut an Bord ist oder seine Mission bevorsteht. Andere europäische Astronauten (wo man doch sonst immer davon redet, dass wir Europäer sind und Europa als Ganzes agieren muss). Aber das Bestreben von Firmen neue Rekorde aufzustellen ist nochmals eine Größenordnung dämlicher, vor allem bei den beiden Suborbitalfirmen. Suborbitalmissionen von Raumfahrtagenturen gab es nur zwei von den Amis, und die waren Erprobungsmissionen des Raumschiffs, die wohl auch entfallen wären, wenn man gleich in den Orbit hätte starten können. Ich sehe das nicht mal als Raumfahrt an. Aber das ist eben das Kindergartenrennen von Milliardären mit zu schwachem Ego.

Eine andere Dimension hat der Film von Roskosmos. Also das ist schon fast dasselbe niedrige Kindergartenniveau, aber auch nicht ungewöhnlich. Kurz vor der ersten US-Amerikanerin Sally Ride startete man Sawizkaja als Kosmonautin zu Saljut 7, obwohl Valentina Tereschkowa, ja schon 20 Jahre vorher die erste Frau im All war. Wahrscheinlich befürchtete man das die USA die aktive Rolle von Ride bei der Space Shuttle Mission hervorheben würden, Tereschkowa war ja nur passiver Passagier. Danach gab es wieder keine Kosmonauteninnen für lange Zeit. Bis heute gab es nur fünf weibliche russische Raumfahrer. Etwas dürftig für ein Land mit 120 Raumfahrern. Allerdings ist Deutschland mit 10 Raumfahrern und keiner Frau da auch nicht gerade ein Vorbild. Wenn mich Roskosmos beeindrucken will, dann baut endlich die Venera D oder die vielen Luna-Nachfolgemissionen, die seit Langem angekündigt und vor allem führt die Mission auch erfolgreich durch – daran hapert es nämlich. Beide Raumsonden, die Russland nach Ende der UdSSR startete, nämlich Mars 96 und Phobos Grunt scheiterten. Aber bisher glänzt Russland vor allem durch Ankündigungen, nicht durch Taten.

12.10.2021:Die Antwort an Jewgeni-7

Jewgnei-7 ist nach mir der fleißigste Blogkommentierer. Leider sind seine Kommentare sehr lang, haben oft wenig mit dem Thema zu tun und ein Mix verschiedener Themen, sodass eine Antwort recht schwierig ist. Ich finde mehrere, kürzere, thematisch eingegrenzte Kommentare besser. Allerdings habe ich die Vermutung es geht weniger um Kommentare, als vielmehr nutzt Jewgeni diesen Blog als Informationsmöglichkeit für Raumfahrtinteressierte. Hier wäre der bessere Weg eines Gastartikels. Ich kann auf Wunsch gerne einen Autorenaccount anlegen, alternativ den langen Kommentar an bl at bernd-leitenberger.de schicken und ich veröffentliche ihn dann.

Zu dem Kommentar zu Ionentriebwerken und der ISS will ich aber noch etwas dazusagen, denn ich vermisse hier einige wichtige Informationen zu den Fakten. Jewegenis-7 Originaltext ist in fetter Schrift, es ist nur ein Teil, der Rest bezieht sich auf das Budget von Roskosmos.

Kein VASIMR-Triebwerk für die ISS ?

Schon vor Jahren wollte die NASA elektrische Triebwerke auf der ISS einsetzen, auch Roskosmos plante elektrische Antriebsmotoren, die Jod als Arbeitsmedium verwenden. Im Sommer 2018 hat die russische Anlage Bodentests bestanden. Fakten haben aber die Chinesen mit ihrer neuen Raumstation und Ionentriebwerken geschafft.

Ein Ionenantrieb kann im Prinzip jeden Stoff als Arbeitsmedium nutzen, da keine chemische Reaktion stattfindet. Verbindungen, die bei der Ionisation reagieren können, werden aber nicht eingesetzt, übrig bleiben die Elemente. Ein guter Treibstoff hat folgende Eigenschaften:

Bisher verwendet man Xenon das gasförmig ist und eine hohe Molekülmasse hat, aber eine hohe Ionisierungsenergie hat. SpaceX verwendet das nächstniedrigere Edelgas Krypton, das wegen der kleineren Masse nicht so optimale Werte hat, aber erheblich billiger ist. Für die kleinen dV Manöver der Starlinksatelliten ist das ohne Bedeutung. Erheblich billiger sind Stoffe wie Iod oder Cäsium. Iod ist leicht sublimierbar, Cäsium leicht in den flüssigen Zustand überführbar. Beide haben eine hohe Molekülmasse und niedrigere Ionisierungsenergie. Iod wird soweit ich weiß, aber vor allem für Mikroschubtriebwerke erprobt.

Wie schon kurz berichtet, die von China im Bau befindliche Orbitalstation Tiangong wird dank vier Hall-Effekt-Ionentriebwerken - das sind LHT-100-Triebwerke mit einem Schub von 80 mN - in einer bestimmten Umlaufbahn gehalten. Für die Wartung der Tiangong-Station werden beispielsweise weniger als 400 kg Treibstoff, während die ISS etwa 4 Tonnen Treibstoff benötigt, um sie pro Jahr im Orbit zu halten.

In einem korrekten Vergleich wären einige Parameter zu erwähnen wichtig, die hier leider komplett fehlen. Wie viel Treibstoff und Schub eine Station benötigt hängt ab:

In zwei der drei Punkte liegt die ISS um den Faktor 15-17 höher, sodass mir 400 kg Treibstoff als relativ viel erscheint und ich annehme das es sich nur um chemischen Treibstoff handelt. Die ISS mit ihrer viel größeren Masse und viel größeren Solarpaneelen käme ja mit rund 300 kg pro Jahr bei reinem Einsatz von Ionentriebwerken aus. Ebenso sind die 320 mN Schub (die ISS benötigt wie im Artikel geschrieben etwa 700 mN) als deutlich überdimensioniert, ich vermute aber es wird immer nur ein Triebwerk eingesetzt, da die vier Triebwerke bei einer Lebensdauer von 6240 Stunden ja für 15 Jahre den Orbit aufrechterhalten sollen und das wäre sonst nur eine Betriebszeit von 400 Stunden pro Jahr.

Ein geschlossenes Institut in Shanghai beschäftigt sich mit der Entwicklung vielversprechender Ionentriebwerke in China. Für Flüge in den Weltraum und zum Aufbau von Transportverbindungen zu Mond und Mars werden vielversprechende Hall-Effekt-Ionentriebwerke mit einer Leistung von 5 MW bis 500 MW entwickelt. Ein Testlauf des HET-3000-Triebwerks über 8.240 Stunden zeigte, dass die neuen Triebwerke in der Lage sind, das für Langstreckenflüge notwendige Antriebssystem mindestens 15 Jahre lang zu betreiben.

Nur hat das HET-3000 Triebwerk nichts mit diesen Antriebsleistungen zu tun. Es ist nach einem PDF ein Triebwerk mit einer Spitzenleistung von 2,5 N Schub, einem spezifischen Impuls von 2800 s und maximal 50 kW Leistungsaufnahme. Getestet wurde es aber bisher mit maximal 15 kW Leistung. Siehe http://www.aerospacechina.org/EN/abstract/abstract324.shtml#1

onentriebwerke haben jedoch auch einen irreparablen Schwachpunkt - die Strahlruderelektroden befinden sich innerhalb des Hochtemperatur-Plasmastroms, was dessen Ressourcen begrenzt. Das bisher fortschrittlichste Ionentriebwerk der NASA, NEXT, hat einen spezifischen Impuls von 41,9 km / s. Doch für solche Rekordparameter müssen Ionentriebwerke mit geringem Schub zahlen – NEXT liefert nur 327 mN (32,7 Gramm Schub) bei einer Leistungsaufnahme von 7,7 kW.

Das ist nicht korrekt. Es hängt von der Technologie ab, welcher Teil des Triebwerks der Schwachpunkt ist. Bei der in Deutschland entwickelten Radiofrequenzionisation ist das für die Lebensdauer limitierende Teil nicht die Elektrode, sondern das Austrittsgitter und das wird weitaus weniger stark erodiert, Entsprechend sind RIT Triebwerke für mindestens 20.000 Stunden Betrieb qualifiziert während als allgemeiner Standard 10.000 Stunden gelten und die obigen Triebwerke von China sogar nur 6.240 Stunden erreichen. Ebenso stimmt die Angabe des Rekordhalters nicht. HIPEP hat 39,3 kW Leistungsaufnahme, 670 mN Maximalschub und einen spezifischen Impuls von bis zu 9620 s.

Für Marsflüge muss der Schub der Plasmatriebwerke natürlich in Hunderten Kilogramm gemessen werden, nicht in Hunderten Gramm. Beeindruckend sollte auch die Stromquelle an Bord eines solchen hypothetischen Mars-Raumschiffs sein – sie sollte eine Leistung von etwa 200-400 MW haben.

Ionentriebwerke werden für Marsmissionen nur eine ergänzende Rolle spielen. Das liegt an zahlreichen Punkten. Zum einen kann der chemische Antrieb das Gravitationspotenzial der Planeten ausnutzen und so die benötigte dv Änderung verringern. Chemisch braucht man, um von einer Fluchtbahn in eine exzentrische Marsumlaufbahn zu gelangen, nur rund 1600 m/s, mit dem Ionenantrieb sind es über 6000 m/s. Damit sich Ionentriebwerke wirklich lohnen, müssten sie praktisch vom Leo ausgehend alle Manöver durchführen, damit dann aber die Reisezeiten erträglich bleiben und in der Erdumlaufbahn die Van Allen Strahlengürtel schnell passiert werden sind dann wirklich hohe Leistungen wie oben skizziert nötig. Dann geht aber das für chemischen Treibstoff eingesparte Gewicht für die Stromversorgung drauf.

Noch gravierender: Ionentriebwerke sind nicht beliebig verkleinerbar. Die Fläche die sie benötigen wird bestimmt von der maximalen Feldstärke am Ausgang. Gängige Ionentriebwerke liegen hier bei maximal 4 N/m². Setzt man die Fläche eines typischen ISS Moduls an, so erhält man einen Schub von 60 Newton, entsprechend einer Leistungsaufnahme von rund 2 MW. Es gibt schlicht und einfach nicht den Platz für die Triebwerke mit Leistungsaufnahmen von 200 bis 500 MW. Daher forscht die NASA an Triebwerken mit einem höheren spezifischen Impuls, auch wenn dann der Schub sinkt, da dieser bei gleicher Feldstärke durch eine höhere Spannung erreicht werden kann. HIPEP ist so ein Ansatz. In Europa hat man zumindest theoretisch die Hintereinanderschaltung zweier Beschleunigungsstufen untersucht und meint, das dies möglich ist, sie käme, dann auf 196 km/s wobei die Fläche nicht größer wäre als bei einem Triebwerk mit 30 oder 40 km/s spezifischem Impuls. So werden Ionentriebwerke nur eine ergänzende Rolle spielen, um die Reisedauer leicht zu reduzieren oder etwas vom chemischen Treibstoff einzusparen.

Für die ISS war schon lange ein kleines VX-200SS-Plasmatriebwerk zum Testen vorgesehen. Auf einer Station installiert, ist es möglich, die Kosten für die kontinuierlichen Bemühungen zur Aufrechterhaltung der ISS-Umlaufbahn drastisch zu reduzieren. Immerhin benötigt ein Plasmatriebwerk nur 1-2% der Arbeitsflüssigkeit im Vergleich zu einem Flüssigtreibstoff-Raketentriebwerk, das heute zum Anheben der ISS-Umlaufbahn verwendet wird.

Ad Astra Rocket hat im Jahr 2015 Verträge mit der NASA abgeschlossen, damit das Unternehmen umfangreiche Tests seines VASIMR-Triebwerks durchführen konnte. Ziel war es, 2018 den Dauerbetrieb eines 100-Kilowatt-VASIMR-Plasmamotors zu testen. In seiner aktuellen Ausführung ist der Motor mit 200 Kilowatt auf optimale Leistung ausgelegt. Das in Entwicklung befindliche Gerät basiert auf dem Gesamtkonzept des VX-200, besteht aber aus zwei nahezu parallelen Motoren mit je 100 Kilowatt und einen spezifische Impuls von 5.000s.

Aber die Installation von VASIMR auf der ISS erwies sich als alles andere als einfach. Die gesamte verfügbare elektrische Leistung auf der ISS beträgt weniger als 200 kW, obwohl die Station heute die beeindruckendste Fläche von Sonnenkollektoren hat und das energetisch stärkste Objekt der Menschheit im Weltraum ist. Daher umfasste das ISS-VASIMR-Projekt auch ein ganzes zusätzliches System von Solarbatterien, die stundenlang Energie für 15-minütige Zyklen des Einschaltens des Plasmamotors akkumulieren.

Die NASA hat aber beschlossen, die Tests des VASIMR abzubrechen, da die Wissenschaftler noch nicht in der Lage waren, die Stromquelle zu finden, mit der dieses Triebwerk funktionieren würde. Die vielversprechendste Energiequelle könnte eine Nukleare Anlage sein, aber ihre Verwendung auf der ISS könnte unsicher sein.

Der nächste, naheliegende Schritt nach den Tests auf der ISS, wäre der Einsatz von VASIMR für einen Orbitalschlepper. Um dieselbe Aufgabe wie die dritte Stufe von Saturn-5 zu erfüllen, die auf ihrem Weg zum Mond 60 Tonnen Sauerstoff und Wasserstoff verbrannte, hätte ein solcher Schlepper nur 8 Tonnen Argon verbraucht. 1,5 MW Strom aus Sonnenkollektoren zu gewinnen, ist jedoch immer noch eine sehr schwierige Aufgabe. Um 1,5 MW Strom zu bekommen, benötigt der Schlepper etwa 5.000 m² Sonnenkollektoren, ein Quadrat mit einer Seitenlänge von 71 Metern.

VASIMR hat gegenüber seinen Konkurrenten aus der gesamten Elektroantriebsmühle noch einen weiteren Vorteil: Bei ihm kommt das Plasma an keiner Stelle mit den Apparateteilen, sondern nur mit den Feldern in Berührung. Das bedeutet, dass das Gerät von Ad Astra viele Monate und sogar Jahre ohne Zerstörung der Struktur arbeiten kann - was benötigt wird, um Raumschiffe auf ihrem Weg in die Tiefen des Sonnensystems zu beschleunigen oder die Umlaufbahn von Satelliten zu korrigieren.

Fakt: Klassische Ionenraketentriebwerke haben einen wunden Punkt - die Erosion der Gitterelektroden. VASIMR hat solche einfach nicht.

Nö VASIMIR hat einen fundamental anderen Nachteil: Man benötigt den ganzen Strom der ISS, um es auch nur kurzzeitig zu betreiben. Batterien aufladen für die Nachtseite oder andere Verbraucher gehen dann nicht, wenn die ISS selbst bisher nur 120 kW Leistung liefert. Das Triebwerk ist einfach um den Faktor 10 zu groß für die Aufgabe. Wie im Artikel beschrieben reichen rund 20 kW für die Bahnerhaltung aus. Mit Radiofrequenzionisation arbeiten auch die RIT Triebwerke. Für 10 Jahre Betrieb der ISS würde man redundante Triebwerke benötigen, aber selbst die wiegen dann nur 82 kg und nicht 2,6 t wie der VASIMIR-200 Antrieb. Kurz: für die ISS VSS-200 bringt er keine Vorteile, nur Nachteile und auch für die aktuelle Marsreferenzmission denkt die NASA an kleinere Antriebe der 10 – 20 kW Klasse.

Australische Wissenschaftler wollten 2017 einen Neumann Drive-Motor auf der ISS testen. Dieses Triebwerk ist wie seine engsten Gegenstücke hocheffizient, aber sein Hauptunterschied besteht darin, dass es verschiedene Metalle als Treibstoff verwenden kann. Auf der Liste der Kraftstoffe ganz oben steht Molybdän, ein Schwermetall mit hohem Schmelzpunkt.

Wieder eine Variante des Ionenantriebs, diesmal eine der elektromagnetischen Technologie, bei der man einen Plasmaantrieb mit einer Beschleunigungsstufe kombiniert, so hat man den spezifischen Impuls dieses Antriebs gesteigert. Ansonsten hat diese Technologie aber nur Nachteile. Die Plasmaerzeuegung benötigt viel Energie, damit sinkt der Wirkungsgrad und durch den Lichtbogen werden die Elektroden schnell erodiert, die Lebensdauer ist daher gering. Der Name hat übrigens nichts mit dem bekannten Mathematiker zu tun, sondern dem namensgleichen Erfinder.

Wahrscheinlich werden aber die ISS Triebwerke, das sind die DKS, DPS und DTS, die Anfang der 70er Jahre entwickelt wurden und für heutige Zeiten wenig effektiv sind, weiter ihren Dienst tun.

Sicher, weil man nur am russischen Segment für Bahnänderungen andocken kann und nach Ausmustern des ATV sind das nur die Progress und die wurden eben in den Siebzigern entwickelt.

Ich vermisse im Kommentar eine Einordnung und Diskussion der Konzepte, vor allem aber das bei den meisten angeführten Technologien man sich auf einem niedrigen Technologiestand befindet, das heißt sie vom operativen Einsatz weit entfernt sind.

20.10.2021: Gehäuse

Auf mein heutiges Thema kam ich, weil ich nach einem neuen PC suchte, der auch Windows 11 geeignet ist. Was Windows 11 mit Gehäusen zu tun hat? Dazu am Schluss mehr. Das Thema heute ist die Entwicklung eines Teils des PC, der gerne vergessen wird – das Gehäuse. Das liegt irgendwie auf der Hand. Ist das Gehäuse doch eigentlich nur ein Blechkasten oder ein Plastikformteil. Es enthält keine Elektronik und ist mit Sicherheit das langlebigste aber auch langweiligste am PC. Ich will die hidrotische Entwicklung mal skizzieren.

Der erste PC war bekanntlicherweise der Altair 8800. Und auch er hatte ein Gehäuse. Das war nicht selbstverständlich, denn es wurden damals auch viele Mikroprozessor Lernkits verkauft, wie der KIM-1, in Deutschland der Micro Professor und als berühmtester Rechner ohne Gehäuse – der Apple I. Da Letzterer ohne Gehäuse und Tastatur nicht verkäuflich war, lies der Händler, die „Byte“ Computerkette eigens für ihn ein Gehäuse aus Holz fertigen.

Beim Altair war das Gehäuse wirklich ein Gehäuse. Es hatte hinten keine Öffnungen für Schnittstellen, nur eine für das Stromkabel. Vorne war die „Tastatur“ eingebaut – eine Reihe von Kippschaltern, mit denen man binär die Daten auf den Datenbus legen konnte. Das war schon komisch, denn es gab in dem Gehäuse einen Bus der bis zu 22 Karten aufnehmen konnte und natürlich waren einige davon Schnittstellenkarten - für Fernschreiber, Papierstreifenleser, später Diskettenlaufwerke oder sogar eine Videokarte.

Doch die PC entwickelten sich weiter. Es kamen zuerst Tastaturen auf. Dann Anschlüsse um Monitore oder TV-Geräte anzuschließen. Als Speichergerät etablierte ich im preiswerten Segment der Kassettenrekorder, im professionellen die Diskettenlaufwerke. Computer zum Spielen hatten Joystickanschlüsse. Dazu kamen Druckerports und Erweiterungsbusse oder Userports. Selbst wenn es keine Karten zur internen Erweiterung gab, ergab sich die Forderung ein Gehäuse zu haben mit Aussparungen für die Schnittstellen. Um den Kabelsalat zu reduzieren, kam auch die Idee auf ins Gehäuse doch gleich etwas zu integrieren, meistens die Diskettenlaufwerke.

Es etablierten sich zwei Architekturen. In der einen waren Tastatur und Gehäuse eine Einheit. Alle Heimcomputer arbeiteten nach dem Prinzip. Die Platine passte in das Tastaturgehäuse und hinten und an der Seite gab es die Anschlüsse. Das war aber nicht auf einfache Rechner beschränkt, auch der Apple II, der mit Karten erweiterbar war, arbeitete nach dem System. Das war nur möglich, weil Stephen Wozniak es fertigbrachte, auf vergleichsweise kleinen Karten wichtige Funktionen wie den Diskettenkontroller unterzubringen. Diskettenlaufwerke musste man dann extern anschließen. Der Vorteil dieses Systems war auch das man so nach und nach das System erweitern konnte und anfangs eben nur Fernseher und Kassettenrekorder nutzte.

Die zweite Lösung waren Geräte, bei denen die Tastatur separat war und das Gehäuse separat, damals war meistens aber noch der Monitor mit dem Diskettenlaufwerk verheiratet. Die Tastatur war so abtrennbar und konnte flacher und ergonomischer werden, auch wenn sie bei vielen Rechnern ziemlich dick war. Sehr beliebt war aber keine getrennte Tastatur, sondern sie saß am Monitor mit Gehäuse fest angebracht, so z.B. bei der CBM Serie von Commodore.

Die heutige Architektur – das Gehäuse beinhaltet die Massenspeicher und Karten, Bildschirm und Tastatur sind getrennt, verbindet man meist mit dem IBM PC, weil dies ein sehr prominenter PC war, der diese Architektur einsetzte, sie wurde vorher aber schon bei anderen PC eingesetzt.

Was in der Folge sich etablierte, war das die Gehäuse immer größer wurden. Der IBM PC hatte ein „Desktop-Gehäuse“. Das Gehäuse wurde auf den Schreibtisch gestellt, darüber meist der Monitor. Damit man nicht nach oben schauen muss, war die Höhe des Gehäuses beschränkt. IBM orientierte sich an der Höhe von 5,25 Zoll Diskettenlaufwerken voller Höhe. Als Alternative etablierte sich bald dann das Tower-Gehäuse das man hochkant auf den Tisch oder besser daneben stellte. Während die Laufwerke aber kleiner wurden – sehr bald kamen Laufwerke mit halber Höhe auf, dann löste das 3,5 Zoll Format das 5,25 Zoll Format ab - auch bei den Festplatten, sodass es Ende der Achtziger Jahre sogar Karten mit Festplatten zum Nachrüsten gab, wurden komischerweise die Gehäuse immer größer. Es folgte auf das um 90 Grad gedrehte Desktop-Gehäuse, das zum „Mini-Tower“ mutierte, das Miditower Gehäuse und das Big-Tower Gehäuse. Ein Big Tower Gehäuse war fast so hoch wie der Schreibtisch und bot Platz für bis zu 10 Laufwerken. Ich betrachte das in der Retroperspektive als Paradoxon. Warum? In der damaligen Zeit entwickelte sich der PC schnell weiter. Nach einigen Jahren hatte ein neuer PC die mehrfache Leistung des vorhandenen. Ein Gehäuse mit vielen Einschüben ist aber gedacht dafür einen PC aufzurüsten mit Laufwerken. Also wenn eine Festplatte voll ist, baut man die nächste ein. Das war damals aber nicht billig, Festplatten kosteten noch viel mehr als heute, und da der Computer selbst sich nicht änderte, war er nach einigen Jahren auch langsam verglichen mit einem neuen Computer. Doch damals kaufte man sich sicher nicht ein neues Mainboard um es zu den alten Festplatten ins Big Tower Gehäuse einzubauen, auch weil Festplatten genauso schnell an Kapazität zulegten. Im Komplettpaket war ein neuer Rechner schon damals billiger als die nachträgliche Aufrüstung. Dazu kam, dann noch das die Hauptplatine immer kleiner wurde. Auf das AT-Format folgte das ATX-Format, seitdem gab es noch weitere Formate wie ITX, die noch kleiner waren. Im großen Big Tower Gehäuse war die Platine dann schließlich ziemlich klein und der meiste Platz war leer. Meiner Ansicht nach haben die meisten ein Big Tower Gehäuse nur aus ergonomischen Gründen gekauft – man kann es neben den Schreibtisch stellen und der Zugriff auf die obersten Laufwerke wie Diskettenlaufwerke oder CD-ROM war so in bequemer Höhe ohne das man sich bücken musste.

Was verschwand und was ich nie verstand, waren zwei Features – der Keylock und die Turbo-Taste. Beginnend mit dem IBM AT gab es im Gehäuse vorne ein Schlüsselloch mit einem einfachen Schlüssel, einfach nur ein Zylinder mit einigen Aussparungen. War der Schlüssel gedreht oder abgezogen, so konnte man den Computer nicht starten und zumindest beim IBM AT war so mechanisch auch das Gehäuse so verriegelt. Der Schlüssel selbst schaltete nur eine Leitung auf dem Mainboard die beim Booten abgefragt wurde. Ich verstand das nie. Denn der Schlüssel war eigentlich ziemlich popelig und dem Preis des Computers nicht angemessen. Es war aber ein und derselbe Schlüssel bei jedem AT. Hatte man also einen Schlüssel, konnte man den „Schutz“ bei jedem AT aushebeln.

Etwas später kam dann die „Turbo Taste“. Die findet man heute nur noch bei Handmixern. Turbo-Taste klingt ja toll, das klingt nach Übertaktung, nach mehr Geschwindigkeit. Dabei war genau das Gegenteil der Fall. War die Turbo Taste aus, so arbeitete der Computer mit der Frequenz des IBM AT mit 8 MHz, war sie ein, so arbeitete er mit der Taktfrequenz, mit der er eigentlich laufen sollte. Anstatt Turbo Taste hätte man sie eigentlich „Slow-Taste“ nennen müssen. Der Sinn und Zweck war Software, die davon ausging, dass die Taktfrequenz genau 8 MHz betrug, weiterhin funktionierte. Ich kannte eigentlich nur Spiele der ersten Generation, die bei schnelleren Rechnern dann unspielbar war, denkbar wären auch Messsysteme, die nicht den Systemtimer, sondern einen Interrupt benutzten. Der springende Punkt ist aber: wer sich einen Rechner mit 33 MHz kauft der noch dazu keinen 286-Prozessor hat (386 und 486-er führten Befehle schneller aus, sodass hier der Systemtakt noch weniger als Kriterium taugte) der wird ihn sicher nicht mit 8 MHz betrieben wollen, eher kauft er sich auf dem Flohmarkt für seine alte Software einen AT mit 8 MHz zusätzlich.

Mit dem Big Tower war die Spitze erreicht, seitdem wurden die Gehäuse kleiner. Lange Zeit die Norm waren nun das Miditower Gehäuse, nun vorgegeben nicht mehr durch die Zahl der Laufwerke und die Größe der Hauptplatine als vielmehr durch den Lüfter, der immer größer wurde. Es begann beim 486, mit einem kleinen Lüfter von weniger als 1 cm Höhe auf dem Prozessor ab 25 MHz Frequenz. Je schneller die Prozessoren wurden, desto mehr Abwärme musste entfernt werden und die Lüfter wurden riesig. Die Spitze wurde mit dem Pentium 4 erreicht, bei dem der Lüfter – unter einem kiloschweren großen Kühlkörper – 130 Watt Abwärme abführen musste. Seitdem ist die Wärmeabgabe wieder gesunken. Da die gesamte elektrische Leistung letztendlich in Wärme umgewandelt wird, kann man aus der Thermal Design Power (TDP) ableiten, wie viel Wärme das Kühlsystem abführen muss. Heute gibt es natürlich auch noch Prozessoren mit hoher TDP für Workstations und Server, aber im Desktop-Bereich liegt die TDP zwischen 35 und 65 Watt. Damit kann das Kühlsystem kleiner werden und auch das Gehäuse.

Ein Big Tower Gehäuse hatte ich nur einmal, bei einem Rechner, den ich 1999 kaufte, seitdem setze ich Midi-Tower Gehäuse ein, die typisch vier bis sechs Laufwerkschächte haben, darunter, zwei bis drei 5,25 Schächte – die braucht man für optische Laufwerke, für sonst nichts mehr heute und drei bis vier 3,5 Zoll Schächte, die man für Festplatten in Standardgröße braucht. SSD für den Einbau haben typisch nur noch 2,5 Zoll Größe, damit passen sie auch in Notebooks und brauchen dann einen Schlitten für den 3,5 Zoll Einschub, und bei heutigen neuen PC gibt es gar keine Laufwerke mehr, sondern die SSD steckt auf einer kleinen Platine (M.2 SSD), die auf dem Mainboard angebracht wird.

Seit dem Mac Mini gibt es aber auch noch kleinere Computer, von Intel z.B. die NUC-Serie. Bis zu einer bestimmten Größe oder besser Kompaktheit geht das noch mit normaler Technik, ganz kleine Rechner gehen nur noch mit Mobilprozessoren und dann auch den entsprechend kleinere S0-DIMM für RAM. Noch kleiner sind „Bastelcomputer“ wie der Raspberry Pi, die dann auch ohne Kühlung auskommen und nur noch so groß sind wie eine Zigarettenschachtel.

Möglich wurde das nur, weil auch die Schnittstellen kleiner wurden. Auf dem Platz, den früher eine paralelle Schnittstelle nach Centronics Standard mit rund 50 Pins, jeder einige Millimeter dick einnahm, bekommt man heute problemlos sechs USB-Ports unter. Ebenso breit waren auch Schnittstellen für Diskettenlaufwerke, serielle Schnittstelle oder VGA-Karte. Trotzdem haben Kleincomputern relativ wenige Buchsen, einfach weil wenig Platz ist. Doch das ist kein Nachteil, denn anders als frühere Rechner kann man die Schnittstellen extern vervielfachen – zumindest bei USB. So haben die Rechner viel mehr Schnittstellen als früher, und die braucht man auch. Ich habe mal nachgezählt, wie viele USB-Ports ich dauerhaft belege: es sind acht: Tastatur, Maus, externe Festplatte, Drucker, Scanner, Kartenleser, Ladekabel mit Mikro-USB und Mini-USB Anschluss dazu kommt ab und an noch ein USB Stick. Das geht bei mir nur mit einem externen USB Hub. Der Vorteil von ganz kleinen Rechnern ist, dass man sie hinten an den Monitor schrauben kann und sie dann praktisch unsichtbar sind. Ansonsten machen meiner Ansicht nach ganz kleine Rechner wenig Sinn. Sie sind teuer durch die Notebooktechnik, aber langsam und was man an Platz beim Rechner einspart, geht dann für den USB-Hub wieder drauf. Sinnvoller sind dann eher flache aber breite Rechner, die man unter den Monitor schieben kann. Ich habe mir so einen für mein Ferienhaus gekauft, ein HP Elitesdesk 800, allerdings gebraucht gekauft, weil ich ihn primär bauche um dort zu surfen, Mail abzurufen und Textverarbeitung zu betreiben. Das Gerät war leicht und kompakt genug um es im Rucksack zu transportieren. Der Nachteil: alle diese Rechner haben keinen Platz für Slots und meist auch nur für ein Laufwerk. Allerdings ist die Bedeutung von Karten immer geringer geworden, bei den ersten Computern wie dem Apple II oder IBM PC benötigte man noch für viele Funktionen, die heute auf dem Motherboard integriert, sind Karten – für parallele und serielle Schnittstelle, Ansteuerung eines Monitors, Echtzeituhr, Joystick, 80 Zeichendarstellung, Betrieb von Diskettenlaufwerken oder gar Festplatten. Heute ist eigentlich nur noch die Grafikkarte übrig geblieben, auch wenn es natürlich jede Menge Karten gibt, aber mehr als eine Grafikkarte wird in 90 % aller Rechner nicht stecken. Schwerer wiegt, das meist auch nur ein Laufwerk verbaut werden kann. Dann geht schon die Kombination einer SSD für Betriebssystem und einer Festplatte für umfangreiche Daten nicht.

Insgesamt sind Computer heute kleiner geworden. Standardfaktor ist heute wieder das Desktopformat, allerdings meist gedreht um 90 Grad als Minitower. Für meinem Bruder kaufe ich Standardhardware, während ich selbst mir den Rechner zusammenstelle. Die beiden letzten Rechner waren beide in diesem Format von Medion und Fujitsu.

Was hat das nun mit Windows 11 zu tun? Windows 11 stellt relativ knackige Hardwareanforderungen, pikanterweise erfüllt selbst eines von Microsoft Surface Notebooks diese nicht. Während ich mit Prozessor und Treiber keine Probleme bei dem neuen Rechner sehe, ist ein Punkt das TPM. Das ist ein Modul auf dem Mainboard, das als sicherer Speicher dient und Windows 11 will zwingend ein TPM 2.0 (bevor jemand anfängt zu kommentieren – man kann Windows 11 auf einem Rechner ohne TPM installieren, doch Microsoft behält sich vor, diese Systeme irgendwann nicht mehr zu unterstützen, was für mich keine Option ist). TPM befinden sich bei allen namhaften Marken auf den Rechnern und sind aktiviert. Wenn man wie ich bisher seinen Rechner zusammengestellt hat, muss man dann bei jedem Mainboard nachschauen, ob ein TPM drauf ist. Die Zeitschrift ct‘ hat Windows 11 schon als Gefahr für die Selbstschrauber bezeichnet, das gilt wohl auch für zahlreiche Händler, die ihren Kunden es ermöglichen den PC individuell aus verschiedenen Komponenten zusammenzustellen.

Mein geliebtes Miditower Gehäuse gibt es aber bei den größeren Herstellern nicht mehr. Vor einigen Jahren wäre das für mich noch schlimm gewesen, in meinem jetzigen Rechner befinden sich vier Laufwerke – zwei festplatten, eine SSD und ein DVD-Brenner. Bei den meisten Minigehäusen passen nur noch zwei rein. Beim Nachdenken erkannte ich aber das mir das eigentlich reicht. DVD benutze ich nur noch selten und wenn dann kann ich sie extern über USB anschließen. Ebenso ist mit USB 3.0 eine externe Festplatte genauso schnell wie eine interne – wobei ich seit 2018 aber ein NAS für das Speichern nutze und die externen Fstplatten nur ab und an für Backups angeschlossen werden. So käme ich mit zwei Laufwerken aus.

Für das Mini-Tower Gehäuse kann ich mich trotzdem nicht begeistern. Es würde wie bisher neben dem Schreibtisch stehen aber ich müsste mich tief bücken, um die oberen USB-Anschlüsse zu erreichen oder auch den Ein-/Ausschaltknopf. Für Rechner im Büro, die nicht großartig intern aufgerüstet werden, sehe ich zwei Bauformen als Ideal. Will man den Schreibtisch wirklich aufgeräumt haben und benötigt man den Rechner nur für übliche Programme im Büro wie Office- oder Internetanwendungen so ist ein an den Monitor anschraubbarer Minirechner ideal. Mit Funkmaus und Funktastatur gibt es dann nur noch das Ethernetkabel. Flexibler ist ein flacher, aber breiter Rechner – ein 24 oder 27 Zoll Monitor nimmt ja auch leicht 50 cm in der Breite ein – den man als Monitorstandfuß nutzen kann, damit dieser in ergonomischer Höhe liegt. Ist das Gehäuse ausreichend hoch, passt sowohl ein ausgewachsener Kühler rein, wie auch flache Karten. Durch die Breite gäbe es auch genügend Platz für mehr als zwei Laufwerke. Vorteil: Die USB-Anschlüsse hat man dann direkt vor der Nase, anstatt neben dem Schreibtisch oder hinter dem Monitor fummeln zu müssen.

Ich persönlich habe mich entschlossen mit dem Neukauf eines PC zu warten. Mein derzeitiger PC aus dem Jahre 2014 tut es von der Leistung her noch gut, hat aber seine Mucken. Zwei USB-Ports funktionieren nicht mehr richtig, angeschlossene Peripherie wird mal nicht erkannt oder verabschiedet sich während des Betriebs. Daneben gibt es alle paar Monate echte Abstürze mit eingefrorenem Bildschirm ohne Blue Screen. Mein Mittel dagegen ist es den Rechner dann aufzumachen, alle Verbindungen nochmals eindrücken, obwohl niemals was locker war und abzusaugen, wobei es Staub nur am Netzteillüfter gibt, wenn man das regelmäßig macht. Dann läuft er wieder störungsfrei für einige Monate. Derzeit ist wegen der Komponentenpreise kein Neukauf ratsam. Prozessoren und Grafikkarten kosten leicht das doppelte dessen, was der Hersteller als Listenpreis ausweist (Prozessoren) oder vor einigen Monaten noch normal war. Ich warte auch mal ab, was die ct‘ als Bauvorschlag dieses Jahr präsentiert. Zum Jahresende stellt sie immer zwei oder drei PC vor die aus Komponenten selbst zusammengestellt werden und die Gebiete Office, Gamer oder Sparsam abdecken.

Wenn man von Gehäuse spricht,. Dann kommt man an Apple nicht vorbei. Es gab zwar immer wieder auch andere Computer die einfach schick oder stylish aussahen, aber Apple hat über Jahrzehnte hinweg viel Wert auf Design gelegt. Beim Apple II hat man einen Designer Hartmut Esslinger beauftragt, das war damals außergewöhnlich, schaut man sich die Rechner der damaligen Zeit an, wie z.B. die ungefähr zur gleichen Zeit erschienen Konkurrenten TRS-80 und Commodore PET. Das Apple II Gehäuse war schick, wenn auch nicht ergonomisch wegen der Tastatur in dem Gehäuse das durch die Aufnahme von Karten relativ hoch war. Bei der Neuauflage Apple IIC hat man das korrigiert. Beim Mac war das Gehäuse auch Teil des Konzepts. Der Computer sollte freundlich sein und in der Tat wirkt der Mac auch sehr niedlich. Das ging aber auf Kosten der Hardware. Ihn zu erweitern war durch das Gehäuse, in dem auch der Monitor integriert war kaum möglich. Dabei war er ziemlich teuer, was auch dazu führte, dass Apple sehr bald mit dem Mac Verluste macht. Es gäbe noch etliche Macs zu erwähnen, wie die iMacs in Bonbonfarben Ende der Neunziger als Steve Jobs zu Apple zurückkehrte – erneut wurde der ganze Rechner in das Monitorgehäuse integriert, den Mac Mini der erst die Welle der Ultrakompakten Rechner auslöste und ein Mac, der nur ein kleiner Würfel war und eher wie ein Toaster als ein Rechner aussah. Das setzt sich auch bei anderen Apple Produkten fort wie den Ipods oder IPhones. Alles sieht immer schick und meist auch hochwertig aus. Oft aber auch verbunden mit Einschränkungen in der Ergonomie, wie der Ipod Shuffle, der ohne Display und wenigen Tasten eigentlich nur die Stücke entweder in fester oder zufälliger Reihenfolge abspielen kann. Ich denke für das Design ist Steve Jobs wesentlich verantwortlich gewesen. Nicht das er ein guter Designer ist, aber er hat Ideen und bringt andere dazu diese umzusetzen. In der Zeit ohne Jobs näherten sich die Macs denn auch mehr dem Aussehen anderer PC an, und als er wiederkam, änderte sich das. Nur einmal hat Jobs selbst etwas designt. Das war der Apple III. Er war ein Zwitter zwischen ergonomischen Ansprüchen und Vermeidung des Kabelverhaus. Das Gehäuse war vorne abgeschrägt, nahm ein Diskettenlaufwerk auf, endete aber in einer flachen, aber nicht abnehmbaren Tastatur. Auf es konnte man wie beim Apple II den Monitor stellen. Das Problem: Verbunden mit der Integration von Karten, die man beim Apple II zusätzlich einbauen musste und viel RAM war die Hauptplatine durch das zu kleine Gehäuse zu dicht bestückt und die Bestückungsautomaten hatten Probleme die Platine zu bestücken. Zahlreiche Apple III fielen bald aus und das Gerät erwarb sich dadurch bald einen schlechten Ruf. Das war Jobs einziger Ausflug in die Welt als echter Designer und nicht nur Ideengeber. Er hat aber daraus gelernt. Den Fehler Design über Funktionalität zu stellen hat er aber wiederholt. Der NeXT war auch ein stylisher Computer, ihm fehlten aber Hardwarekomponenten, die jeweils für eine Käufergruppe wichtig waren wie Festplatte oder Farbdarstellung.

21.10.2021: Eine kurze Windows Geschichte

Nun da ja Windows 11 als neue Version erscheint, denke ich ist es an der Zeit die Versionen dieses Betriebssystems und seine wechselvolle Geschichte Revue passieren zu lassen. Das gibt es auch ausführlicher auf der Website. Hier ein Artikel über die Entstehungsgeschichte und einer über die Entwicklung der einzelnen Versionen und ihrer Unterschiede.

Als Apple den Macintosh entwickelte beauftragten sie Microsoft mit der Entwicklung von zwei wichtigen Anwendungen: MS Word und MS Excel. Steve Jobs war klar, dass ohne Anwendungen der Macintosh es schwer haben würde, auf der anderen Seite konnte Apple nicht dies auch noch leisten. Damit war Bill Gates mit im Boot. Die grafische Oberfläche war ihm nicht fremd. Er war einer der wenigen Käufer eines Xerox Star, eines Nachfolgemodells des Alto, des ersten grafischen Computers. Nun war sein Team direkt mit Apple in Kontakt und bekam zwangsläufig mit, wie die Oberfläche gestrickt war. Bill Gates versprach, dass das Team das Excel und Word entwickelte, von dem für Betriebssysteme getrennt würde, aber er hielt sich nicht daran und beauftragte Steve Balmer eine eigene Benutzeroberfläche zu entwickeln, die er auch sehr früh ankündigte, den Termin konnte er aber nicht halten. Er war zum Teil mit schuld, weil er dauernd Änderungen wünschte. Eine war, dass die Oberfläche mit der Tastatur bedienbar war – Steve Jobs hatte beim Macintosh sogar die Pfeiltasten auf dem Keyboard eingespart, damit die Leute die Maus benutzten und Softwareentwickler nicht einfach textbasierte Programme schnell übersetzten. Andere waren unumsetzbar, wie die Forderung, dass die gesamte grafische Oberfläche auf Basis von Postscript, also stufenlos skalierbaren Vektorgrafiken basieren sollten.

Als Windows 1.0 endlich im November 1985 mit 19 Monaten Verspätung erscheint – damals im Computerbereich eine halbe Ewigkeit – ist die Begeisterung verhalten. Zum einen stellt Windows hohe Hardwareforderungen. Es sollte auf einem IBM kompatiblen PC laufen, benötigt aber in der Praxis einen PC mit Festplatte und 80286 Prozessor, also die teuersten PC die es Ende 1985 gab. Das Hauptproblem und das sollte noch für mehr als ein Jahrzehnt so bleiben, ist das Windows kein Betriebssystem war, sondern ein Aufsatz auf DOS. Bei der ersten Version ging der von Windows belegte Speicher sogar komplett vom DOS Speicher ab, sodass selbst bei gut bestückten PC zu wenig Speicher für Anwendungen gab. Daneben war es langsam. Waren mehrere Programme aktiv, so ging sogar der Zeiger der Uhr nach. Andere Produkte machten es besser: GEM von Digital Reserch war schneller und lief auch wirklich auf einem PC mit Diskettenlaufwerken und 8086 Prozessor und natürlich war die Oberfläche des Mac besser, sie lief auf dem 68000 Prozessor (vergleichbar mit dem 80286) und die wichtigsten Routinen waren in Assembler kodiert, während Windows in „C“ programmiert war.

Bill Gates schrieb Windows nach enttäuschenden Kritiken und schleppenden Verkäufen schon ab, zumal Apple nun klagte, weil Microsoft doch viele Elemente kopiert hatte, anstatt eine eigene Oberfläche zu entwickeln, wie dies Apple und Digital Research getan hatten. Die nächste Version Windows 2 erschien nur, weil Microsoft Excel und Word auch auf dem PC verkaufen wollte, und dafür mussten sogar noch zusätzliche Elemente von Apple kopiert werden, die diese Programme nutzten.

Windows 2 kann man so als Update von Windows 1 bezeichnen. Es übernahm auch Elemente von OS/2 so den Programm Manager. OS/2 war damals als Nachfolger auserkoren und Microsoft und IBM entwickelten dieses Betriebssystem gemeinsam.

Das Grundproblem von Windows war von Anfang an, dass es ein Aufsatz von DOS war. DOS wurde zuerst installiert, dann Windows und Windows wurde auch von DOS aus gestartet. Mittlerweile hatten viele PC mehr als 1 MByte Speicher, Speicher den Windows nutzen könnte, aber das klappte als DOS Programm nur bedingt. Ebenso konnten DOS-Programme Windows zum Absturz bringen. Seit dem 80286 Prozessor gab es einen zweiten Modus, den Protected Mode, in dem man mehr Speicher nutzen konnte und auch das Betriebssystem vor abstürzenden Anwendungen schützen. Intel hatte aber keinen Weg vorgesehen von diesem Protected Mode zurück in den vorher üblichen Modus des 8086 Prozessors, nun „Real Mode“ genannt, zu kommen. Das war für die Entwicklung ein Nachteil, denn so konnte man Programme, die ja erst mal unter dem bestehenden Betriebssystem im Real Mode entstanden, nicht debuggen. Erst als zwei Microsoftprogrammierer einen Debugger entdeckten, der dies konnte, kam wieder Bewegung in die Entwicklung. Mit dazu trug bei, dass die Entwicklung von OS/2 länger dauerte und komplizierter war als gedacht. Aufgrund der Verzögerung und den Nachteilen des 80286 versuchte Bill Gates auch IBM zu überreden, diesen Prozessor zu überspringen, was ihm aber nicht gelang. Nachdem er eine Demo eines in den Protected Mode übersetzten Teils gesehen hatte, gab er das Okay für eine neue Version, Windows 3. Windows 3 machte in der Nutzbarkeit einen großen Sprung nach vorne. Erneut wurde die Shell ausgewechselt, nun durch den Programmmanager. Er ordnete Programme in Fenstern mit Icons an. Zwei nützliche Features hielt Einzug, das waren frei skalierbare Truetype Schriften (vorher Bitmaps in festen Größen) und OLE, das es erlaubte ein eingebettetes Objekt, z.B. eine Excel-Tabelle in Word mit Excel zu bearbeiten und Word bekam die Änderungen dann mit.

Endlich gab es unter DOS noch viel freien Speicher, wichtig, weil eben die meisten Anwendungen DOS, Anwendungen waren und es gab sogar einen 386 Modus bei dem Windows vor abstürzenden DOS-Fenstern geschützt war. Später reichte Microsoft Netzwerkfähigkeiten nach und eine Schnittstelle mit der man unter Windows 3.x Programme für das 32-bittige Betriebssystem Windows NT programmieren konnte.

Die Verkäufe zogen an, Windows 3 wurde profitabel und gleichzeitig verlief der Fortschritt bei OS/2 nicht so wie gewünscht, während man parallel ein ähnliches Betriebssystem - Windows NT entwickelte und Microsoft beendete die Zusammenarbeit mit IBM. Ich selbst habe sehr lange mit Windows 3.1 gearbeitet, auch noch, als längst der Nachfolger auf dem Markt war und erst mit Windows 98 SE die nächste Version installiert. Das ging sehr gut, auch weil noch viele Programme unter DOS wichtig waren. Ich habe aber nie DOS Programme von Windows aus ausgeführt. In der Erinnerung hatte Windows 3 aber eine Schwäche. Die Ressourcen wurden immer kleiner. Es gab in der Hilfe die Anzeige, wie viel Systemressourcen man frei hatte und die wurden immer kleiner und auch Windows instabiler. Mein Lösung, die heute undenkbar wäre, nach der Installation kopierte ich den gesamten Windows Ordner und restaurierte den alle paar Monate.

Windows 3 war relativ lange die aktuelle Version von 1990 bis 1995, auch weil der Nachfolger Windows 95 auf sich warten lies. Windows 95 war der kommerzielle Durchbruch, bei der die Zahl der PC auf denen es installiert wurde, im ersten Jahr rapide wuchs und letztendlich auch das Ende von DOS einläutete. Windows 95 hat in der Fachwelt eine ganz andere Einstufung als in der Öffentlichkeit. Die Öffentlichkeit sah vor allem die neue Oberfläche – im Fachjargon Shell genant. Teile davon prägen bis heute den Desktop – auch ein Begriff, den Windows 95 einführte, so die Symbole auf dem Desktop, die Taskleiste und das Startmenü. Die Fachwelt sah den Unterbau. Der war immer noch ein DOS Aufsatz, man konnte auch eine DOS Bootdiskette anlegen oder ein Startmenu, das nur bis DOS durchstartete. Vor allem aber waren große Teile des Betriebssystems wie die Vorgänger 16 Bittig. Mit dem 32 Bit Code, der schon vor 9 Jahren mit dem 386 Prozessor eingeführt war, war viel mehr möglich. Programme konnten nicht nur größer werden, sondern es gab auch mehr Schutzmechanismen und virtueller Speicher konnte angesprochen werden. Zum Debakel wurde das für Intel, die ihren Pentium Pro Prozessor daher auf die schnelle Ausführung von 32 Bit Code optimiert hatten und der nun unter Windows 95 sehr langsam lief, obwohl er teurer als der Pentium war. Zum Siegeszug von Windows 95 trug auch die Einführung der Schnittstelle DirectX bei, mit der es einen schnelleren Zugriff auf die Grafik gab und damit waren anspruchsvollere spiele unter Windows möglich. Spiele waren bisher immer noch eine Domäne von DOS. In einem Punkt verspekulierte sich aber Bill Gates – er setzte auf einen eigenen Onlineservice, das MSN, vergleichbar Aol oder Compuserve. Die Leute gingen aber lieber ins Internet.

Mit Windows 95A und B, Windows 98, Windows 98SE (Second Edition) und Windows Millenium renovierte Microsoft mehr und mehr das System, führte z.B. das FAT32 Dateisystem ein, das bis heute bei mobilen Datenträgern eingesetzt wird, schwenkte auch von der Unterstützung des hauseigenen MSN auf das Internet um und integrierte den Internet Explorer ins Betriebssystem. Nach wie vor war Windows aber ein DOS Aufsatz, auch wenn dieses DOS immer schlechter lief und immer schwerer zugänglich war.

Der große Bruch kam mit Windows XP. Bei Windows XP wechselte Microsoft die Codebasis auf die von Windows NT. Windows NT gab es schon seit einigen Jahren. Es war ein reines 32 Bit Betriebssystem für mehrere Nutzer mit Rechten und Privilegien, wie es im Unternehmensumfeld üblich ist, wo ein einfacher Mitarbeiter auch nicht einfach alles am Computer tun darf, wie er will. Windows NT 4 hatte die Shell von Windows 95 übernommen, sodass sich die Versionen im Look annäherten. Es gab auch Server Versionen, damit im Unternehmen Mitarbeiter auf einen zentralen Datenbestand zugreifen konnten und man dezentral Software installieren und aktualisieren konnte. Windows 2000, die letzte Version von NT hatte nun auch eine schickere Oberfläche als die Windows 9x Versionen und sie wurde zur Ausgangsbasis für Windows XP, das beide Zweige ersetzte (daher gab es nun auch Server und 64 Bit Versionen von Windows XP). Um dem Heimanwender den Umstieg einfach zu machen, gab sich Windows XP wie bisher als Ein-User-System. Das erste Konto, das angemeldet wurde, war automatisch das des Administrators und der dürfte wie bisher alles machen. Mir gefiel die Aufmachung von XP in Teletubbie Farben nicht, doch das konnte man mit wenigen Klicks ändern. Windows XP hatte ein langes Leben von 2001 bis 2009, auch weil der Nachfolger Windows Vista zum Flop geriet. Daran waren zwei Gründe schuld. Der Erste war, dass man viel versprach und nicht hielt. Inzwischen hatte sich das Internet durchgesetzt und Sicherheitslücken in Windows und Anwendungen machten Schlagzeilen. Mit Windows Vista sollte das anders werden. Im Vorfeld wurde viel versprochen um gerade die Sicherheit zu erhöhen, wie ein Kernel der geschützt ist und einer der auch kompromittiert werden kann. Schlussendlich fand sich davon aber nichts in Windows Vista, das 2005 erschien. Vielmehr rächte sich das Vorgehen bei der Einführung von Windows XP, den ersten Benutzer ohne Rückfrage zum Administrator zu ernennen. In privat genutzten Rechnern war dies aber der einzige Benutzer. Programmierer hatten sich darauf eingestellt, das sie wichtige Daten in den Programmverzeichnissen unter C:\Programme ablegen konnten. Das betraf nicht nur Hobbyprogrammierer, sondern durchaus auch hochkaratige Software. Ich programmiere in Delphi und selbst Delphi 7, das ein Jahr nach Windows XP erschien, arbeitete so. Von einem Entwicklungstool, dass natürlich für die Erstellung der Programme die Windows Interna genau kennt, erwartet man eigentlich ein konformes Vorgehen mit den Richtlinien des Betriebssystems alles unter C:\Users abzulegen.

Bei Windows Vista war nun aber das erste Akonto ein Benutzerkonto, das keine Befugniss hatte, Programme zu installieren, sondern nur auf sein Benutzerverzeichnis zugreifen kann. Ohne eine Hilfe würden alle Programme die auf C:\Programme nach der Installation schreibend zugriffen nicht mehr funktionieren und auch die Installation neuer Software war so nicht möglich. Die Lösung von Microsoft war es, bei jedem Schritt der Adminstratorrechte erforderte, den Benutzer zu fragen. Das waren in der Praxis so viele Fragen, dass Benutzer sie abnickten, ohne zu lesen und trotzdem sich gestört fühlten. Selbst PC Hersteller installierten es nicht sondern lieber als alte XP, dessen Support so Microsoft verlängern musste.

Mit 2009 erscheinenden Windows 7 hat man aus den Fehlern gelernt. Die in Vista eingeführte neue Oberfläche, Aero wurde noch schöner, vor allem aber wurden die Benutzerabfragen reduziert auf nur noch eine pro Programm. Mir hat Windows 7 sehr gut gefallen, auch die Gadgets, mit denen man sich verschiedene Informationen anzeigen lassen konnte wie Temperaturen im Rechner oder Auslastung, aber auch das Wetter oder Börsenkurse.

Gemäß dem Windows Schweinzyklus – eine gute Version – eine schlechte, war die, nächste Windows 8 wieder ein Reinfall. Microsoft hatte in der Geschichte mehrfach den Versuch gemacht, Windows auch auf kleineren Geräten wie Organizern, Mobiltelefonen, Smartphones oder Tabletts zu etablieren, immer mit eigenen Windowsversionen für diese Geräte. Nun hatte man mit Nokia sogar einen Hersteller dieser Geräte aufgekauft und startete einen neuen Versuch. Bei den Geräten, die mit den Fingern bedient wurden, waren Anwendungen aber bildschirmfüllend, es gab keine Menüleisten und dieses Aussehen erklärte Microsoft nun zum Standard und sprach von „Kacheln“. Damit einher ging eine Renovierung der Oberfläche. Die schönen Farbverläufe und Durchsichteffekte von Windows 7 „Aero“ verschwanden, ebenso die Gagdets. Nur blieb der Erfolg auch mit Nokia im Smartphonemarkt aus, andere Hersteller nutzten das neue Windows gar nicht für Nicht-Computer, auf dem PC fehlten nun aber vertraute Elemente und es sah nicht mehr so schön aus wie bei Windows 7. Wie Vista machen Konsumenten einen Bogen um Windows 8, daran änderte auch ein Update auf Windows 8.1, bei dem die gröbsten Schnitzer ausgeräumt wurden nichts.

2015 versprach nun Microsoft eine Kehrtwende. Windows 10 würde nicht nur wieder zu den Ursprüngen zurückkehren, sondern es gab auch ein Versprechen ab: Windows als ein Service. Wer einmal ein Windows kaufte, der hat es auf Lebenszeit. Bisher war es so das der Support, zu dem natürlich auch Sicherheitsupdates gehören, einige Jahre nach Erscheinen der nächsten Version auslief. Nun bekommt man jedes halbe Jahr eine komplett neue Windows Version, die als Komplettinstallation die alte ersetzt. Das ist ein zweischneidiges Schwert. Im Normalfall eine gute Sache, aber wenn man eine langsame Leitung hat, kann das Herunterladen Stunden dauern. Den Fall habe ich in meinem Ferienhaus, wo bis Jahresende die Leitung 6 Mbit/s hat (man merkt – man ist im Allgäu auf dem „Land“, Mobilfunkempfang ist dort auch Glückssache). Da ich nur zweimal im Jahr für den Großputz da bin und dazwischen der PC nicht für die Gäste zugänglich, bedeutet dass, das ich nach Ankunft den PC starte, Windows Update aufrufe, die neue Version herunterlade und dann kann ich einige Stunden warten, bis sie auch installiert ist. Pünktlich zum Erscheinen von Windows 11 bekomme ich aber eine 50-Mbit-Leitung. Wehren gegen dieses Zwangsupdate kann man sich nicht, nur den Zeitraum, bei dem die neue Version installiert wird, auf bis zu ein Jahr hinausschieben.

Windows 11 macht nun wieder vieles neu. Neue Triebermodelle, zwingend DirectX 12, vor allem aber Anforderungen an sicheren Systemstart und TPM. Anders als bei früheren Versionen kann man nun aber nicht mehr einfach in eine Liste schauen, welche die Systemanforderungen kurz umreist, obwohl die App zur Überprüfung suggeriert das wäre, so (1 GHz Takt, 2 Kerne, 4 GB RA, 64 GB auf dem Massenspeicher). Vielmehr müssen die Prozessoren verschiedene Sicherheitstechnologien unterstützen und die ältesten die dies tun sind von 2017, einige erst 2019 erschienen und bis heute werden von AMD und Intel auch noch Prozessoren verkauft, die nicht alle Anforderungen erfüllen, so hatte die ct‘ kein Problem ein neues Notebook von Lenovo zu kaufen, das beim Windows 11 Test durchfiel und selbst ein gerade mal 1 Jahre altes Microsoft Surface Tablett (also die eigene Hardware) fällt durch den Test durch.

Zu Windows 11 kann ich daher nichts sagen, denn bei mir würde es nicht laufen. Aber eines hat Microsoft schon gebrochen, nämlich das Versprechen, das Windows 10, das letzte Windows wäre und man es auf „Lebenszeit“ hat. Lebenszeit heißt nun bis 2025, denn dann läuft der Servicezeitraum für Windows 10 aus. Nur wer einen Rechner hat der die Systemanforderungen erfüllt kann kostenlos auf Windows 11 upgraden. Das dürften erst Rechner ab 2018 sein. Meiner Ansicht nach spricht viel dafür, dass Windows 11 nach dem Windows Schweinzyklus wieder eine schlechte Version ist.

Noch konfuser ist das Namensschema – zuerst die früher übliche Versionsnummer, an der man auch Fortschritte feststellen konnte, dann mit Windows 95 die Benennung nach Jahreszahlen. Offensichtlich ist Windows nun zur verderblichen Ware geworden. Dann die Zeit mit Eigennamen wie Windows XP (Experience) oder Vista. Dann die Rückbesinnung auf Versionsnummern mit Windows 7, aber das Überspringen der Version 9. Intern ist es allerdings einfacher:

Bis dahin waren die internen Versionsnummer ehrlicher und man erkennt jenseits von offiziellen Namen auch die Verwandtschaft der Versionen. Es gab bis dahin in 30 Jahren nur 6 Hauptversionen. Dann machte man bei Windows 10 aber den Sprung auch intern auf die Versionsnummer 10.0. Alle Versionen von Windows 10 haben diese Nummer und unterscheiden sich nur in der Buildnimmer. Man kann die interne Versionsnummer selbst auf verschiedenen Wegen überprüfen. Ich als Tastaturliebhaber mache folgendes:

In der Eingabeaufforderung erscheint dann in der ersten Zeile die interne Versionsnummer wie hier.

Insgesamt ist meine persönliche Einstellung zu Windows besser geworden, vor 20 Jahren mit Erfahrungen von Windows 3.1 und den 9x Versionen, hielt ich nicht viel von dem System. Windows war instabil, musste öfters neu installiert werden und war anfällig gegenüber Schädlingen. Das änderte sich mit Windows 2000, das mir in vielem besser, als das nachfolgende XP gefiel, aber auch XP wurde mit Ingesamt 4 Servicepacks besser und sicherer und Microsoft integrierte nach und nach Sicherheitsmechanismen wie eine Firewall oder einen eigenen Virenscanner.

Seit Windows 7 gehören echte kapitale Abstürze mit Bluescreens weitestgehend der Vergangenheit an. Bei mir deutet das vermehrte Auftreten nach den bisherigen Erfahrungen eher auf das Ende des PC hin. Auf der anderen Seite ist da der Schweinezyklus, bei dem jede zweite Version mies ist. Und bestimmte Dinge bringt Microsoft auch nach Jahrzehnten nicht hin, so einen Explorer mit zwei Fenstern, die braucht man beim Kopieren oder Verschieben. Für mich mit nur 25 bis 30 % Sehschärfe (mit Brille) ist schwerwiegender das Windows in Jahrzehnten es nicht geschafft hat selektiv nur Schriften zu vergrößern. Unter Windows XP ging das noch, inzwischen nicht mehr. Inzwischen kann man nur die Darstellung der Gesamtoberfläche in Prozenten verändern und das ist wirklich schlecht gelöst. Als Laie denkt man ja Windows skaliert dann einfach Schriften, die ja seit Windows 3.1 skalierbar sind, und rendert andere Elemente eben mit größeren Dimensionen. Dem ist aber nicht so. Wenn sie 125 % Darstellung wählen, und eine physikalische Full-HD Auflösung (1920 x 1080 Punkte) haben, dann rendert Windows die Oberfläche mit 1536 x 864 Punkten und zeigt das an! Dumm nur, dass digitale Bildschirme eine feste Auflösung haben und der Effekt ist dann der das die Darstellung unscharf ist. Man kann das leicht ausprobieren – Größe ändern, einen Screenshot machen, abspeichern und dann bei Eigenschaften sich die Auflösung anzeigen lassen.

Meine Lösung, weil ich größere Darstellung brauche, ist die, das ich keinen Monitor einsetze, sondern einen 32 Zoll Fernseher, Fernseher gibt es nämlich anders als Monitore auch mit großen Diagonalen und Full-HD zu kaufen.

Ebenso verstehe ich nicht das Zwangsupdate des Stils, was spricht dagegen die alten Stile, vor allem Aero weiterhin als Alternative zur Verfügung zu stellen? Unter Linux geht das ja auch, ja da kann ich den Displaymanager sogar frei auswählen.

Immerhin, Windows liefert so nach 30 Jahren noch zuverlässig Stoff für Diskussionen ...

22.10.2021:Der Mac und Next – Steve Jobs Rückschläge

Der 2011 verstorbene Steve Jobs hat nach seiner Rückkehr Apple zum Erfolg verholfen und steht für viele Produkte, die Apple seitdem lanciert hat wie den Mac mini, den iPod oder das iPhone. Doch bis dahin waren seine eigenen Unternehmungen nicht von Erfolg gekrönt. Ich will die beiden Wichtigsten einmal Revue passieren lassen und versuche mal eine Erklärung, warum es nicht klappt.

Aber fangen wir beim Anfang an. Steve Jobs gründet zusammen mit Stephen Wozniak Apple. Schon beim Apple I – einem Einplatinencomputer ohne alles, verkauft wurden nur 200 Stück, zeigte sich sein Talent, denn die beiden hatten nicht das nötige Kapital. Jobs handelt nicht nur einen guten Preis für die Geräte aus, sondern schafft es auch, alle Bauteile auf Kredit zu bekommen. Auch für den viel leistungsfähigeren und erfolgreichen Apple II zieht er Mike Markkula als Investor an Land und er beauftragt Frog Design mit dem stylishen Gehäuse. Aber in Zeitschriften erntet Wozniak den Ruhm, denn die besprechen den Computer und loben seinen durchdachten und effizienten Aufbau. Jobs versteht nicht so viel von Elektronik, als das er einen Computer bauen könnte. Er versucht sich aber wenigstens am Gehäusedesign des Nachfolgers Apple III. Der wird zum Flop. Mitschuld ist auch das Gehäuse von Jobs, das zu klein war, aber die Hauptgründe waren andere.

Schon vorher hatte er beim Xerox Park die Zukunft des Computers gesehen in Form der grafischen Benutzeroberfläche und er überzeugt den Aufsichtsrat von Apple einen Computer mit dieser Technologie zu entwickeln. Das wird die Lisa. Die Lisa wird ein komplexer Computer und ein teurer. Sie hat ein großes Entwicklungteam und in dem eckt Jobs an, sie setzen ihn vor die Tür, Jobs ist als Vorgesetzter, wenn man es höfflich ausdrückt, unangenehm. Er erwartet von allen nicht nur mehr Arbeit, als vertraglich ausgemacht, er ist ungeduldig, unbeherrscht, geht davon aus, dass er immer recht hat und wird leicht unwirsch, wenn es Widerworte gibt. Bei Next gingen Angestellte lieber über die Treppe, als mit Jobs im Aufzug alleine zu sein.

Jef Raskin hatte aber das Apple Management überzeugt, das es neben der Lisa auch in einen kleineren Computer mit einer grafischen Oberfläche investieren sollte, der im Preisbereich des Apple II liegt. Jobs wendet sich dieser Gruppe zu, die viel kleiner ist und auch mit seiner Art zurecht kommt und auch bald einen Weg findet, die Genehmigung für Vorschläge zu bekommen, die sonst Jobs sofort ablehnt. Sie sprechen so lange darüber bis Jobs meint es wäre seine eigene Idee. Jef Raskin wird schnell aus dem Projekt gedrängt und Jobs übernimmt es. Von Jobs stammt die Idee eines kompakten Rechners, alles in einem Gehäuse. Der Monitor hatte nur 9 Zoll Diagonale, was schon damals klein war. Mehr ging aber nicht wenn der Rechner tragbar sein sollte, er hatte auch einen Griff oben am Monitor. So passte nur ein Diskettenlaufwerk in den Rechner. Slots gab es keine. Jobs war dagegen, weil er befürchtete Fremdfirmen würden sich hier bereichern. Dabei war damals schon klar, das ein Erfolgsfaktor des Apple II und IBM PC eben die Verfügbarkeit von Slots war, mit denen man einen Computern aufrüsten oder erweitern kann. Es dürfte aber auch der geringe Platz im Gehäuse eine Rolle spielen. Der Bildschirm zeigte 512 x 342 Punkte in Monochrom an.

Wer sich im Internet das Video zur Produkteinführung ansieht, dem wird schnell klar, wie Jobs sich selbst mit dem Mac in Verbindung brachte und wie sehr er von dem Erfolg des Gerätes überzeugt war. So überzeugte er auch das Management, viel Gel in Werbung zu investieren. Bekannt ist der Werbespot von Ridley Scott für den Macintosh. Doch nach einem guten Start sanken die Verkäufe von Monat zu Monat. Sculley, CEO von Apple schränkte die Mittel für die Macintosh-Abteilung ein, förderte neue Apple II, die einzige Abteilung der Firma die Profite einfuhr. Jobs wollte Sculley entmachten, doch Markkula schlug sich auf Sculleys Seite und Jobs musste seinen Hut nehmen. Er gründete eine eigene neue Firma Next und stellte nach drei Jahren 1988 einen neuen Computer aus den NeXT. Der NeXT Computer steckte nun in einem Würfel. Er hatte Slots im Mackintosh Nubus, der Monitor mit 17 Zoll Diagonale war getrennt, aber immer noch monochrom. Er hatte den neuen 68030 Prozessor, dazu einen DSP-Prozessor und zwei Custom-IO Chips. Mit 8 MB RAM war er gut ausgestattet. Einziges Laubwerk war eine 256 MByte fassende magnetooptische Platte. Revolutionär war das grafische Betriebssystem Nextstep und der Mach-Kernel von Unix abstammende. Mit Nextstep konnte man grafische Anwendungen erstmals „zusammenklicken“ und das ermöglichte sicher auch Barner-Lee die Erfindung des Webbrowsers am CERN. In den freien Verkauf gelangte der Rechner erst ein Jahr später dann auch teurer, denn angekündigt war er mit 6.500 Dollar, nun 9.999 Dollar teuer. Ein Jahr später folgte eine Version mit Festplatte anstatt magnetoptischem Laufwerk und wieder ein Jahr später eine billigere Version in einem flachen Gehäuse für 5000 Dollar. Trotzdem wurden von dem Rechner wenige Computer verkauft, man spricht von 50.000 Stück und 1993 schließt Next die Hardwareabteilung und entwickelt nur noch das Betriebssystem Nextstep. 1996 kauft Apple die Firma, damit Jobs wieder zurückkommt und damit beginnt die zweite Erfolgsstory von Apple.

Doch warum hakte es beim Mac und Next? (bevor jemand Kommentiert – der Mac fand seine Nische, aber das war nach Jobs, dazu später mehr). Es sind in beiden Fällen die gleichen Gründe. Ein Grund ist das Jobs meint, dass seine Vorstellung eines Computers die ist, die auch die Anwender wollen und er sich hier irrte und die zweite die damit zusammenhängt ist das jeder Computer die Bedürfnisse des Anwenders bedienen muss.

Der Macintosh kostete 2500 Dollar. Das war in etwa der Preis eines IBM Kompatiblen mit zwei Diskettenlaufwerken und 512 KB RAM. Das grundlegende Problem des Mac war, das er zu wenig konnte, aber nicht erweiterbar war. Der Arbeitsspeicher von 128 KByte war für ein grafisches Betriebssystem viel zu klein. Selbst unter dem textbasierten MS-DOS reichten 128 KByte nur für wenig. Atari wollte ein Jahr später den Atari 260 ST einführen und tat dies nicht, weil selbst 260 KByte zu wenig waren. Bei der Textverarbeitung MacWrite waren so nach 8 Seiten Text Schluss. Mit nur einem Disklaufwerk konnte man praktisch nicht produktiv arbeiten, denn auf der Disk waren so Betriebssystem und Anwendungen und es war nur wenig Platz für die eigenen Daten. Selbst wenn man die Disk kopieren wollte, musste man mehrmals wechseln, weil sie natürlich nicht in den Speicher passte. Wer mit dem Computer arbeitete, hatte woanders zwei Laufwerke oder eine Festplatte. Aber ohne Slots konnte man auch nicht nachrüsten und für ernsthafte Anwendungen war die Auflösung von 512 x 342 Punkten auch arg begrenzt. Erst nachdem Jobs ging, stellte man zuerst den Fat Mac mit 512 KByte vor und dann den Mackintosh II mit (alternativem) separatem Farbmonitor, großem Gehäuse und Bussystem. Damit kam auch der Erfolg in den Bereichen DTP und Grafikbearbeitung.

Beim NeXT hat Jobs hinzugelernt, aber Fehler wiederholt. Hinzugelernt, weil er nun einen eigenen Monitor hatte, viel Speicher, leistungsfähigen Prozessor und Zusatzschips, ein Standardbussystem und Standard-Schnittstellen. Aber erneut beging er den Fehler dem Anwender eine Technologie vorschrieben zu wollen. In diesem Falle die neuen magnetooptischen Platten. Die waren wechselbar anders als Festplatten, aber um Größenordnung langsamer. Um die 200 MByte einer Systemplatte auf eine Festplatte zu kopieren, brauchte man eine stunde, das Rückschreiben dauerte sogar vier Stunden. Jobs träumte von einem Computer, mit dem man recherchieren konnte, daher wurden auch etliche Nachschlagewerke mitgeliefert, dafür reichte die Platte aus, aber er riss das Preisziel von 3.000 Dollar, das bei Geschäftsgründung als Maximalpreis für Studenten und Professoren gesetzt wurde und für das Arbeiten war eine Festplatte viel besser, auch wenn man nun nicht neues Wissen mit einer neuen MO-Platte hinzunehmen konnte.

Der Monitor war wieder monochrom, auch wenn Farbe als Aufrüstoption nachgereicht wurde – anfangs für 7000 Dollar, ab 1990 noch 3000 Dollar. Er war auch nicht wechselbar, weil es ein proprietärer Anschluss war. Eine Festplatte ersetzte die MO-Platte, der Preis wurde reduziert, trotzdem wurde der Next kein Computer, obwohl man im selben Jahr problemlos auch für einen neuen 386-Computer mit ähnlich großer Festplatte aber weniger Speicher die gleiche Summe ausgeben konnte. Auch ein schlechter ausgestatteter Macintosh war teurer. Ich denke beim Next war das Problem, das man nur die Möglichkeit hatte, NextStep einzusetzen. Der Next wendete sich an Bildungseinrichtungen, von dort gab es als Ausgründungen schon Firmen wie Workstations herstellten. Apollo, MIPS und Sun entstanden so. Sie produzierten UNIX Workstations ebenfalls mit 68K-Prozessoren, damalas aber auch schon eigenen RISC Prozessoren (SPARC, MIPS). Sie alle setzten ein UNIX-Derivat ein, das auf einem Standard UNIX basierte. Auch das Betriebssystem des Next basierte auf UNIX, war aber stark verändert und weiterentwickelt worden und der Mach genannte Kern war von der gar fischen Oberfläche komplett abgeschirmt. In einer Uni mit nicht nur einem Rechner, sondern vielen ist man daran interessiert, dass diese untereinander zu einem bestimmten Maß kompatibel sind, Studenten und Angestellte die einen Computer benutzen, auch einen anderen benutzen können. Vielleicht wäre der NexT erfolgreich gewesen hätte man ein Standard UNIX wie BSD als Alternative angeboten. Das hätte vielleicht die Fähigkeiten nicht voll genützt, aber es war eben der Standard. Diesmal war es nicht der Preis, denn für 5000 Dollar bekam man 1990 keine Workstation von Sun oder anderen Herstellern. Es war einfach die eigene Lösung, zu der es keine Alternative gab. Und das ging zu diesem Zeitpunkt mit zwei großen etablierten Betriebssystemen - MS-DOS und UNIX eben nicht mehr, außer man hatte schon eine gewisse Marktdominanz und die hatte NeXT Computers als neue Firma nicht.

24.10.2021: Der Polxit

Nach einigen längeren Blogs will ich nun mal einige kürzere schreiben zu Themen, die mir seit Tagen im Kopf herumgehen. Das erste ist die Entscheidung des obersten polnischen Gerichtes, dass Teile der EU Verträge, genauer gesagt Artikel 1 und 14 der polnischen Verfassung widersprechen. In der Berichterstattung habe ich zwar viel über die Diskussion gelesen, aber nichts über die Artikel selbst, also habe ich das mal nachgeholt. In Artikel 1 überträgt ein Mitgliedsstaat Zuständigkeiten an die Union zur Verwirklichung gemeinsamer Ziele. Artikel 14 umreißt die Befugnisse und Aufbau des europäischen Parlaments.

Nun hatten wir bereits den Brexit und schon wird nach einem Polxit gerufen, zumindest der Vorschlag steht im Raumm die fianziellen Mittel für Polen zu blockieren.

Ich denke man kann Brexit und was in Polen vor sich geht nicht vergleichen. Dem Austritt Englands ging eine Volksabstimmung voraus, basisdemokratischer geht es nicht. Es wurde ein Vertrag ausgehandelt, auch wenn das schwierig war und Jahre dauerte. In Polen gibt es eine Regierung, die ihre Macht erweitern will und dafür andere Institutionen des States, welche die Regierung kontrollieren oder zumindest ihre Fehler aufdecken, wie eben unabhängige Justiz und Medien eingeschränkt oder verboten. Das Urteil des Verfassungsgerichts ist ja auch durch die Bestellung regierungstreuer Richter zustande gekommen. Ich denke aber die Bevölkerung will in der EU bleiben, vor allem kann eine Regierung wechseln und wenn man anfängt, jeden EU Mitgliedsstaat auszuschließen nur, weil für einige Jahre eine Regierung auf Konfrontationskurs geht, dann wird die Union bald kleiner. Auf der anderen Seite ist was in Polen passiert ein Verstoß gegen grundsätzliche Rechte, die wir in Europa gemeinsam achten, wie die das es in einem Staat mehrere Säulen gibt, die sich gegenseitig kontrollieren, sodass es nicht zu einer Machtanhäufung wie in einer Diktatur kommt. Zudem ist das jetzt nicht neu, sondern geht seit Jahren so.

Beitrittsstaaten müssen die Voraussetzungen der Verträge erfüllen, aufgrund dessen gibt es schon seit Jahren Beitrittsverhandlungen mit einigen Ex-Jugoslawischen Teilrepubliken und der Türkei und die Bedingungen scheinen eben noch nicht erfüllt zu sein. Müsste dann ein Staat nicht auch konsequenterweise bei einem Verstoß wieder austreten? Ich meine nein, denn wie wir beim Brekxit sahen, dauert das Jahre, und wahrscheinlich genauso lange wieder beim Eintritt alles auszuhandeln. Zudem könnten die Polen die derzeitige Regierung abwählen und dann müsste man, wenn die neue Regierung die "Reformen" rückabwickelt, auch wieder die ganze Vertragsabwicklung rückabwickeln.

Ich halte es für besser die Mitgliedschaft, wenn ein Staat die grundlegenden Voraussetzungen für eine Mitgliedschaft nicht erfüllt, ruhen zu lassen, wobei man dies auch in mehreren Stufen gestalten kann. In Stufe 1 wäre der organisatorische Aufwand für alle Staaten gering. Polen wäre kein Mitglied der EU, Abgeordnete würden aus dem Parlament ausscheiden, Regierungsvertreter aus der Kommission und natürlich müssten die kein Geld bezahlen und keines bekommen. Das wäre bei einem Netto-Nehmerland schon gravierend, zudem könnten sie nicht wie bisher Beschlüsse blockieren wie sie es zusammen mit Ungarn und der Slowakei in der Vergangenheit getan haben. Alle bisherigen EU Beschlüsse und Vereinbarungen würden aber weiter gelten, ebenso wäre Polen noch Bestandteil des Binnenmarktes. Sie können eben von nun an keinen Einfluss mehr auf die politische Entscheidung nehmen und keine EU Fördermittel mehr bekommen.

In Stufe 2 wird das Land dann wie ein Drittstaat ohne Vertrag mit der EU behandelt, also einem Staat außerhalb der EU ohne ein Handels- oder sonstiges Abkommen. So was hätte England gedroht, wenn sie ohne Vertrag ausgeschieden wären. Das ist ziemlich hart, selbst mit Nicht-EU Staaten, die an die EU angrenzen, gibt es Verträge die Dinge regeln, an denen gemeinsames Interesse besteht wie Warenverkehr, Reisen und Visa. Solche Verträge gibt es z.B. mit der Schweiz. In dem Falle würde Polen aus dem Binnenmarkt herausfallen. Es gäbe wieder Grenzen mit Grenzkontrollen. Positiv für Polen wäre, das zahlreiche Vorschriften der EU nicht mehr gelten. Sie müssten sich weder an Vorschriften für den Verbraucherschutz noch das Klimaabkommen halten und dürften weiter ihre Kohlekraftwerke betrieben und ungeklärtes Abwasser in die Ostsee einleiten. Polen würde dann wirtschaftlich noch schlechter und isolierter dastehen als England und wie es denen geht, sieht man jetzt ja. Dabei hat England nur eine Grenze mit der EU gemeinsam, während Polen bis auf die Grenze zu Belarus nur von EU-Staaten umgeben ist.

Das ist hart, aber konsequent, denn wenn Artikel 1 gegen die polnische Verfassung verstößt, heißt das nichts anderes als das Polen der EU das Recht abspricht Gesetze zu beschließen, die in Polen dann gelten müssen. Ohne dies geht es aber bei einer Union nicht. Wenn dies nicht akzeptiert wird oder tatsächlich der Fall ist, dann dürfte Polen gar nicht Mitglied der EU sein, hat die Regierung die der EU beitrat einen Fehler gemacht. Ein Austritt wäre dann zwangsläufig, sofern Polen nicht seine Verfassung ändert.

Vor allem finde ich ist es Zeit jetzt zu handeln. Diskutiert wird seit Jahren und seit Jahren verbietet die polnische Regierung Medien oder erlässt Gesetze wie das zum Schwangerschaftsabbruch, das Frauen zu Gebärmaschinen ohne jede eigene Entscheidungsmöglichkeit degradiert. Das verstößt meiner Ansicht nach auch gegen Grundrechte des Menschen wie Selbstbestimmung über den eigenen Körper. Wie lange kann man sich als Union das Anschauen, ohne zu handeln, ohne sich selbst unglaubwürdig zu machen?

 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99