Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 608: 21.1.2020 - 29.1.2020

21.1.2020: Da kommt was auf und zu

Das Thema, das ich heute mal anreisen will, kann man in zwei Grafiken sehr gut veranschaulichen. Sie basieren auf den Trägerstatistiken, die ich anfertige. Für 2020 kann man folgende Bilanz aufstellen

Und folgende Grafik erstellen:


Trägerfamilie

Nutzlasten

Nur Starts

Erfolgreich [%]

Angara

1

1

100,00

Antares

13

2

100,00

Ariane

7

3

100,00

Atlas

8

5

100,00

Chang Zheng

89

34

94,12

Delta

1

1

100,00

Electron

65

7

85,71

Falcon

859

25

100,00

H-II

4

4

100,00

Kuaizhou

6

4

50,00

Minotaur

4

1

100,00

Private

1

1

100,00

Proton

2

1

100,00

R-7

140

15

100,00

PSLV / GSLV

11

2

100,00

Shavit

1

1

100,00

Small

4

3

0,00

Taepodong

2

2

50,00

Vega

68

2

50,00

Sehr deutlich wird das die Falcon die meisten Nutzlasten letztes Jahr startete, das verwundert nicht, wurden doch bei (fast) jedem Starlink Start 60 Satelliten gestartet und darauf entfielen die meisten der 25 Starts. Häufiger startete die Chang Zheng Familie, die aber nur ein Zehntel der Nutzlasten beförderte.

Schauen wir uns den Trend über die Zeit an, dann fällt der rapide Anstieg in den letzten Jahren auf. Letztes Jahr war es Starlink, doch schon in den Jahren zuvor stieg die Zahl der Nutzlasten rapide an.

Es gibt aber nicht nur in der Menge – letztes Jahr waren es 525 Starts, dieses Jahr 1.285 – sondern auch in der Art der Satelliten. Der Anstieg in den letzten Jahren beruht vor allem auf Cubesats. Ein Cubesat ist standardisiert. Der kleinste ist ein Würfel von 10 cm Kantenlänge. Größere haben dann 3 Einheiten (3U) oder 6U Größe – 30 x 10 cm oder 30 x 20 cm. Die Gefahr die von Cubesats ausgeht ist klein. Wenn ich von Gefahr spreche, dann ist die Gefahr gemeint, das es zu einer Kollision kommt. Bei Geschwindigkeiten von 7 km/s im Orbit können sich Satelliten mit bis zu 14 km/s begegnen, wenn der Winkel der Bahnvektoren zueinander 180 Grad beträgt. Relevant, ob es zu einer Kollision kommt, ist die Fläche eines Satelliten. Selbst ein 6U Cubesat hat nur eine Fläche von maximal 0,06 m². Selbst ein kleiner Forschungssatellit dagegen eine von mehreren Quadratmetern, wozu dann noch die Solarzellenausleger kommen. Berechnet man die „Dichte“ eines Satelliten, sprich das Verhältnis Gewicht / Volumen, dann sind Cubesats sogar relativ dichte Objekte. Ich nehme mal als Vergleich den Sentinel 3, einen Erdbeobachtungssatelliten von 1.245 kg Startmasse. Er hat ein Volumen von 3,7 x 2,2 x 2.2 m, mithin eine Fläche von 8,14 m² an vier von 6 Seiten. Je nach Kolissionsrichtung käme dann noch der Solarzellenausleger hinzu, der weitere 10,5 m² aufweist. Ich lasse ihn in den Betrachtungen mal weg, denn auch Cubsats haben Ausleger und neben der unbekannten Größe hängt dann viel von der Orientierung ab. Sentinel hat bei 8,14 m² Fläche die 814-fache Fläche eines 1U Cubesats und die 135-fache eines 6U Cubesats. Entsprechend größer ist das Risiko, das er getroffen wird – nicht nur von einem anderen Satelliten, sondern auch kleinen Teilchen. Bei den Geschwindigkeiten können schon Schrottteilchen von 1 cm Größe zur vollständigen Zerstörung des Satelliten führen, kleine immerhin dazu, dass einige weitere Bruchstücke freigesetzt werden. Im Umkehrschluss heißt das auch: wenn man 100-mal mehr 1U Cubesats startet so hat man das Kolisionrisiko nicht mehr erhöht, als wenn man einen Sentinel 3 startet.

Mit Starlink ändert sich das. Jeder Satellit ist in etwa so groß wie ein kleiner Forschungssatellit. Wie genau weiß keiner, ich fand zwei Schätzungen. Hier nimmt einer die Größe der gefalteten Satelliten in der Nutzlasthülle auseinander und kommt auf 3,2 x 1,6 x 0,2 m, die 0,2 m Höhe sind aber die gefaltete Höhe, wahrscheinlich entfalten sie sich im Orbit noch. Woanders schätzt man 2,8 x 1,4 m ohne Ausleger und Höhenangabe. Wahrscheinlich ist aber die Höhe deutlich geringer als die Löänge und Breite. Anders als beim Sentinel gibt es so einen ziemlichen Unterschied in den Seitenflächen, Doch nimmt man als Fläche 2,8 x 0,4 m (doppelte Höhe nach Entfalten) an, so hat ein Starlink-Satellit die 18-fache Fläche eine 6U Cubesats. Realistischerweise wird man die Ausleger hinzuaddieren müssen. Denn als Kommunikationssatellit braucht ein Starlink Satellit eine große Antenne und Solarzellenausleger damit diese genügend Strom für leistungsstarke Sender liefern. Für große Ausleger spricht auch, das die Satelliten problemlos mit dem bloßen Auge beobachtbar sind, was man nicht von den meisten Satelliten sagen kann. Das Kolissionsrisiko ist damit erheblich höher als bei den Cubesats.

Und es sind noch mehr Satelliten als bei den Cubesats, somit gibt es ein rapides Ansteigen des Kolissionsrisikos durch die Anzahl kombiniert mit der Fläche. Dabei sind die rund 1.000 Satelliten im Orbit erst der Anfang. 42.000 hat SpaceX geplant. Vergessen wird das Oneweb ja auch etwas Ähnliches vorhatte. In der ersten Ausbaustufe deutlich kleiner als Starlink, sollte die zweite noch größer werden: 47.484 Satelliten. Nun hat die Firma das verkleinert auf 6.372 Satelliten. Das sind immer noch mehr als es derzeit überhaupt Satelliten/Sonden gibt die nicht wieder eingetreten sind (6.367) und von diesen sind ein Fünftel – 1.261 noch nicht mal ein Jahr im Orbit. Das zeigt das rapide Ansteigen der Bedrohung. Dagegen sind Amazons Pläne mit „nur“ 3.200 Satelliten klein. Andere Anbieter mit kleineren Flotten sind auch in der Vorbereitung.

Es ist abzusehen, das dies Folgen hat. Zum einen natürlich die Zunahme der Manöver um Kollisionen zu vermeiden. Bisher gab es weltweit drei Ausweichmanöver pro Tag. Alleine Amazons Satelliten werden dazu führen, dass diese Manöver auf acht pro Stunde steigen. Dann wird man das nicht mehr manuell durchführen können. Ein System, das diese automatisch verhindert, gibt es aber noch nicht, nicht mal Regeln, wer wem ausweicht. Das zeigte sich ja schon, als die ESA am 3.9.2019 mit ihren Satelliten ADM-Aeolus dem SpaceX-Satelliten Starlink-44 - nicht mal fünf Monate früher gestartet von dem ersten Batch - ausweichen musste. Man schickte eine Notifikation an die für diese Zwecke hinterlegte Email-Adresse. Reaktion: Null. Wie immer bei SpaceX arbeitet man „inkrementell“. Sprich man kümmert sich erst um Dinge, wenn etwas passiert. Dies ist schlimm. Noch schlimmer: da bei immer mehr Satelliten solche Manöver häufiger werden und selbst wenn sie alle klappen und es einen automatischen Mechanismus gibt, der den richtigen Satelliten benachrichtigt und dieser alles korrekt ausführt, dann ist doch klar: Jedes dieser Manöver kostet Treibstoff. Satelliten haben zwar eine höhere Lebensdauer als ihre Soll-Betriebszeit, aber sie brauchen Treibstoff um ihre Bahn zu erhalten und vor allem um periodisch die Drallräder zu entsättigen, die man für Drehungen verwendet. Irgendwann ist der zu Ende und wenn schon wie berechnet, es zu 24-mal öfteren Ausweichmanövern kommt, dann geht der Treibstoff rasch zu Ende. Der Forschungs- oder Anwendungssatellit, die meisten ja ziemlich teuer ist, ist dann wertlos.

Man wird wahrscheinlich nicht verhindern können, dass diese Konstellationen kommen. Ich persönlich hoffe, dass die beiden Netze die noch im Aufbau sind, nicht so viele Kunden haben wie gewünscht und man sie nach der ersten Ausbaustufe nicht weiter ausbaut und das vielleicht die anderen Firmen abschreckt, auch solche massiven Konstellationen zu bauen.

Aber wenn dem nicht so ist, dann müssen Regularien her. Ich denke auch das die Regularien nicht alle Satelliten gleichbehandeln. Es kann nicht sein, das der 481 Millionen Euro teure ADM-Aeolus einem Starlink-Satelliten ausweichen muss, der zusammen mit 59 anderen gestartet wurde und wahrscheinlich um 1 bis 2 Millionen Euro kostet. Noch klarer wird dies, wenn wir von der ISS reden. Die kann ja nicht dauernd irgendwelchen Satelliten ausweichen und sie ist ziemlich groß. Wer Tausende von neuen Satelliten in dne Orbit bringt, sollte dazu verpflichtet werden, dass er immer ausweicht.

Das Zweite ist die Lebensdauer der Satelliten. Nach Wikipedia von heute sind von den 1.015 gestarteten Starlinks nur noch 951 im Orbit. Wie viele davon arbeiten, ist offen. Viasat, die eine Beschwerde an die FCC richtete sprach von 7 % defekten Satelliten, das ist bedenkt man, dass die Satelliten im Mittel gerade mal ein Jahr alt sind, viel. Schön, wenn die Betreiber der Konstellation wie Amazon und Starlink zusichern, ihre Satelliten aktiv zu deorbitieren und sich nicht auf der 25-Jahrefrist ausruhen. Doch das geht nur, wenn der Satellit noch reagiert. Satelliten können auch einfach so ausfallen. Prominentestes Beispiel ist der busgroße Umweltsatellit Envisat, der am 8.4.2012 einfach verstummte. Niemand weiss warum. Ich meine: jeder Satellit sollte eine Möglichkeit haben, das er auch deorbitiert werden kann, wenn seine Hauptelektronik ausfällt. Ich hatte mir mal schon Gedanken gemacht und halte eine Art Ballon – angelehnt an die Ballonsatelliten der frühen 60-er Jahre wie Echo 1 für eine gute Idee. Das funktioniert rein passiv durch die Abbremsung der Atmosphäre. Der Ballon wiegt nicht viel und ist zusammengefaltet klein. Nötig ist nur ein Auslösemechanismus, der erheblich zuverlässiger als die Elektronik des Satelliten ist. Als Lösungen könnte man ihn vom Boden aus über Funksignal auslösen, einfacher wäre aber wohl ein einfacher Zeitgeber, der vom Satelliten laufend zurückgesetzt wird. Fällt der Satellit aus und läuft eine sinnvolle Frist für Rettungsmaßnahmen – einige Wochen bis Monate ab, so löst er die Gaskartusche aus, die den Ballon aufbläst. So kann man selbst Satelliten aus großer Höhe schnell deorbitieren. Echo 2 war in etwa 1150 km Höhe, also der von Oneweb-Satelliten und trat nach weniger als 5,5 Jahren wieder in die Atmosphäre ein. Normal hat ein Satellit in dieser Höhe eine Lebensdauer, die im Bereich von Jahrhunderten bis Jahrtausenden liegt. Eine ähnliche Technologie hat die DLR entwickelt, ein 25 m² großes entfaltbares Sonnensegel. 2015 wurde es getestet. Allerdings ist es Stand heute immer noch in einem 627 x 649 km Orbit (Startorbit war 635 x 657 km), also nach fünf Jahren kaum abgesunken.

Meiner Ansicht nach sollte man sowohl Ausweichregeln wie auch die verbindliche Integration von Deorbitmaßnahmen festlegen, und zwar jetzt, bevor man diese Konstellationen weiter ausbaut und damit Fakten schafft. SpaceX hat übrigens das Starship schon zum Einsammeln von „Orbital debris“ angeprisen. Hmmm, jetzt wird mir so langsam klar, wofür es überhaupt entwickelt wird: 7 % Ausfallrate pro Jahr, da müssen sie in einigen Jahren jede Menge der eigenen Satelliten einsammeln.

Immerhin es gibt Hindernisse für die Konstellationen. Die Starlinks wurde bisher in 53 Grad geneigte Umlaufbahnen gestartet. Die Satelliten können damit in etwa Regionen bis zu diesem Breitengrad versorgen. Das wären z.B. die USA aber auch Deutschland. Für Schweden, Norwegen, Russland wäre die Bahnneigung zu gering. Daher sollen Satelliten in polaren Bahnen sie ergänzen. Weil in diesen Bahnen aber viele Erdbeobachtungssatelliten die Erde umkreisen, hat die FCC erst mal nur 10 Satelliten von SpaceX für diese Bahn genehmigt. SpaceX wollte 58 Satelliten starten. Das SpaceX sich an die FCC wendet (Federal Communications Commission, eine US-Behörde), zeigt aber schon das Kernproblem. Die Satelliten sind in einem Orbit. Sie bieten nicht nur ihre Dienste weltweit an, sondern sie bereiten auch allen anderen Betreibern von Satelliten weltweit Probleme. Wir brauchen für diese Megakonstellationen eine international zuständige, von einem einzelnen Staat unabhängige Behörde, deren Beschlüsse dann auch international verbindlich sind. Da wir so was aber noch nicht mal im UN-Sicherheitsrat (Stichwort: Veto) hinbekommen, glaube ich kaum das es jemals dazu kommen wird. Richtig lustig wird es dann, wenn ein Unternehmen, das kann, auch halbstaatlich oder staatlich sein aus einem anderen Staat, z.B. China auf die Idee kommt eine solche Konstellation aufzubauen und dieses Unternehmen muss sich dann auch nicht mehr nach der FCC richten. Angesichts der vielen Träger, die China baut, der rapiden Zunahme an Starts und Pläne, die bis hin zu Mondmissionen gehen, ist das nicht unwahrscheinlich das China auf den Zug aufspringt.

26.1.2021: Wenn schon Suborbitaltourismus, dann mit Wumms!

Ich habe einen Artikel für die Februar Nachlese für SpaceX erstellt. Der Hauptpunkt: Damit das Starship wirklich billiger wird als die bisherigen Träger von SpaceX muss es viel häufiger fliegen. Also suchte ich mal nach Einsatzmöglichkeiten für das Starship.

Eine war, nachdem nun Blue Origin zum ersten Mal ihre Passagierkabine getestet haben, der Suborbitaltourismus. Wenn man kurz darüber nachdenkt, ist das sogar für SpaceX eine gute Gelegenheit ihr Starship bei geringerem Risiko als bei einem Orbitaleinsatz zu testen, die abzubauende Geschwindigkeit ist kleiner und es kommt in jedem Falle zurück. Aber ich wollte das einmal durchrechnen und habe das getan. Zuerst habe ich mal im Kopf die Endgeschwindigkeit überschlagen und kam auf ein erfreuliches Resultat. Bei linearer Beschleunigung berechnet sich (ebenfalls noch im Kopf gerechnet) eine Gipfelhöhe von etwa 1.600 km. Doch dann ging ich ans Simulieren.

Damit es klappt, müsste man beim Starship die Vakuumdüsen von drei Triebwerken gegen die auf den Betrieb auf Meereshöhe optimierten austauschen. Daneben kann man es nicht voll betanken, da sechs Triebwerke mit je 2400 kN Schub 14.400 kN Schub ergeben. Bei der bei flüssig angetriebenen Raketen üblichen Startbeschleunigung von 12 m/s entspricht das 1200 t Startmasse. Vollbetankt wären es ohne Nutzlast 1,320 t und dann käme noch die 100 t schwere Nutzlast in Form der Passagierkabine mit Passagieren hinzu. Bei 1200 t Startmasse und senkrechtem Aufstieg komme ich auf folgende Resultate:

 

Parameter

Wert

Einheit

Startbeschleunigung:

12,000

m/s

Antriebsphase:

219,89

sec

Startwinkel:

90,000

Grad

Startmasse:

1.200.000,0

kg

Leermasse:

220.000,0

kg

Startsschub:

14.400,0

kN

Spez. Impuls Meereshöhe:

3.231,0

m/s

Spez. Impuls Vakuum:

3.431,0

m/s

Durchmesser:

9,000

meter

Brennschlusshöhe:

217,71

km

Brennschlussdistanz:

0,000

km

Maximalhöhe:

1.017,1

km

Distanz:

0,000

km

Vmax:

3.614,5

m/s

Vmax (theoretisch):

5.766,4

m/s

Luftwiderstand:

31,660

m/s

Gravitationsverluste:

2.120,3

m/s

Vx (max):

0,000

m/s

Vy (max):

3.614,5

m/s

V zuletzt:

6.445,6

m/s

Dauer:

1.194,8

sec

Dauer mit <0,01 g:

957,00

sec


Man kommt also auf nur etwa 1.017 km Höhe und der ganze Flug dauert 1194,8 s, knapp 20 Minuten. Etwa doppelt so lang, wie bei den beiden Vehikeln, von Blue Origin und Virgin Galactics die nur rund 100 km Höhe erreichen. Die Differenz in der Höhe ist der einfachen Formel für den Weg bei linearer Beschleunigung bzw. in diesem Falle Bremsung durch die Gravitationskraft geschuldet: doppelte Endgeschwindigkeit = vierfache Distanz aber nur doppelte Dauer. Immerhin die Dauer der Schwerelosigkeit ist mit fast 16 Minuten viermal länger als bei Blue Origin.

Trotzdem fand ich nur 1.017 km Höhe etwas dürftig. Der Grund sind nur etwa über 3600 m/s Endgeschwindigkeit und gemessen daran 2123 m/s Gravitationsverluste recht hoch. Sie sind so hoch, weil eine normale Rakete nur eine Gipfelhöhe von 160 bis 200 km anpeilt und dann in die Horizontale geht, bei der die Verluste zwar auch da sind, aber bedeutend kleiner.

Lösungsmöglichkeiten

Es ist nicht anzunehmen, aber nehmen wir trotzdem mal an SpaceX wöllte Suborbitaltourismus attraktiv machen und würde dazu auch Umbaumaßnahmen erwägen. Der erste Gedanke, den man hat, ist es Treibstoff wegzulassen. So beschleunigt man schneller und auch die Zeit in der die Erdgravitation an der Rakete „zieht“ ist kleiner. Betrachtet man es aber genauer, dann ist es ein Fehlschluss. Denn startet eine Rakete normal, dann erreicht sie einige Zeit nach dem Start auch den Punkt, wo sie den Treibstoffanteil, den man weggelassen hat verbrennt hat nur hat sie nun schon eine gewisse Höhe und Geschwindigkeit erreicht. Das bringt nur etwas wenn SpaceX nur die Höhe erreichen will, welche die beiden Konkurrenten anstreben. Um z.B. auf 4 Minuten Schwerelosigkeit zu kommen, reicht eine Startmasse von 400 t, also nur 180 t Treibstoff, ein Sechstel des normalen. Dann wird eine Spitzenhöhe von 123 km erreicht:


Parameter

Wert

Einheit

Startbeschleunigung:

36,000

m/s

Antriebsphase:

40,388

sec

Startwinkel:

90,000

Grad

Startmasse:

400.000,0

kg

Leermasse:

220.000,0

kg

Startsschub:

14.400,0

kN

Spez. Impuls Meereshöhe:

3.231,0

m/s

Spez. Impuls Vakuum:

3.431,0

m/s

Durchmesser:

9,000

meter

Brennschlusshöhe:

25,022

km

Brennschlussdistanz:

0,000

km

Maximalhöhe:

123,67

km

Distanz:

0,000

km

Vmax:

1.403,1

m/s

Vmax (theoretisch):

1.994,6

m/s

Luftwiderstand:

196,72

m/s

Gravitationsverluste:

394,74

m/s

Vx (max):

0,000

m/s

Vy (max):

1.403,1

m/s

V zuletzt:

2.344,4

m/s

Dauer:

343,87

sec

Dauer mit <0,01 g:

241,02

sec

Das würde die Mission verbilligen, denn wie man anhand von 2 Millionen Dollar als Preisziel sieht, werden die Missionskosten offensichtlich vom Treibstoff bestimmt – bei etwa 4.000 t entfallen wenn die 2 Millionen nur für Treibstoff draufgehen rund 500 Dollar pro Tonne, in etwa das, was bei uns Heizöl derzeit kostet.

Auf richtig hohe Höhen kommt man aber nur mit mehr Triebwerken. Ich habe in der Folge bei gleicher Startmasse einfach jeweils ein Triebwerk eingebaut.

 

Triebwerke

Gipfelhöhe

Verluste

Dauer

Dauer 0g

6

1.017 km

2.152 m/s

1.194,8

957 s

7

1.174 km

1.852 m/s

1.265 s

1.059 s

8

1.294 km

1.630 m/s

1.317 s

1.136 s

9

1.388 km

1.459 m/s

1.369 s

1.197 s

10

1.464 km

1.323 m/s

1.292 s

1.244 s

Feststoffantriebe

Der Trend ist sichtbar. Allerdings ist das bei mit flüssigen Treibstoffen angetriebenen Raketen mit deutlichen Kosten verbunden. Anders sieht es bei einem Feststoffantrieb aus. Die können sehr kurze Brennzeiten haben. Als Extrem nenne ich mal die Zünder für große Feststofftriebwerke, die unter 1 Sekunde Brennzeit haben. Für den Vergleich für Einsatz als Träger wären aber Höhenforschungsraketen geeignet, die ja auch möglichst lange Phasen der Schwerelosigkeit erlauben sollen. Die ESA setzt aktuell die VSB-30 ein, die 20 Sekunden + 12 Sekunden Brennzeit hat. Auch andere Höhenforschungsraketen haben 20 bis 40 s Brennzeit und erreichen so Startbeschleunigungen bis 10 g. Für den bemannten Einsatz wäre das wohl zu heftig, wobei auch hinzukommt, dass das Starship 9 m Durchmesser hat und entsprechend der Luftwiderstand groß ist, eventuell zu viel für die Struktur, wenn zu schnell in der Troposphäre beschleunigt wird.

Ich habe mir mal den Jux gemacht und das Antriebsteil des Starships durch einen Feststoffbooster ersetzt: Vollmasse 1.320 t, Leermasse 120 t wie beim Starship aber spezifischer Impuls (Boden) nur 2710 m/s, 2810 m/s im Vakuum und Brennzeiten von 60, 80, 100, 120 und 140 s:


Brennzeit

Gipfelhöhe

Verluste

Dauer

Dauer 0g

Startbeschleunigung

60 s

1.385 km

657 m/s

1.295 s

1.219

38,1 m/s

80 s

1.304 km

841 m/s

1.261 s

1.165 s

28,6 m/s

100 s

1.218 km

1.023 m/s

1.224 s

1.107 s

22,9 m/s

120 s

1.130 km

1.207 m/s

1.185 s

1.049 s

19,1 m/s

140 s

1.043 s

1.394 m/s

1.148 s

990 s

16,4 m/s

Die Brenndauer von 140 s ist im Schub mit den obigen 10 Triebwerken vergleichbar. Da der Treibstoff LOX/Methan einen höheren spezifischen Impuls hat, kommt man mit diesem aber bei gleicher Startbeschleunigung höher und es dauert länger.

Schubreduktion

Natürlich korrespondiert auch die Spitzenbeschleunigung mit dem Startschub und das dürfte beim Passagiertransport das Knock-out Kriterium sein. Bei der Sojus gibt es heute eine Spitzenbeschleunigung von 43 m/s. Beim Space Shuttle waren es 30 m/s und bei der Crewed Dragon 35 m/s. Damit (ohne Schubreduktion) bei der Brennschlussmasse von 220 t man nur auf 35 m/s Beschleunigung kommt, dürfte der Schub dann maximal 7.700 kN Betragen, also deutlich weniger als schon sechs Triebwerke haben und nicht genug zum Abheben. Flüssig angetriebene Raketen können den Schub reduzieren, feste nicht. Das ist der Grund, warum Blue Origin und Virgin Galactics auf flüssige Treibstoffe setzen. Anders wäre der Transport von Personen, die nicht den Fitnessanforderungen von Astronauten genügen und kein Training absolviert haben nicht möglich. Leider reduziert Schubreduktion erneut die Gipfelhöhe. Allerdings nicht so stark, wenn man 3,0 g als Spitzenbeschleunigung nimmt, so sind es 997 anstatt 1.017 km und nur 30 s weniger Schwerelosigkeit. Die Rakete brennt dann rund 30 Sekunden länger.

Wurfparabel

Vom touristischen Standpunkt ist allerdings die Reise beim senkrechten Aufstieg und senkrechter Landung recht unbefriedigend, denn man sieht die ganze Zeit den gleichen Teil der Erde. Daher als letzte Berechnung nochmals die Ausgangsbasis, nur wandele ich den Endwinkel ab, sodass die Landung woanders kommt. Sinkt er von 90 auf 55 Grad, so kommt man auf nur noch 780 km Maximalhöhe, 1.079 s Dauer, 807 s ohne Schwerelosigkeit, würde aber rund 1.700 km weit fliegen – die direkte Distanz zwischen Boca Chica und Cape Canaveral beträgt 1.656 km. Die Passagiere könnten also bei einem der beiden Weltraumbahnhöfen einsteigen und beim anderen ausstiegen und beim Flug einen schönen Blick über die südlichen USA und Golfküste bekommen. Bis nach Vandenberg kommt man von Boca Chica aus nicht, maximal 2.307 km bei dieser Konfiguration, gäbe es eine aerodynamische Gleitphase von größerer Länge so würde das eventuell für die 2.420 km Distanz von boca Chica zu Vandenberg reichen, was dann zwei Routinen eröffnen würde.


Parameter

Wert

Einheit

Startbeschleunigung:

12,000

m/s

Antriebsphase:

250,98

sec

Schub Reduktion nach:

154,89

sec

Ohne Schubreduktion:

219,89

sec

Startwinkel:

90,000

Grad

Startmasse:

1.200.000,0

kg

Leermasse:

220.000,0

kg

Startsschub:

14.400,0

kN

Spez. Impuls Meereshöhe:

3.231,0

m/s

Spez. Impuls Vakuum:

3.431,0

m/s

Durchmesser:

9,000

Meter

Brennschlusshöhe:

262,71

km

Brennschlussdistanz:

164,82

km

Maximalhöhe:

780,21

km

Distanz:

1.701,6

km

Vmax:

3.539,6

m/s

Vmax (theoretisch):

5.765,9

m/s

Luftwiderstand:

35,952

m/s

Gravitationsverluste:

2.407,7

m/s

Vx (max):

2.185,0

m/s

Vy (max):

2.784,7

m/s

V zuletzt:

5.956,4

m/s

Dauer:

1.079,5

sec

Dauer mit <0,01 g:

807,62

sec

Nun liegt es an SpaceX. Würde die Firma wirklich ernst meinen was ihr großer Vorsitzender so visioniert, dann müsste sie damit beginnen. Denn die Landung entspricht der des Starships auf jedem Himmelskörper, bei Mars und Mond auch der Start, denn dort benötigt man keine zweite Stufe um einen Orbit zu erreichen. Sie könnte damit auch anfangen, bevor Stares ship/Superbooster für den Orbitaleinsatz qualifiziert sind. Zudem ergänzt es Hyperloop (gibt es da was neues?). Mit acht Triebwerken und Schubreduktion auf 3 g kommt man rund 3.000 km weit. Reicht nicht ganz über die ganzen USA, aber mit einem Stop schon.

28.1.2020: Demokratie à la CDU

Ich weiß, der Blog kommt etwas spät, aber mir fielen nachdem ich ihn angefangen haben neue Themen ein. Doch der Kern, um den es geht, ist nicht tagesaktuell.

Letzte Woche wurde Laschet online zum CDU-Parteichef gewählt, doch aufgrund der Vorschriften musste er noch durch Briefwahl bestätigt werden. Da gab es ein überraschendes Ergebnis. Bekam er bei der Stichwahl noch 52,6 Prozent, so waren es nun 81 Prozent. Hmmmm... Wie das?

Ich dachte zuerst, das die Wahlberechtigten ein Zeichen der Einigkeit mit einem hohen Zustimmungsergebnis senden, indem auch die, welche vorher für Merz stimmten, nun für Laschet stimmten. Immerhin besser als das Ergebnis noch umzudrehen, denn bei 52,6 Prozent für Laschet reichen ja schon wenige aus, die ihre Meinung ändern. Aber die Wahrheit ist weitaus profaner, denn wie (leider nicht bei jedem Medium) wiedergegeben, wurde dafür gesorgt, das Laschet gewinnen konnte:

„Bei der Bestätigung von Laschets Wahl handelte es sich nur noch um eine Formsache – Laschets Name war der einzige, der auf dem Wahlzettel stand. Seine unterlegenen Mitbewerber Friedrich Merz und Norbert Röttgen waren bei der Briefwahl – wie zuvor unter den drei Kandidaten vereinbart – nicht mehr angetreten.“

Nur ein Name auf dem Stimmzettel – das wagte man nicht mal in der DDR. Damit hat die CDU das Demokratieverständnis von Nordkorea. Immerhin, trotzdem wählten 19 % ihn nicht, mussten also einen anderen Namen auf den Zettel setzen oder mit Nein stimmen (wenn es so was gab). Erinnert mich an meine letzte OB Wahl, wo ich auch nur den Amtsinhaber wiederwählen konnte – der bekam dann auch 24 % der Stimmen – genauer gesagt über 90 % bei 25+ % Wahlbeteiligung ….

Aber sich vorher über das US-Wahlsystem und seine Komplexität aber auch sein Alter auslassen, wie das einige CDU-Prominente taten. Immerhin: Dort hatten die Wähler die Wahl zwischen zwei Personen und nicht einer...

Die CDU fiel ja schon vorher auf, weil sie diesen Parteitag noch im November, als man gerade den Lockdown beschlossen hatte, noch als Präsenzparteitag durchführen wollte. Zu vermitteln war das niemand – Privatpersonen dürften zu dem Zeitpunkt sich maximal mit 5 anderen Personen aus zwei Haushalten treffen, aber die CDU wollte 1001 Delegierte aus ganz Deutschland in einer Halle versammeln. Das ist schon nicht mehr mit zweierlei Maß messen, das ist eine unverschämte Klatsche ins Gesicht jeden, der sich an die Covid-Auflagen hält.

Insgesamt fällt die CDU ja eher dadurch auf, dass sie viel vorhat und wenig umsetzt. Beim Kohleausstieg ewig lange Fristen und Milliardengeschenke, bei der Kohlendioxidsteuer als zentrales Instrument für einen Wechsel in nachhaltiges Wirtschaften bleibt man unter den Forderungen des eigenen Beratergremiums. Bei Tierwohl kommen von Glöckner vor allem Appelle an die Industrie und Verbraucher, anstatt das man verbindliche Vorschriften erlässt. Dafür werden Übergangsfristen für quälende Verfahren, wie die Ferkelkastration ausgedehnt. Dauernd wird von einer Digitalisierung geredet, worunter sie das 5-G-Netz verstehen, dabei gibt es in Deutschland genügend Lücken, wo nicht mal das normale Mobilfunknetz funktioniert - wenn ich bei meinem Ferienhaus bin, muss ich fürs Telefonieren erst mal 2 km weiter radeln. Von den vielen Bockschüssen, die das Verkehrsministerium geleistet hat, mal ganz zu schweigen.

Innerhalb der Koalition hat denn auch die SPD bei der Halbzeitbilanz mehr vorzuweisen gehabt, sprich von den vereinbarten Vorhaben wurden mehr von der SPD umgesetzt als die Vorhaben der CDU.

Zum Schluss hat sie auch die zweite Virus-Welle verpasst. Nachdem die erste Welle im Frühjahr schnell abebbte, hat man sich in niedrigen Fallzahlen gesonnt. Dabei hat jeder, der was von der Materie etwas versteht, gewarnt, das im Herbst und Winter sich das Virus wieder ausbreitet, weil das SARS/Covid-2 Virus in Kälte und trockener Luft länger überleben kann. Daneben kam noch zum Sommerende die Rückreisewelle, wo sich Millionen von Deutschen in aller Welt mit Infizierten aus allen anderen Ländern austauschten und meist ohne Masken und dem gebotenen Mindestabstand Urlaub machten. Seitdem hangelt man sich mit Vorschriften von Woche zu Woche und wiederholt sogar dieselben Fehler wie vom Frühjahr – damals hat man eine Maskenpflicht eingeführt, ohne das es genügen Masken gab, nun führt man eine Pflicht für FFP2 Masken ein, und auch die sind Mangelware. Ich habe Masken noch am gleichen Tag bestellt, als die Vorschrift rauskam. Eine zeitgleich bestellte Festplatte ist seit Freitag da, bei der Maske steht seit 6 Tagen „hat das Versandzentrum verlassen“, die DHL-Packetverfolgungsnummer führt auch ins Leere.

Regierungen, die den Namen verdienen überlegen vorausschauend und auch wie sie Maßnahmen sinnvoll verschärfen können. Man hätte Handel und Herstellern schon Anfang November zu Beginn des Lockdowns den Hinweis geben können: „Wenn wir mit den Einschränkungen die Inzidenz nicht herunterbekommen, könnten wir eine FFP2-Maskenpflicht beschließen“. Sie hätten dann die Produktion erhöhen können und Masken bevorraten können. Ebenso hätte man sich denken können das man sicher mit Geräten, welche die Luft umwälzen und filtern besser Unterricht macht, als wenn man alle 20 Minuten lüftet. Überhaupt habe ich neben dem Gefühl das die Regierung – das schließt auch die Länderregierungen und nicht nur die CDU ein – nur permanent auf Sicht fährt. Hätte man nach den Erfahrungen im Frühjahr nicht mal für einen späteren Fall – muss ja nicht unbedingt Covid-19 sein, schon vorher gab es ja immer wieder auftretende Viren, die aber bisher Gottseidank sich nie zu einer Pandemie ausweiteten – eine Vorgehensweise festlegen können, welche Maßnahmen man bei welcher Ansteckungsrate durchführt und was man schon vorbeugend tun kann, um Viren an der Ausbreitung zu hemmen – dazu gehört das Bereithalten von Schutzbekleidung, Masken, Desinfektionsmitteln und Gerätschaften, Luftfilter- und Entkeimungsanlagen. Insgesamt finde ich arbeitet die Politik meiner Ansicht nach vor allem mit großen Keulen, also Lockdown, Personenzahlbeschränkung, Reiseverboten. Ich meine das man mit mehr Schutz, mehr Desinfektion und Luftreinigung weiter gekommen wäre anstatt das ganze Land „Herunterzufahren“ und billiger für die Gesamtgesellschaft wäre es auch gewesen, von den vielen Einzelschicksalen sowohl bei betroffenen Unternehmen wie auch Soloselbstständigen die monatelang keine Einkünfte haben ganz zu schweigen. Warum hat man nicht schon im Frühjahr die effektiven Op- und FFP2-Masken zur Pflicht gemacht? Warum hat man nicht in geschlossenen Räumen flächendeckend Geräte eingebaut die Luft filtern und desinfizieren z. B. durch UV Licht? Warum nicht kleinräumig auf Infektionen reagieren mit einem festen Maßnahmenkatalog so in der Art:

ab 50 Fälle/100.000 Einwohner Maßnahme x

ab 100 Fälle/100.000 Einwohner Maßnahme y

Das schafft zumindest eine gewisse Planbarkeit. Man weiß, was auf einen zukommen kann und was nicht. Und muss nicht von Ankündigung zu Ankündigung und Ministerpräsidentenkonferenz zur nächsten Konferenz warten.

Dazu kommt noch das alle Maßnahmen nun durch den Wahlkampf überschattet werden. Ich hatte das ja schon mal angesprochen, aber nun hat sich die Landesregierung in BW noch übertroffen. Erst kündigt Kretschmann das Ausscheren aus dem Länderbeschluss (Eisenmann wollte ja noch früher öffnen) an und verweist patzig darauf das von den Kindern keine Gefahr ausgehe, dann einen Tag später wieder alles zurück, weil gerade in einer Kindestagesstätte in Freiburg eine der neuen varianten aufgetreten ist. Wenn man mit Menschenleben spielt, nur weil man bei Wählern die nun ihre Kinder selbst betreuen müssen Punkte machen will, dann hört bei mir der Spaß auf. Ich denke das wird auch noch beim Superwahljahr in anderen Ländern noch so kommen, ich hoffe ja das bis zum Wahlkampf die den Bundestag das Thema von der Prioritätenliste gerutscht ist.

Insgesamt macht die Politik in den letzten Monaten keinen guten Eindruck. Ich bin überzeugt würde man einem Schüler in der Oberstufe als Hausarbeit fürs Homeoffice geben Maßnahmen für eine Pandemieverhinderung zu erarbeiten, man würde zum größten Teil bessere Antworten bekommen und ein Konzept wie es derzeit ist würde wohl irgendwie zwischen Ausreichend und Mangelhaft einzordnen sein.

29.1.2021: 35 Jahre PC – Verkleinern, Leistungssteigerung und Preisverfall

Auf mein heutiges Thema kam ich durch einen Test in der ct‘ für M.2 SSD. Für alle, die wie ich einen einige Jahre alten Rechner haben: SSD sind inzwischen so klein, dass es neben dem alten Standard SATA, den auch Festplatten haben, einen neuen gibt. M-2 SATA sind kleine Platinchen, 22 m hoch, 42 bis 80 mm lang, vergleichbar den DIMM von RAM-Riegeln. Neuere Rechner haben so einen Steckplatz und es ist auch folgerichtig, denn SATA wurde als Schnittstelle nur genutzt, damit man SSD in alte Rechner einbauen konnte. Praktisch keine SSD benötigte auch nur den Platz, den ein 2,5 Zoll Laufwerksgehäuse bot. Dabei benötigte man für den Einbau dieser Größe in einen Desktop noch Winkel, weil hier der Laufwerksschacht für 3,5 Zoll ausgelegt war. Trotzdem gibt es die M.2-SSD in Kapazitäten bis 8 Terabyte zu kaufen – fast so viel wie die größten Desktop Festplatten. Kein Wunder. Passen doch schon auf eine Mikro-SD Karte, einige Quadratmillimeter groß, bis zu 512 GByte und für 8 Terabyte braucht man dann nur 16 dieser kleinen Plättchen.

Ich habe bewusst die PC-Geschichte ab etwa 1982 mitbekommen und denke, ich bin durch meine Beschäftigung mit der PC Geschichte für mein Buch Computergeschichte(n) auch fähig etwas über die Jahre davor zu sagen.

Auf den ersten Blick hat sich in den letzten 35 Jahren (ich habe Januar 1986 gewählt, weil ich da für aktuelle Leistung und Kosten in der ct‘ 1/1986 nachsehen kann) gar nicht mal so viel verändert zu haben. Der PC ist immer noch eine Kiste, es gibt noch den Monitor und die Maus. Gut der Monitor ist nun flach, aber das gab es damals auch schon bei den Laptops. Selbst Dinge, die es damals nicht gab, waren zumindest von woanders bekannt so, CCD-Chips um Bilder aufzunehmen – die setzte die Galileosonde ein, die eigentlich 1986 starten sollte. Selbst die grafische Benutzeroberfläche gab es schon. Wenn man einen Computernutzer von 1986 per Zeitmaschine nach heute holen würde, er käme wohl mit einem PC zurecht, umgekehrt wohl eher nicht, zumindest wenn er unter DOS oder CP/M arbeiten sollte. Hätte man mich damals gefragt, wie man in 35 Jahren arbeitet, so hätte ich wohl darauf getippt, dass man Informationen gleich auf die Augen projiziert bekommt, den Rechner umgangssprachlich bedient. In der Tat gibt es das alles. Spracherkennung habe ich auch selbst ausprobiert – vor zwanzig Jahren. Mich hat es gestört, dass ich nun immer das Gefühl hatte, der Rechner wartet auf mich, ich fühlte mich bedrängt und konnte meine Artikel nicht so flüssig diktieren, wie ich sie schrieb. Also für mich wars nichts, aber wer schon vorher diktiert hat und das gewöhnt ist, für den ist es sicher eine Erleichterung und auch die Projektion auf das Auge gab s schon mal als Google Glas – hmmm habe davon aber schon lange nichts mehr gehört.

Schaut man sich den PC von damals aber genauer an, so gibt es schon deutliche Unterschiede. Floppy Disklaufwerke waren damals der Standarddatenträger, Festplatten noch die Ausnahme. Die gibt es schon lange nicht mehr im PC, auch nicht CD-ROM als Nachfolger – die gab es 1986 zwar schon, aber nur als Audiomedium und die ein Jahrzehnt später erschienenen DVD-Brenner sind am Aussterben, dabei haben diese die 5000-fache Kapazität eines damaligen Floppylaufwerks …

Am meisten Unterschiede gibt es im Rechnerinneren. Ein IBM kompatibler PC hatte etliche Karten. Denn auf dem Mainboard gab es praktisch keine Schnittstellen – Homecomputer hatten dagegen viel mehr Schnittstellen. Für die Maus benötigte man eine serielle Schnittstelle, für den Drucker eine parallele. Erforderte zusammen eine Karte. Die Floppy brauchte einen Controller – noch eine Karte, der Festplattenkontroller war eine weitere. Wenn der Speicher nicht reichte, kam noch eine Speichererweiterungskarte hinzu und Grafik gab es nur mit einer Grafikkarte. Ein normaler PC hatte also drei bis fünf Karten. Inzwischen ist alles im Chipsatz oder Prozessor integriert, meist auch die Grafik.

Bei den Anschlüssen fällt auf, das diese damals große Stecker hatten, im Vergleich dazu aber schlechte Datenraten. Die serielle Schnittstelle lies bis 230 kbit zu, aber die Datenrate schaffte damals kein SIO-Chip. Meist war bei 1200 bis 2400 Bit/s Schluss. Die parallele Schnittstelle hatte 40 Pins, obwohl es nur acht Datenleitungen gab. Sie war übrigens bidirektional, was man nutzen konnte, um Daten von einem PC zum anderen zu übertragen – Netzwerke waren ja noch nicht verbreitet. Da flossen die Daten so mit 10 bis 20 KByte/s rüber. Heute überträgt USB mit den 3.1 Protokoll 1,2 GByte/s, USB 3.2 das noch nicht als Stecker aufgetaucht ist, aber schon genormt, wird 5 GByte/s übertragen, also schon im Minimum 100.000 mal mehr. Dabei ist der Stecker dafür echt winzig, verglichen mit dem für die Parallele Schnittstelle nach dem Centronics Standard. Das gilt aber auch woanders. Ein SATA-Kabel ist erheblich dünner als die früher üblichen IDE-Kabel und überträgt trotzdem mehr Daten. Eigentlich sollte man meinen, hat sich an Kabeln, vereinfacht gesagt, Kupferdrähte nicht viel verändert. Das Grundprinzip der Leitung sollte unverändert sein. Natürlich wird man im elektronischen Bereich immer mehr Daten über eine Leitung transferieren können.

Es ist natürlich das es überall durch die Leistungssteigerung Mehrleistung gibt. Mal ganz viel, wenn man an Arbeitsspeicher, CPU-Geschwindigkeit oder Massenspeicher denkt, manchmal weniger, z.B. bei der Druckgeschwindigkeit oder Pixels auf dem Monitor. Aber: Nicht alles ist billiger geworden und nicht alles kleiner. Hinsichtlich billiger ist der absolute Gewinner in meinen Augen die Festplatte. Festplatten gab es schon vor dem PC. Der Vorfahr aller heutigen Festplatten war das Winchester-Laufwerk von IBM das 1973 herauskam. Vorher waren Platten und Leseköpfe getrennt, man konnte den Plattenstapel auswechseln. Im Winchester-Drive waren beide eine Einheit und in einem hermetisch verschlossenen Gehäuse untergebracht. So konnte man die Schreib-/Leseköpfe näher an die Plattenoberfläche bringen, mehr Daten auf einer Fläche speichern und die Schreib-/Leserate stieg an.

Urahn der heutigen Festplatten als Massenprodukt waren die ersten Festplatten im 5,25 Format, die um 1980 erschienen mit Kapazitäten von anfangs 5 MB. 1986 war das 5,25 Format immer noch marktbeherrschend, auch wenn die ersten Platten im 3,5 Zoll Format schon erschienen waren. Der Aufpreis für eine Festplatte bei einem PC lag damals im Mittel bei 2.500 DM, was bei einem preiswerten PC schon fast dessen Preis ohne Festplatte entsprach. Ein 20 MB Laufwerk alleine kostete ab 1.900 DM, der nötige Kontroller ab 600 DM. Bei mehr Kapazität wurde es schnell teurer, 40 MB kosteten 2.100 DM mehr als 20 und 87 MB etwa 7.000 DM mehr als 27. Das größte verfügbare Laufwerk, damals gerade frisch vorgestellt, fasste 380 MByte. War die Festplatte damals so teuer wie ein billiger PC, so kostet sie heute nur noch einen Bruchteil. Bei einem Billig-PC kann sie noch die teuerste Einzelkomponente sein, aber meist ist sie das dort auch nicht, sondern das Mainboard. Bei einem mittelteuren PC macht sie typisch nur einen Bruchteil der PC-Kosten aus. Festplatten teilen mit Speicher und Prozessor, dass sie rapide an Kapazität zulegten, die Wachstumskurve aber seit etwa 10 Jahren deutlich abgeflacht ist. Noch immer gilt diese Regel aber für SSD aus Flash-Speichern. Wenn man auch externe Speichermedien wie USB Sticks hinzunimmt, dann kann man den Preisverfall gut demonstrieren. Meinen ersten USB Stick kaufte ich mir 2002: 128 MByte für 42 Euro. Heute bekommt man dafür 256 GB, also 2.000-mal mehr in 19 Jahren, das entspricht eine Verdopplung alle zwei Jahre. Meine erste SSD kaufte ich 2012: 256 GB für 212 Euro, heute bekäme ich für denselben Preis 2 TB, also achtmal mehr in neun Jahren. Nicht ganz so extrem. Das liegt daran, das der Flash-Speicher nach Qualität selektiert wird und in den USB-Sticks landet die einfachste Qualität, nicht ausgelegt für sehr viele Schreibvorgänge, in SSD die beste. Bei Festplatten hat sich übrigens der damals noch junge 3,5 Zoll Formstandard gehalten, soweit ich weiß, der einzige Standard der heute noch von damals aktiv ist (VGA-Buchse und PS/2 Buchse, auch noch vorhanden wurden erst ein Jahr später eingeführt).

Die massivste Verkleinerung erfuhren sicherlich die vielen Karten, die man damals einbaute und die heute in einem Chip untergebracht sind. Ebenso wurden sie natürlich billiger, denn in einem Mainboard für 60 bis 100 Euro sind heute alle diese Karten integriert. Alleine für Hercules-Grafikkarte, Festplattenkontroller, Diskettenkontroller und parallele Schnittstelle zahlte man damals 1.200 bis 1.300 DM.

Doch nicht alles wurde kleiner und billiger. Ein 8086-Prozessor kostete damals 87 DM. Das war nicht der langsamste Prozessor, denn Rechner mit dem Z80 (unter 5 DM) und 6502 waren noch weit verbreitet und der 8088 auch. Es gab aber schon den 80286 als Nachfolger. Ich würde den 8086 damals als Mittelklasse einordnen. Das wäre heute in etwa die iCore i5 Reihe. Prozessoren dieser Reihe liegen heute bei 120 bis 200 Euro. Das heißt, der Prozessor ist nicht nur absolut teurer als damals, er ist auch im Verhältnis zum PC sehr teuer. Für einen Mittelklasse PC gab man damals so um die 4.000 DM aus. Heute mit Monitor um die 700 Euro. Der Prozessor kostet heute in etwa ein Viertel bis Fünftel des gesamten PC, damals ein Fünfzigstel. Und er ist nicht kleiner geworden. Schon der Prozessor ist wegen der vielen Pins, die er braucht, größer, auch wenn das Die im Inneren in etwa gleich groß ist. Aber er benötigt einen Kühlkörper, der um ein vielfaches größer als der Prozessor ist.

Sehr interessant verlief die Entwicklung der Softwarepreise. Software war damals wirklich teuer. Mehrere Hundert D-Mark für etwas was man heute als Utility bezeichnen würde, waren normal. Für das, was man heute als Office bezeichnet konnte, man locker mehr ausgeben als für den PC selbst. Dabei orientierten sich die Preise offensichtlich nach dem Preis des Rechners: Wordstar war unter CP/M und MS-DOS verfügbar. Kostete unter MS-DOS aber mehr als die CP/M Version und die Version für die CPC-Reihe, die auch CP/M konnte, aber billiger war als die normalen CP/M Rechner kostete nur 199 DM – für die MS-DOS Version musste man das vierfache löhnen.

Freie Software, zuerst als Shareware auf Disketten vertrieben, mit dem Aufkommen des Internets auch über dieses, hat dazu geführt, das man heute fast alles auch als kostenlose Alternative bekommt, wenngleich vielleicht nicht in der gleichen Funktionalität und Benutzerfreundlichkeit wie bei kommerziellen Produkten. Doch auch bei denen sind die Preise stark gesunken. Es gibt aber Ausnahmen. Die Kosten für Betriebssystem erreichten Anfang der Neunziger ein Minimum. 1986 musste man für MS-DOS und Windows zusammen rund 600 DM zahlen, 1993 nur noch 200. Beginnend mit Windows 95 wurde es wieder teurer, heute gibt es keine Windows-Neulizenz für 100 Euro, zumindest keine legale. Ebenso konnten Firmen, die einen Standard gesetzt haben, ihre Preise hochhalten. So Autodesk mit ihren CAD Programmen und Adobe mit den Desktop-Publishing-Programmen. Dazu gehört auch meine favorisierte Programmiersprache Delphi, die damals als Turbo Pascal 219 DM kostete, neu kostet Delphi in der billigten Version heute 1.699 Euro, also das 15-fache. So nutze ich eine ziemlich alte Version, die ich aber noch 2013 als Dozent mit Education Rabatt kaufen konnte.

Entsprechend gibt es Gewinner und Verlierer. 1986 waren die Firmen mit dem höchsten Wert, den meisten Angestellten alles Hardwarehersteller. Zum einen ist deren Zahl ständig zurückgegangen. Es gab damals etwa ein Dutzend Hersteller von Festplatten oder Floppydisklaufwerken, heute sind es noch drei. Ebenso sieht es bei den Grafikkarten aus. Manch einer erinnert sich noch an Namen wie Matrox, ATI, Genoa, Hercules, Paradise. Heute übrig geblieben sind Nvidea und ATI als Bestandteil von AMD. Vor allem aber hat, was den Firmenwert angeht, Softwarefirmen diese weit übertroffen, dehnt man den Begriff aufs Internet aus – das wesentliche ist ja auch die Software, die Google in ihrer Suchmaschine einsetzt, nicht die Rechner, die sie einsetzen, dann sind diese Firmen heute die wertvollsten weltweit.

Diesem Irrtum unterlag auch Steve Jobs. Er leitete die Macintosh Entwicklung und sah als Gegner IBM mit dem IBM PC, also die Hardwareplattform. Dabei war das herausragende des Macintosh nicht die Hardwarebasis auf dem 68000-Prozessor. Es war die grafische Oberfläche. Und sobald es die auch für den IBM PC gab, entfiel dieses Alleinstellungsmerkmal. Mehr noch: er unterschätzte die Bedeutung die Software schon damals hatte. Man gab nicht 5.000 DM (das wären heute mehr als 5.000 Euro) für ein Gerät aus, nur als Selbstzweck, zum Programmieren lernen oder um sich mit Computer vertraut zu machen. Man erwartete dann mit dem PC arbeiten zu können, auch wenn man noch mehr Geld für die Software ausgeben musste. Und da haperte es beim Macintosh. Aber das ist eine andere Geschichte.


 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99