Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 605: 13.11.2020 - 10.12.2020

13.11.2020: China und die Space Force

Nach dem Wahlsieg Bidens fragen sich alle, die sich für Raumfahrt interessieren, wie es natürlich hier weitergeht. Es gibt von Biden keinerlei Äußerungen zu dem Thema, nur einen Absatz im Wahlprogramm. Er spricht von dem Fortsetzen internationaler Programme, Fokus auf Klima und Erdforschung und Weiterbetreiben der Programme für bemannte Mond- und Marsmissionen. Artemis wird wohl nicht eingestellt werden, aber sicher nicht die Priorität wie bei Trump genießen – wobei, Priorität war bei ihm ja nie mit einer ausreichenden Finanzierung verbunden. Inzwischen äußern sich auch Politiker skeptisch zu dem Ziel bis 2024 auf dem Mond zu landen, wer sich in der Raumfahrt auskennt hatte schon vorher berechtigte Zweifel, denn dieses Ziel wäre nur erreichbar gewesen, wenn man das Programm entsprechend finanziert hätte, was ja auch unter Trump nicht so erfolgte.

Ein Projekt, das wesentlich weiter ist, wird wohl auch unter Biden weiter verfolgt werden. Die 2018 aus der Taufe gehobene Space Force. Nicht das Weltraumaktivitäten vorher keine Bedeutung für die USA gehabt hätten – das kombinierte Budget von NRO und USAF nur für „Space“ dürfte das der NASA erreichen – aber es war eben bisher keine eigene Waffengattung. Während die Space Force bisher durch Streitigkeiten zu welcher Waffengattung sie gehört und welche Ränge es geben soll, auffiel waren die Ziele beeindruckend. Es geht nicht nur wie bisher um das Starten von Satelliten. Es geht wirklich um Aufgaben, wie sie das Militär hat: Abwenden von Bedrohungen, Schützen eigener Objekte aber auch Ausschalten anderer Satelliten. Trump wollte sogar die zivile ISS miteinbeziehen. Das wird immer bizarrer. Inzwischen reden Offizielle von Patrollien durch das US-Militär jenseits des Mondes. Realistischer ist es Satelliten passiv zu schützen, wie das ESS-Programm, bei dem Satelliten einen EMP-Impuls durch eine Atomwaffenexplosion überleben sollen.

Während einige diese Szenarien utopisch sind, nimmt die Space Force erheblich schneller als Artemis die Fahrt aus. Weniger als zwei Jahre nach Gründung erfolgte dieses Jahr schon der erste Start. Der militärische Teil des Weltraumbahnhofs in Florida wurde inzwischen in Cape Canaveral Space Force Station umbenannt. Allein dieses Jahr erhält sie 15,4 Milliarden Dollar, das wird in den nächsten Jahren mehr werden. Man rechnet nicht damit, das Biden die Space Force wieder in der Versenkung verschwinden lässt.

Zumindest einer hat die Space Force ernst genommen. Trump hat ja einen Handelskrieg gegen China vom Zaun gebrochen und von Biden wird zumindest in der Handelspolitik gegenüber China keine wesentliche Änderung erwartet. Zudem haben sich die Beziehungen zwischen China und den USA unter Trump stark verschlechtert. Trump spricht ja auch immer vom „chinesischen Virus“. China, das sagte ein vom Senat befragter Geheimdienstchef, nimmt die Space Force ernst und unternimmt derzeit Maßnahmen gegen sie. Sie rechnen mit Angriffen auf ihre Satelliten und erarbeiten Möglichkeiten sich gegen diese zu wappnen, wie auch Satelliten der USA zu zerstören.

China hat mit vom Staat unterstützten Firmen in den letzten Jahren eine Reihe von neuen Feststoffraketen entwickelt. Teileweise Neuentwicklungen, teilweise abwandelte militärische Typen. Erst diese Woche hatte die teilprivate Ceres 1 ihren erfolgreichen Jungfernflug. Wenige Tage vorher startete eine Langer Marsch 6 mit 10 Satelliten. Nach dem Geheimdienstchef arbeitet China daran, sowohl ihre Technologie zum Abfangen von Satelliten weiter zu entwickeln und in ein dauernd einsatzbereites System zu überführen wie auch daran Satelliten extrem schnell zu starten, um Verluste rasch zu ersetzen. Schon 2007 schossen sie einen eigenen Sonnenforschungssatelliten ab. Inzwischen erreichte ein Satellitenabfänger eine Rekordhöhe von 30.000 km. Er kann damit auch die Navstar Satelliten angreifen und mit nur wenig Mehrleistung auch den GEO in knapp 36.000 km Höhe erreichen.

China sichert sich auch gegen Angriffe auf seine Startzentren ab. Denn damit könnte die Space Force ja verhindern das man Ersatz bereitstellt. China hat derzeit drei Weltraumzentren und baut ein viertes auf.

Im Juni erfolgte der erste Test eines Starts von einer mobilen Startplattform an Bord eines Schiffs. Eine Langer Marsch 11 startete von einem Schiff aus neun Satelliten gleichzeitig. Ebenso wird an mobilen Startbasen auf dem Festland gearbeitet. Das Schiff für den ersten Start ist noch ein umgebauter Frachter. Doch, in der Endphase ist geplant, sowohl Satelliten wie auch Antisatellitenwaffen auf normalen Schiffen zu stationieren. Sie sollen permanent auf einem Schiff mitfahren, verstaut in Standardcontainern. Erste Schulungen von besonders vertrauenswürdigen Besatzungen sollen schon erfolgen. In einem Container befindet sich ein Kran um die Rakete zusammenzusetzen (sie sind natürlich länger als ein Standardcontainer, in einem Zweiten die Rakete. Der Start selbst kann durch die Besatzung auf dem Schiff erfolgen, sollte, sofern das eigene Netz aber noch funktioniert, durch eine Funkverbindung vom Hauptquartier aus gesteuert werden. Die auf alle Weltmeere verteilten Schiffe sollen sowohl es erlauben Netze schneller wieder aufzubauen, indem es mehr Startbasen gibt und diese auch verteilt sind, somit leichter alle Bahnneigungen und Bahnebenen wieder erreichbar sind. Zum anderen müsste der Gegner so einen viel höheren Aufwand betreiben, um die mobilen Startbasen zu zerstören. Auch für das Abfangen von Satelliten ist ein weltweit verteiltes System von Vorteil, denn erdnahe Satelliten überfliegen einen Punkt auf der Erde nur alle 12 Stunden. Mit einem Schlag so größere Teile der Satellitenflotte der USA auszuschalten, wäre mit Systemen nur auf dem chinesischen Festland unmöglich.

Neben den Tests gibt es auch ein Forschungsprogramm. So wird derzeit daran geforscht ob es Sinn macht das Starlink Netz zu zerstören, und welchen Aufwand und Nutzen das brächte. Aus Chinas Sicht ist Starlink ein teilmilitärisches Netz. Schlussendlich gab es schon, nachdem die ersten Satelliten gestartet wurden, Tests der Nutzung durch das Militär und inzwischen wird Starlink sowohl als militärisches Kommunikationsnetz genutzt wie auch als Alternative zu GPS untersucht. Das grundlegende Problem ist natürlich, das man zwar mit der Zerstörung mehrerer Starlink-Satelliten schnell eine Situation schaffen kann, die zu einer exponentiellen Zerstörung von immer mehr Satelliten führt, dem sogenannten Kessler Effekt. Was eine sich exponentiell verstärkende Zerstörung bedeutet, weiß ja inzwischen durch Corona fast jeder. Doch das würde auch eigene Satelliten betreffen. Wahrscheinlich sucht China in den Computersimulationen nach Möglichkeiten Starlink und US-Satelliten möglichst stark zu schädigen und gleichzeitig ein eigenes Netz aufrecht zuerhalten, z.B. mit sehr erdnahen Satelliten, die nur kurzlebig sind, aber vor Trümmern geschützt sind, weil diese bei einem erdnahen Perigäum rasch wieder verglühen. Wenn diese Satelliten mit Ionentriebwerken arbeiten, wie der europäische Forschungssatellit GOCE könnten sie selbst in erdnahen Umlaufbahnen von 200 km Höhe wochen- bis monatelang aktiv bleiben. Gearbeitet wird an einem militärischen Backup zum Beidou System, dem chinesischen Pendant zu GPS. Es baut auf zahlreichen erdnahen Satelliten, deren Umlaufbahnen bekannt sind. Die eigene Position wird dann durch Triangulation des Funksignals von mindestens drei Satelliten bestimmt. Ein solches System hatten die USA vor GPS in Betrieb: das Transit System. Damals wurden ebenfalls mehrere kleine Satelliten mit einer Scout gestartet, ähnlich wie bei den letzten chinesischen Starts.

Das Resümee des Vortrags war, das China sehr rasch seine eigene Space Force aufbaut und innerhalb weniger Jahre die Fähigkeit haben wird, sowohl alle erdnahen US-Satelliten wie auch das GPS-System zu zerstören und genauso rasch eigene Verluste durch Neustarts ergänzen könnte. Die Startrate chinesischer Träger stieg in den letzten Jahren rapide an. Letztes Jahr waren es 34 Starts, dieses Jahr trotz Corona Pandemie bis zum 1.10, also nach ¾ des Jahres schon 29. Man kann nur hoffen, dass sich die beiden Nationen wieder annähern, was aber wohl eher unwahrscheinlich ist. China setzt repressive Maßnahmen in Hongkong durch, beansprucht immer mehr bisher internationale Gewässer und bauen Korallenriffe zu Inseln aus. Umgekehrt wollen die USA die Importe aus China in die USA herunterfahren, was als Hauptexportmarkt für China wohl kaum die chinesische Führung erfreuen wird.

20.11.2020: Ba-dee-ya

Wer ohne Google auf den Stand kommt, woher der obige Blogtitel stammt, der steigt in meiner persönlichen Meinung eine Stufe nach oben. Es geht heute um Liedtexte. Der Text eines Liedes ist ja mitunter schwer zu verstehen. Das liegt zum einen daran, das Tempo und Tonhöhe dem Lied angepasst werden, Worte werden gedehnt, gestaucht, zusammengesprochen oder klingen in hohen Tönen aus. Bei englischen Texten, dem Großteil, weil ja auch die meiste Musik im Radio englisch ist, kommt noch hinzu, dass kein deutscher Muttersprachler alle Worte kennt, die das englische bietet und Künstler meiner Erfahrung nach oft selten verwendete benutzen oder Sprichwörter oder eigene Umschreibungen. Aber auch deutsche Musik ist nicht ohne. Da macht Grönemeyer bei „Was soll das“ aus „angrinst“ „angrient“. Wer Passagen textet, die sehr ungewöhnlich sind, muss sich über Fehlinterpretationen nicht wundern – auch ich höre bei dem Song „Pflaster“ nicht „Es tobt der Hass, da vor meinem Fenster“ sondern „Es tobt der Hamster vor meinem Fenster“. Warum? Nun ein tobender Hamster vor dem Fenster macht auch wenig Sinn, aber es ist doch ein grammatikalisch korrekter Satz. Das mag auch für das Original gelten, doch die Kombination von „Hass“ und „Da“ ist so ungewöhnlich (wäre das „da“ überhaupt notwendig gewesen oder nur ein Füllwort, damit die Zeile zur Länge der Strophe passt?) das viele eben einen Hamster dort hören. Selbst Adel Rawill klärt das in Konzerten auf. So scheint das Phänomen doch nicht so selten zu sein.

Musikjournalisten machen sich ja gerne über den Dialekt deutscher Musiker lustig, wenn diese englisch singen. Beliebtes Ziel sind z. B. die Scorptions. Tatsache ist aber auch: ich verstehe die Texte von deutschen Musikern die englisch sing besser als die der meisten muttersprachlichen Gruppen, selbst ohne Dialekt. Einfach weil sie das gleiche begrenzte Sprachreportoire wie ich haben. Zudem singen sie wenn sie dialektfrei Singen dann meistens hochsprachenenglisch, also auch ohne muttersprachlichen Dialekt. Das gilt auch für andere Sprachen. Abbas Lieder sind für mich einfach verständlich, Cher, die im Mamma Mia 2 Film mitspielt und ein ganzes Album mit Abba Covers herausbrachte sagte in einem Interview, sie habe zuerst die Texte nicht verstanden. Tja so unterschiedlich können Wahrnehmungen sein. Gut verständlich sind für mich dann auch eher Texte ohne Akzent, am besten mit Hochsprachenenglisch so wie bei den Pet Shop Boys.

Tatsache ist aber auch: die meisten Liedtexte sind nun nicht gerade Lyrik, für die man einen Nobelpreis bekommen würde. In gefühlt der Hälfte der Fälle dreht es sich um Liebe. Den schlechten Ruf den Schlager bei uns hat ist auch dem geschuldet, das man die Texte versteht und ihre Trivialität und Eintönigkeit erkennt. Vieles was woanders läuft ist von der Melodie her auch nur Schlager, nur versteht man die Texte nicht. Und zumindest in französisch oder italienisch klingt fast alles toll. Ein Beispiel wie man mit dem falschen Text so ziemlich alles versauen kann ist die Cindy und Bert Version von Paranoid – ja Schlager-Urgestein Cindy und Bert covern einen Titel von Black Sabbath – der Text ist grausam. Die Musik mit der Orgel und einigen Orgel-Solos gefällt mir aber besser als die stupiden Riffs der Gitarren bei Black Sabbath. Auf der anderen seite erlauben gute Texte auch Interpretationen. Heino hat „Junge“ von den Ärzten gecovert. In dem Song geht es um die Klagen der Eltern über einen Sohn, der nicht ihren Wertvorstellungen entspricht und während man bei den Ärzten das wohl aus der Sicht des Jugendlichen anhört, ist es bei Heino dann eher die der Eltern inklusive Blassmusik anstatt Gitarrenjaulen. Denn beide haben ja recht. Das Eltern sich um die Zukunft ihrer Kinder sorgen ist ja an sich nichts schlechtes. Nur sollten sie es mit den Ermahnungen und der Drasstigkeit der Ausdrücke, „Willst Du das wir alle sterben“ nicht übertreiben.

Im Prinzip sind Songwriter mit dem gleichen Grundproblem konfrontiert wie ich als Blogschreiber. Irgendwann hat man alle Themen durchgekaut, die einem wichtig sind. Dann kann man sich nur noch wiederholen, vielleicht indem man einen anderen Aspekt aufgreift. Okay, ein Songschreiber muss pro Jahr vielleicht ein Dutzend Lieder fertig´bringen und kann es sich anders ein Blogautor leisten, alle paar Jahre ein neues Album rauszubringen. Dafür muss er den Text verdichten und es muss singbar sein. Selbst wenn man nicht nur über Liebe singt – der Alltag bietet auch sonst genug Themen – Annett Louisan ist ein gutes Beispiel wie man aus alltäglichen Dingen gute Lieder machen kann wie „Mama will ins Netz“ oder Der Depp. Aber auch da gehen mal die Themen aus. Zumindest wenn der Song eine Message haben soll oder witzig sein soll. Der Text der meisten Lieder ist dementsprechend auch seicht und ich denke oft nicht wichtig. Die Frage ist dann: braucht man überhaupt einen Liedtext? Adiemus hat sich entschlossen, dass man eigentlich keinen Liedtext mit Sinn braucht und die Lieder haben zwar Text aber in einer Phantasieprache, im Prinzip einfach die Laute die am besten zu der Musik passen. Das Lied „In the Stone“ von Earth Wind and Fire habe ich zuerst als Instrumentalversion gehört, und sie gefällt mir besser als die mit Text.

Aber wenn Text sein soll, warum dann nicht Phantasietext? Und so komme ich wieder auf den Blogtitel: „By di ya“ ist der Refrain des prominenten Earth Wind and Fire Songs „September“. Ich interpretierte die Zeile, da ich ich zumindest verstand, dass es im Song uns Tanzen, gute Zeit und Groove ging, immer als „Party ya“. Und es funktioniert und darauf kommt es an. Oder wie der Songschreiber schrieb: Willis was initially bothered by the gibberish "ba-dee-ya" lyric White used through the song, and begged him to rewrite it: "I just said, 'What the fuck does 'ba-dee-ya' mean?' And he essentially said, 'Who the fuck cares?' I learned my greatest lesson ever in songwriting from him, which was never let the lyric get in the way of the groove". Daneben hat es einen enormen Vorteil: man ist nie blamiert, wenn man etwas nicht gut versteht. Also Liedermacher: mehr Mut zu ba-dee-ya. Spart euch auch jede Menge Text den ihr lernen müsst. Notfalls könnt ihr einfach mit anderen Lauten improvisieren.

29.11.2020: Hardwarefirmen, Softwarefirmen oder Dienstleister – wer ist am erfolgreichsten

So, nach einer Woche mal wieder ein neuer Blog. Nicht, dass ich nichts zu schreiben hätte, aber geht mehr in Richtung Meinung und wie ich den fehlenden Kommentaren entnehme interessiert die ja nicht so viele. Ich habe zwei neue Artikel geschrieben über die Versionen von DOS und Windows, und weil ich die auch ausprobiert habe, folgt noch einer wie man selbst eine virtuelle Maschine aufsetzt.

Auf beides hat mich die jährliche Retro-Ausgabe der ct‘ gebracht, die aber dieses Jahr extrem an Niveau verloren hat. Die meisten Redakteure haben von dem, was sie schreiben keine praktischen Erfahrungen mehr. Das zeigt sich daran das man alle Heimcomputer – inklusive des Altair 8800 in einen Artikel geworfen hat, auch meine CPC Serie – immerhin nach C64 und Spectrum die dritterfolgreichste Serie bei den Heimcomputern. Im Grafikkartenartikel werden 10 Jahre Entwicklung in zwei Absätzen abgehandelt, mit noch dazu falschen technischen Daten und sich dann seitenweise über jede noch so kleine Änderung bei 3D-Beschleunigerkarten ausgelassen. Ich dachte mir darüber einen Artikel zu schreiben, doch wie schon gesagt, das ist eben nur Meinung.

Der heutige Blog behandelt aber ein Sachthema, nämlich wie sich im Laufe der Zeit verändert, hat was Menschen wünschen und wofür sie Geld ausgeben und dementsprechend, wie "wertvoll" Firmen sind. Ich schreibe „Wertvoll“ in Anführungszeichen, weil man das verschieden messen kann – am Umsatz, am Gewinn, an der Anzahl der Beschäftigten, am Börsenwert etc. aber wenn es auch da Unterschiede gibt, der Trend ist klar.

Als die PC-Revolution 1975 begann, gab es schon eine Computerindustrie. Die größte Firma war IBM, dann folgte DEC. Die „wertvollsten“ Firmen waren allesamt Hardwarehersteller. Warum? Es gab noch nicht die Softwarebranche, wie wir sie heute kennen. Verkauft wurden vor allem Computer. An Software gab es vom Hersteller dann noch das Betriebssystem und Compiler für Programmiersprachen wie COBOL oder FORTRAN. Wer Anwendungen benötigte, stellte Programmierer ein oder lies sie erstellen. Erst wenige Jahre zuvor wurde SAP gegründet, mit dem Ziel eine Standardsoftware für verschiedene Rechner anzubieten. SAP/R1 lief auf Rechnern der IBM 370 Serie, die aber auch von anderen Herstellern wie Amdahl nachgebaut wurden. In jedem Falle war der Ansatz neu: anstatt das jeder eine Lohnbuchhaltung programmiert passt man eine Standardsoftware nur an. Das lohnt sich, wenn die Plattform, auf der sie läuft, weit verbreitet ist, wie dies bei den Großrechnern der IBM-Serie der Fall war.

Trotzdem galt dieser Grundsatz, das man mit Software nichts verdienen kann, auch während der ersten Jahre der Mikrocomputerzeit. Die Firmen, die damals groß wurden – MITS, Apple, Commodore, waren allesamt Hardwarehersteller. Steve Jobs konnte mit dem Börsengang von Apple seinen persönlichen „Wert“ innerhalb von zwei Jahren verhundertfachen. Es hatte sich auch nicht viel geändert. Die ersten Computer wurden von Leuten gekauft, die man heute Nerds, Freaks oder Technikenthusiasten nannte. Sie programmierten selbst. Wenn nicht, gab es Nachschub in Form von abgedruckten Listings – ja auch ich habe in den Achtzigern tatsächlich ein paar Mal Listings in Nadelrückerqualität aus einer Zeitschrift abgetippt – heute unvorstellbar. Auch viele frühen Softwaregurus verschenkten ihre Software. Gordon Eubanks gab sein CBASIC an IMSAI für einen Computer und Zubehör her. Diesselbe Firma konnte die erste Version von CP/M für einige Tausend Dollar erwerben – das war fast geschenkt. Eine Ausnahme war Bill Gates, der sein Alatair BASIC teuer verkaufen wollte. Leider kursierten viele Raubkopien und der Umsatz war nicht wie erwartet, was ihn zu einem erbosten Brief an die Computerhobbisten veranlasste.

Aber im Laufe der Jahre wurden die Rechner leistungsfähiger und um die Wende zu den Achtziger Jahren erschienen die ersten Anwendungen als Standardsoftware, so Wordstar als Textverarbeitung, dbase als Datenbank, Supercalc und Visicalc als Tabellenkalkulationen. Damit begann eine neue Ära. Der Computer wurde nun nützlich. Nützlich in dem Sinne, dass man kalkulieren konnte, was er kostete und was er einem einbrachte, vor allem an eingesparter Arbeitszeit bzw. höherer Produktivität. Damit stiegen auch die Verkäufe dieser Programme. Wie schnell dies gehen konnte, zeigt das Programm Lotos 1-2-3: Die Entwicklung des Programms, vor allem aber Printwerbung kostete 3 Millionen Dollar. Im ersten Jahr machte Lotus schon 57 Millionen Dollar Umsatz, im zweiten 157. Lotus 1-2-3 wird als Killerapplikation bezeichnet – es war so nützlich, das es alleine den Kauf eines IBM PC rechtfertigte. Nur wenige Jahre vorher war das anders. Microsoft hatte als IBM an die Tür klopfte, nach fünf Jahren, gerade mal 8 Millionen Dollar Umsatz im Jahr.

Steve Jobs, damals Chef bei Apple, erkannte die Zeichen der Zeit nicht. Er sah den IBM PC als die Bedrohung für Apple und den Macintosh durch seine grafische Oberfläche als überlegen an. Doch er war nicht nur teuer. Es gab auch kaum Software für ihn. Die gab es aber für den IBM PC und er und die Kompatiblen verkauften sich einfach besser. Apple wandte sich sogar an Microsoft, damit diese Software für den Mac entwickelte. Das diese so herausfanden wie die grafische Oberfläche funktionierte war Jobs klar, aber er nahm es wohl in Kauf. Die wahre Bedrohung war aber Microsoft. Während IBMs Marktanteil durch Nachbauten ständig sank, benötigten alle diese Rechner ein DOS, das von Microsoft kam und mit Windows 3.1 hatte der PC auch eine grafische Oberfläche, mit der man arbeiten konnte und das Alleinstellungsmerkmal des Mac war dahin. In den Achtziger Jahren lösten langsam aber Sicher Softwarefirmen die Hardwarefirmen als „wertvollste“ Firmen ab – zumindest was den Gewinn betraf.

Aus logischen Gründen kann man aus Software potenziell mehr Gewinn machen. Die Kosten entstehen bei der Programmierung. Sie sind relativ hoch. Das ist Handarbeit und hoch qualifizierten Leuten. Demgegenüber ist Hardwaredesign relativ einfach. Ist die Software einmal fertig, so sind aber die einzigen Kosten, die sie verursacht, die für Datenträger und Handbücher. Heute nicht mal diese. Das ist gemessen am Verkaufspreis wenig. Bei einem Computer macht dagegen die Produktion den größten Teil des Verkaufserlöses aus. Mehr noch: nach meiner eigenen Erinnerung wurde Software in den Achtzigern immer teurer. Zeitweise warben Computerhandelsketten wie Escom damit, das die mit dem Rechner verschenkte Software fast genauso viel kosten würde wie der PC selbst. Das war möglich durch Lizenzverträge. Ein sehr frühes Beispiel war der Osborne 1 – der erste Computer mit Softwarepaket. Als es 1983 einen Osborne Bausatz in der ct' gab, kauften nach Angeben der Redakteur viele das Mainboard mit den Disketten der Software und schmissen das Board in den Müll. Billiger kam man nicht an die populärsten Standardprogramme für CP/M. Softwarefirmen wurden so schnell wertvoller als viele Hardwarefirmen. An der Spitze stand lange Zeit Microsoft, einfach dadurch, dass ihre Betriebssysteme auf jedem PC liefen und bei jedem PC so mitkassiert wurde.

Mit dem Internet begann eine neue Ära. Zum einen erreichte der PC eine neue Zielgruppe. Bisher war er Werkzeug, vor allem für Büroarbeiten oder eine bessere Spielekonsole. Mit dem Internet gingen Leute ins Netz, die sich zuerst nur informieren wollten, bald aber um sich auszutauschen. Das begann mit Emails und Foren in denen sich gleichgesinnte austauschen konnten. Dann dehnte jemand das Forumprinzip auf Gruppen aus, die auch im echten Leben „Real life“ sich kennen. Es entstanden soziale Netzwerke, zuerst auf Gruppen beschränkt wie in Deutschland StudiVz oder Stayfriends. Die sind inzwischen weg oder spielen nur noch eine Randgruppe, weil Facebook eine so dominierende Rolle hat und man dort nichts zahlen muss – man bezahlt mit seinen persönlichen Daten und die sind Gold wert. Bedenkt man wie viel für Werbung in Printmedien, Fernsehen und Radio ausgegeben, wird die nur einen Bruchteil derer erreicht, die potenzielle Kunden sind, dann ist klar, dass man mit einer personalisierten Werbung basierend auf dem eigenen Surfverhalten enorme Summen verdienen kann. Vorher machte das schon Google. Groß kann man aber auch werden, wenn man nur Dinge verkauft. Amazon fing mit Büchern an. Das war logisch, gibt es doch Millionen von Büchern und ein Buchladen kann vielleicht einige Tausend führen. Klar man konnte schon früher Bücher bestellen, doch musste man dazu wissen, dass es überhaupt existiert. Heute kauft Amazon alles selbst oder über Marketplace. An Umsatz und Gewinn haben diese Konzerne längst Hardware und Softwarefirmen überholt. Ist aber auch logisch: Wie viel gibt man heute noch für Computer aus, wie viel aber für Einkäufe im Internet? Selbst Computerhersteller haben den Sprung gemacht. Der meiste Umsatz bei Apple wird nicht mit iPhones oder iMacs gemacht, sondern mit iTunes. Nicht nur die Größe von Amazon, Facebook, Google & Co ist beeindruckend, sondern auch ihr Wachstum. Der Kurs von Amazon ist in vier Jahren um mehr als 300 % gestiegen, mit 280 Mrd. Dollar Umsatz haben sie Apple und Google überholt. Microsoft als Softwarehersteller hat gerade mal halb so viel Umsatz und Intel als Hardwarehersteller sogar nur ein Viertel dessen.

Was wird kommen? Man hat Geld mit den Geräten gemacht, mit der Software und damit das man mit ihnen Waren verkauft. Was übrig bleibt ist noch die Arbeit. Man wird vielleicht nur einen Teil übers Internet abwickeln können. Einen Handwerker, Putzfrau oder Callgirl wird man wohl vor Ort haben wollen (buchen übers Internet kann man schon). Aber wie sieht es mit Dingen aus die nicht von der Stange sind? Kleidung, wo man die Stoffe selbst aussucht und die maßgeschneidert ist (so was gibt es schon). Dinge aus dem 3D-Drucker – das klappt ja inzwischen sogar mit ganzen Häusern. Auch hier muss man nichts von der Stange nehmen. Ich weiß nicht, ob das so ein großer Markt wird, aber es ist wohl ein Marktsegment, das man noch erschließen konnte.

Wie sehr sich in den letzten Jahren unsere Gewohnheiten gewandelt haben, will ich an diesem Screenshot zeigen. Nachdem ich Windows 98 endlich auf einer virtuellen Maschine installiert bekam, habe ich auch den Webbrowser aufgerufen und bekam beim Aufruf von Google diese Warnung. Angesichts dessen das heute alles abgefischt wird, bei Facebook sogar wenn man gar nicht Facebook besucht sondern eine Seite nur einen dieser „like“ Buttons hat, musste ich schmunzeln. Ja das waren noch andere Zeiten, als man sich auch über die Datensammelwut des Staates bei einer Volkszählung Gedanken machte.

3.12.2020: Aufwand für die Landung des Starships

Anstatt der Novembernachlese für SpaceX habe ich mangels Neuigkeiten mir heute wieder ein technisches Thema ausgesucht, das mich auch selbst interessiert. Trotzdem noch eine kleine Nachbemerkung. Bei de meiner Wette steht es derzeit so das SpaceX 14 Starlink Starts durchgeführt, ich hatte auf maximal 17 getippt. Wäre die Corona-Pandemie nicht dazwischen gekommen, so hätten sie es schaffen können. Allerdings ging ich auch davon aus, das SpaceX auch noch andere Starts für die Regierung und kommerziell durchführt, wenn auch der Nutzlaststau abgearbeitet ist, aber das der Einbruch so riesig ist – nur sieben andere Starts dieses Jahr, habe ich nicht geahnt. Für alle die so gerne über europäische Träger lamentieren, empfehle ich auch mal einen Blick auf den Start von Sentinel 6 zu werfen. Das ist der dritte Start eines Satelliten, der vor allem in Europa gebaut wurde mit einer Falcon 9, nimmt man noch den Start von Solar Orbiter hinzu, dann fand in den letzten Jahren im Schnitt jedes Jahr ein Start eines europäischen Satelliten mit einer US-Rakete statt. Alles waren Gemeinschaftsprojekte, nur ist die ESA bzw. bei Grace Follow On das DLR nicht so fokussiert wie die USA darauf, das man die eigene Trägerindustrie unterstützt.

Heute geht es um die Landung des Starships – ich vermute die erste Stufe wird wie die erste Stufe der Falcon 9 landen. Doch beim Starship wird das nicht so möglich sein. Dafür muss sie zu viel Geschwindigkeit abbauen. Die erste Stufe der Falcon 9 hat bei der Landung zwei Brennperioden. Die Erste bremst die Stufe stark ab, bei diesem Manöver brennen drei Triebwerke. Das zweite Manöver ist dann für die direkte Landung und vernichtet die Restgeschwindigkeit, die die Stufe hat. Nun benötigt man nur ein Triebwerk. Das erste Manöver dauert zwischen 20 und 30 s, das Zweite eher um 20 s. Beim letzten Starlink Start waren es (nach Stoppen der Kommentaraussagen) 26 und 23 s. Daraus kann man den Treibstoffverbrauch abschätzen. Es gibt natürlich Unsicherheiten. So sind die Zeiten bei jedem Start etwas anders und die Triebwerke sind im Schub auch regelbar, wobei das Herunterregeln außer vor dem Aufsetzen eigentlich keinen Sinn macht, da es nur einen Mehrverbrauch an Treibstoff bedeutet. Addiert man aber beide Zeiten, so hat man 26 x 3 + 23 x 1 Triebwerkssekunden zusammen also 101 Sekunden. Ein Merlin verbraucht, wenn man die offiziellen Angaben für Vakuumschub und spezifischen Impuls nimmt (845 kN, 3050 m/s, besser wären die Bodenwerte doch die bleit SpaceX beim Schub schuldig), 277 kg Treibstoff pro Sekunde, in 101 Sekunden Betriebszeit verbrennen also fast 28 t. Das ist erheblich mehr als die erste Stufe wiegen dürfte – glaubt man Musks Angaben eines Voll-/Leermasseverhältnisses so wöge sie nur 15 t, was aber außer ihm niemand glaubt, doch selbst bei realistischen 22 t ist das mehr als die Stufe selbst wiegt.

Beim Starship das bei 120 t Zielleermasse nur 100 t Nutzlast hat, dürfte das ausgeschlossen sein. Da wäre der Treibstoff für die Landung schon beim gleichen Vorgehen wie bei der Falcon 8 größer als die Nutzlast.

Wie die Mission abläuft darüber schweigt sich auch Musk aus. Es gibt ein Fanvideo, das „nahe an der Wirklichkeit“ nach Musks Angaben sein soll. In dem gleitet die Stufe und dreht erst direkt über der Landestelle in die Horizontale. Dieser Landungstyp, wie beim Space Shuttle macht Sinn. Gegen ihn sprechen auch nicht die relativ kleinen Flügel, denn auch moderne Shuttle Entwürfe wie das X-37B oder Sierra Nevadas Gleiter haben kleine Flügel. Die großen Flügel des Space Shuttle waren nur nötig wegen der USAF-Forderung nach einer großen Querreichweite (die übrigens nie benötigt wurde). Daneben wirkt der ganze Tank von rund 50 m Länge und 9 m Querschnittt natürlich auch als Fläche, die bremst.

Ich denke aber man wird in größerer Höhe in die Senkrechte drehen. In welcher Höhe ist offen. Vielleicht wissen wir mehr, wenn der Aufstieg auf 15 km Höhe bald stattfindet, denn sinnvoll sist es ja dann eine Landung zu erproben. Aber man kann eine Abschätzung machen und mit der Falcon 9 Landung vergleichen. Zuerst Mal eine Abschätzung für den Geschwindigkeitsbedarf. Eine Falcon 9 Erststufe wird auf 22 t geschätzt bei 3,7 m Durchmesser. Wenn sie den gleichen Luftwiderstand hat wie ein Starship, dann entspräche dies bei 120 t Masse einem Durchmesser von 8,4 m. Nun hat das Starship 9 m Durchmesser, das heißt, die Endgeschwindigkeit beim freien Fall sollte vergleichbar sein. So müsste auch die zweite Abbremsphase in etwa gleich viel Geschwindigkeit abbauen.

Wie hoch sie ist, hängt davon ab, mit welcher Geschwindigkeit der Fall startet und in welcher Höhe. Würde SpaceX bei dem Test z.B. in 15 km Höhe aufsteigen und dann die Stufe einfach fallen lassen, um sie erst vor der Landung abzubremsen, so wären es rund 530 m/s. Ich nehme an, das bei der Landung drei Raptors arbeiten, weil die zweite Stufe drei Triebwerke mit und drei ohne Vakuumdüsen hat. Das würde bei 2.500 kN Schub dann 7.500 kN Schub ergeben, was bei einer leeren Stufe einer Abbremsung um 62,5 m/s entspricht, zieht man 1 g ab, um die die Rakete durch die Erdgravitation beschleunigt, wird so sind es noch 52 m/s, erheblich mehr als bei der Falcon 9, wo die Erststufe ein Sechstel wiegt, das Triebwerk aber nur ein Neuntel des Schubs hat. Damit fällt diese Brennperiode kürzer aus und das spart Treibstoff. Ich würde bei sonst gleichen Ausgangsvoraussetzungen auf 17 Sekunden tippen. 17 Sekunden entsprechen aber bei 2.500 kN Schub pro Triebwerk und 3.240 m/s spezifischem Impuls fast 40 t Treibstoff. Das ist immerhin 40 % der Nutzlastmasse. Zu Vermuten ist daher das man anders landet, wie im Video erst in niedriger Höhe in die Vertikale dreht, wenn auch nicht direkt über dem Startplatz, sondern in sicherer Höhe. Ich denke für das Drehen um 90 Grad müsste das Starship aber mindestens unterschallschnell sein, weil ich mir sonst kaum vorstellen, kann das es die Scherkräfte sonst aushält. Ariane 5 zerbrach beim Jungfernflug, als die Booster die Rakete in 3,7 km Höhe abrupt drehten. Ein Drehen reduziert die abzubauende Geschwindigkeit gegenüber einer Falcon 9 deutlich. Da man so keine große Vertikalgeschwindigkeit aufbaut. Um, wie viel hängt von der horizontalen Restgeschwindigkeit (die vernichtet werden muss) und der Höhe ab. Ich würde eine Halbierung, mithin auch eine Halbierung des Treibstoffs von 40 auf 20 t für möglich halten.

Doch das ist nicht das Einzige. Das Starship braucht auch Treibstoff um den Orbit zu verlassen. Wie viel das ist, hängt von Orbithöhe und niedrigstem Bahnpunkt ab. Die Space Shuttles hatten etwa 100 m/s für dieses Manöver reserviert. Nimmt man 140 t Masse nach Verlassen des Orbits an (120 t Leermasse und 20 t Treibstoff zum Landen), so entspricht dies bei einem reklamierten spezifischen Impuls von 3.719 im Vakuum weiteren 3,3 t Treibstoff. Zusammen kommt man so auf etwa 23 t Treibstoff, mithin ein Fünftel der maximalen Nutzlast. Die 100 m/s sind allerdings stark von der Bahn abhängig, je höher die Kreisbahn, desto höher der Geschwindigkeitsbedarf. Hier eine kleine Tabelle:

Kreisbahnhöhe

Aufwand Absenkung Perigäum auf Meereshöhe

Aufwand Absenkung Perigäum auf 70 km Höhe

200

61 m/s

39 m/s

300

90 m/s

68 m/s

400

118 m/s

97 m/s

500

145 m/s

124 m/s

600

172 m/s

151 m/s

Die 70 km habe ich gewählt, weil zwischen 60 und 80 km Höhe bei normalen Satelliten das Auseinanderbrechen durch die Luftreibung beginnt. Das heißt, in dieser Höhe würde ein Raumschiff so stark abgebremst werden, dass es den Orbit verlässt.

Bei elliptischen Bahnen wird es komplizierter. Zum einen haben sie eine Überschussgeschwindigkeit. Bei jeder Bahn sinkt durch Abbremsung zuerst das Apogäum ab, bei einer niedrigen Kreisbahn sind dazu in etwa die obigen Werte für eine Perigäumsabsenkung auch für eine Apogäumsabsenkung nötig und damit verlässt das Raumschiff den Orbit. Bei einer elliptischen Bahn kann eine geringe Abbremsung aber bedeuten, dass das Apogäum noch in einer Höhe liegt, in der die Atmosphäre kaum abbremst und dann verlässt das Gefährt nach Durchlaufen des Perigäums wieder die Zone der Abbremsung und verbleibt im Orbit. Daneben ist die Zeit, in der es in dieser Zone bleibt, erheblich kürzer als bei einer kreisförmigen Bahn. Man wird hier also kaum die Abbremsung auf eine Zone von 60 bis 80 km Höhe nehmen können sondern wird tiefer gehen müssen. Als Nebeneffekt ist auch die abzubauende Energie größer. Zum Kühlen der Außenhaut will ja SpaceX Treibstoff einsetzen und davon wird man dann mehr benötigen. In der Summe denke ich wird man bei elliptischen Bahnen wie z.B. eine GTO-Bahn mehr Treibstoff zum Verlassen des Orbits benötigen als bei niedrigen kreisfömigen Umlaufbahnen.

SpaceX rechnet übrigens mit vielen Tests, bei der FAA haben sie 15 beantragt. Elon Musk rechnet nur zu einem Drittel mit einem erfolgreichen Test beim ersten Flug. Inzwischen haben sie die FAA auch ersucht eine zweite Testplattform zu bauen für den Fall „in the case of an anomaly on the primary test pad“. Erheblich problematischer sehe ich aber die Phase des Wiedereintritts. Schlussendlich ist das System für die Abführung der Energie eine neue Technologie, das dürfte ähnlich spannend sein wie beim ersten Testflug des Space Shuttles.

8.12.2020: Weihnachtsrummel

Das heutige Thema ist nicht neu. Ich habe es sicher schon ein oder mehrmals in den letzten Jahren gebracht. Es ist der Rummel vor Weihnachten. Alles geht ja schon Mitte September los, wenn die ersten Süßigkeiten für Weihnachten in den Läden ankommen. Das wird immer früher, in den letzten zehn Jahren ist es beim ALDI zum Beispiel von Ende auf Mitte Dezember also rund zwei Wochen nach vorne gerutscht. Dann habe aber ich keine Lust darauf. Um die Zeit hatten wir noch Spitzentemperaturen von 30 Grad. Da isst man lieber Eis, als Lebkuchen. Nach Weihnachten wird es dann zum halben Preis verkauft. Gut viele der Süßigkeiten haben nichts mit der Jahreszeit an sich zu tun. Fast alles was aus Schokolade ist, ist nur umgeformt oder in Pralinen auch sonst das ganze Jahr über erhältlich wie gefüllte Eier. Lebkuchen und Gewürzspekulatius sind für mich aber Winterartikel. Das Geschmacksempfinden ändert sich eben mit der Temperatur. Im Sommer wird man keine Erbsensuppe essen und im Winter hat man Lust auf intensiver gewürzte Kekse. Warum gibt es diese dann nicht bis Ende Februar, eben als normale Artikel ohne ein eigenes Regal. Ich selbst mache Vanillekipferl erst ab Anfang Dezember aber dann bis Ende Februar. Dafür sollten die Waren später in die Regale, wenn es kalt und dunkel wird, nicht vor dem 1. November, eher Mitte November.

Das ist aber nur ein Aspekt. Besonders nervig finde ich die Berieselung mit Weihnachtsliedern im Radio. Korrekter gesagt: Weihnachtssongs, denn es sind ja keine bekannten deutschen Weihnachtslieder wie „Stille Nacht“ oder „O Tannenbaum“ (übrigens Hymne in vier US-Bundesstaaten Nationalhymne und die Hymne der britischen Labour Party und Hymne bei etlichen Organisationen und Vereinen). Es sind Pop-Songs, die sich irgenwie um die Zeit um Weihnachten drehen. Obwohl es davon so viele gibt, das mein Haussender SWR1 sogar am vierten Advent eine Hitparade über vier Stunden angekündigt hat, nervt es, weil es immer um das eine Thema geht. Einige populäre Songs mehrmals am Tag gespielt werden wie „Last Christmas“ und es eigentlich auch nur ein Genre ist, nämlich Pop. Würden die Radiosender nur deutsche Lieder spielen, dann würde ihnen das auch selbst auffallen und auch bald auf den Keks gehen. Es gibt Ausnahmen und es gibt einen Geheimtipp, zumindest für Schwaben, da in Mundart. Lasst euch von dem langsamen Anfang nicht täuschen: Krischtbaum. Aber der wird nicht gespielt. Dafür gibt es heute Nachmittag beim „virtuellen Weihnachtsmarkt“ vier Stunden Weihnachtssongs am Stück. Ich wette woanders wird das Programm als psychische Folter zweitverwendet.

Es sind ja nicht nur die Songs. Es sind auch andere Dinge, die sich immer wiederholen. Um Weihnachten gibt es die Aktion „Herzenssache - Helft Kindern“. Hörer spenden und bekommen Wünsche erfüllt. An und für sich eine gute Idee, auch wenn das Musikprogramm nicht wirklich abwechslungsreicher wird. Aber um es zu promoten, gibt es jede halbe Stunde ein Jingle, und das ist seit Jahren das gleiche. Das Gleiche gilt für die Lindt- Fernsehwerbung, die so lange unverändert ist, das ich denke, dass der Opa der als Chocolatier auftritt längst tot ist und die Kinder erwachsen. Leute, leistet euch doch nach ein paar Jahren einen neuen Spot. Das muss bei den Preisen von Lindt-Produkten und der Tatsache, das ihr trotzdem billige Zutaten nehmt, (Butterreinfett anstatt Kakaobutter) drin sein.

Anderes kann ruhig länger bleiben wie der Lichterschmuck. Macht die Städte heller und abwechslungsreicher. Es war ja so, das man Weihnachten extra nahe an die Wintersonnenwende am 21/22 Dezember gelegt hat um die Germanen und andere Völker in Mittel- und Nordeuropa leichter für das Christentum zu gewinnen, die die Sonnenwende immer feierten mit Lichterfesten, rituellen Verbrennungen etc. Also Festen mit Lichter und Feuer, als Kontrast zu der Zeit wo es kalt und am längsten dunkel ist. Schon vorher hatten die Römer den 25.12. unter Aurelian als Feiertag für den Sonnenkult festgelegt.

Ich dachte zumindest dieses Jahr ist es wegen Corona und damit Wegfall der Weihnachtsmärkte und Beschränkung der Kundenzahl beim Einkauf besser. Aber es verlagert sich der Konsumrausch wohl nur auf den Onlinehandel. Ich bestelle im Dezember bewusst nichts. Aber Weihnachtsmuffel wie ich sind wohl in der Minderheit, obwohl die Hälfte der Deutschen nicht mehr einer Kirche angehört und die andere Hälfte wohl kaum so gläubig ist, dass sie Weihnachten primär als christliches Fest sieht – man muss nur mal die Besucher der Gottesdienste am 24 und am 25/26 vergleichen – am 24 gibt es bei uns drei die immer voll sind, da nun die ganzen U-Boot Christen auftauchen und an den beiden anderen Tagen ist die Kirche nicht mal halb voll. Geht es nicht etwas weniger dick aufgetragen, etwas bescheidener – um Ostern als zweites großes Fest macht man ja auch keinen so großen Rummel und ich kenne nicht mal einen Ostersong.

Meiner Ansicht nach hat das ganze nur einen Sinn: das selbst der der den ganzen Rummel um Weihnachten liebt am Vormittag des 24-sten die Nase so voll hat, das er sich nur auf drei Tage ohne den ganzen Rummel freut – an denen laufen übrigens auch im Radio dann keine Weihnachtslieder mehr. Weihnachtsmuffel wie ich haben schon lange vorher ihre Toleranzschwelle erreicht.

Zuletzt noch ein Wort zu den „Corona-Lockerungen“ zu Weihnachten. Überflüssig wie ein Kropf und ein Symptom für eine kopflose Politik, wie auch Diskussionen rund um das Thema wie verführter Schulferienbeginn oder Aufhebung des Beherbungsverbotes über Weihnachten. Was sollen schon die Verordnungen wie Beschränkung der Personenzahl auf 5 und zwei Haushalte? Leute wer soll das kontrollieren, wie viele Leute in privaten Räumen zusammenkommen? Da muss man dann auch nicht temporär das auf 10 erweitern, denn wirklich große Versammlungen gibt es in Privatwohnungen alleine wegen des Platzes nicht und Gaststätten und andere Örtlichkeiten mit Veranstaltungsräumen sind ja zu. Dasselbe gilt für die Hotelübernachtungen. Sorry, aber ich kenne niemanden bei denen an Weihnachten und gerade an Weihnachten dann der Besuch abends in Hotelzimmer geht. Das ist doch nur ein Schlupfloch für einen sonst fast unmöglichen Weihnachtsurlaub. Warum regelt die Politik Dinge, die sie nicht kontrollieren kann oder die überhaupt nichts sinnvoll sind?

Wer noch weg will über Weihnachten und danach – trotz Beherbungsverbots, zumindest die Skilifte arbeiten ja wie normal, sollte mal über einen Urlaub in einem Ferienhaus nachdenken. Da man dort eine Küche hat bzw. Bringdienst-Essen erlaubt ist, juckt einen die geschlossene Gastronomie nicht und Stand heute gibt es dort auch kein Beherberungsverbot. Meines ist über Weihnachten belegt, ab dem 1.1.2021 aber frei.

10.12.2020: Zusammengerotzt, aber erfolgreich

Für den heutigen Blog hatte ich kein Problem eine Überschrift zu finden. Andere Vorschläge, die ich hatte, waren „Unternehmen Zufall“, „Nichts ist so erfolgreich wie ein Provisorium“, „Der Name macht‘s“ oder „Sieg der Mittelmäßigkeit“. Bevor ihr weiterlest überlegt selbst mal, um was es gehen könnte ….

Es geht um den IBM PC und seine Technik. Ich habe kürzlich einen relativ langen Artikel über Gary Kildall gelesen, aus dem Buch „They Made America“ über Techniker, Erfinder, Unternehmer aus zwei Jahrhunderten. Von den Informatikern – und da gäbe es sicherlich etliche Kandidaten – hat es nur Gary Kildall in das Buch geschafft. Natürlich kommt auch die Episode wie der IBM PC zu DOS kam da zur Sprache. Gary Kildall hielt nicht so viel von dem Gerät. Es wäre zu wenig innovativ. Ähnliches habe ich von Andy Herzfeld in einem Interview gehört. Die Apple Entwickler haben einen IBM PC gekauft auseinandergenommen und kamen zum Schluss es leiste weniger als der zeitgleich erschienene Apple III.

Die Sicht von IBM, die ich auch bisher verbreitet habe, ist die, dass IBM ein schnell wachsendes neues Marktsegment sah, in dem sie nicht vertreten waren. Eine kleine Gruppe unter der Leitung von Phillip Estridge habe in 12 Monaten einen PC geschaffen und mit IBM Traditionen gebrochen (eigentlich stammte fast nichts am PC von IBM) und sei dann vom Erfolg des PC überrascht geworden.

Hier nun eine andere Sicht. Nämlich die, dass IBM sich wenig Mühe beim Design des PC gab und ein Gerät auf den Markt brachte, dass eigentlich nicht Stand der Technik war und auch nicht den Qualitätsansprüchen genügte die IBM woanders an sich selbst stellte.

Dazu muss man die Vorgeschichte des PC kennen. Seit Mitte der Siebziger Jahre versuchte IBM mit mehreren Geräten im Mikrocomputermarkt Fuß zu fassen. Da war die IBM 5100 Serie, basierend auf eigenen Logikbausteinen. Diese Geräte waren mit 10.000 Dollar als Einstandspreis viel zu teuer. Es folgte der IBM Displaywriter, auch in IBM Technologie, aber nun nicht gedacht für Wissenschaftler und Ingenieure, sondern Büroarbeiten. Dieses Gerät war sogar relativ erfolgreich, denn es konnte Texte aus einzelnen Textbausteinen zusammensetzen und Serienbriefe verfassen. Es gab zahlreiche Branchen, wo man Kunden eigentlich immer die gleichen vorformulierten Antworten gab, wie Versicherungen oder Banken. Dort war eine soclhe Technologie eine deutliche Arbeitserleichterung.

Der unmittelbare Vorgänger des IBM PC war das Modell 5322 „Datamaster“. Erstmals setzte man keine IBM-Technologie ein, sondern verwandte den Mikroprozessor 8085 von Intel. IBM setzte aber eigene 8 Zoll Floppylaufwerke ein, mit einer beeindruckenden Kapazität, aber eben auch sehr teuer. Die kleinste Konfiguration kostete 7.900 Dollar, mit Drucker und Textverarbeitungsprogramm landete man bei fast 10.000 Dollar. Dafür gab es zur gleichen Zeit zwei bis drei CP/M Rechner, die mit Wordstar ähnliches konnten. Vor allem dauerte die Entwicklung des Data Masters zwei Jahre, viel zu lange. Am längsten hielt der BASIC-Interpreter auf. Der Datamaster erschien so auch nur einen Monat vor dem IBM PC.

Als im August 1980 IBM beschloss einen weiteren Anlauf zu machen, war dem Management die Problematik bekannt: Man brauchte zu lange für einen PC und mit eigener Technik waren sie zu teuer. So verwundert es nicht das man beschloss den PC aus Bauteilen zu konstruieren, die von anderen Herstellern stammten, Doch wie den Zeitfaktor verkürzen? Nun ganz einfach indem man vom einzigen Modell, das es schon gab, dem Datamaster, so viel möglich übernimmt. Das erklärt fast alle Designentscheidungen beim IBM PC: Durch die Wahl des 8088 Prozessors mit nur 4,77 MHz konnte man die gesamten Peripheriebausteine des 8085 nehmen, das sparte Zeit beim Design der Hauptplatine. Als der Datamaster konzipiert wurde, waren 16 KBit RAMs Standard, also bekam der IBM PC nur Steckplätze für 16 KBit RAM, was den internen Speicher auf 64 KByte beschränkte. Erweitern konnte man ihn nur mit Steckkarten. Die aber auch maximal 64 KByte fassten. 1979 erschienen aber schon 64 KBit RAM und die meisten CP/M Rechner hatten auf dem Mainboard nicht nur Platz für 64 KByte RAM, sondern sogar noch Komponenten, die man beim IBM PC auf Steckkarte nachrüsten musste wie Druckeranschluss oder Anschluss an einen Monitor. Die krumme Taktfrequenz von 4,77 MHz (die normale Taktfrequenz des 8088 betrug 5 MHz) kam zustande, das man um 50 Cent für einen zweiten Oszillator zu sparen Prozessortakt und Takt für das NTSC-Signal aus einem Mastertakt durch Teilung (Faktor 3 und 4) ableitete. Vom IBM-Datamaster übernahm man auch den Bus für Steckkarten, auch hier ein Vorteil, das der 8088 nur einen 8 Bit breiten Datenbus hatte. Die ct‘ schrieb über das Bussystem „unglücklich gewählte Polaritäten, etwa der Interrupt-Leitungen, unsaubere Timings, schlechte Entkopplungen … eben hingestolpert“. Also nach IBM-Qualität hört sich das nicht an, die war bei den größeren Computern berühmt. Sicher wird auch die Tatsache eine Rolle gespielt haben, das ein 68000 Prozessor, ja selbst ein 8086 mit 8 MHz in einer anderen Liga spielte und man sich so nicht selbst Konkurrenz machte. Aber ich denke die weitestgehende Komparabilität, die sich ja auch auf die Software bezog – man konnte ein Assemberprogramm für den 8080 auf den 8086/8 crossassemblieren, weil es ähnliche Befehle gab und die gleichen Register, war das wichtigste.

Die Geschichte mit dem DOS Deal zeigt aber wie gut sich IBM mit Computern und Märkten auskennt. Sie brauchten natürlich auch Software für ihren Rechner. Das war ein Betriebssystem und der BASIC-Interpreter. Der Letztere hatte als IBM Entwicklung dafür gesorgt, dass der Datamaster zwei Jahre brauchte. Sie gingen zu Microsoft, weil diese eine Softcard für den Apple II vertrieben die einen Z80 Prozessor hatte und ihn befähigte, CP/M Software laufen zu lassen. Vertrieben wurde sie mit einer Lizenz von CP/M und BASIC-80, dem Basic von Microsoft. Der ganze Sinn der Karte war es nur, den Verkauf von BASIC-80 zu fördern. Microsoft machte mehr Umsatz mit dieser Karte als mit allen anderen Produkten. Den Käufern ging es nicht um BASIC-80 sondern CP/M. Auch wenn der Apple II sich besser verkaufte als jeder einzelne CP/M Computer, so gab es doch so viele verschiedene Modelle das CP/M der Betriebssystemstandard war. Jeder wusste das und jeder wusste auch, dass es von Digital Research kam. IBM wusste es nicht. Sie glaubten Microsoft wäre im Besitz der Rechte, weil sie es mit der softcard vertrieben, das ist wie, wenn man glaubt, ein Porsche, der einen Audi-Motor hat, wäre ein Audi. Selbst ich als Nicht-Autobesitzer weis das, dem nicht so ist. IBM achte sich auch keine Mühe die Software, die von Microsoft kam zu untersuchen – und viel aus allen Wolken, als schon vor der Veröffentlichung sich Gary Kildall meldete, da ihr PC-DOS geklaut war. Dabei konnte man die Ähnlichkeit schon auf der Kommandoebene erkennen. Die Qualität von PC-DOS 1.0 war denn auch nicht besonders und Microsoft musste bald eine fehlerbereinigte Version nachschieben. Das spricht nun nicht gerade von Marktkenntnis, nicht mal von einer guten Qualitätssicherung.

Was herauskam war:

Kurz: der Käufer bekam für 1.265 Dollar eine Zentraleinheit. Damit konnte er aber nichts anfangen. Er benötigte mindestens eine Tastatur. Das hob den Preis auf 1.500 Dollar an. In einer Konfiguration mit zwei Diskettenlaufwerken, 128-KB-RAM (mit 64 kam man, da x86 Code länger ist als 8080 Code ist und das Betriebssystem alleine 12 K benötigte, nicht weit) und Monochrommonitor kam man auf 4.420 Dollar.

Nur zum Vergleich: Ein Osborne 1, CP/M Komplettcomputer mit Software kostete 1.795 Dollar, mit Monitor vielleicht 2.0000. Ein Apple II+ mit zwei Laufwerken etwa 2.400 Dollar. Selbst der neue Apple III kostete mit 3.600 Dollar erheblich weniger. Vom neuen Prozessor hatte der Nutzer wenig, denn die erste Software war über Croassassembler übersetzte 8080 Software. Das galt sogar für en BASIC Interpreter, der langsamer war als auf schnellen CP/M Systemen. Zudem war der RAM-Ausbau extrem teuer.

IBM hatte einen Rechner konstruiert, an dem wenig neu war, vieles nur vom Datamaster übernommen. Er war in der Basisausführung im Prinzip ein Heimcomputer wie ein Atari 800, Ti 99/4A oder VC-20 nur dreimal teurer. Man konnte ihn zu einem Computer für Geschäftsanwendungen ausbauen. Doch selbst dann war er doppelt so teuer wie ein eingeführter 8 Bitter und immer noch erheblich teurer als Apples neues Flagschiff der Apple III. Gut er war nur halb so teuer wie der Datamaster aus dem er hervorging, aber bedenkt man das er eine neue Linie war, ohne das er wie ein neuer CP/M Rechner auf einen riesigen Fundus an Software zugreifen, konnte so verwundert es, das das Gerät erfolgreich war, sich sogar weitaus mehr verkaufte, als die kühnsten Prognosen vorhersagten.

Es gab dafür zwei Gründe. Der eine waren drei Buchstaben auf dem Gerät: IBM. Jeder kannte IBM, die meisten kannten nur einen Computerhersteller und das war IBM. IBM hatte einen guten Ruf. Die Rechner waren nicht immer die technologisch besten, aber IBM hatte einen hervorragenden Service und einen noch besseren Vertrieb. Wenn also IBM einen Mikrocomputer baut, dann taugt der was, wurde dieses Marktsegment für viele erst interessant. Zudem wurden die Computer damals wegen des Preises in größeren Firmen eingesetzt und die hatten meist auch einen Zentralrechner von IBM, waren also „vorbelastet“. Die Frage ob man dann andere Architekturen und Firmen in Betracht stellte gab es gar nicht, oder wie ein geflügeltes Word damals war: "Noch nie wurde jemand dafür entlassen, dass er von IBM gekauft hat“.

Der zweite Faktor war die offene Architektur. Für die gab es zwei Gründe. Das eine war sicher das Phillip Estridge von seiner privaten Nutzung eines Apples die Vorteile kannte. Es bedeutete, dass jede Firma Zubehör entwickeln konnte, selbst für exotische Anwendungen an die IBM nicht gedacht hatte oder für die der potenzielle Kundenkreis zu klein war. Das zweite war schlicht und einfach das IBM gar nicht die Ressourcen hatte alles selbst zu entwickeln. So gab es bald jede Menge Zusatzkarten, manche davon verdrängte die IBM Lösung in der Gunst der Käufer wie die Hercules Grafikkarte die Grafik und Text konnte – dafür musste man bei IBM zwei Karten kaufen.

Den Ruf, den IBM hatte, sah man auch am fehlenden Markterfolg der anderen Kompatiblen. IBM war nicht die einzige Firma die 8086/88 Rechner herausbrachte. Es gab den Victor Sirius – er verfügte über mehr Speicher einen echten hochauflösenden grafikfähigen Bildschirm und Floppys mit der vierfachen Kapazität des IBM oder der Texas Instruments Rainbow, der als Doppelprozessorsystem einen fließenden Übergang ermöglichte denn sein Z80 Prozessor konnte auch CP/M-80 Software ausführen. Alle diese Rechner waren MS-DOS kompatibel, sprich Programme, die für MS-DOS geschrieben waren, liefen auch bei ihnen. Praktisch alle hatten Vorteile gegenüber dem IBM PC oder waren zumindest billiger. Dumm nur, dass IBM einen so langsamen Prozessor gewählt hatte. Programmierer übergingen das PC-DOS und griffen direkt auf das BIOS zu oder schrieben sogar direkt in den Bildschirmspeicher. Solche Programme liefen dann nur auf dem IBM PC und sie führten letztendlich zum Tod der „nur“ MS-DOS Kompatiblen.

Auf längere Frist führte die offene Architektur aber zu Nachbauten. Es verging eine lange Zeit – zwei Jahre – bis der erste rechtlich unangreifbare Nachbau, der Compaq Portable erschien. Obwohl „portabel“ war er 500 Dollar billiger als ein IBM PC und er war nur der erste von vielen. IBM blieb immer teurer als die Konkurrenz, doch selbst Flops wie der IBM PC junior als Heimcomputer gefährdeten die Marktmacht nicht. Die ging erst verloren, als IBM beschloss, sich von der offenen Architektur abzuwenden und eine eigene geschlossene Hardware- und Softwarearchitektur zu etablieren. Das ging nach hinten los, nach einigen Jahren stampfte man diese PS/2 Linie dann wieder ein, bis dahin war der Marktanteil aber, soweit gesunken das man auch keine neuen Standards mehr durchsetzen konnte. Die Lektion mussten auch andere lernen, so Ed Roberts, der den ersten „PC“ baute, der auch bald kopiert wurde (als IMSAI 8080, Star im Film War Games) oder Steve Jobs, der nachdem es einige Nachbauten des Apple II gab, den Macintosh als geschlossenes System konzipierte. 

 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99