Computer in der Raumfahrt – Wann kommt die Leistungsexplosion?

Ein Punkt der viele erstaunt, ist immer wieder, mit wie wenig Computerleistung Raumfahrzeuge auskommen müssen. Das ATV z.B. startet mit einem Sparc V7 kompatiblen Prozessor mit 14 MHz Taktfrequenz. Ein heutiger "Wald und Wiesen PC" ist etwa um den Faktor 1000 schneller. Eine gute Gelegenheit mal zu erläutern warum dem so ist.

Dem war nicht immer so. Als Voyager 1977 starteten waren ihre Borcomputer um einiges schneller als ein Apple II, der damals gerade erst erschien. Aber diese CPU war noch für das Raumfahrzeug entworfen und bestand aus vielen einzelnen Bausteinen. Danach ging man daran handelsübliche Prozessoren einzusetzen, die es auch in einer speziellen "Militärischen" Version gab: Diese Bausteine vertragen höhere Temperaturbereiche und sind unempfindlicher gegen elektrostatische Störungen. Die Raumfahrt hängte sich auch hier an das Militär an, weil es sich für die wenigen Satelliten nicht lohnte, eigene Prozessoren zu entwickeln.

So verwendeten viele Raumfahrzeuge bis in die zweite Hälfte der 90 er Jahren den MIL-STD 1750A, einen 16 Bit Prozessor der vergleichbar mit den MC68000 war. Er wurde vom US Militär für Flugzeuge und Lenkwaffen in den 80 er Jahren entwickelt. Aber auch andere Bausteine fanden ihren Einsatz wie in Europa Transputer (auch davon enthält das ATV noch einige). Selbst wenn man "normale" Prozessoren einsetzte, so waren diese beim Start meist hoffnungslos veraltet: Das ergibt sich aus den langen Projektlaufzeiten. Am Anfang muss festgelegt werden was man verwendet. Schließlich müssen Hardware und Software auf schon existierenden Bauteilen fußen. Man kann schlecht einen Prozessor einsetzen der angekündigt ist, und von dem man nicht weiß ob er rechtzeitig verfügbar ist, die gewünschten Eigenschaften hat, und ob die Software auf ihm korrekt läuft. So wählte man als Galileo 1977 aufgelegt wurde den RCA 1802 Prozessor – das einzige strahlungsresistente verfügbare Design damals. Starten sollte Galileo 1982 – damals gab es dann schon 16 Bit Prozessoren die weit schneller waren, als der 8 Bit RCA 1802. Durch Verzögerungen wurde schließlich 1989 draus und bis die Sonde an Jupiter ankam 1995.

Doch selbst unter Berücksichtigung dessen fällt auf, das in dem letzten Jahrzehnt die Entwicklung von raumfahrttauglichen Prozessoren immer langsamer wurde. Was ist der Grund? Nun neben einer gewissen konservativen Haltung (Prozessoren zu nehmen, die zwar veraltet sind, für die man aber von anderen Projekten schon entwickelte Software hat, so auch beim ATV, welches die Hardware des DMS-R an Bord von Swesda einsetzt) sind es mehrere Punkte. Eines ist das Problem des Bussystems. Bussysteme sind schwieriger zu wechseln als Prozessoren, denn am Bus hängen ja viele Teilnehmer, vor allem die Experimente. So ist heute noch der MILS-STD 1553B Bus gängig, der nur 1 MBit/s Datenrate hat. Die Begrenzungen dieses Bus umgeht man, indem man mehrere Busse kombiniert, beim ATV z.B. 6 pro Rechner. Heute ist PCI der Standard für neue schnellere Systeme – PCI hat eine maximale Datenrate von 133 MByte/s, wovon auf Anwendungsebene etwa noch 100 MByte/s übrig bleiben und das ist etwa 800 mal schneller als der MIL-STD 1553B Bus.

Das zweite ist es, dass die CPU Entwicklung immer teurer wird. Man braucht für Satelliten spezielle CPUs, die vor allem mit höherer Strahlenbelastung besser zurecht kommen und nicht so empfindlich gegenüber statischer Elektrizität sind. Für die Chiphersteller ist dieser Markt inzwischen zu klein und sie entwickeln keine speziellen Designs dafür. Intel verkaufte das Pentium Design mal an die NASA, die daraus eine eigene CPU entwickeln wollte, aber dies doch einstellte.

Was bleibt, sind Firmen die ein Chip Design nehmen und es verbessern, dass es die Anforderungen erfüllt. BAE und Maxwell z.B. den PowerPC Prozessor. Die Kosten dafür lässt man sich gut bezahlen – ein solcher Prozessor kostet dann gerne 200.000 Dollar pro Stück.

Vor allem aber hat man das Problem der Kühlung. Wer einmal seinen PC aufgeschraubt hat, weiß wie groß heute ein Kühler ist. auf einem Satelliten gibt es keine Luft die man mit dem Ventilator umwälzen könnte, da muss die gesamte Kühlung mit Kühlkörpern und Heatpipes geschehen. Und in der Regel ist auch der Strom begrenzt, so dass man sich Stromfresser wie den Pentium 4 nicht leisten kann.

Der immer noch leistungsfähigste Prozessor ist der RAD750, ein Prozessor der PowerPC Familie, mit 10.4 Millionen Transistoren und 166-300 MHz erreicht er bis zu 300 MIPS. Er ist damit in etwa vergleichbar mit dem 603e oder 604, oder auf dem PC mit einem Pentium II. Seit 2001 verfügbar steht sein Nachfolger noch aus. Maxwell betreibt das Design mit noch etwas höherem Takt und erreicht mit dem 750FX bis zu 1800 MIPS.

In den letzten Jahren hat sich bei Intel eine Abkehr von den stromhungrigen Prozessoren getan. Mit dem Atom Prozessor gibt es seit langem wieder erstmals einen Prozessor, der nur einige Watt Strom verbraucht und ohne Lüfter auskommt. Die Leistung ist zwar nicht riesig – in etwa so viel wie ein 2 GHz schneller Athlon oder Pentium 4 und weitaus langsamer als ein aktueller Doppelkernprozessor – aber das ist immer noch 10 mal schneller als der RAD750. Intel hatte bisher nicht so viel Erfolg beim Vermarkten ihrer CPU im All – das könnte sich ändern. Ein zweiter Trend, denn man vor allem bei den Instrumenten sieht ist der Einsatz von Digitalen Signal Verarbeitungsprozessoren (DSP). Instrumente werden jeweils von einem Institut mit eigener Elektronik entwickelt. Standardisiert muss nur die Datenübertragung über den Bus sein. Daher findet man oft auf Raumsonden in den Instrumenten viel leistungsfähigere Computer als im Zentralrechner. Diese haben dann auch einen eigenen Speicher und verarbeiten die Daten vor. Bei OSIRIS, einem Instrument von Rosetta verfügt z.B. über einen TSC2102F Prozessor, eine weltraumtaugliche Version eines 32 Bit Signalprozessors von Texas Instruments und 4 GBit Speicher. Der Hauptprozessor ist dagegen ein 16 Bit 1750A kompatibles Exemplar mit einer viel geringeren Leistung.

Die Frage ist natürlich auch ob man die Leistung braucht. Vergleiche mit dem PC sind da völlig falsch. Jeder PC ist meistens damit beschäftigt die gesamte grafische Oberfläche darzustellen. Das ist recht deutlich daran zu sehen, wenn das Internet im Browser nicht schneller wird, weil immer mehr grafische Features benutzt werden. Dabei ist der reine Datentransfer (und mehr muss der Prozessor eines Satelliten ja nicht tun) schnell erledigt: Für Bittorrent gibt es z.B. eine Box mit einer 66 MHZ PowerPC 601 CPU. Die reicht dafür völlig aus. Hohe Geschwindigkeiten braucht man bei sehr anspruchsvollen Missionen, wie z.B.. den beiden Rovern, die autonom fahren sollen und dafür die Bilder der Kameras online auswerten oder bei großen Datenmengen, wie den Satelliten WourldView, aber auch Kommunikationssatelliten die große Datenströme übertragen und fehlerhafte Bits mittels Korrekturinformationen rekonstruieren müssen.

Wie wird es weitergehen? Derzeit offerieren DSP attraktive Performance für die Datenverarbeitung, z.b. Kompression oder Verarbeitung von Daten. Sie sind jedoch nicht so universell. DSP werden auch in der Unterhaltungselektronik eingesetzt und sind daher (man möchte ja im Wohnzimmer keine lärmenden Lüfter haben) meist viel sparsamer im Verbrauich. Ihre Leistung gemessen in MIPS/Watt ist sehr hoch. Bei Zentralcomputern ist die Leistung zwar heute absolut gesehen sehr hoch, aber sie ist gegenüber der Entwicklung von PC Prozessoren langsamer fortgeschritten.

Eigene Linien für weltraumtaugliche Prozessoren lohnen sich immer weniger, weil die Kosten für die Produktion bei kleineren Strukturbreiten immer weiter ansteigen. Der Ausweg aus dem Dilemma könnte es sein Standardbausteine die für Extembedingungen auf der Erde ausgelegt sind, z.b. die Motorsteuerung im PKW (Hitze, elektrostatisches Feld durch Zündfunken) zu verwenden und diese besser abzuschirmen gegen Strahlung.

2 thoughts on “Computer in der Raumfahrt – Wann kommt die Leistungsexplosion?

  1. Erst mal: Die Captcha-Grafik ist ja sehr stylisch 😉

    Zum Theman:

    „Der Ausweg aus dem Dilemma könnte es sein Standardbausteine die für Extembedingungen auf der Erde ausgelegt sind, z.b. die Motorsteuerung im PKW (Hitze, elektrostatisches Feld durch Zündfunken) zu verwenden und diese besser abzuschirmen gegen Strahlung.“

    finde ich einen sehr praktikablen Ansatz, vielleicht kommt aber auch in den nächsten 5 Jahren ein technischer Durchbruch, der der Raumfahrtindustrie sehr weiterhilft, mal sehen.
    Wenn man sich nur mal ansieht, welche Entwicklungssprünge es in den letzen 25 Jahren gab. Mein iPod Touch kann mehr als mein C64 vor 20 Jahren, ist kleiner und leichter und nicht wirklich teurer. Ich denke, da steht uns noch einiges ins Haus, viuelleicht lohnt sich da ein Blick in die Spekulationen, die man bei http://www.orionsarm.com findet.

  2. Der Vergleich mit der Konsumerelektronik hilft hier nicht weiter, wie ich schon erläutert habe. Die Anforderungen sind einfach zu unterschiedlich. Das grundsätzliche Problem ist, dass die kosten für die höhere Integration bei dem Bau der notwendigen Anlagen und Fabriken rapide angesteigen sind. Eine „Fab“ kostet heute im Bereich von Milliarden Euro. Das kann ein Prozessorhersteller wieder auf viele Konsumenten umlegen. In der Raumfahrt geht dies nicht. Daher wird man sich an existierende Designs anhängen müssen. Immerhin ist bei der Verlustwärme viel in den letzten Jahren passiert und dies ist ein Punkt der sehr wichtig bei der Raumfahrt ist (im Vakuum ist die Kühlung erheblich aufwendiger)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.