Home Raumfahrt Satelliten Site Map counter

Aufklärungssatelliten - Ihre Technologie

Einleitung

Dieser Artikel befasst sich mit der Technik mit der Aufklärungssatelliten ihre Bilder machen und Erwartungen die man an sie stellen kann. Er ist eine Ergänzung zu meinen Artikeln über das Keyhole Programm.

Auflösung und Teleskope

Bei Aufnahmen im Bereich wie sie Spionagesatelliten erreichen - von einigen m bis hinab zu 20-30 cm, benötigt man schon ein Teleskop um Bilder zu machen. Die minimale Größe der Optik eines Teleskops (Linsen / Spiegeldurchmesser) ist errechenbar nach:

d = (Bahnhöhe / Auflösung) / 202.65 * r

d: Durchmesser der Optik des Teleskops in mm
Bahnhöhe: Abstand zum Aufnahmeobjekt in km
Auflösung: Gewünschte Auflösung in m
r: Parameter, abhängig von der Art des Teleskops:

Zur Begründung von R:

R = 122 entspricht dem "Raleight Kriterium". Fotografiert man eine punktförmige Quelle (weit entfernte Lampe, Stern) so landet bei R=122 mm Durchmeesser 80 % des Lichtes dieser Quelle in einem Kreis von 1 Bogensekunde Größe. (Der Faktor 202,65 dient dem Umrechnen von 180/pi, dem Winkel bei dem das Gesichtsfeld genauso groß wie die Entfernung ist, in Bogensekunden). Dies gilt gemeinhin als Auflösung unter idealen Bedingungen. So wird auch die Auflösung von astronomischen Teleskopen bestimmt und dies gilt für Linsenteleskope oder Teleskope mit gefaltetem Strahlengang, sogenannten Schiefspieglern. Es befindet sich im Strahlengang kein Fremdkörper, der stören könnte.

Bei Spiegelteleskopen befindet sich jedoch ein Sekundärspiegel im Strahlengang, der Störungen verursacht. Er setzt die Auflösung herab. Ein Wert von 152 (d.h. ein etwa 20 % größerer Durchmesser) ist angebracht, wenn der Sekundärspiegel klein ist, also weniger als 25 % des Durchmessers des Hauptspiegels besitzt. Bei noch größeren Sekundärspiegeln die bis zu 40 % der Hauptspiegelgröße erreichen können muss man den Durchmesser noch größer machen und kommt so auf den Wert R von 178. Für eine Auflösung von 1 m aus 300 km Höhe benötigt man so ein Teleskop zwischen 178 und 281 mm Durchmesser. Dies ist z.B. eine Größe welche viele Amateurteleskope haben.

Dies ist die Minimalgröße. In der Realität wird das Teleskop größer sein. Da der Abstand vom Objekt bei Annäherung und Entfernung größer ist und in der Regel die einzelnen Bildelemente welche die Bildinformationen aufnehmen, nicht genau so groß sind wie die Auflösung, so das hier ein Informationsverlust vorliegt. Bei den ersten KH Satelliten fanden Linsenteleskope Anwendung die keinen Fangspiegel haben. Später wohl Spiegelteleskope.

Rechenbeispiele

Wie groß muss die Optik sein um aus 500 km Höhe eine Auflösung von 1 m zu erreichen. Ich setze ein Cassegrain Teleskop ein (R=152)

Antwort:

d = (500 km / 1 m ) / 202650 * 152
d =375 mm

Der KH-11 Satellit soll nach Ansicht einiger Autoren eine Kamera von 1.52 m Durchmesser gehabt haben. Welche Auflösung wäre aus 300 km Abstand möglich ?

Umstellen der Gleichung:

Auflösung = Bahnhöhe / (d / r * 202.65)
Auflösung = 300 km  / (1520 mm / 152 * 202.65)
Auflösung = 0.263 m

Die Brennweite

Welche Auflösung man nutzen kann, wird auch diktiert von der Pixelgröße beziehungsweise der Auflösung des Films. Die Brennweite ist der zweite wichtige Parameter eines optischen Systems. Die Brennweite bestimmt wie groß ein Objekt in der Brennebene abgebildet wird. Sie kennen dies von ihrer Digitalkamera: Wenn sie Zoomen, dann vergrößern sie die Brennweite (bei gleichem Objektivdurchmesser) und das Bild wird größer.

Für kleine Öffnungswinkel der Optiken (Teleskope, Teleobjektive) gilt näherungsweise:

Größe eines Objektes          Größe auf dem Detektor
-------------------------  =    ----------------------------
Objektabstand                       Brennweite

Da der Objektabstand bei Spionagesatelliten sehr groß ist und diese sehr kleine Objekte abbilden sollen, folgt daraus, dass man entweder mit einer sehr großen Brennweite leben muss oder sehr kleine Detektorelemente besitzen muss (Bei CCD Chips entspricht dies sehr kleinen Pixelflächen, bei Film einer sehr hohen Auflösung durch feine Körner).

In der Praxis ist die Pixelgröße oder Auflösung des Films beschränkt (warum CCD im professionellen Einsatz nicht laufend größere Pixelzahlen aufweisen, wie dies bei Digitalkameras üblich ist, erläutere ich noch). Damit gilt:

Je größer ein Pixel ist, desto kleiner ist die nutzbare Auflösung bei gegebener Brennweite. Das ist sehr deutlich sichtbar im Corona Programm. Die Satelliten KH-1 bis KH-4B verwendeten dieselbe Optik, die theoretisch zirka 80 cm auf der Erde aufgelöst hätte. Praktisch erreichbar waren durch immer bessere Filme 1.8 m. (Mit heutigen Filmen würde man ca. 1.44 m erreichen). Die ersten Satelliten hatten dagegen noch eine Auflösung von 6-9 m, da ihre Filme grobkörniger waren.

Bei einem Teleskop hat die Brennweite eine Auswirkung auf die Baulänge. Ich möchte hier die 3 wichtigsten Teleskoptypen kurz skizzieren:

Linsenteleskope haben einen sehr einfachen Strahlengang. Die Brennweite ist hier so lange wie der Tubus. Daher sind diese Teleskope die schwersten bei einem gegebenen Durchmesser. Linsenteleskope wurden im Corona Programm (KH 1-KH 4B) eingesetzt.

Das einfachste Spiegelteleskop ist vom Newton Typ. Hier lenkt ein planer Fangspiegel das Licht zur Seite um. Die Brennweite ist dadurch länger als der Tubus, aber nicht wesentlich (etwa 1/4 länger). Dafür setzt der Fangspiegel im Strahlengang die Auflösung herab. Diese Teleskope werden daher nicht in Satelliten eingesetzt.

Das Cassegrain Teleskop verwendet eine Technik, die man in verschiedenen Variationen auch bei anderen Teleskopen findet, wie hier in der Abbildung bei dem Schmidt-Cassegrain Teleskop: Der Fangspiegel vergrößert selbst, ist also nicht plan sondern gekrümmt geschliffen. Dadurch ist die Brennweite geringer als die Tubuslänge. Dieser Teleskoptyp wird häufig in Satelliten eingesetzt. Ein typischer Wert für die Reduktion der Brennweite ist der Faktor 2-3. Ein Teleskop mit einer Brennweite von 6 m hat also einen 2-3 m langen Tubus.

Seit langem bekannt, aber erst seit kurzem zumindest in wissenschaftlichen Satelliten eingesetzt sind Schiefspiegler. Sie bestehen aus 3 Spiegeln mit einem Z-förmigen Strahlengang. Der erste Spiegel sitzt schräg im Strahlengang und wirft das Bild auf einen zwweiten Spiegel neben der Tubusöffnung, der es weiter reflektiert zu einem dritten von dem aus es dann in die Kamera gelangt. Jeder spiegel kann das Bild vergrößern. So kommt man bei einem sehr kompakten Instrument zu einer sehr langen Brennweite. Ein Instrument dieser Bauart ist die Kamera HiRISE an Bord von Mars Reconnaissance Orbiter:

  Parameter
Gewicht: 65 kg
Länge: 1.40 m
Durchmesser: 0.70 m
Brennweite: 12 m
opt. Durchmesser: 0.50 m
Gesichtsfeld: 1.14 x 0.18 Grad
Auflösung: 1 µrad
Pixelzahl: 20264 x 128
und 4048 x 128

Sie erreicht bei nur 1.4 m Baulänge ein Öffnungsverhältnis von 24 oder eine Brennweite die 8.5 mal länger ist als der Tubus. Ein solches Teleskop wäre ideal für einen Beobachtungssatelliten.  Der MRO kann mit dieser Kamera aus 300 km Entfernung schon 30 cm große Details abbilden.

Brennweite und Bauformen

Fast alle Spionagesatelliten werden als Zylinder dargestellt. (Die Satelliten des Corona Systems hatten auch diese Bauform). Wie kann man hier eine Kamera positionieren ? Die Corona Satelliten hatten sie quer zur Längsachse eingebaut und sie schaute senkrecht zur Erde. Der Satellit selbst ist so angeordnet, dass die Längsachse parallel zur Erdoberfläche zeigt und die Spitze in die Flugrichtung. Die Brennweite ist limitiert bei dieser Bauweise.  Bei Corona konnte die Kamera maximal so lang wie der Durchmesser des Satelliten sein (real noch kleiner, denn der Film muss ja auch noch dahinter passen, dazu der Filmtransport und die Satelliten waren kreiszylindrisch, so das man nicht den vollen Durchmesser ausnutzen kann). Die Brennweite ist dann bei Linsenteleskopen maximal der Durchmesser des Satelliten, bei Spiegelteleskopen mit herkömmlichen Strahlungsgang maximal 3-4 mal der Durchmesser, da diese typischerweise eine optische Länge von einem Viertel bis Drittel der Brennweite haben. Corona setzte ein Linsenteleskop von 61 cm Brennweite bei einem maximalen Durchmesser des Satelliten von 152 cm ein.

Seit 1990 Hubble ausgesetzt wurde sieht man auch immer mehr Abbildungen die einen Aufklärungssatelliten zeigen, bei dem die Kamera wie bei Hubble längs eingebaut ist. Manche Autoren meinen die Kennan und Crystalserie wäre eine Art "militärisches" Hubble Teleskop. Ich halte diese Einschätzung für falsch, und zwar aus mehreren Gründen.

Die manchmal gezeigte Version eines Satelliten dessen Längsachse parallel zur Erdoberfläche verläuft und bei dem eine Kamera mittels eines um 45 Grad geneigten Umlenkspiegels zur Erde schaut ist technisch ebenfalls sehr problematisch. Eine solche Konstruktion hat zwar den Vorteil einer stabilen Ausrichtung des Satelliten, aber man handelt sich andere Probleme ein. Brauchbar ist ein solches System nur wenn der Satellit nicht einem Ziel nachgeführt wird. Da man dann praktisch die Kamera nicht mehr dem Objekt nachführen kann. Dreht man dazu den Fangsiegel, so dreht sich auch die gesamte optische Achse - Verzerrungen wären die Folge.

Realistisch gesehen erscheint eine maximale Teleskoplänge von der Hälfte des Satellitendurchmessers möglich. Bei dieser Größe ist das Teleskop auch gut schwenkbar und so der schnellen Bewegung des Satelliten über die Erdoberfläche. Die Korona Serie konnten so praktisch von Horizont zu Horizont durch Drehen der Kamera die gesamte sichtbare Erdoberfläche erfassen - nicht nur den Bereich direkt unter ihr. Da dieses System sich bewährt hat ist es logisch, dass man es auf die folgenden Generationen übertragen hat. Dafür gibt es auch andere Indizien: Die KH-9 Serie, der unmittelbare Vorgänger des KH-11 und fast genauso schwer, nur eben noch mit Film arbeitend, übernahm die Kamera von der geplanten militärischen Raumstation MOL (Codename KH-10). Diese war wie in früheren Satelliten in der Querachse eingebaut. Es spricht viel dafür, dass dies auch im KH-9 so war und bei den folgenden Modellen ebenso.

?????????????????????????????????

2012 spendete das NRO zwei Teleskope der NASA. Nun wurden einige Teile bekannt. Der Durchmesser des Hauptspiegels betrug in der Tat 2,4 m, war also so groß wie der von Hubble. Sie weisen aber einen beweglichen Sekundärspiegel auf. Damit kann das Teleskop zum einen den Fokus verändern und zum anderen kann er so den Bildausschnitt verschieben, also die Unbeweglichkeit des gesamten Teleskops in einem gewissen Maße kompensieren. Der verschiebbare Fokus ist für die Erdbeobachtung ohne belang, weil selbst bei einem so großen Teleskop eine Entfernung von 300 km genauso weit von der Einstellung "Unendlich" entfernt ist, wie 900 km (die minimalen und maximalen Entfernungen von der Erde zahlreicher Satelliten der KH-11/12 Serie). Sie erlaubt aber auch andere Satelliten zu fotografieren. So wurde die Columbia beim Jungfernflug im Orbit fotograffiert um die Beschädigung der Hitzeschutzkacheln festzustellen. Auch bei ihrer letzten Mission baten Flugkontrolleure darum, dies wurde jedoch abgelehnt. Da ein Satellit sehr viel näher an dem Observatorium. Dieses Bild hier ist eine Aufnahme von ERS-1 von SPOT-4. Obwohl SPOT-4 nicht dafür geeignet ist (er verfügt nicht über eine Bewegungskompensation wie sie ein beweglicher Spiegel auch erlaubt) und nur eine Auflösung von 10 m hat, kann man zahlreiche Details aus dem 41 km entfernten ERS-1 erkennen. Man kann sich nun leicht ausmahlen wie nützlich ein Satellit mit der 50-100 fachen Auflösung beim Ausspionieren gegnerischer Satelliten ist.

Diese Teleskope sollen ein 100 mal größeres Gesichtsfeld als Hubble aufweisen. (offen ist ob es sich um eine Flächen- oder Seitenlängenangabe handelt). Es wird daher kurzbrennweitiger sein. Sehr große Gesichtsfelder gibt es auch bei irdischen Teleskopen mit speziell korrigierten sekundärspiegeln, welche die Bildfeldwölbung bei großen Gesichtfelldern korrigieren sollen. Das Pan-STARRS Array aus vier Teleskopen zur Durchmusterung des Himmels erreicht mit einem 1,80 m Teleskop ein Feld von 3 Grad. Das wären dann bei einem 2,4 m Teleskop etwa 2,2 Grad. Das ist recht viel, aus 300 km Höhe z.B. ein 11 km breiter Streifen. Das kling nach wenig, würde bei beugungsbegrenzter Abbildung aber über 800.000 Pixeln in der Breite entsprechen. Pro Sekunde müsste das System bei kontinuierlicher Aufnahme (einem langen Streifen) rund 80 Milliarden Bildprunkte pro Sekunde verarbeiten. Daher wird man wohl eher flächige CCD Sensoren einsetzen, die den Inhalt speichern und die man langsam auslesen kann oder sich auf ein kleineres Areal beschränken.

Maximale Auflösung

Das zweite Element was die nutzbare Auflösung begrenzt ist die Größe eines Detektorelementes. Bei Film sind dies Körner auf dem Film. Bei CCD sind dies die Pixel. Beschäftigen wir und zuerst einmal mit dem Film.

Beim Film wird die Auflösung in Linienpaaren/mm angegeben. Damit ist gemeint. Wenn ich ein feines Muster von Weisen und schwarzen Linien auf einen Film belichte. Wie viele Linien kann ich noch unterscheiden ? Die Auflösung eines Filmes ist hier sehr stark abhängig von der Empfindlichkeit. Ein in der Astronomie in den achtziger Jahren üblicher hochauflösender und empfindlicher Film, der Technical Pan 2415 von Kodak konnte z.B. noch 350 Linien/mm bei hohen Kontrasten unterscheiden. Er hat aber nur eine Empfindlichkeit von 125 ASA. Soll ein Film lichtempfindlicher sein so nimmt die Körnergröße zu und die Auflösung nimmt ab. 400 ASA Filme haben oft nur noch Auflösungen von 100 Linienpaaren/mm bei hohem Kontrast.

Weiterhin ist beim Film das Ergebnis abhängig vom Kontrast. Hohe Kontraste bedeuten eine hohe Auflösung.  Bei niedrigen Kontrasten sinkt diese auf die Hälfte oder ein Drittel. Der TP 2415 hat bei niedrigen Kontrasten z.B. nur noch eine Auflösung von 160 Linien/mm.

Man kann die Angabe von Linienpaaren/mm in die bei CCD üblichen Pixelgrößen umrechnen:

Pixelgröße [µm] = 5000 / Linienpaare

Der TP2415 hat also die gleiche Auflösung wie ein CCD mit 3.3 µm großen Pixels bei hohen Kontrasten. Bei CCD kann man die Pixelgröße auch (mit kleinem Fehler) berechnen, wenn man die Chipabmessungen durch Pixelzahl teilt, sofern diese nicht gegeben ist.

Pixelgröße = Chipgröße / Pixelanzahl in einer Zeile

Damit ist die Auflösung berechenbar. Je kleiner ein Pixel ist desto kleiner kann die Brennweite sein. Das gibt mehr Freiheiten beim Bau des Teleskops. Allerdings gibt es Gründe auch nicht zu kleine Pixel zu verwenden:

Das Eigenrauschen steigt an, wenn man die Pixels verkleinert. Die Bilder werden schlechter. Viele Kennen dies von ihrer Digitalkamera bei schlechten Lichtverhältnissen. Die Belichtungszeit steigt an wenn die Pixels kleiner werden, das ist ein Problem das ich noch separat erörtere. Es ist also nicht sinnvoll sehr kleine Pixels zu nehmen. Sowohl bei professionellen Digitalkameras (Spiegelreflexkameras) wie auch astronomischen Teleskopen setzt man daher recht große Chips mit großen Pixels (5-14 µm Kantenlänge pro Pixel, ein Chip in Consumerkameras hat eine Kantenlänge von 1.5 µm/Pixel) ein.

Den Preis den man zahlen muss, ist dass die Brennweite dann entsprechend ansteigt. Das macht es wiederum schwer die Kamera mit der Optik kompakt zu bauen.

Film im Vergleich mit CCD

Alle frühen Keyhole Satelliten der USA bis zum Programm Kennan / Crystal (KH-11/12) verwendeten fotografischen Film. Die Vorteile gegenüber den etablierten Videokameras an Bord anderer Raumfahrzeuge lagen auf der Hand:

Zusammengefasst: Ein Film kann große Areale mit hoher Auflösung abbilden, die Information kann schnell gewonnen werden.

Aber: Film ist eine erschöpfliche Ressource. Auch wenn die letzten Corona Satelliten 72 kg Film mitführten - Die Lebensdauer der Satelliten lag bei maximal 19 Tage. Auf Dauer ein teurer Spaß, wenn man 12 Satelliten pro Jahr starten muss. Auch wenn Gambit und Hexagon mehr Kapseln mit Film mitführten, das grundsätzliche Problem blieb. Nach einigen Wochen war ein 11 t schwerer Hochleistungssatellit nutzlos. Man hatte zudem keine Vorkontrolle ob sich eine Aufnahme lohnt (die ersten Missionen fotografierten einfach sobald sie über der SU waren und eine Mission lichtete so in einigen Tagen ein Drittel der SU hochauflösend auf Film ab!). Solange man Aufnahmen nur mit Vidicons gewinnen konnte war an diesem Problem nicht zu rütteln. Vidicon waren zu klein und zu lichtunempfindlich. Ersteres begrenzte die Aufnahmefläche, zweites verhinderte das man sie schnell auslesen konnte und so anstatt einem großen sehr viele kleine Aufnahmen machen konnte. Man konnte sie höchstens benutzen um vor einem Bild eine Kontrolle in niedriger Auflösung zu machen, ob sich ein Photo lohnen würde.

Im Jahre 1972 wurde aber das CCD erfunden, im Prinzip ist ein CCD eine lichtempfindliche Schicht wie bei der Solarzelle, bei der die herausgeschlagenen Elektronen aber nicht Strom erzeugen sondern in einem Speicherchip darunter landen, wo man sie auslesen kann und damit über die Elektronenzahl die Lichtstärke messen kann. CCDs sind lichtstärker als Vidicon Kameras und auch als fotografischer Film, damit konnte man auch das Verschmieren durch eine kürzere Belichtung verringern.

CCD Chip Bauformen

CCDs gibt es in zwei Varianten: Als flächiger Chip - wie heute in Camcordern, Digitalkameras und Webcams oder als Scanzeile wie z.B. in Flachbettscannern. Vieles spricht dafür man in Spionagesatelliten nur die zweite Variante nutzt. Warum? Nun flächige CCD Chips gibt es auch heute nur im kleinen Format, maximal 4 × 4 cm groß. Die einzelnen Pixels sind bis zu 5 µm klein, meist aber 12-14 Mikrometer groß. Größere Flächen sind schwer herzustellen, da die Gefahr eine Hardwaredefektes mit der Fläche ansteigt.  Dies ist auch ein Grund warum die Chips für Digitalkameras immer kleiner wurden. Man kann aber die Chips kombinieren und so eine größere Fläche abdecken.

Scanzeilen kann man dagegen aus vielen kleineren Zeilen zusammensetzen. Käufliche Scanner haben Breiten von Scanzeilen von 20 cm, bei 4800 dpi, also 5.3 µm/Pixel. Im militärischen Bereich dürften die Leistungsdaten noch höher liegen. Die Abtastung eines Bildes geschieht wie bei ihrem Scanner zuhause, entweder wird die Zeile mechanisch bewegt oder man nützt die Bewegung des Satelliten um die Erde, indem man die Abtastrate so synchronisiert, das sich die Erde darunter genau um ein Pixel nach Auslesen einer Zeile weiterbewegt hat.

Gelingt es nicht einen Chip mit der geforderten Größe herzustellen, so könenn Chips zu einem Array kombiniert werden. Bei irdischen Teleskopen wurden schon 1.4 Milliarden Pixel durch Kombination von vieler handelsüblicher CCD Sensoren erreicht. Analog besteht die Mars Camera HiRISE aus 7 Scanzeilen die überlappen.

Man kann so sogar größere Formate wie beim Film realisieren, wodurch man in gewisser Weise die größere Pixelgröße kompensieren kann. Es gibt jedoch einen Nachteil von Scanzeilen : Sie reagieren sehr empfindlich auf Eigenbewegungen des Satelliten. Solche entstehen zum einen durch bewegliche Teile im Satelliten (Übertragung von Vibrationen der Reaktionsschwungräder, durch die Bewegung der Optik) oder äußere Einflüsse (thermische Bewegungen beim Übergang in die Schattenzone und zurück in die Sonne, Aufschläge von Mikrometeoriten). Bei der ESA nimmt man an, dass diese Effekte ein Zittern um bis zu einem Mikrorad ergeben, das entspricht bei den typischen Bahnen von Beobachtungssatelliten etwa 0.3 bis 0.5 m. Diese müssen kompensiert werden. Heute ist die elektronisch möglich, doch früher brauchte man dafür sicher eine sehr aufwendige Mechanik. Für Störungen dieser Art sind vor allem Scanzeilen Systeme empfindlich, da dadurch verzerrte Bilder resultieren. Array CCD dagegen haben bei kurzen Belichtungszeiten nur einen etwas vergrößerten Blur Effekt.

Eine dritte Art von Sensoren sind TDI CCD. Sie sind die neueste Technologie und werden bei zivilen hochauflösenden Satelliten eingesetzt. Sowohl fotografischer Film wie auch CCD Chips erfordern eine Nachführung sobald die Auflösung im Bereich von wenigen Metern liegt. Das liegt an der schnellen Bewegung des Satelliten über die Erdoberfläche. Ein Satellit legt in einer erdnahen Bahn etwa 7 km pro Sekunde zurück (pojezierter Weg über die Erdoberfläche). Bei einer Belichtungszeit von 1/1000 Sekunde würden so z.B. Alle Details die kleiner als etwa 7 m sind durch die rasche Bewegung verschwimmen. Viel kleinere Belichtungszeiten sind auch bei CCD Sensoren nicht möglich. Bei Zeilensensoren limitiert die Ausleserate die ja mit der Bewegung synchronisiert werden muss. So muss die Kamera dem Boden nachgeführt werden. Das ist recht einfach zu machen, wenn die Bewegung gleichmäßig ist. Doch die KH 11/12 Satelliten haben recht elliptische Bahnen von 300 km erdnächstem Punkt und 900-1000 km maximaler Entfernung. Dadurch verändert sich sowohl die Geschwindigkeit relativ zum Boden wie auch der Abstand. Als weiterer Punkt ist so eine kontinuierliche Überwachung nicht möglich, da die Kamera regelmäßig wieder in die Startposition zurückgedreht werden muss.

TDI Sensoren umgehen dieses Problem indem sie anstatt einer Scanzeile mehrere einsetzen. Der Inhalt einer Zeile wird synchron zur Bewegung nach oben kopiert und mit dem Inhalt summiert und nur die letzte ausgelesen. So wird bei einem 32 Zeilen CCD z.B. die 32 fache Belichtungszeit jdeses einzelnen Pixels erreicht. Nur muss das Verschieben der Ladungen mit der Bewegung des Objektes synchronisiert werden. Die Gesamtbelichtungszeit einer Spalte erreicht so genügend hohe Werte um das Rauschen zu unterdrücken.

Ein moderner (2008) Sensor dieser Art ist z.B. der Fairchild 21241. er verfügt über 24000 Pixel pro Zeile und 64 Zeilen. Bis zu 16 können pro Sekunde ausgelesen werden. Jedes Pixel ist 8.75 µm groß. Die Ausleserate beträgt maximal 300 MHz also bis zu 12000 Zeilen pro Sekunde. Das wäre z.B. ausreichend für rund 0.5 m Auflösung und so wird dieser Sensor auch in dem Satellit Worldview eingesetzt der 0.5 m Auflösung erreicht.

Zwei Vorteile sind jedoch die wichtigsten: Die Bilder sind nun nicht mehr limitiert, sondern man konnte einen Satelliten nun solange betrieben wie er Treibstoff zur Lageregelung hatte. Das verringerte die Starts deutlich auf 1-2 pro Jahr. Vor allem aber waren die Bilder nun aktueller, man konnte sie life zu den Bildauswertern übertragen. Das war von Bedeutung als die Amerikaner nicht mehr nur die Sowjets überwachten, sondern auch in Kriege involviert waren. Beim 6 Tage Krieg von 1967 kam der Film, der zeigte das sich ein Konflikt anbahnte, gerade aus den Labors, als der Krieg schon zu Ende war. Auch der Einmarsch in die Tschechoslowakei 1968 wurde nicht rechtzeitig erkannt. Mit Film als Basis hätten die Amerikaner sowohl im Kosovo wie auch im Golfkrieg wenig Chancen auf aktuelle Bilder gehabt.

Es wird sicherlich für den militärischen Bereich Spezial-CCD's geben mit sehr kleinen Pixelgrößen. Der Grund wurde schon oben angesprochen: Auch wenn ein Satellit 17 t wiegt kann er nur ein Teleskop in Querrichtung einbauen. Die Brennweite ist so begrenzt. Bei Amateur Schmidt-Cassegrain Teleskopen wurden die Tuben extrem verkürzt, so dass ein Teleskop mit 200 cm Brennweite nur einen 40-50 cm langen Tubus besitzt. Man kann so mit einem 3 m Tubus eine Brennweite von 12-15 m erreichen. Scanner für Film die man im Handel erwerben kann haben Auflösungen von 2400 dpi. Das bedeutet, dass man mit "Konsumer" Equipment aus 300 km Höhe eine Auflösung von 25 cm erreichen kann. Mit militärischen Spezialanfertigungen für CCD Zeilen sicher erheblich mehr.

Hier ein Vergleich: Die Mars Global Surveyor Kamera hat folgende Eckdaten:

Wir errechnen aus 378 km Höhe eine theoretische Auflösung von 1.44 m und eine Pixelauflösung von 1.4 m. Die Kamera hat also keinerlei Spielraum um Pixel zu summieren.

Datenübertragung

Ein weiterer Punkt warum zivile Erderkundungssatelliten lange Zeit recht niedrige Auflösungen hatten lag in der Datenrate. Es gibt hier einige Punkte zu beachten. Die Daten können online gespeichert werden, sie können über Funk übertragen werden und sie müssen am Boden ebenfalls aufgezeichnet und verarbeitet werden. Das ist eine Kette, bei der das schwächste Glied die Datenrate bestimmt.

Die Speicherung an Bord ging bis Anfang der neunziger Jahre nur mittels Bandlaufwerken. Da der erste KH-11 seinen Erstflug schon 1976 hatte, konnte er nur auf Band aufzeichnen. Bandrekorder in zivilen Missionen wie Viking, hatten eine Kapazität von 640 MBit bei einer Übertragungsrate von 2.1 MBit/s. Ihre Kapazität war begrenzt und ebenfalls ihre Datenübertragungsrate. Mehrere Bandrekorder (um Kapazität und Datenübertragungsrate zu steigern) bringen auch nur einen Gewinn, wenn der Satellit größere Datenmengen zwischenspeichern kann, da Bandrekorder anders als Festplatten durch das Band einige Zeit zum Spulen brauchen. Das macht einen Zwischenspeicher für einige Sekunden notwendig, was angesichts der großen Datenmenge auch bei den ersten Modellen mit dem damaligen Stand der Technik schwer umsetzbar sein muss (Stand 1976 in der Chiptechnik: Das 4 KBit Chip: Um1 MPixel mit 8 Bits/Pixel zu speichern braucht man etwa 2000 dieser Chips).

Die Datenrate der Bandlaufwerke und ihre Kapazität siegt jedoch schnell an. Schon 1986 wies der zivile Satellit SPOT-1 eine Kapazität von 120 GBit auf Band auf. Anfang der neunziger Jahre kamen "Solid State Rekorder" auf Basis von RAM-Chips auf den Markt. Dies sind Boxen, vollgestopft mit Speicherchips und einer Elektronik die sie nach außen hin wie eine Festplatte verwalten lassen. Heute gibt es dies auch mit Flash Speichern. Diese bieten eine höhere Kapazität, haben aber eine viel geringere Schreibgeschwindigkeit, weil nur ganze Blöcke auf einmal geschrieben werden können und dabei die alten Blöcke zuerst gelöscht werden müssen. Trotzdem sind die leistungsfähigsten Exemplare Ende 2008 schneller als etliche Festplatten.

Die zweite Möglichkeit ist die Übertragung der Daten zum Boden oder zu einem Satelliten. Die erste Möglichkeit ist vorzuziehen, da es wesentlich schwieriger ist den Kanal abzuhören. Ein Relay-Satellit überträgt zwar auch zum Boden, doch ein geostationärer Satellit deckt ein viel größeres Gebiet ab als der Aufklärungssatellit in einer erdnahen Bahn. Weiterhin ist aufgrund der geringeren Entfernung die Datenübertragungsrate höher. SPOT als ziviles System konnte mit 2 x 25 MBit/s zum Boden übertragen. Heutige zivile Erderkundungssatelliten erreichen 800 MBit/s. Begrenzt ist dies durch die kurzen Kontakte der Satelliten. Zwar befinden sich alle Satelliten in polaren Bahnen, doch die meisten haben auch ihren erdnächsten Punkt über typischen Krisengebieten oder "Feindesland" - diese Länder sind alle auf der Nordhalbkugel. So sind die Satelliten recht nahe der Erde wenn sie eine Empfangsstation in den USA oder nahe der Pole (wo die USA auch Empfangsanlagen in Grönland und Alaska haben) passieren.

Besser ist daher die Übertragung über einen Satelliten, das macht auch eine Zwischenspeicherung an Bord unnötig. Das US Militär dürfte sicher über ein System wie das zivile TDRSS verfügen. Dieses erreichte ab 1982 Datenraten von bis zu 300 MBit/s und ab !993 sogar 600 MBit/s. Höhere Datenraten erhält man dann durch Kombination mehrerer Transponder auf unterschiedlichen Frequenzbändern. Es ist ein offenes Geheimnis, das heute intensiv an der Übertragung von Daten per Laserstrahl gearbeitet wird. Neben höheren Datenraten (im Bereich von 5-10 GBit/s) ist dadurch auch eine Abhörsicherheit gegeben. Probleme macht bei dieser Technologie der Empfang auf dem Boden, der vom Wetter abhängig ist.

Auf dem Boden müssen die Daten verarbeitet werden. Das ist im wesentlichen kein Problem. Selbst wenn es von Hand geschieht, so kann einfach die Arbeitsleistung durch mehr Personen gesteigert werden.

Ein anderes Problem ist die Verschlüsselung: Schließlich soll niemand unbefugter die Daten entschlüsseln. Auch hier ist klar, dass sich diese im Laufe der Zeit anpassen musste. Erinnern Sie sich noch an die ersten verschlüsselten Fernsehsendungen? Damals hat man einfach nach einem bestimmten Algorithmus die Zeilen durcheinander gewürfelt. Ein handelsüblicher PC Anfang der neunziger Jahre konnte das rekonstruieren indem er von dem Grundsatz ausging, dass bei den meisten Zeilen es kaum einen Sprung im Bildinhalt der ersten paar Pixel jeder Zeile geben würde. Heute wird viel ausgeklügelter verschlüsselt. Auf der anderen Seite braucht man für die Verschlüsselung auch Rechenleistung. Ende 2008 reicht die Geschwindigkeit einer Via Eden CPU nicht aus um den Datenstrom einer 2.5" Festplatte life mit einer 256 Bit AES Schlüssel zu verschlüsseln. Dieser Schlüssel gilt als so sicher, dass er auch in absehbarer Zukunft nicht knackbar ist. Die CPU hat in etwa die Leistung der leistungsfähigsten weltraumtauglichen Prozessoren. In der Vergangenheit wird man daher mit einfacheren Lösungen gearbeitet haben. Sofern man nicht mathematisch ausschließen kann, das ein Schlüssel in absehbarer Zeit geknackt wird, wird das Militär sehr oft den Schlüssel gewechselt haben. Alle guten Verschlüsselungsverfahren haben den Vorteil, dass die Verfahren zum Ver- und entschlüsseln allgemein bekannt sind. Die Sicherheit resultiert aus der Länge des Schlüssels. Wechselt das Militär ihn häufig, so reicht auch ein kürzerer Schlüssel (weniger Aufwand), weil bei einer Komprimittierung nur wenige Daten betroffen sind. Von Vorteil ist weiterhin, dass Spezialhardware das Verschlüsseln beschleunigen kann. Allerdings auch das Entschlüsseln.

 

CCD in astronomischen Geräten und in Konsumer Kameras

In Digitalkameras wurden immer mehr Pixel auf immer kleinere Chipflächen untergebracht. Bei der üblichen Chipfläche von 1/2.5 Zoll (5.8 x 4.3 mm) ist bei einer 12 Megapixelkamera ein Pixel nur noch 1.4x1.4 µm groß. Die Lichtempfindliche Fläche ist sehr klein. Das hat einige Nachteile:

Spiegelreflex Kameras verwenden daher größere Sensoren. Das weit verbreitete 4/3 Format hat z.B. Abmessungen von 18 x 13.5 mm - Die 10 fache Chipfläche. Ein 12 MPixel Sensor auf dieser Chipfläche entspricht nur einem 1.2 MPixel Sensor im kleinen 1/3" Format. Dasselbe gilt auch für CCD für hochauflösende Fotografie wie sie eben auch für Satelliten eingesetzt werden. Hier ist ein Pixel 5 bis 14 µm groß. Eine Pixelgröße von 5 µm entspricht bei der APS-C Größe 9.72 MPixeln.

Hier einige Leistungsdaten von CCD's. Der Spiegel für die angegebene Auflösung von 20 cm aus 300 km Entfernung wäre nach Cassegrain Bauweise in jedem Falle mindestens 112 cm groß, die Brennweite variiert jedoch je nach Pixelgröße.

Sonde Typ Pixel pro Zeile Pixel pro Spalte Pixelgröße
[Mikrometer]
Brennweite für 20 cm Auflösung
aus 300 km Entfernung
Mars Observer Zeilen CCD 2048 1 13 19.5 m
Mars Express Zeilen CCD 5184 9 7 10.5 m
Mars Reconnaissance Orbiter Zeilen CCD 20264 128 12 18.0 m
Cassini, Stardust, Messenger Array CCD 1024 1024 12 18.0 m
Deep-Space 1,Contour Array CCD 1024 1024 13 19.6 m
Deep Impact Array CCD 1024 1024 21 31.5 m
Rosetta Array CCD 2048 2048 14 21.0 m
Smart-1 Array CCD 1024 1024 14 21.0 m
Clementine Array CCD 288 384 23 34.5 m
Giotto Array CCD 292 390 22.3 33.45 m
Hayabusa Array CCD 1000 1032 20 30 m

Das ideal Öffnungsverhältnis hängt von der Pixelgröße ab. Bei dem Raleight Kriterium (für Linsenteleskope) gilt f/d=1.76*Pixelgröße in Mikrometern. Für Spiegelteleskope gilt 2.33 x Pixelgröße in µm. Schon alleine daraus ergibt sich, das langbrennweitige Spiegelteleskope mit f/d = 10 bis 25 Pixelgrößen von 5.7 bis 14 µm Kantenlänge benötigen.

Andere Sensoren

Interessant sind auch Aufnahmen in einem engen Spektralband oder synthetische Farbaufnahmen in denen man den Farbkanälen Rot, Grün und Blau einzelne Spektralkanäle zuordnet. Das Anfertigen von Aufnahmen in mehreren Spektralkanälen nennt man Multispektralaufnahmen.

MultispektralaufnahmeMultispektralaufnahmen sind auf verschiedene Arten herstellbar. Der einfachste Weg ist der vor einem CCD Chip ein Filterrad zu montieren indem verschiedene Filter verschiedene Wellenlängen ausblenden. Bei CCD Zeilen hat man einen noch besseren Weg. Hier montiert man einfach mehrere Zeilen hintereinander und belegt jede Zeile mit einem Filter. Liest man alle Zeilen synchron aus, so bekommt man gleichzeitig Aufnahmen in verschiedenen Spektralbereichen. Anders als bei einem Filterrad fallen keine Totzeiten an in der das Rad gedreht werden muss und man verzichtet auf eine Mechanik, die versagen kann (Sowohl bei den Raumsonden Mariner 9 wie auch bei Stardust blieb das Filterrad stecken).

Wozu braucht man Multispektralaufnahmen ? Nun zum einen verraten sie mehr über die Beschaffenheit eines Objektes. Das Reflexionsverhalten in mehreren Spektralbereichen lässt Rückschlüsse über eingesetzte Materialen zu. Doch viel wichtiger ist es, dass man damit getarnte Objekte sichtbar machen kann. Wir empfinden ein Objekt als getarnt wenn es denselben Farbton wie die Umgebung hat. Allerdings summieren unsere Augen aber auch wie normale CCD das gesamte Spektrum. Damit ein Objekt bei Multispektralen Aufnahmen aber genauso wie die Umgebung aussieht reicht es nicht. dass die Farbe in der Summe identisch ist. Sondern es muss die genaue spektrale Verteilung identisch sein. Dazu ein Beispiel: Pflanzen erscheinen uns grün, weil aus dem normalen Licht Rot und Blau absorbiert wird. Grüne Farbe dagegen hebt den Grünanteil an. Macht man nun Aufnahmen in den 3 Spektralbereichen Rot, Grün und Blau, so fallen grün angestrichene Fahrzeuge auf.

Die obige Aufnahme zeigt eine Multispektralaufnahme verglichen mit einer optischen Aufnahme. Die Multispektralaufnahme wurde so gewählt, das Rot mit der Menge an Chlorophyll korreliert. Je roter eine Fläche ist desto mehr photosynthetisch aktiv Pflanzen enthält sie. Man kann hier viel besser Flächen die noch im Wachstum sind von abgernteten oder kranken Flächen unterscheiden also auf der Luftaufnahme.

IR Sensoren

CCD auf Siliziumbasis, die heute übliche Technologie können Licht bis ins nahe Infrarot, etwa je nach Typ bis 1000-1100 nm detektieren. Darüber hinaus sinkt ihre Empfindlichkeit rapide ab. Es gibt allerdings mit anderen Halbleiter Elementen wie der Mischung Quecksilber-Cadmium-Tellur (HgCdTe) auch CCD Sensoren die im mittleren Infrarot empfindlich sind. Das ferne Infrarot wäre mit anderen Sensoren auch detektierbar, jedoch stört in diesem Bereich schon die Eigenstrahlung des Teleskops.

HgCdTe Sensoren eignen sich besonders für die Bereiche 3-5 und 8-12 µm Wellenlänge. Sie sind heute Standard und haben sich rasant entwickelt. Von 1995 bis 2005 ist die Chipgröße von 256x256 auf 1024x1024 Pixels geklettert. Die neuesten Chips weisen mit 2048x2048 Pixeln sogar dieselbe Auflösung wie die größten astronomischen CCD.

Da das Raleight Kriterium wellenlängenabhängig ist braucht man bei Infrarotdetektoren eine geringere Brennweite. Ein Detektor der Licht bei 5 µm Wellenlänge detektiert braucht für dieselbe Auflösung eine 10 mal geringere Brennweite als ein CCD Chip für den sichtbaren Bereich, der bei 0.5 µm empfindlich ist.

Wozu IR Sensoren ? Nun zum einen dehnt man den Bereich aus in dem man Aufnahmen machen kann. Multispektralaufnahmen kann man z.B. auch aus IR Aufnahmen anfertigen. Kommt man ins mittlere Infrarot, etwa bei 10 Mikrometer Wellenlänge so kommt man in einen Bereich in dem Körper mit Zimmertemperatur am meisten IR Strahlung abgeben. Eine Aufnahme in diesem Bereich zeigt also warme Körper. So sind Panzer in einem Wald wenn ihr Motor warm an wegen ihrer IR Strahlung leicht auszumachen. Das gilt in beschränkter Weise sogar für untergetauchte U-Boote solange diese nicht zu tief im Wasser sind. Sie erwärmen es und dies kann man detektieren. (Bild MITI/NASDA).

Treibstoffvorrat und Ziele

Die ersten Satelliten des KH 1-4 Systems hatten eine sehr einfache Aufgabe : Sie kartierten ein Gebiet flächendeckend. Solange sich der Satellit die Sowjetunion passierte wurde die Kamera aktiviert. Die gesamte Sowjetunion konnte man dann aus mehreren Streifen zusammensetzen.

Immerhin konnten 3 KH-2 Satelliten eine Fläche von 33 Millionen km² abbilden. Später ging man zu einer anderen Technik über. Die gesamte Fläche abzubilden ist nur praktikabel, solange die Auflösung nicht zu hoch ist. Ansonsten kommen enorme Mengen an Film oder Daten zusammen. Man vergisst gerne, dass ein Satellit alleine nichts nützt. Man muss auch die Daten auswerten und dazu braucht man Menschen.

Die USA haben daher recht rasch eine Trennung eingeführt. Die späteren Satelliten des Corona Programms hatten die Aufgabe der Flächenaufklärung. Sie fotografierten ein Gebiet in niedriger Auflösung. Aus diesen Bildern wurden dann die Ziele für Detailaufklärer ausgewählt. Diese verfügten über eine höhere Auflösung und bildeten ein kleineres Gebiet ab. Diese Aufgabe wurde vom Gambit System übernommen. Ein eigenes System für die Flächenaufklärung (ARGON) bewährte sich nicht.

Heute vereinigen Aufklärungssatelliten beide Funktionen. Sie machen niedrig auflösende Fotos mit Weitwinkelkameras und Detailaufnahmen mit Telekameras. Manche Publikation spekuliert sogar von einer Life Übertragung über Satellit, so dass Auswerter am Boden bei einer Weitwinkelaufnahme einen interessanten Ausschnitt festlegen können und der Satellit macht gleich ein Detailbild.

Da sich ein Satellit recht rasch gegenüber der Erde bewegt (Im Extremfall umrundet er die Erde in 90 Minuten) ist es notwendig die Optik der Bewegung nachzuführen. Dies ist relativ einfach bei kreisförmigen Orbits, da hier der Abstand und die Relativgeschwindigkeit zur Erde konstant sind. In der Regel haben Aufklärungssatelliten jedoch elliptische Bahnen. Der erdnächste Punkt liegt typischerweise bei 200-300 km Entfernung (bei den kurzlebigen früheren Typen sogar teilweise in nur 100 km Höhe), der erdfernste Punkt in 600-1000 km Höhe.

Je niedriger die Bahnhöhe ist desto schärfer werden die Bilder, weil der Aufnahmeabstand geringer ist. Andererseits bremst die Atmosphäre den Satelliten ab und dies ist nicht linear. Die folgende Tabelle informiert über typische Aufenthaltsdauern in verschiedenen Orbits. Die Zeitdauer schwankt, da sie von der Form des Satelliten und der Sonnenaktivität abhängt.

Bahnhöhe (Km) Lebensdauer
160 km zirka 1 Tag
185 km zirka 1 Woche
300 km zirka 6 Monate
400 km mehrere Jahre
höher als 600 km über ein Jahrzehnt
höher als 900 km über ein Jahrhundert
36000 km mehrere Millionen Jahre

Da die Bahnen bei niedrigen Bahnhöhen nur kurze Zeit stabil sind, sind die Bahnen elliptisch. Der erdnächste Punkt liegt dabei meist über der geographischen Breite bei der man Aufnahmen machen möchte. Man nimmt dann in Kauf dass man andere Gebiete nur aus dem erdfernsten Punkt fotografieren kann. Die Form der Erde kommt aber uns hier entgegen. Die meisten bewohnten Gebiete liegen auf der Nordhalbkugel. Wenn man den erdnächsten Punkt bei etwa 30 Grad nördlicher Breite legt, dann kann man einen guten Teil der Nordhalbkugel aus niedriger Bahnhöhe beobachten. Während des kalten Krieges lagen die interessantesten Punkte sogar noch weiter nördlich: Der Ostblock liegt zwischen dem 40 und 60 Breitengrad. Nur wenig südlicher der nahe Osten und Vietnam/China. So haben die KH-11 und 12 Satelliten sehr exzentrische Bahnen mit einem erdnahen Punkt in 300 km Höhe über der Nordhalbkugel und einem erdfernsten in 900-1000 km Höhe über der Südhalbkugel. So befindet sich der Satellit nur kurze Zeit im erdnächsten Punkt und die Reibung durch die obere Atmosphäre wird stark verringert.

Der Satellit wird dann stark abgebremst wenn er den erdnächsten Punkt passiert und kaum im erdfernsten Punkt. Ohne Korrektur wird diese Bahn dann zu einer Kreisbahn mit dem Abstand des ehemaligen erdnächsten Punktes. Danach spiralt sich der Satellit immer näher zur Erde bis er in etwa 80-100 km Höhe verglüht.

Man wird jedoch bestrebt sein die Bahn durch Kurskorrekturen zu erhalten. Dafür braucht man recht große Mengen an Treibstoff, wenn wie heute üblich die Lebensdauer eines Satelliten mehrere Jahre beträgt. Wahrscheinlich dürfte bei den KH-12 Satelliten der Treibstoffvorrat sicher ein Drittel der Startmasse ausmachen.

Da der Satellit sich recht schnell relativ zur Erde bewegt ist ein Objekt auch nur kurze Zeit in optimaler Distanz. Idealerweise würde man ein Foto nur aus einem bestimmten Blickwinkel machen. Meist ist dies senkrecht von oben, dann stören Schatten am wenigsten und es gibt auch keine Verdeckungen durch Gebäude oder Bäume in der Nähe. So gehen Erderkundungssatelliten vor. Allerdings ist die Breite eines Aufnahmestreifens der unverzerrt senkrecht von oben beobachtet werden kann begrenzt. Bei Erdbeobachtungssatelliten beträgt er etwa ein Viertel bis ein Drittel der Bahnhöhe. Bei 300 km Minimalhöhe kann man so nur einen Streifen von 100 km Breite beobachten. Bei 16 Umläufen pro Tag braucht man 25 Tage um so ein Gebiet erneut senkrecht zu beobachten.

Das ist für praktische Einsätze zu lange. Daher wird man das Ziel schräg fotografieren. Dazu muss man aber entweder die Kamera oder den Satelliten drehen. Das erste macht die Gesamte Kamerakonstruktion schwerer. Eine Montierung mit präziser Nachführung wiegt bei astronomischen Teleskopen, welche ähnliche Anforderungen aufweisen wesentlich mehr als das Teleskop alleine. Vor allem aber vergrößert es die Baulänge der Kamera beträchtlich. Dreht man den ganzen Satelliten so kann man dies schnell eigentlich nur mit Steuerdüsen bewerkstelligen (Es gibt zwar Rotationsschwungräder die in vielen Satelliten für Lageänderungen verantwortlich sind, doch brauchen diese für eine Vollrotation mehrere Minuten bis zu einer Stunde. Sie sind also nicht praktikabel). Auch dafür braucht man viel Treibstoff. Es verwundert daher nicht, dass mit dem Übergang von der Titan 3B auf die Titan 3C als Trägerrakete und damit Steigerung der Nutzlast um das dreifache auch die Aufenthaltszeiten im Orbit rapide anstiegen.

Die Antriebskraft für die Aufklärungssatelliten

Als die ersten Satelliten entwickelt wurden verfügten die USA schon über ein funktionierendes Aufklärungssystem. Von Basen rund um die Sowjetunion aus konnten Spionageflugzeuge des Typs U-2 aus Höhen von 20-24 km Aufnahmen von Zielen in der Sowjetunion machen. Die hohe Flughöhe war ein effizienter Schutz des langsamen und leichten Flugzeugs vor Abfangjägern. Zivile Versionen dieser Flugzeuge machten z.B. Aufnahmen mit 2.5 cm Auflösung. Spionagesatelliten wurden primär zuerst entwickelt um diese zu ergänzen, den aus dieser Höhe sind nur kleine Streifen mit einigen km Breite aufnehmbar. Damals (1960) wurde aber vermutet, das die Sowjetunion über sehr viele Interkontinentalraketen verfügte. Geschürt wurde dies durch die Propaganda Chruschtschows, der sagte, das die Sowjetunion "Raketen wie Zigarren am Fließband" produzierte und die Erfolge im Weltraum. Bei 25.5 Millionen km² Fläche der SU war es aber unmöglich alle Raketenbasen vom Flugzeug aus zu entdecken, dies sollten die Satelliten erledigen.

Die Missionen waren zuerst enttäuschend, von den ersten 14 Discoverer Satelliten gelang nur eine Mission. So war das Programm nahe am Kippen. Im Mai 1960 kam jedoch die Wende, als eine U-2 mit dem Piloten Gary Powers mit neu entwickelten Boden-Luft Raketen abgeschossen wurde. Seitdem war die hohe Flughöhe kein Schutz mehr für die U-2 und die Spionageflüge über der SU mussten eingestellt werden. Nun bekam das KH Programm neuen Auftrieb.

Bahnen und Lebensdauer

Die Keyhole Satelliten mussten um die Auflösung zu maximieren sehr nahe an ihr Ziel herankommen. Bei den ersten Satelliten bis zur Serie KH-8, die nur Operationsdauern von max. 2 Wochen hatten war dies kein Problem. Bei längerer Verweildauer im Orbit bremst aber die Reibung mit der Luft den Satelliten schnell ab wenn dieser eine Bahn unterhalb 200 km Höhe hat, so das man eine größere Menge Treibstoff mitführen musste. Die meisten Satelliten hatten daher exzentrische Umlaufbahnen mit einem erdnahen Punkt von 150-300 km und einem erdfernen Punkt über 900 km, der nächste Punkt lag über dem zu fotografierenden Ziel, die elliptische Bahn sparte Treibstoff wenn man keine Fotografien anfertigen musste. Trotzdem brauchte man sehr viel Treibstoff wenn man die Lage des erdnächsten Punktes mehrfach ändern musste um sehr viele Ziele zu fotografieren. So bestand eine der Verbesserung des KH-12 gegenüber dem KH-11 auch in einer erheblich größeren Treibstoffmenge welche die Lebensdauer verlängerte. Es gab jedoch auch Bahnen mit einem erdnächsten Punkt von nur 100-120 km. Dies sind Höhen in der ein Satellit normalerweise ohne Antrieb innerhalb kürzester Zeit abstürzt.

Bei exzentrischen Bahnen ist die "Lebensdauer" größer, da man nur kurz so nahe am Planeten ist und zuerst die exzentrische Bahn zu einer Kreisbahn wird. Trotzdem haben Bahnen von 120-140 km Erdnähe, bei den KH-7 Satelliten eine sehr kurze Lebensdauer.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.

Bücher vom Autor über Raumsonden

Lang Zeit gab es von mir nur ein Buch über Raumsonden: die beiden Mars-Raumsonden des Jahres 2011, Phobos Grunt und dem Mars Science Laboratory. Während die russische Raumsonde mittlerweile auf dem Grund des Pazifiks ruht, hat für Curiosity die Mission erst bekommen. Das Buch informiert über die Projektgeschichte, den technischen Aufbau der Sonden und ihrer Experimente, die geplante Mission und Zielsetzungen. Die Mission von Curiosity ist bis nach der Landung (Sol 10) dokumentiert. Einsteiger profitieren von Kapiteln, welche die bisherige Marsforschung skizzieren, die Funktionsweise der Instrumente erklären aber auch die Frage erläutern wie wahrscheinlich Leben auf dem Mars ist.

2018 wurde dies durch zwei Lexika, im Stille der schon existierenden Bücher über Trägerraketen ergänzt. Jedes Raumsonden Programm wird auf durchschnittlich sechs bis acht Seiten vorgestellt, ergänzt durch eine Tabelle mit den wichtigsten zeitlichen und technischen Daten und Fotos der Raumsonde, bzw., Fotos die sie aufgenommen hat. Ich habe weil es in einen band nicht rein geht eine Trennung im Jahr 1990 gemacht. Alle Programme vorher gibt es in Band 1. Die folgenden ab 1990 gestarteten dann in Band 2. In Band 2 ist ein Raumsonden Programm meist eine Einzelsonde (Ausnahme MER). In Band 1 dagegen ein Vorhaben das damals zumeist aus Doppelstarts bestand, oft auch mehr wie z.B. neun Ranger oder sieben Surveyor. Beide Bänder sind etwa 400 Seiten stark. In Band 1 gibt es noch eine gemeinsame Einführung für beide Bände über Himmelsmechanik und Technik der Instrumente. Beide Bände haben einen Anhang mit Startlisten, Kosten von Raumsonden und Erfolgsstatistiken. Band 2 hatte Redaktionsschluss im Januar 2018 und enthält die für 2018 geplanten Missionen über die es genügend Daten gab.

Hier eine Beschreibung des Buchs auf meiner Website für die Bücher, wo es auch ein Probekapitel zum herunterladen gibt. Sie können das Buch direkt beim Verlag kaufen (versandlostenfrei). Dann erhalte ich als Autor eine etwas höhere Marge, aber auch über den normalen Buchhandel, Amazon (obige Links) und alle anderen Portale wie Bücher.de oder Libri.

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / advert here Buchshop Bücher vom Autor Top 99