Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 508: 20.8.2017 -

20.8.2017: Die Lösungen für ein überflüssiges Problem - Überlegungen für einen Erderkundungssatelliten

Heute ein komplexeres Thema, ich erspare es mir auch alles vorzurechnen und verweise nur auf die Stellen in der Wikipedia, wo man die entsprechenden Formeln findet.

Wenn man einen Erdbeobachtungssatelliten designt, gibt es viele Dinge zu beachten, ich will mich auf die folgenden konzentrieren:

  1. In welchem Orbit soll er landen?

  2. Wie schwer wird die Optik?

  3. Kann ich die gewünschte Datenmenge gewinnen und speichern?

  4. Kann ich die Daten auch an den Boden übertragen, bevor ich neue Daten gewinne?

Alle Teile hängen zusammen und um das zu veranschaulichen will ich zwei fiktive Projekte untersuchen, die es so nicht gibt und wahrscheinlich auch nicht geben wird. Bei beiden bin ich an der maximalen Auflösung die technisch möglich ist interessiert.

Der Orbit

Das Erste festzulegende ist der Orbit. Man wird meist nicht einen genauen Orbit bestimmen können, weil es ja noch andere Einschränkungen gibt. Aber man wird Randbedingungen setzen können bzw. die Auswahl auf einen bestimmten Bereich einschränken können.

Bei hochauflösenden Satelliten ist es relativ einfach: Die Auflösung diktiert die Größe der Optik und wenn diese gewichtsbestimmend, wird den Orbit. Worldview 3 und 4 haben 0,31 m theoretische Auflösung. Sie brauchen daher in ihren Orbit schon ein Teleskop mit mehr als 1 m Durchmesser das so groß ist, das man den Satellit dann um es herum baut. Umgekehrt kann man aus Höhe der ISS mit einer normalen Spiegelreflexkamera Aufnahmen mit unter 40 m Auflösung gewinnen.

Man wird den erdnächsten nutzbaren Orbit nehmen. Nutzbar heißt: die Orbithöhe sollte mit den verfügbaren Treibstoffvorräten über die geplante Betriebsdauer aufrechterhalten blieben. Durch die Atmosphäre wird der Satellit dauernd abgebremst. Immerhin: Schon in 500 km Höhe beträgt die Lebensdauer mindestens ein Jahrzehnt. Eine weitere Einschränkung (bei hochauflösenden Satelliten) ist dann nur noch die Revisitzeit, siehe unten.

Bei dem global abbildenden Satelliten gibt es eine andere Einschränkung: Die Erdoberfläche sollte unverzerrt abgebildet werden. Da gibt es zuerst Einschränkungen bei der Optik. Jeder der ein extremes Weitwinkelobjektiv sein eigen nenn kennt das - es gibt das Problem der Bildfeldwölbung. Ausgehend von der Bildmitte wird das Bild mehr und mehr zum Rand hin verzerrt. Gerade Linien wie Regalböden werden zu Bögen. Mit der Formel für den Bildwinkel kann man den Winkel einer Optik berechnen, deren Brennweite und Sensordurchmesser bekannt ist. In der normalen Fotografie sind 35 mm Brennweite (Durchmesser des KB-Formates: 43 mm) der höchste Bildwinkel, der tolerierbar ist ohne Verzeichnungen. Das entspricht 63 Grad. Bei der Erdbeobachtung wird man einen kleineren Winkel anstreben, denn die Erdoberfläche ist ja nicht flach. Bedingt durch die Kugelform ist schon alleine deswegen der Blick um so verzerrter je weiter man vom Nadirpunkt wegrückt. Der Nadirpunkt ist definiert als die kürzeste Verbindung von Erdboden und Satellit, es ist eine Linie, die direkt zum Erdmittelpunkt geht. Das ist der Fußpunkt, den der Satellit gerade überfliegt, wenn er senkrecht nach unten auf die Erdoberfläche schaut. Ich habe hier mal 30 Grad als das Maximum angesehen. Das ist für den global in einem Tag kartierenden Satelliten eine Grenzbedingung.

Dazu eine Erläuterung: jeder Satellit umkreist n-mal pro Tag die Erde. Gleichzeitig dreht sie such um ihre eigene Achse. Bei einem niedrigen Orbit kommt man auf 15 bis 16 Umläufe pro Tag. Pro Umlauf hat sich die Erde (bei 15 Umläufen) um 24 Grad weiter gedreht, wenn der Satellit den Äquator überquert. Das sind rund 5000 km. Es kommt noch schlimmer: Da der Satellit ja pro Umlauf einmal um die Erde fliegt, hat er beim ersten Umlauf nicht nur den 0 ten, sondern auch den 180-sten Breitengrad überflogen - wobei allerdings eine Seite immer auf der Nachtseite liegt. Er kann zumindest im Infraroten so theoretisch die gesamte Erde in 12 Stunden erfassen. So der Sachverhalt bei einem Satelliten, der eine Umlaufszeit hat, die einem ganzzahligen Bruchteil der Erdrotation (86164 s) beträgt. Bei jedem anderen ist n eine gebrochene Zahl z. B. 14,875 Umläufe/Tag. Beim letzten Umlauf fehlen dann noch 0,125 Umläufe für eine gerade Zahl, das sind am Äquator 334 km. Um diese Strecke verschiebt sich der Fußpunkt jeden Tag. Nach genau 8 Tagen hat man wieder den einen fehlenden Umlauf aufgeholt. Mit dieser Strategie kann man so die Erde in 8 Tagen komplett erfassen, in 626 km breiten Streifen. Bei 14 Tagen wäre der Bruchteil 1/14 und die Streifenbreite 191 km.

Für den ganztägig operierenden Satelliten streben wir daher einen ganzzahligen Teiler von Erdrotation und Umlaufszeit an. Beim zweiten Satelliten beträgt die Abweichung von der ganzen Zahl 1/14. Damit sind schon eine Menge Orbits ausgeschlossen. Das Nächste ist es dann das man die Erde weitestgehend verzerrungsfrei sehen muss. Wer auf einen Globus blickt, sieht das durch die Krümmung der Erdoberfläche man rasch einen verzerrten Blick bekommt. Experimentell ermittelt man schnell, dass wenn der Blickwinkel unter 20 Grad ist, die Verzerrung ignorierbar (um 5-6 %) ist. Für den alle 14 Tage abbildenden Satelliten ist das kein Problem, denn selbst aus einem nur 450 km hohen Orbit (darunter hat man eine zu geringe Lebensdauer) überschaut man einen Streifen von 2200 km bei 20 Grad Öffnung. Anders sieht es beim Satelliten aus der jeden Tag den ganzen Planeten erfassen muss. Der kleinste Orbit oberhalb von 450 km Höhe mit genau n Umläufen ist in 562 km Höhe, dann beträgt die Streifenbreite 2674 km bei 22 Grad Öffnung, ausreichend - es müssen 2671 km sein. Alternativ kann man bei 14 Umläufen pro Tag auf 889,2 km Höhe gehen. Bei dem kleinen Winkel ändert das aber kaum was an der Streifenbreite. Nur bei Weitwinkelaufnahmen nimmt diese drastisch zu.

Für kommerzielle Satelliten, die vor allem der Aufklärung dienen ist, die Revisitzeit wichtig. Die Revisitzeit ist der zeitliche Abstand zwischen zwei Daten, bei denen ein Ziel unter guten Bedingungen erneut überfolgen werden kann. Ganz genau wird es erst nach einem Zyklus überflogen, aber wenn man einen kleinen Versatz von wenigen Hundert Kilometern toleriert so kann, man es früher beobachten. Nehmen wir Worldview 3+4 die, sind in rund 612,5 km hohen Orbits. Man kommt in der Höhe auf 14,84 Umläufe pro Tag mit einem Bahnversatz von 431 km pro Tag. Nach einem Tag sieht man das Ziel daher schräg, etwa um 8 Grad von der Seite. Das nimmt dann mit jedem Tag zu bis nach 6 Tagen ein Zyklus durchlaufen ist. Der Satellit hat also eine Revisitzeit von einem Tag. Worldview kann bis zu 20 Grad aus dem Nadirpunkt nach rechts oder links blicken, somit kann man an 4 von 6 Tagen ein Gebiet noch von der Seite erfassen. Im Allgemeinen kann man die Revisitzeit bei einem gegebenen tolerierbaren Winkel ausdehnen, wenn man die Höhe der Umlaufbahn erhöht. Für militärische Unternehmungen setzt man heute eher auf mehrere Satelliten in zueinander versetzen Bahnebenen. Gerade für die ist auch die Revisitzeit sehr wichtig. Im zivilen Bereich benötigt man meist nicht so kurze Zeitabstände, wenn dann vor allem bei Katastrophenfällen wie Überschwemmungen.

Die Breite des Streifens bei einem gegebenen Winkel ist über den Cosinussatz berechenbar, wenn man Öffnungswinkel der Kamera, Bahnhöhe und Erdradius kennt. Man kann dann zuerst die dritte Seite berechnen und dann über den Sinussatz den gegenüberliegenden Winkel zwischen den Seiten am Erdmittelpunkt berechnen und dann über Multiplikation mit 2 x π * Erddurchmesser die Strecke auf der Erdoberfläche.

Die Optik

Ale Satelliten brauchen eine Optik um Aufnahmen zu machen. Zwei Dinge sind wichtig: Der Durchmesser der Optik definiert das Auflösungsvermögen, also wie feine Details man theoretisch noch aus einer vorgegebenen Höhe erkennen kann. Diese ist physikalisch begrenzt. Für Linsenteleskope ist bei einem gegebenem Durchmesser die Auflösung am höchsten. Für Spiegelteleskope ist sie je nach Größe des Fangspiegels etwas kleiner, weshalb man in solchen Satelliten auch Konstruktionen findet, die bei irdischen Teleskopen eher selten sind wie Schiefspiegler mit gefaltetem Strahlengang. Dadurch vermeidet man einen Fangspiegel im Strahlengang.

Das Zweite ist die Brennweite, welche die Vergrößerung angibt. Bei gleichem Optikdurchmesser wird mit zunehmender Brennweite ein Element auf der Bildebene immer größer. Sie sollte, wenn man die physikalische Auflösung auch voll ausnutzen will, auf die Größe eines Pixels im Sensor abgestimmt werden. Beide Parameter stehen über die Blende in Beziehung für die gilt: Blende = F/D

Für Linsenfernrohre gilt:

Blende für maximale Auflösung = 1,661 * Pixelgröße in µm.

Pixelgröße bei Sensoren für Satelliten liegen meist zwischen 6 und 14 µm so kommt man auf Blenden von 10 bis 23. Ist die Brennweite bzw. Blende kleiner so verschenkt man Auflösung, erhält aber mehr Licht pro Pixel, was die Belichtungszeit für ein ideales Bild reduziert oder bei einer vorgegebener Belichtungszeit das Signal/Rauschen verbessert. Es ist nicht ratsam eine Blende zu verwenden, die größer als die ideale ist, dann verschmiert man nur ein Detail über zwei Pixel und hat stärker verrauschte Bilder.

Der Durchmesser der Optik legt die Auflösung fest. Auch diese kann man über optische Gesetze leicht berechnen. Für kleine Winkel (Brennweite>Sensordurchmesser) gilt folgende Faustformel:

Eine Optik von 1mm Durchmesser kann im sichtbaren Licht (550 nm Zentralwellenlänge) aus 1661 m Entfernung ein Detail von 1 mm auflösen. Über Dreisatz kann man so den Durchmesser für jede beliebige Größe aus jeder Entfernung errechnen.

Worldview 3+4 haben z.B. ein Teleskop von 1,1 m Durchmesser, eine Pixelauflösung von 0,31 m und eine Bahnhöhe von 612,5 km. Aus obigem Satz errechnet man für diese Bahnhöhe und dieses Teleskop eine theoretische Auflösung von 33,5 cm. Hier ist also das Detektorelement etwas kleiner als die theoretische Auflösung, bzw. bei 508 nm Wellenlänge hat ein Pixel genau die theoretische Auflösung.

Die Konstruktion des Teleskops legt auch fest, wie groß der Bereich ist, in dem man eine scharfe Abbildung erhält. Bei allen Teleskopen gibt es eine Aufhellung des Zentralbereiches, je nach Typ auch noch Bildfehler wie eine Verzerrung zum Rand hin oder Farbfehler.

Sensor

Es gibt zwei mögliche Sensortypen, die eingesetzt werden. Fast ausschließlich werden heute TDI-Sensoren eingesetzt, das sind Zeilensensoren mit mehreren Scanzeilen. Dabei wird das elektrische Signal integriert. Hat ein Sensor 16 Zeilen, so wird nach einer vorgegebenen Zeit jeweils ein Pixel in Zeile 1 ausgelesen und die Ladung in das darüberliegende Pixel von Zeile 2 verschoben. Dort erzeugt Licht noch mehr Elektronen und dies setzt sich fort, bis es in der letzten Zeile angelangt ist. Der Vorteil ist, dass man so die Belichtungszeit von 16 Zeilen summiert hat. Dies ist nötig, wenn man den Sensor nicht zur Bewegungskompensation drehen will (meist müsste man dazu das ganze Teleskop drehen). Eine Bewegungskompensation ist aber notwendig, wenn die theoretische Belichtungszeit kleiner ist, als die Zeit, die man hat, bevor ein Detail durch die Bewegung verschmiert.

In einem erdnahen Orbit bewegt sich ein Satellit mit typisch 7 km/s relativ zur Erdoberfläche. Würde man mit eine Tausendstel Sekunde belichten, dann verschmiert die Bewegung alle Details die kleiner sind als 7 m. Für Auflösungen von 0,3 m wie bei Worldview käme man so auf extrem niedrige Belichtungszeiten, die sehr dunkle und verrauschte Bilder ergeben. Mit den TDI-Sensoren kann man so praktisch das Licht von n Pixeln addieren.

Ist die Belichtungszeit nicht ausschlaggebend, kann man normale Flächen-CCD nehmen. Diese haben weniger Rauschen als die TDI das durch das Kopieren der Ladung entsteht. Zudem kann man in Frame Transfer-CCD den Inhalt schnell von einer benutzten Hälfte des Chips in eine abgedeckte nicht benutzte kopieren und dort langsam auslesen.

Datenverarbeitung

Die Daten müssen dann auch noch ausgelesen und gespeichert werden. Das Letztere ist heute kein Problem. Schnelle Speicher auf Basis von Flash-Speichern oder sogar RAM gibt es heute ebenso wie Schnittstellen mit hoher Datenrate. Derzeit sind eher die Ausleseraten de Sensoren limitierend, schnelle Sensoren gibt es für niedrige Auflösungen, astronomische Sensoren mit großen Pixelgrößen und großer Fläche müssen im Normalfall nicht schnell ausgelesen werden.

Heute begrenzend ist dann eher die Datenübertragung zur Bodenstation. Die meisten Satelliten umkreisen die Erde auf sonnensynchronen Bahnen in denen sie bei jedem Umlauf den Nord- und Südpol passieren. Mit drei Empfangsstationen rund um die Pole hat man dann bei jedem Umlauf zwei Möglichkeiten die Daten zu übertragen. Typisch hat man dazu selbst bei erdnahen Bahnen 6 bis 10 Minuten Zeit je nach Bahnhöhe. Doch selbst im besten Fall hat man so über ¾ der Umlaufdauer keinen Funkkontakt. Weitere Bodenstationen auf den Kontinenten können die Lücke füllen, aber kein Satellit hat dauernd Funkkontakt.

Wordview 3+4 senden ihre Daten mit 800 und 1.200 Mbit/s, zusammen also 2.000 MBit/s. Der Sensor hat 35.000 Pixel bei 11 Bits/Pixel. Bei 0,31 m Auflösung und 6890 m/s Bodengeschwindigkeit müssen pro Sekunde 22.245 Zeilen ausgelesen werden, was dann 8,56 GBit/s sind, also mehr als übertragen werden kann und dies auch nur bei Kontakt mit der Bodenstation. Ein Satellit kann so nicht dauernd die Erde erfassen.

Für beide Satelliten, die in einem bzw. 14 Tagen die ganze Erde abbilden, wird man daher eine Bodenauflösung festlegen müssen, die mit den Übertragungsmöglichkeiten korrespondiert.

Eine Lösung ist es, Laserkommunikation zusätzlich einzusetzen. Der deutsche Satellit BIROS kann damit 1 GBit/s zu einem Bodenterminal übertragen, mit Funk nur 2,2 Mbit/s. Da Laserkommunikation zu irdischen Bodenstationen stark wetterabhängig erfordert diese Lösung zumindest das Zwischenspeichern an Bord und erst nach Empfang wird man die belegten Blöcke wieder freigeben können. Für ganz schnellen Zugriff, innerhalb eines Umlaufs eignet sich das nicht, auch wenn es sehr unwahrscheinlich ist, dass man über mehrere Umläufe keine einzige Bodenstation findet, die keinen klaren Himmel hat. Laserkommunikation kann auch um ein Laserterminal an Bord eines geostationären Satelliten erfolgen. Man braucht hier wegen der größeren Entfernung (36.000 km anstatt < 1000 km) etwas größere Teleskope und/oder höhere Leistung, aber auch hier wurden Datenraten im Bereich von Gbit/s schon realisiert. Regierungen nutzen dies für ihre Erdbeobachtungssatelliten. Die Sentinels übertragen so z.B. ihre Daten. Private Unternehmen scheuen die Kosten für einen weiteren Satelliten nur zur Datenübertragung. Der könnte dann natürlich auch die Daten per Radiowellen empfangen und senden. Dafür bräuchte man aber bei den geforderten hohen Datenraten sehr hohe Sendeleistung bzw. sehr große Sendeantennen.

Umsetzung

Ich fange mit dem Satelliten, an der die Erde global kartieren soll. Eine erste Abschätzung gilt der Auflösung. Wenn ich annehme, dass der Satellit 2 GBit/s übertragen kann (so viel wie Worldview 3+4) und pro Umlauf es zwei Kontakte von 600 s Dauer gibt (typische Zeit 20 Grad über dem Horizont für einen etwa 600 km hohen polaren Orbit), so kann ich pro Umlauf rund 2,4 Tbit übertragen. Ich muss pro Umlauf einen 2700 km breiten und 40.000 km langen Streifen erfassen, dies in 3 Farben zu je 12 Bit, mit einem verlustlosen Komprimierungsfaktor von 2. Das sind dann 18 Bit pro Pixel, was 133 GPixel pro Umlauf erlaubt oder 1234 Pixel pro Quadratkilometer, was einer Bodenauflösung von nur rund 30 m entspricht.

Bei dieser groben Auflösung ist ein erdnaher Orbit dann nicht mehr so wichtig. Meine APS-C Einsteigerkamera mit einem 300-mm-Objektiv könnte aus 600 km Höhe noch Aufnahmen von 8 m Auflösung machen, kleine Satelliten wie ProbeA, Rapideye oder Dove können Bilder in einer Auflösung von einigen Metern machen. Daher würde ich für den Satelliten einen hohen Orbit anstreben, z.B in 1256 km Höhe mit 13 Umläufen pro Tag. Das maximiert die Kontaktdauer zu den Bodenstationen. Zudem ist die Verzerrung der Erdoberfläche bei der geforderten Streifenbreite kleiner. Bei einem stabilen Signal 10 Grad über dem Horizont gibt es so 1481 s lang Kontakt, macht bei zwei Kontakten pro Orbit 2962 s, was die übertragene Pixelmenge erhöht, sodass man auf eine Auflösung von 20 m erreicht. Ein Linsenobjektiv mit 40 mm Druckmesser hätte die benötigte beugungsbegrenzte Auflösung.

Die Geschwindigkeit über dem Boden beträgt 6,04 km/s, das ergibt eine Belichtungszeit von 1/300 s, ausreichend, wenn man bedenkt, das im Weltall ohne die filternde Atmosphäre die Sonne um ein Drittel stärker scheint als auf der Erde und da benötigt man, wenn die Sonne bei klarem Himmel im Zenit steht, keine 300-stel Sekunde für ein Foto, wenn die Blende klein ist und das ist bei so einem kleinen Objektiv ohne Problem möglich.

Der Satellit hat ein anderes Problem. Bei 13 Umläufen pro Tag muss der Streifen, der abgebildet werden soll, 3100 km breit sein. Das sind über 150,000 Pixel in der Breite. So große Scanzeilen gibt es nicht. Selbst wenn man eine Scanzeile aus mehreren (bis 40.000 Pixel gibt es) zusammensetzt gibt es keine Kamera erträglicher Größe mit einem solchen Blickfeld. Eine Mittelformatkamera hat rund 50 MPixel bei einer Sensorfläche von 44 x 33 mm. Das sind 8.200 Pixel in der langen Seite bei 5,4 µm/Pixel. 20 Kameras, parallel geschaltet, jede mit einem Objektiv von 350 mm Brennweite (163,5 km Streifenbreite) würden den Job tun. Das hat auch den Vorteil, das man jede Kamera an einen eigenen Datenspeicher anschließen kann. Das Auslesen ist dann zeitlich kein Problem, man hat für jedes Bild rund 20 s Zeit. 350 mm ist die Brennweite eines Apochromats mit 44 mm Linsendurchmesser mit einer Blende von 8. Standardobjektive erreichen 300 mm Brennweite bei Blende 5,6. Man benötigt bei dieser Technologie mindestens ein Objektiv von 40 mm Durchmesser. Jede Kamera hätte ein Gewicht von einigen Kilogramm, alle zusammen sicher unter 50 kg. Damit wäre auch das Gesamtgewicht des Satelliten nicht zu hoch, ich schätze etwa 300 kg bei einem typischen Nutzlastanteil von einem Sechstel.

Alternativ kann man Zeilensensoren einsetzen, die sind breiter jedoch muss man diese auch auf das Bildfeld abstimmen. Bei nicht zu großen Optiken, die ann aber auch sehr schwer werden ist aber das Mittelformat schon die Grenze. Wer eine 70-mm-Filmkamera mit einer Mittelformatkamera in Bezug auf Gewicht vergleicht, dem wird klar sein, dass die Mittelformatkamera die leichtere Lösung ist, auch wenn man mehrere benötigt.

Der zweite Satellit, der multispektrale Aufnahmen macht, wird auf jeden Fall einen Flächensensor einsetzen. Er schaut mit der langen Seite quer zur Bewegungsrichtung. In dieser Richtung ist auch ein Spalt in der Optik, der lässt nur Licht einer Zeile durch. Dahinter bricht ein Beugungsgitter das Licht in seine Spektralfarben auf die dann über die Breite des Chips fallen. Jede Spalte enthält so das Spektrum eines Bildpunktes einer Zeile. Durch die Bewegung der Satelliten erhält man dann ein Bild.

Das Grundproblem der Gewinnung eines Spektrums ist, dass man so einen Datencube bekommt: n Pixel in der Länge x n Scanzeilen x n Pixels pro Spektrum. Nimmt man nur 256 Pixel für ein Spektrum, was noch relativ grob ist, dann hat man verglichen mit 3 Farben beim ersten Satelliten die 83-fache Datenmenge. Berücksichtigt man das man 14 anstatt einen Tag zeit hat, so ist es immer noch die 6,1-fache Datenmenge. Bei gleicher Datenübertragungsrate, die ja schon beim ersten Satelliten das Limit setzte, ist so die Auflösung pro Pixel um den Faktor 2,5 höher - sie erreicht nur 50 m/Pixel.

Bei 50 m/Pixel und einer Bahnhöhe von 889 km ergibt sich so eine Breite von 205 km pro Streifen und 4.100 Pixel pro Zeile. Das ist mit einem herkömmlichen CCD-Sensor in einer Kamera zu machen. Man würde einen relativ großen Sensor wählen, da durch die Aufspreizung des Spektrums jedes Pixel weniger Photonen bekommt. Im Mittelformat wären so 11 µm/Pixel möglich etwa doppelt so große Pixel wie bei normalen Kameras..Es werden nur 256 Pixels in der zweiten Dimension gebraucht. Dafür gäbe es zwei Lösungen. Das eine ist zwei Scanzeilen-CCD. die es mit bis zu 128 Zeilen. gibt zu kombinieren oder man fasst bei einem Flächen-CCD einfach mehrere Pixel zusammen (Binnen). Beim Typischen 4/3 Format müsste man so 12 Pixel binnen.

Aufgrund der niedrigen Auflösung gibt es noch weniger Anforderungen an das Objektiv. Ein 190 mm Objektiv, das ist eine gängige Telebrennweite eines Linsenobjektives, würde ausreichen. Die Datenrate müsste 127 Mpiuxel/s erreichen, eine Datenmenge, die man heute kontinuierlich auf eine einzelne SSD schreiben kann.

Optimierungen

Man kann noch etwas verbessern. Das Offensichtlichste ist, das die Breite des Streifens nur am Äquator so breit sein Muss. In 45 Grad Breite reichen 70,7% der Breite und beim Pol sind es theoretisch 0 Pixel. Integriert man dies, so kommt man auf 63,7% der Datenmenge als wie, wenn man immer die gleiche Breite überträgt. Eine Routine muss nur anhand der aus GPS-Koordinaten berechneten geografischen Breite den Cosinus berechnen und mit der Streifenbreite multiplizieren, davon lässt man dann links und rechts jeweils die Hälfte im Vergleichen zur Maximalbreite weg. Das erhöht die Auflösung um rund 25% auf 16 bzw. 40 m.

Zwei Drittel der Erdoberfläche bestehen aus Ozeanen. Über denen muss man nicht Bilder gewinnen. In der Praxis ist der Gewinn aber kleiner, denn man erfasst rund um Inseln zwangsläufig bei einem Streifen auch das Meer mit. Ich denke aber das liefert eine weitere Reduktion der Datenmenge um 50 %, oder 24 % höhere Auflösung. Wenn man den täglich abbildenden Satelliten aber zur Kontrolle der Umwelt, wie z.B. abgeleitetes Öl im Wasser nutzt, kann man diese Optimierung nicht nutzen.

Das Naheliegende wäre es die Datenrate zu erhöhen. Neben der "großen" Lösung nämlich mehr Empfangsstationen weltweit hinzuzunehmen oder einen geostationären Satelliten, bei dem dann dauernder Funkkontakt möglich ist, sehe ich in der Laserkommunikation das höchste Potenzial. Übertragungen mit 10 GBit/s zwischen ISS und Bodenstationen wurden schon demonstriert. Würde man Laserkommunikation nur während 30% der Zeit mit dieser Datenrate nutzen können, so wären es im Mittel 5 anstatt 2 GBit/s was die Auflösung um den Faktor 1,57 steigern würde. Da dies stark wetterabhängig ist, müssten beide Satelliten große Datenmengen an Bord speichern. Doch dank großen SSD ist das kein Problem. Für Server gibt es SSD mit bis zu 4 Tbyte Kapazität, die man dann noch bündeln kann zu einem Massenspeicherarray. 16 Stück, so als kommerziell verfügbares Subsystem für Server haben dann 64 TeraByte Kapazität was theoretisch bei 5 GBit/s im Mittel als Datenrate für 3,6 Tage ohne Kontakt zu einem optischen Teleskop reichen würde.

Klar ist, dass man natürlich bei so höheren Auflösungen das optische System neu konzipieren muss. Aufgrund der nun schon großen Länge des Artikels habe ich darauf verzichtet.

22.8.2017: Faktenbasierte Politik: Drogenpolitik

In meiner lockeren reihe über Politik, die sich an Fakten hält, in der Folge sind es sogar passend zum Beruf unserer Kanzlerin naturwissenschaftliche Erkenntnisse, sollten ihr also echt liegen geht es heute um die Drogenpolitik.

Die Situation

Die Situation ist relativ einfach. Es gibt zwei legale Drogen: Alkohol und Tabak. Alles andere ist verboten. Unser Betäubungsmittelschutzgesetz ist bei den strengeren, die es im weltweiten Vergleich gibt, einzusortieren: Während bei vielen anderen Staaten der Konsum von Cannabis straffrei ist, ist der bei uns auch verboten. Da das gegen das Grundgesetz verstößt, hat man den Passus der "geringen Menge" eingeführt, der den Konsum aber nicht legalisiert, sondern nur von einer Straftat zu einer Ordnungswidrigkeit herunterstuft.

Woanders sieht es anders aus. Zum einen ist die Legalisierung von Cannabis am Fortschreiten. Dieses Jahr folgten weitere US-Bundesstaaten und Kanada. Auf der anderen Seite ist der Zugang zu Alkohol in einigen skandinavischen Ländern limitiert und war früher in den USA verboten. Tendenziell geht der Trend dazu das auch die beiden erlaubten Drogen Alkohol und Tabak mehr und mehr Einschränkungen bei Werbung oder Handel hinnehmen müssen.

Die Fakten

Man kann Drogen nach verschiedenen Aspekten beurteilen. Nach ihrem Suchtpotenzial, der Zahl der Abhängigen, ihren physischen Gefahren und ihrem gesellschaftlichen Schaden. Also schaue ich mal in den offiziellen Drogenbericht der Bundesregierung, der just veröffentlicht wurde.

Nehme ich den als Basis, so verstehe ich als Naturwissenschaftler die Gesetzgebung nicht. An den Folgen von Alkohol sterben jährlich 121.000 Personen, an Tabak 74.000 Personen. An den Folgen aller illegalen Drogen zusammen 1.332 Personen. Offensichtlich sind also gerade die beiden legalen Drogen viel gefährlicher als die illegalen. Dasselbe findet man auch bei den gesellschaftlichen Kosten. Bei Alkohol werden sie auf 26 bis 40 Milliarden Euro pro Jahr geschätzt. Bei Tabak sind es mit 79,4 Milliarden Euro sogar noch mehr.

Das bedeutet: Gerade an den beiden legalen Drogen sterben mehr Menschen und gibt es mehr volkswirtschaftliche Schäden als durch die illegalen. Das hängt nun aber nicht nur damit zusammen, dass sie erlaubt sind, sondern sie sind auch objektiv gefährlicher - die Spanne zwischen der Menge, die die gewünschte "berauschende" Wirkung hat und der Menge ab der Gesundheitsschäden auftreten ist bei ihnen viel geringer als bei allen illegalen Drogen mit Ausnahme von Heroin. Also sollten gerade die bein erlaubten Drogen verboten werden und nicht die anderen. Ich konstatiere - mit Fakten hat unsere Drogenpolitik nichts zu tun.

Die Alternativen

Meiner Ansicht nach sollte man alle Drogen gleichbehandeln. Aus naturwissenschaftlicher Sicht gibt es auch keine Begründung für einen Sonderstatus von Alkohol und Tabak. Im Gegenteil, wenn man die Kosten und die Folgen für den Einzelnen als Basis nimmt, müsste man Diazepam und THC legalisieren und Alkohol (als zweitgefährlichste Droge) und Nikotin (als fünftgefährlichste Droge) verbieten,

Die Politik führt dazu "Scheinargumente" ein, wie das die beiden erlaubten Drogen kulturell legitimiert wären. Das stimmt so nicht. Sicher Alkohol wurde schon immer konsumiert. Aber Tabak kam erst durch Columbus zu uns und viel geraucht wurde erst einige Jahrhunderte später. Dagegen ist Hanf eine uralte Kulturpflanze und wurde wohl schon immer konsumiert. Erst nach dem Zweiten Weltkrieg wurde sie illegal. Zahlreiche andere illegale Drogen waren mal Medizin, so Heroin und Kokain. Methamphetamin (Crystal-Meth) war im zweiten Weltkrieg im Einsatz damit deutsche Soldaten länger durchhielten. Noch in den Sechzigern muss es legal erhältlich gewesen sein - im Film "Eins zwei Drei" von Billy Wilder gibt es die Szene nach dem Abend in Ostberlin am nächsten Morgen als der Manager auf die Frage wie er seinen Kaffee haben will nur antwortet "Nur zwei Pervitin, das wird heute ein harter Tag" - Pervitin war der Handelsname von Methamphetamin.

Zudem will die Politik ja selbst den Konsum reduzieren. Bei Tabak relativ restriktiv - hier wurden die Gesetze für den Einsatz von Werbung verschärft, Automaten lassen nur noch Zigaretten raus, wenn man eine EC-Karte einführt, die es erst ab 18 gibt. An immer wenigen Orten darf man in der Öffentlichkeit rauchen. Bei Alkohol sehe ich die Tendenz dafür nicht.

Es gibt nun zwei gegensätzliche Standpunkte. Beim Ersten sehe ich die gesundheitlichen Gefahren bzw. gesellschaftlichen Folgen und verbiete Drogen ganz, und beim Zweiten stehe ich auf dem Standpunkt, dass jeder für sich selbst voll verantwortlich ist, und legalisiere sie komplett. Es ist klar, das beide Denkarten idealisiert sind und in de Praxis nicht durchsetzbar sind.

Wenn ich alles verbiete, dann ignoriere ich das die Menschen Drogen wollen. Die meisten Drogen wirken über den körpereigenen Belohnungsmechanismus des Gehirns - deswegen konsumiert man sie ja. Man fühlt sich besser. Dieser Belohnungsmechanismus greift auch bei anderen Dingen, die zum Teil auch im Drogenbericht erwähnt werden wie Glückspiel oder auch Internetsucht. Ich würde dann auch noch bestimmtes Essen wie Süßigkeiten oder fettreiches Essen erwähnen. Die Politik will aber weder Glücksspiel verbieten noch den Internetzugang regulieren.

Man wird nicht verhindern können das Leute sich gut fühlen wollen, und wenn man das in der Konsequenz durchdenkt, müsste man vieles andere auch verbieten das denselben "Kick" liefert wie einige Extremsportarten wie Bungee-Springen oder Paragliding. Das totale Verbot hat auch die Folge, dass eine Schattenwirtschaft entsteht, die diese Bedürfnisse dann stillt. Entsprechend hoch sind die Preise für illegale Drogen. Nehmen wir mal Hanf, sprich Cannabis als Droge. Hanf wird bei uns angebaut, wächst auch bei uns. Nur ist der angebaute Hanf THC-armer und wird vor allem für Dämmmaterial angebaut. Da gibt es in der Uckermark, wo Merkel herkommt, ganze Felder davon. In einem Reformhaus habe ich mal 500 g Hanfsamen für 5 Euro gesehen - THC-reiche Samen kosten im Internet einige Euro pro Stück. Wenn man den Hanfsamen aus feminisierten Pflanzen oder die Pflanze aus Stecklingen gewinnt, hat man nur weibliche Pflanzen und vermeidet so die Bestäubung (nur die Blüten haben THC und die sterben bei Bestäubung ab). Unter der Voraussetzung könnte man ihn so anbauen wir andere Arzneimittelpflanzen auch.

Heute wird Hanf selbst dort, wo er gesetzlich erlaubt wird, unter künstlichem Licht gezogen, was alleine durch die Stromkosten so hoch treibt, dass er legal nicht billiger ist als illegal. Im Prinzip könnte man aber das Abtrennen der Blüten automatisieren so, wie man es auch bei anderen Pflanzen macht, entsprechende Maschinen für das Abtrennen der Blätter gibt es, oder man macht es, wie es die pharmazeutische Industrie bei anderen Heilpflanzen wie Ginkgo, Johanniskraut und anderen macht: Man erntet die ganze Pflanze und extrahiert zuerst die Phase mit dem Wirkstoffe (bei THC: Fettlösliche Phase) und reinigt das dann auf. Vertrieben würde dann so was Ähnliches wie Haschisch, also ein Gemisch aus THC und anderen fettlöslichen Pflanzeninhaltsstoffen oder man vertreibt nur THC. Das ist wegen des hohen Siedepunktes und der geringen Polarität mit wenig Aufwand von den anderen fettlöslichen Bestandteilen wie Wachsen oder Squalen-Terpenen abtrennbar. Ginko-Biloba-Extrakt kostet, wenn man nicht gerade die beworbenen Medikamente, sondern No-Name" nimmt, rund 16 Euro für 10,8 g reinen Wirkstoff. 1 g Marihuana mit 10-20 % THC kosten im Straßenverkauf rund 7-9 Euro ist also durch die Illegalität pro Gramm Wirkstoff 30-mal teurer. Daher floriert auch der illegale Anbau bei uns. Er lohnt sich ja, selbst wenn man es indoor betreibt, also die Sonne durch Lampen ersetzt - trotz der enormen Stromkosten. Während es sich kaum, lohnt Lebensmittel oder nur Kräuter selbst anzubauen, lohnt sich der Selbstanbau von Cannabis. Kauft man sich Samen, rechnet noch etwas für Blumenerde, Wasser und Dünger hinzu, so kommt man (ohne die eigene Arbeitszeit) auf 5-7 Euro/Pflanze - bei einem typischen Ertrag (Outdoor) von 30-50 g pro Pflanze. Auch hier hat die Illegalität die Droge um den Faktor 50 bis 100 verteuert. Dass ein totales Verbot nichts bringt, zeigt nicht nur das heutige Betäubungsmittelgesetz, sondern auch andere Erfahrungen mit Verboten wie die Prohibition - die hat nichts gebracht, außer das die Mafia dadurch erst ihre heutige Bedeutung erlangte.

Auf der anderen Seite muss man jetzt schon mal sehen welche Probleme die beiden legalen Drogen machen und welchen Schaden sie nicht nur bei den Konsumenten, sondern auch der Gesellschaft als Ganzes die mit den Kosten die durch sie entstehen leben muss.

Mein Konzept

Meine Vorstellung ist das man die Drogen wirklich mal nach ihrer Schädlichkeit, sowohl für den Einzelnen wie auch die Gesellschaft (Behandlungskosten, Ausfall der Arbeitskraft durch Krankheit oder Tod, Beschaffungskriminalität, Kosten für die Inhaftierung von Konsumenten) beurteilt. Danach stuft man den Zugang nach Gefährdungspotenzial ein.

Für alle Drogen müsste ein strenges Jugendverbot gelten. Bei Erwachsenen muss der Zugang geregelt sein, z.B. indem man sie in speziellen Geschäften anbietet, ("Drugstores") wo nur Erwachsene sie bekommen. In unserer digitalen Welt kann man den Konsum leicht kontrollieren, z. B. indem es eine zentrale Datenbank gibt, und man bei jedem Kauf seinen Personalausweis zücken muss. Man kann für jede Droge eine Maximalmenge festlegen, die man noch toleriert. Bei Alkohol könnten das z. B. 0,5 l Wein oder 1 l Bier pro Tag sein. Das wären maximal 50 g reiner Alkohol pro Tag oder dreimal so viel wie der Durchschnittskonsum. Mann kann dann sicher einen Kasten Bier auf einmal kaufen, aber dann eben 14 Tage lang keinen weiteren Alkohol. Bei Hanf würde ich als Grenze zwei Haschkekse pro Tag ansehen. Die reichen für rund 8-10 Stunden Dröhnung. Wegen der geringen Resorption aus dem Darm sind das bei 10% THC Gehalt rund 0,6 g pro Tag. Da sind schon heute die US-Regelungen weitaus freizügiger: Dort kann man auf einmal eine Unze, rund 28,35 g kaufen. Inhalativ konsumiert reichen die 0,6 g sogar für 4-6 Joints.

Richtig gefährliche Drogen, ich denke hier an Heroin, Amphetamine etc. sollte man wie Medikamente behandeln und nur auf Rezept abgeben. Dann steht der Abgabe zumindest ein Gespräch mit einem Arzt bevor und das wiederholt sich für ein neues Rezept. Das ist nicht ohne Vorbild, denn auch rezeptpflichtige Medikamente tauchen ja schon heute im Drogenbericht auf.

Dazu gehört auch das man anstatt den schon vorhandenen Süchtigen und auch den in Zukunft gebenden Süchtigen (nicht jeder kann den Konsum kontrollieren) nicht mit Bestrafung droht, sondern Ausstiegsprogramme, Behandlungen und Alternativen bietet. Heute ist ja schon die Substitution von Heroin durch Methadon umstritten und nur wenige kommen in den Genuss einer solchen Therapie.

Eine andere Frage ist die Kontrolle des Anbaus. Bei der Legalisierung von Cannabis geht dies heute überall in die Richtung staatlich kontrollierter Anbau. Wenn das funktioniert, so sollte man es auch bei anderen Drogen beibehalten. Ich befürchte nur bei Alkohol und Hanf wird das so nicht funktionieren. Alkohol kann jeder durch Gärung von Pflanzen herstellen. Bier kann man selbst brauen, noch einfacher ist die Herstellung von Fruchtweinen. Hochprozentiges erfordert eine Destille, doch auch dafür ist der aufwand überschaubar und der Anbau von Hanf ist nicht schwieriger als der einer x-beliebigen Topfpflanze. Dann muss man bei der ernte nur noch alle Blätter von der Blüte wegschnippeln und hat schon die Droge. Selbst die Herstellung von Alkohol ist da komplizierter. Zumindest bei diesen beiden Drogen würde ich nicht für einen staatlichen Anbau plädieren. Stattdessen sollte der Eigenanbau in Maßen legal sein, dafür müsste man einen Anteil der Ernte oder einen finanziellen Ausgleich bezahlen. Auch das ist nicht ohne Vorbild. Wer heute Maische brennen lässt, also aus Früchten Schnaps herstellt, der muss einen Teil des Schapps abgeben oder den Anteil der Alkoholsteuer bezahlen. Auch in den skandinavischen Ländern gibt es ja eine Trennung zwischen Erzeugung des Alkohols durch die Wirtschaft aber staatlich kontrollierter Abgabe.

Klar ist, dass so eine Umstellung nicht von heute auf morgen geht. Sie ist relativ unproblematisch bei allen heute illegalen Drogen da sie für die Betroffenen erstmals einen legalen Zugang eröffnet und dürfte damit sowohl Beschaffungskriminalität eindämmen, wie auch dem Verdienst, der heute durch die Illegalität realisiert wird, und der bei Kriminellen landet, reduzieren. Anders sieht es bei den vielen, schon an Alkohol und Tabak Abhängigen aus. Die wird man langsam in das neue System überführen müssen. Dafür gibt es ja schon Vorbilder. Der Zugang zu Tabak wird immer mehr eingeschränkt, der Stoff wird immer teurer: heute in der Regel 5 Euro für 19 Zigaretten, als ich so zehn bis zwölf war und die Packungen für meine Mutter aus dem Automaten ziehen musste, kosteten die noch 2 Mark für 21 Zigaretten, Werbung wird immer mehr verboten.

Dazu gehört auch ein Vorbild seitens der Politik: Wenn ich Politiker beim politischen Aschermittwoch und anderen Terminen mit einem Bierglas sehe, ist das kein Vorbild. Kein Vorbild sind auch Politiker, die alkoholisiert Unfälle bauen oder alkoholisiert Reden in Parlamenten halten. Man wird also für Alkohol und Tabak sukzessive den Zugang immer mehr verschärfen, bis man bei der Endregelung angekommen ist.

Vielleicht sollte man den Politikern ja mal auf die Sprünge helfen. Der Anbau von Hanf ist ja verboten, außer für Nutzhanf mit einer Ausnahmegenehmigung. So müssen Behörden überall einschreiten, wo sie Hanfpflanzen sehen. Ob es THC-reicher Hanf ist sieht man erst, wenn er blüht. Ich habe vor mir so eine Packung Bio-Hanfsamen (Nutzhanf, THC-arm) zu besorgen und wo ich hinkomme, in den städtischen Grünanlagen und Beeten zu verteilen. Mal sehen, wie viel davon keimt. Wenn das jeder macht und jedes Jahr wieder, was meint ihr, wie schnell sich die Politik an die Fakten anpasst.

24.8.2017: Corona oder Gambit zum Mond?

Beim Apolloprogramm hatte man auch mal die Planung einer Apollo I Mission. Wie der Buchstabe verrät, war diese zwischen den ersten bemannten Mondlandungen (Apollo H: Apollo 11-14) und den erweiterten Mondlandemissionen (Apollo J: Apollo 15 - 17) geplant. Als man diese plante, ging man auch davon aus, dass es einen größeren zeitlichen Abstand zwischen der letzten Apollo H und der ersten Apollo J Mission geben würde. Das war durch Verzögerungen im Programm nicht der Fall. Zudem führte die Reduktion ab 1970 von vier auf zwei Missionen pro Jahr dazu, dass es keine Lücke gab. Programmtechnisch wäre es am besten gewesen die Apollo I vor den H durchzuführen, man hätte dann mehr Erfahrung mit dem CSM im Mondorbit gehabt, inklusive Einflüsse durch die Mascons unter den Mare, die ja bei Apollo 11 dazu führten, dass Apollo 11 den geplanten Landeplatz um mehrere Kilometer verpasste und in der Endphase der Landung dann wegen des Landens in einem felsenübersäten Gebiet recht spannend wurde.

Es waren eine Reihe von Experimenten für diese Missionen vorgesehen: Gammastrahlen- und Neutronenspektrometer, Laserhöhenmesser. Die damals wohl interessanteste Nutzlast wäre ein Kamerasystem gewesen. Mit fotografischem Film erreichte man damals eine Auflösung, dank der Bestrebungen zur Aufklärung gute Fotos zu machen, so gute Auflösungen wie mit CCD-Sensoren erst Jahrzehnte später. Auf dieses Experiment will ich mich konzentrieren, auch weil man zwar eine Karte der Mondrückseite von den Lunar Orbitern hatte, aber diese wegen der begrenzten Bildmenge dieser Orbiter (212 Bilder pro Mission) und der primären Aufgabe die Apollo-Landeplätze auf der Vorderseite zu untersuchen, relativ grob war.

Man hat für die Apollomission schon die Lunar Orbiter konstruiert. Sie nutzten die Erfahrungen, die man mit dem Einsatz von Film im Corona und Samos-Programm gewonnen hatte. Es gab hier einige Probleme zu lösen wie den Transport des Films, das Vermeiden der Belichtung durch kosmische Strahlen, vor allem aber die Bewegungskompensation. Die Lunar Orbiter Kameras waren Neukonstruktionen, aber sie nutzten diese Erfahrungen. Sie basierten vor allem auf dem SAMOS System, bei dem man schon mit der elektrooptischen Abtastung von Film experimentiert hatte, das man zugunsten der Bergung des Films mit Kapseln und Bodenentwicklung unter besseren Bedingungen und besseren Möglichkeiten der Auswertung aufgab.

Eine Mission, die den Mond kartieren soll und das in einer hohen Auflösung, muss aber erheblich mehr leisten als die Lunar Orbiter, die einige Hundert Bilder machten, auch mehr als die Mapping-Kameras, die bei Apollo 15 bis 17 eingesetzt wurden und fast 1 km Film hatten. Die Spionagesatelliten des Coronaprogramms waren ausgelegt sehr große Gebiete abzulichten und Gambit konnte das in noch größerem Detail. Meine Idee: warum nicht ein Reserveexemplar eines Satelliten dieser Programme zum Mond schicken, anstatt eine Apollo I Mission durchzuführen.

Nötige Modifikationen

Corona und Gambit waren beide für kurze Betriebsdauern ausgelegt und batteriebetrieben. Hier würde sich die Mission über mindestens einen Monat hinziehen, bei der großen Oberfläche des Mondes wahrscheinlich mehrere Monate.

Vergleich der Kamerasysteme

An erster Stelle steht der Vergleich der Kamerasysteme von KH-4 (letzte Corona Generation) und KH-7 (erste Gambit Generation). Obwohl es zum Zeitpunkt von Apollo schon die zweite Generation von Gambit gab, habe ich diese nicht berücksichtigt, da sie zu schwer ist.

Die Tabelle führt die Daten der Systeme von Corona und Gambit auf:


Corona Detailkamera

Corona Panoramakamera

Gambit KH-7 Detailkamera

Gambit KH-8 Detailkamera

Lunar Orbiter

Objektivdurchmesser:

16,4 cm

4 cm

49,5 cm

110,5 cm

10,9 cm

Brennweite:

61 cm

3,8 cm

195,6 cm

444,5 cm

61 cm

Blende F/D

3,5

1

4

4

5,6

Bildabmessungen (150 km Höhe)

14,4 x 217,9 km

308 x 308 km

17,67 km x variabel


19,9 x 54,1 km

Bodenauflösung:

1,8 m

162 m

0,6 bis 0,9 m


1 m

Blickwinkel:

5,12 Grad

70 Grad

6,4 Grad


5 x 20 Grad

Film:

2 ASA, 160 Linienpaare/mm

2 ASA, 160 Linienpaare/mm



SO-243, 500 Linienpaare/mm

Filmlänge:

70 mm Breite x 7.500 m


240 mm Breite, 7620 m Länge

12,7 und 24,1 cm Breite, bis 3733 m Länge

70 mm Breite, 63 m Länge, 212 Aufnahmen

Framegröße

54,5 x 745 mm


221,4 mm x 900 mm

300 - 600 Stereopaare pro Rolle


51,7 x 297.6 mm

Belichtungszeit:

2,11 bis 3,82 ms (1/500 bis 1/250 s)




1/25 bis 1/100 s

Theoretische Bodenauflösung aus 150 km Entfernung.

0,80 m


0,20 m

0,09 m

3,26 m

Abmessungen:

172, 7 x 157,5 x 165,1 cm





Gewicht:

514,8 kg


500 kg + 23,6 kg Film

1.873 kg (Kamera mit Film)

64 kg

Kamerahersteller:

ITEK

ITEK

KODAK

KODAK

KODAK

Zuerst mal eine Erklärung. Es überrascht, dass die KH-7 Kamera bei doppelt, bis dreifach höherer Auflösung nur wenig mehr als die Corona Kamera wiegt. Das liegt daran, dass die Optik den kleinsten teil des Systems ausmacht. Ein Volltubus eines Schmidt-Cassegrains in dieser Größe wiegt 30 kg, der kleinere beim Corona dann rund 8 kg. Die 22 kg Mehrgewicht ist vernachlässigbar bei 500 kg Gesamtgewicht.

Die Kameras waren damals technologische Spitzenprodukte gegen die die heutigen Detailaufklärer primitiv wirken: Sie erfassten nicht ein Bild, sondern einen Streifen von bis zu 70 Grad quer zur Flugrichtung. Die Kamera wurde also gedreht, gleichzeitig musste synchron zur Bewegung der Film transportiert werden, sodass der Streifen ein Bild ergab, dass bei Corona bis 745 mm lang war. Gleichzeitig musste die Kamera aber die Bewegung des Satelliten relativ zur Erdoberfläche (rund 7,5 km/s) kompensieren. Bei Belichtungszeiten von rund 1/250 bis 1/500 s wären sonst alle Details kleiner als 15 bzw. 30 m verschwommen. Diese Bewegungskompensation wurde immer besser. Beim Corona-System stieg der Durchmesser des Objektivs z.B. über vier Generationen nur von 12,2 auf 16,5 cm, aber die Bodenauflösung von 12 auf 1,8 m. Auch Gambit erzeugte bei gleicher Kamera am Schluss Bilder mit 50% höherer Auflösung.

Das Erste daher mal das Rückrechnen, wie groß die globale Auflösung sein kann. Dazu ist die Filmmenge ausschlaggebend. Ich habe quadratische Aufnahmen angenommen, 20 % unbelichteter Film zwischen zwei Aufnahmen und 20 % Reserve um Aufnahmen zu wiederholen. Dann kann man leicht berechnen, wie groß ein Bild sein muss, damit man mit dem ganzen Film den Mond einmal erfassen kann.


Corona Detailkamera

Gambit KH-7 Detailkamera

Bilder:

95.565

23.896

Bildgröße: 10 % Überlappung:

27,5 km

55 km

Pixel/Bild

304 MPixel

5.019 MPixel

Bodenauflösung:

3,43 m

1,12 bis 1,68 m

Orbithöhe:

287 km

311 km

Alleine mit einer Rolle Film (die Satelliten hatten mehrere Rollen an Bord, KH-4 z.B. 72 km reicht für Aufnahmen von 1-3 m Auflösung, eine Auflösung, die man von der Erde nur von wenigen Regionen damals hatte. Dabei gibt es berechtigte Hoffnung das die erzielte Auflösung noch höher gewesen wäre: Die Auflösung war begrenzt durch die Bewegungskompensation, die zwar immer besser wurde, aber noch lange nicht die theoretische Auflösung der Optik beim gegebenen Film erreichte und durch die Unschärfe aufgrund des Funktionsweise als "Stripkamera" - es wurde nur durch einen Schlitz ein Streifen belichtet, während der Film sich bewegte. Das erzeugte zusätzliche Unschärfe. In einem Mondorbit bewegt sich der Satellit aber fünfmal langsamer als in einem Erdorbit.

Man kann als Vergleich den Lunar Orbiter nehmen. Er erreichte 1/3.6-tel der theoretischen Auflösung des Objektivs als nutzbare Auflösung bei demselben Prozess. Das entspräche 3,8 m bei der Corona-Kamera und 1,36 m bei Gambit.

Datenübertragung

Ein Problem ist die Übertragung der Datenmenge. Schon Lunar Orbiter brauchte 43 Minuten um eine Aufnahme, die allerdings nicht quadratisch war, zu übertragen. Nimmt man zwei Abtastungen pro Detail /entsprechend der Definition von Linienpaaren/mm) so kommt man auf die oben stehenden Pixelmengen. Lunar Orbiter übertrug analog (indem man die Helligkeitswerte einem 10-MHz-Trägersignal aufmodulierte) mit 32.000 Zeichen pro Sekunde. Das damals schnellste Magnetbandlaufwerk von IBM, das IBM 2420 hatte eine Schreibgeschwindigkeit von 320.000 Zeichen/s. Nimmt man konservative 250.000 Zeichen/s an, so bräuchte die Übertragung einer Aufnahme 1.216 bzw. 20.076 s. Für alle Aufnahmen dann 1.345 bzw. 5.552 Tage. Das ist viel zu lange. Beschränkt man sich auf 4 m Auflösung/Pixel (nicht Linienpaar) so sind es noch 163 Tage. Da ein Funkkontakt nur über 60% des Orbits möglich ist, erreicht man, wenn man als Missionszeit 1 Jahr ansetzt, so kann man eine Auflösung von 3,44 m erreichen, die Corona liefert.

Die Datenübertragung zur Erde ist kein Problem. Aus 100 Millionen km Entfernung übertrugen Mariner 6+7 16.200 Bits/s zu der 64-m-Antenne von Goldstone. Heruntergerechnet auf maximale Monddistanz (400.000 km) und die kleineren, aber in größerer Zahl vorhandenen 26 m Antennen sind dies 167 Mbit/s. Da sind die 2 Mbit/s die man für die Daten mit 250.000 Pixel/s braucht, relativ wenig. Die Übertragung würde analog erfolgen, so wie damals beim Fernsehen auch, bei dem schon normale Telekommunikationssatelliten 4-5 Millionen Pixel pro s übertrugen.

Eine höhere Datenrate wäre möglich wenn man die Daten nach dem Empfang erst auf Magnetplatte speichert, und ein Magnetplattenlaufwerk dann mehrere Magnetbandlaufwerke ansteuert, also die Magnetplatte als Zwischenpuffer nimmt. So was setzte man bei der Wandlung der TV-Aufnahmen von Apollo ein. Ein direktes Abspeichern im Hauptspeicher ist bei den Datenrate damals nicht möglich. Die größten Rechner hatten damals 1-2 MByte Speicher, die wären bei 250.000 Zeichen/s in 4-8 s voll. Ein CDC-6638 Plattenlaufwerk hat eine Datenrate von 1,68 MByte/s, 25% Sicherheit und Teilen durch 2 (lesen und schreiben parallel) führt dann zu einer Datenrate von 672.000 Zeichen/s - korrespondierend mit 2,1 m Auflösung. Das wäre, wenn man mehrere Plattenlaufwerke parallel einsetzt noch steigerbar.

Lunar Orbiter las nur ein Pixel aus, durch eine Photodiode. Es ist leicht die Ausleserate zu erhöhen, wenn man einfach ein Array von Photodioden einsetzt. Es empfiehlt sich aber noch ein zweites System einzubauen. Da man nicht sicher sein kann, ob der Film so belichtet ist wie gewünscht und die gewünschte Szene zeigt (dafür wurden ja auch 20% des Films reserviert) sollte man Bilder schnell begutachten können. Daher wäre ein TV-System mit einer normalen Auflösung, z.B. 625 Zeilen zusätzlich nötig. Es nimmt ein Bild auf und erlaubt eine schnelle Vorschau, da man nur einen Bruchteil des Informationsgehaltes übertragen muss.

Alternative Rückkehrkapsel

Anstatt wie bei Lunar Orbiter die Bilder zu scannen kann man natürlich auch den Weg beschreiten den man bei Corona und Gambit machte - der Film wird in eine Rückkehrkapsel umgespult und diese zur Erde geschickt. Man könnte dann den Satelliten unverändert einsetzen, denn dann reduziert sich die Missionsdauer auf einen Monat. Modifiziert muss nur die Rückkehrkapsel werden. Man würde sie auf einen kleinen Satelliten setzen, der einen integrierten Antrieb hat. Der müsste nicht viel leisten. Ein Sender erlaubt es von der Erde aus die Position zu bestimmen, mit einem Kommandoempfänger würde er dann die von der Bodenstation berechnete Ausrichtung und Zündzeit empfangen. Zur korrekten Ausrichtung reicht wie bei anderen Raumsonden ein Sonnen- und Kanopus-Sternsensor. Damit liegen zwei Punkte im Raum fest. Nimmt man 100 kg Trockenmasse (ohne antrieb) dafür an, 900 m/s Geschwindigkeitsänderung und die 170 kg für die Kapsel von Gambit, so ist man bei einer Startmasse von rund 390 kg. Daher wäre es zu prüfen, ob dies vom Gesamtgewicht her möglich ist.

Startmöglichkeiten

Mit der geringen Auflösung braucht man nicht die letzte Generation der Coronas. 4 m Bodenauflösung aus 166 km Höhe erreichte auch schon KH-3, wobei es beim Mond anders als auf der Erde, auch die Möglichkeit gibt, sich näher der Oberfläche zu nähern. Die KH-3 Satelliten wogen 1.1.50 kg. Die Gambits 2.000 kg.

Beide brauchen mindestens eine Titan 3C um zum Mond zu gelangen. Diese kann 3.150 kg zum Mond transportieren. Ausreichend für einen Corona-Satelliten, beim Gambit wird es wegen des noch benötigten Antriebs knapp. Wesentlich sinnvoller ist es aber die Agena Oberstufe einzusetzen, da sie mit den Satelliten "verbandelt" ist. Diese kann auch das Einschwenken in den Mondorbit durchführen. Wegen der geringen Leermasse der Agena ist die Nutzlast einer Titan 3D Agena höher: 3823 kg, wenn sie anstatt der Transtage eingesetzt wird. Zudem übernimmt dann die Agena auch die Bahnkorrekturen und das Einschwenken in die Mondumlaufbahn. Nimmt man eine Geschwindigkeitsänderung von 1050 m/s an (900 m/s einbremsen, 150 m/s für Orbitkorrekturen über 1 Jahr) so setzt die Agena 2.471 kg in einen Mondorbit ab. Das ist mehr als ausreichend für einen Gambit, es würde sogar für die Option mit der Kapselbergung reichen.

Kostenabschätzungen

Das Ganze lohnt sich nur wenn man einen Gambit oder Corona übrig hat. Das dürfte der Fall sein, einige stehen ja in Museen rum. Dann käme noch der Start mit 23,2 Millionen für einen Titan 3C, mit der Agena wahrscheinlich billiger, hinzu. Die Alternative ist Lunar Orbiter. Er lieferte ja schon Aufnahmen von 1 m Auflösung, wenn auch aus 50 km Höhe. Nur war sein Filmvorrat auf 212 Bilder beschränkt. Das sollte kein Problem sein, mit einem entsprechenden Vorrat an Film, stärkeren Sendern für eine größere Datenmenge sollte auch der Lunar Orbiter den Job erledigen. Der originale Lunar Orbiter wog 380-375 kg. Eine Atlas SLV3-C Centaur brachte 1135 kg auf Fluchtgeschwindigkeit, das wären im Mondorbit noch rund 750 kg, ohne Antriebssystem etwa 670 kg. Das ist ein komfortables Polster für mehr Film. Das gesamte Lunar Orbiter Programm hat bei 5 Orbitern 200 Millionen Dollar gekostet, die Fertigung eines weiteren Exemplars 13 Millionen Dollar, dazu der Start mit der Atlas Centaur: 14 Millionen Dollar. Man spart also nicht viel ein. Es wird noch weniger wenn man auf die ab 1968 verfügbare SLV-3A Agena D übergeht, die auch 650 kg zum Mond befördern konnte - bei ihr kostete die Rakete (ohne Startoperationen ) nur 4 Millionen Dollar. Dann ist sogar gar keine Einsparung mehr vorhanden. So verwundert es nicht das die NASA ihre Lunar Orbiter entwickelte, anstatt sich eines Spionagesatelliten zu bedienen - es war die günstigere Lösung.

25.8.2017: Das Bild des 20-sten Jahrhunderts

So, da meine Aufsätze in die sehr viel Arbeit geflossen sind, offensichtlich keinen interessieren, heute ein kurzer Blog über ein Thema, zu dem man nur eine Meinung haben muss. Es geht um das „Foto des 20-sten Jahrhunderts“. Es wurde so von Teilen der US-Presse genannt. Es ist eine Schrägaufnahme des Kraters Kopernikus, aufgenommen von Lunar Orbiter 2 aus 46,9 km Höhe, 240 km südlich des Kraters.

Die Lunar Orbiter hatte die Aufgabe mit Film die Landeplätze für Apollo und Surveyor mit hoher Auflösung zu kartieren, um die richtige Stelle zu finden. Dazu hatte man die E-2 Kamera des Samos Satelliten umgebaut. Sie setzte erstmals die Entwicklung von Film im Orbit ein. Samos wurde eingestellt, allerdings nicht, weil das Konzept nicht funktionierte, sondern weil die Bergung des Films die bei Corona parallel erprobt wurde, auch funktionierte und man in einem normalen Labor viel mehr Möglichkeiten bei der Entwicklung und Auswertung hatte.

Die Fotos wurden punktweise digitalisiert, analog übertragen und auf der Erde auf Videobänder gespeichert. Danach las man sie aus, projizierte sie auf einer Videoröhre, die man mit 35 mm Film abfotografierte. Das Verfahren klingt haarsträubend, aber ich sah noch in den frühen Achtzigern Aufnahmen von Voyager in Scientific American, wo man das Streifenraster eines Monitors deutlich erkennt, man hat es also noch 10 Jahre später angewandt.

2008 wurde das Lunar Orbiter Image Restauration Project (LORIP) ins Leben gerufen, bei dem man die Originalbänder nach Auffrischung der Abspielgeräte auslas und die Bilder nun wirklich digitalisierte. Danach wurden die Bilder „restauriert“ sprich Fehler beseitigt und moderat die Belichtung angepasst. Dabei waren die mitbelichteten Graukeile am Rand sehr nützlich. Die Aufnahme unten stammt auch von diesem Projekt und ist um einiges besser als dieselbe Aufnahme aus den Sechzigern, die darunter abgebildet ist.

Das es diese Aufnahme überhaupt gibt verdanken wir der Tatsache, dass der Prozess nicht so funktionierte wie geplant. Bei Lunar Orbiter stellte man Risse in den Fotos fest. Man stellte fest, dass der Entwicklerfilm, den man im halbtrockenen Prozess verwendete, an dem eigentlichen Film klebte, wenn man wie geplant alle zwei bis vier Orbits Aufnahmen machte. Nun schob man „Test-Pictures“ in jeden Orbit ein, um ein Kleben des Films zu vermeiden. Diesen „Test-Pictures“ verdanken wir zahlreiche spektakuläre, aber wissenschaftlich nicht so bedeutende Aufnahmen wie das erste Bild er Erde vom Mond aus.

Auch dieses Bild entstand so. Douglas Lloyd arbeitete beim Kontraktor Bellcomm und schlug dieses Bild vor. Zweimal wurde sein Antrag abgelehnt, weil die Aufnahme mit geplanten Aufnahmen der Apollolandeplätze in Konflikt stand. Erst als die primären Ziele erfasst waren, wurde die Aufnahme von Lunar Orbiter 2 am 23.11.1967 um 23:05 GMT aufgenommen.

Sie zeigt den 100 km großen Krater Kopernikus. Die Szene erstreckt sich von vorne bis hinten über 16 km. Man sieht die Zentralberge im 3 km tiefen Krater von 450 bis 600 m Höhe und die bis zu 900 m hohen Kraterwände im Hintergrund. Durch die Dreidimensionalität wirkt die Szene plastisch, real, die Mondlandschaft wurde erstmals für Erdbewohner real, anstatt das man flach von oben auf die Szene schaute. Dieser Sicht und der Tatsache, das man Fotos aus dem Mondorbit drahtlos zur Erde übermittelte verdankt das Bild wohl seinen Ruf als „Bild des 20-sten Jahrhunderts“.

Doch was sind eure Bilder des 20-sten Jahrhunderts oder des 21-sten Jahrhunderts (oder 3-ten Jahrtausends). Wie vergänglich so ein Titel ist, zeigte auch eine Google Suche - tippt man nur „photo of the 20th century“ bei google ein, so findet, bekommt man etliche Treffer aber nicht diesen. Dasselbe bei der Bildersuche - hier dominieren Bilder des Filmlogos der 20th Century Fox ....


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99