Wie es bei der Energiekrise weitergeht

Erdaufgang

Ich habe an dieser stelle mich schon öfters darüber ausgelassen, wo es möglich ist, fossile Energie durch regenerative zu ersetzen und wo nicht. Ich glaube aber das keines der Szenarien die ich entwickelt habe, eintreten wird. wir leben in einer Marktwirtschaft und weltweit in einer rein kapitalistischen Marktwirtschaft. Das bedeutet, dass man eine Energieform solange nutzt wie sie vorteilhaft ist. Bei steigendem Energiepreisen werden regenerative Energien nur dann eingesetzt werden, wenn sie mit anderen Energieformen konkurrieren können. Was also wird passieren?

Wenn der Erdölpreis weiter steigt, so wird man einfach auf andere Energieformen umsteigen. Gas ist noch preiswerter und bei einem genügend hohen Preisunterschied kann es lukrativ sein, aus Erdgas synthetisches Erdöl durch katalytische Dehydrierung herstellen. Das ist energieaufwendig und so keine gute Lösung. Der einzige Vorteil dabei ist, dass man als Nebenprodukt Wasserstoff gewinnt, den man in vielen Bereichen einsetzen kann. doch dazu später mehr.

Es dürfte aber nur eine kurzzeitige Lösung sein, denn auch der eEdgaspreis steigt und das Vorkommen von Erdgas ist auch begrenzt. Begrenzt ist auch Kohle. Allerdings gibt es davon viel mehr als Erdöl. Kohle könnte über mehrere Hundert Jahre, je nach Schätzung sogar Jahrtausende reichen. Bis vor einigen Jahrzehnten war Kohle verbreitet für die Heizung. Das könnte wieder kommen. Strom wird heute schon zu einem guten Teil aus Kohle gewinnen. Es werden zwar neue Kernkraftwerke propagiert, doch auch Uran wird schwerer abbaubar. Die erzreichen Vorkommen sind schon weitgehend erschöpft. Die Aufarbeitung von Uran ist sehr energieintensiv und Strom wird sich bald nicht mehr so preiswert wie bisher mit Uran erzeugen lassen. Natürlich gibt es noch die Lösung Brennstoff mit einem Brutreaktor zu erzeugen. Doch anders als moderne Hochtemperaturreaktoren haben Brutreaktoren nach wie vor Probleme: Sie sind nicht so sicher und es entstehen noch mehr radioaktive Abfallprodukte.

Kohle kann Strom erzeugen und verfeuert werden. Doch wie kommt man zu Benzin, Kunststoffen, den ganzen Vorprodukten der petrochemischen Industrie? Nun man kann Kohle hydrieren und damit synthetische Kohlenwasserstoffe erzeugen. das Verfahren der „Kohleverflüssigung“ ist nichts neues. Die gesamte deutsche Treibstoffproduktion im zweiten Weltkrieg erfolgte so. Es hat nur einen Nachteil: Es ist ineffizient. Um zum Beispiel den einfachsten Kohlenwasserstoff Methan zu erzeugen muss man glühende Kohle mit überhitztem Wasserdampf umsetzen. Nach zwei weiteren Schritten erhält man:

2C + 2 H2O -> CH4 + CO2

Man verbrennt also die Hälfte der Kohle um Methan zu erzeugen. Hat man den Wasserstoff schon aus einer anderen Quelle, so vereinfacht sich das Verfahren, man braucht aber in jedem Fall viel Energie, da alle Reaktionen nur bei hohen Temperaturen stattfinden. Das Verfahre emittiert also mindestens die doppelte Kohlendioxydmenge wie eine direkte Nutzung von Erdöl. Nicht gerade das was man sich von einem Ersatz erwartet. Nach einer Abschätzung ist die Kohleverflüssigung attraktiv, wenn der Erdölpreis langfristig über 70 Dollar/Barrel liegt. das ist heute gegeben. Es ist daher zur rechnen dass man bald anfangen wird solche Anlagen zu bauen. das dürfte dann immerhin den Preisanstieg bei Erdöl bremsen.

Heute schon lukrativ ist es Pflanzenöl zu tanken. Pflanzenöl hat 80 % der Energie von Diesel, kostet mit 76 ct/l beim Supermarkt aber weniger (ich nehme an in größeren Mengen noch weniger). Ältere Diesel vertragen es ohne Probleme, größer Diesel (wie bei Schiffen oder Maschinen) sowieso. Sofern unsere Bundesregierung nicht auf die Idee kommt dann auch 90 ct Steuer draufzuschlagen werden mehr und mehr Leute  Öl tanken. Das Problem: Es gibt viel zu wenig Anbaufläche. die ganze Agrarfläche Deutschlands wird nicht ausreichen um den Ölbedarf für Diesel zu decken. So wird man in der Dritten Welt noch mehr Urwälder roden um noch mehr Ölpalmen für die Treibstoffproduktion anzubauen – also genau das Gegenteil von dem was für das Klima gut wäre.

Das gilt auch für die Nutzung von Pflanzen als Energiequelle im Allgemeinen. Will man es nachhaltig betreiben, dann kann man nur so viel entnehmen wie nachwächst. Das limitiert den Einsatz von Holzpellets genauso wie den Anbau von Pflanzen zur Treibstoffproduktion oder (besser, da viel höherer Flächenertrag) Pflanzen die man thermisch verwertet also verbrennt). Das geht nur auf einem Teil der Nutzfläche, weil man wie bei anderen Kulturen die Probleme von Monokulturen und Auslaugung des Bodens hat wenn man nicht öfters die Fruchtfolge wechselt.

Doch selbst mit optimaler Ausnutzung von nachhaltigen Rohstoffen wird man niemals den heutigen Energiebedarf decken können. Dazu verbrauchen wir einfach zu viel. vergleichen wir unseren Energieverbauch mit Regionen in denen es noch kaum Industrie auf der Erde gibt, so ist es mindestens das 10 fache was diese Regionen verbrauchen. Jeder sollte nur einmal vergleichen wie viel Heizöl und Benzin er im Jahr verbraucht und wie viel Öl er zum Braten und Kochen braucht.

Ich denke aber das wir einfach wechseln werden. Bei der Heizung von Gas und Öl auf Pellets oder Kohle – Kohle ist zwar durch Chinas Energiehunger auch teurer geworden, kostet aber im Welthandel 4 mal weniger als heute Öl. Es wird eben wieder die Kohleheizung Einzug halten. Wahrscheinlich wird man nun auch mehr dran denken Energie effizient zu nutzen durch gekoppelte Strom/Wärme Erzeugung. Vielleicht wird man dann endlich mal daran gehen den öffentlichen Personennahverkehr konkurrenzfähiger zu machen und Bahnstrecken ausbauen anstatt zu schließen. Solarkraftwerke werden gebaut werden, aber nur die vorhandenen Raftwerke ergänzen. Aber ich rechnen nicht mit einem grundlegenden Wandel.

Toleranz

Seit ich vor ein paar Wochen mit einer Erkältung für eine Woche außer Gefecht war, schaue ich regelmäßig die Sendung „Frauentausch“ auf RTL2 an. Das ist eine dieser „Doku“ Soap Sendungen: Zwei Familien tauschen für 10 Tage ihre Mütter oder Frauen. Es gibt dann noch ein paar Dinge um das ganze etwas komplizierter zu machen aber das ist es im wesentlichen.

Das eigentlich nichts besonders. Das Besondere liegt darin, dass sich die Redaktionen völlig unterschiedliche Familien aussuchen. Da tauscht eine arbeitende Frau die sich von ihrem Ehemann bekochen lässt und im Luxus lebt mit einer Hartz alleinerziehenden IV Empfängerin und 5 Kindern. Eine Frau aus einem bürgerlichen Haushalt tauscht mit einer Zirkusfamilie. Ein Putzteufel mit einer Familie die in einem Bretterverschlag in nicht gerade hygienischen Verhältnissen lebt. Dazu gibt es noch die Variationen mit dem Alter, wenn z.B. eine Junge Mutti in einen Haushalt kommt in dem alle Kinder älter sind als sie.

Kurzum: Konflikte sind vorprogrammiert, dazu kommen noch persönliche Animositäten, Eifersucht, Paschatum, Choleriker. Darin liegt der Reiz der Serie, denn jeder wartet dann doch eigentlich darauf das es irgendwann kracht. Ich denke der Schlüssel für die Personen die dort beteiligt sind ist Toleranz. Wenn man die Sendung schon einmal gesehen hat weis man ja was auf einen zukommt. Anders als in vielen anderen Situationen weiß man dass diese 10 Tage lang dauert, man weiß das man mit einem anderen Lebensstil zu tun hat und es sind Fernsehkameras dabei.

Man kommt in eine fremde Familie. Dort gibt es andere Regeln, man hat es mit fremden Personen zu tun und vor allem mit einem anderen Lebensstil, für die vielleicht andere Dinge wichtig sind oder es schlicht und einfach finanzielle Restriktionen gibt. wer realistische Erwartungen an dieses Experiment hat weiß, dass man in so kurzer Zeit nichts in der fremden Familie  bewegen kann. Man kann in der anderen Familie vielleicht vermitteln wie es in der eigenen Familie läuft, Impulse für Änderungen geben, aber man wird die Leute nicht in dieser Zeit ändern. Da dies noch unter Fernsehkameras geschieht würde ich es wohl mit dem Motto halten „Klappe halten und Durch“.

Doch das ist leicht gesagt. Ich glaube jeder hat empfindliche und neuralgische Punkte bei denen er persönlich so stark involviert ist, das er nicht mehr objektiv entscheiden kann und sich einfach darüber aufregt. Bei mir ist derzeit etwas was von den Fakten her eine Kleinigkeit ist, bei dem ich nicht einmal direkt betroffen bin. Das Problem das ich habe ist dass ich die Verursacher des Problems gut kenne und ihr Verhalten nicht gut heißen kann und die Person kenne die betroffen ist. So gesehen sitzt man zwischen den Stühlen und die Diskussionen werden dann rasch persönlich. Und ich denke das ist das Problem: Jeder hat einen Punkt oder eine Schwelle, ab der fällt es nur sehr schwer rational mit einem Thema sich auseinandersetzen.

Meine Beobachtung bei Frauentausch ist übrigens, dass viele Familien die man als „bürgerlich“ beschreiben könnte erheblich toleranter sind als die Familien die in „Alternativen Lebensformen“ leben. Seien es Gruftis, Rocker, Zirkusleute oder Menschen die in einer Holzhütte leben. Sie bezeichnen fast alle die „normalen“ Verhältnisse als „spießig“ und implizieren damit dass diese zu wenig Toleranz haben und sie ausgrenzen. Doch gerade anders rum wird ein Schuh draus. Nur 10 Tage „spießige“ Lebensweise ist zu viel für diese Leute.

Schon jetzt möchte ich auf die Landung von Phoenix am 25.5.2008 hinweisen. Geplanter Landezeitpunkt ist 4:53:52 p.m PDT, das 1:53:52 am 26.5.2008 in Deutschland. Wer also nicht aufbleiben will, wird es am Morgen in den Nachrichten erfahren. Die NASA hat natürlich einen Landezeitpunkt gewählt der publikumswirksam für die USA ist, also Sonntag am frühen bis späten Nachmittag. Das ist durch Wahl der Bahn recht gut möglich. Immerhin: Bis deutsche Zuschauer aufgestanden sind dürfte es bereits erste Bilder geben – wenn die Landung glückt. Bisher ist hier ja die Erfolgsbilanz noch etwas gemischt. Nach den recht schlecht vorbereiten Flügen der Sowjets gab es ja auch in den letzten Jahren zwei Fehlschläge mit Mars Polar Lander und Beagle 2.

3 Millionen Besucher

Ein paar Dinge bewegen mich heute mal etwas mehr über die Website zu schreiben. Zum einen kommen nun ein paar Jubiläen. Der Blog wird am 14.6. also in knapp 3 Wochen genau 2 Jahre alt. Etwa um den gleichen Dreh herum wird die Website den 3 Millionsten Besucher (und ich rede von Besuchern im Sinne von unterschiedlichen IP’s, nicht PageViews) begrüßen können und in weiteren 2 Monaten, so ende August wird die Website 10 Jahre alt.

Hätte mir jemand vor 10 Jahren gesagt, dass ich solchen Erfolg damit habe, ich hätte es sicherlich nicht geglaubt. Inzwischen gehen auch die meisten Besucher auf den raumfahrtteil, vor 2 Jahren war der Computerteil noch der meist besuchteste.

Ich habe mir nun etwas überlegt. Der 3 Millionste Besucher der Webpage bekommt von mir ein Exemplar „Das Gemini Programm. Technik und Geschichte“ umsonst. Wahlweise entweder original verpackt oder mit persönlicher Widmung. Bei GoWeb, von denen ich den Counter seit Anbeginn habe, habe ich ein Event hinterlegt, das ausgelöst wird, wenn die Zahl 3000000 erreicht wird. Der Besucher bekommt dann ein Passwort angezeigt, das er mir mailen muss.

Das nächste ist, das ich nun weniger Werbung auf der Seite habe: Die Layer Werbung bleibt, aber die Banner Werbung ist nun beschränkt auf maximal 2 Banner pro Seite. Der Grund ist dass die Preise pro Klicks rapide gesunken sind. E-Bay lohnt sich bei einem Cent pro Klick (vorher 15) nicht mehr. An dieser Stelle auch die Bitte, bei Interesse auch mal die Layer Werbung anzuklicken. Man kann mit ihr derzeit recht gut DSL Angebote vergleichen.

Bei Amazon schaue ich nicht nur rein, um zu sehen ob jemand was bestellt hat (seit meinem eigenen Buch sogar noch öfters) sondern auch was die Leute bestellt haben, und was Sie so sonst noch angeschaut haben. Da kommt man Links auf gute Produkte und Bücher die ich so nicht so schnell gefunden hätte. Bislang kann ich den Besuchern meiner Webseite, die etwas bestellt haben, auf jeden Fall einen exquisiten Geschmack und fachliches Wissen bescheinigen.

Eines machte mich aber stutzig: Das Raketentypenbuch von Eugen Reichl. Es soll auf 300 Seiten eine ausführliche Beschreibung aller Trägerraketen sein. Nun ja, ich habe eine Website darüber und ich weiß wie mühsam es ist, die Informationen dazu zusammenzutragen. Da wundert es einen schon wenn da so aus dem Nichts so ein Buch erscheint. Insbesondere macht mich der erste Kommentar beider Besprechung stutzig, der von vielen Rechtschreibfehlern spricht. Wie allgemein bekannt ist, gehört Rechtschreibung und Grammatik nicht zu meinen Stärken. (Einige Leute schließen daraus auch auf mangelnde fachliche Qualifikation und nicht vorhandene Intelligenz. Ich hätte die Aufgabe ja gerne an einen Deutschlehrer übertragen, nur habe ich keinen Germanisten gefunden, der etwas von Raumfahrt versteht). Das erweckt in mir den Eindruck als hätte sich da jemand an meiner Website bedient. Es wäre nicht das erste Mal. Ich habe schon einmal einen Ausschnitt aus einem Buch zugesandt bekommen, der weitgehend ein umgeschriebener und gekürzter Beitrag von mir war. Die Spitze des Plagiats war aber die identische Übernahme von Artikeln in ein Buch der Fachhochschule Aachen: das Lehrbuch „Raumfahrtantriebe“. (Ich hätte nie gedacht dass ich ein Lehrbuch für ein Fach schreiben könnte, das ich nie studiert habe).Aber zurück zu dem Raketentypenbuch: Hat das jemand gelesen? Ich wäre über eine Rückmeldung dankbar, wenn hier kopiert wurde.

Im Allgemeinen hat sich das Kopieren von Webinhalten sehr verbessert. Nachdem das früher gang und gäbe war, bekomme ich nun praktisch jede Woche eine Anfrage ob man Material von mir für Facharbeiten, Seminararbeiten oder Vorträge nutzen kann. Diese bejahe ich auch immer. Ich habe nur etwas gegen Webseiten, die Inhalte kopieren oder Buchautoren die sich die Schreibarbeit ersparen. Ich denke dass inzwischen auch bei Lehrern und Dozenten das Wissen vorhanden ist, eine kopierte Arbeit zu erkennen: Man muss in der Regel nur einen markanten Satz mit Anführungszeichen in Google eintippen. Sie können das leicht mit einem beliebigen Satz aus meiner Website ausproben. Ab 4 Worten müssten sie praktisch nur meine Website als Antwort bekommen. Eintippen von „Ihren Namen erhielt die Rakete von den Satelliten“ wird z.B. den Proton Aufsatz hervorzaubern.

Ansonsten zeigt meine neue Politik: „Weniger Ablenken lassen“ mehr Früchte, und nachdem ich letzte Woche den Energija Aufsatz online stellte, folgte bald darauf die Kritik der neuen Calgon Werbung. Ende der Woche ist mit einem Aufsatz über TDRSS zu rechnen und nächste Woche vielleicht über die OSO Satelliten. Dazu kommt noch ein Aufsatz über die Gewinnung von Bodenproben auf dem Mond mit zeitgemäßen Mitteln, praktisch als Alternative zu Ares/Orion, denn ich aber nicht extra angekündigt habe, weil er in die Rubrik „technische Spinnereien„, ein Hobby von mir zu überlegen was möglich wäre, fällt.

Was es nicht geben wird: Ein Redesign der Website. Ich habe zwar immer wieder mal drüber nachgedacht, doch es scheitert im wesentlichen an der Menge der Artikel. Es sind derzeit 767 mit den Index Seiten (also den Seiten die nur Links auf Untergruppen enthalten) und die Artikel sind natürlich miteinander verknüpft und Bilder sind eingebaut. Das kann man zwar alles konvertieren, doch die Frage ist wie viel Zeit man dafür braucht. So müssen Besucher eben auch weiterhin mit dem Design leben. Ansonsten bin ich recht zufrieden. Als ich vor nahezu 10 Jahren anfing nahm ich mir vor im Mittel eine Seite pro Woche neu zu machen. Das wären nun etwa 510 und bei 767 liege ich gut drüber. Ich glaube das nächste Jubiläum feiere ich bei Seite 800.

Ach ja, warum ich heute die Website als Thema genommen habe. Ursache war folgende Mail die ich bekam:

„Hallo Herr Leitenberger,

Ich möchte Sie um einen Gefallen bitten, und zwar, bei dem Eintrag, den ich am 26. März 2004 in Ihrem Gästebuch gemacht habe, den Link auf die nicht mehr existierende Homepage zu löschen.“

Wau! Was für ein Gedächtnis! Der Link ist übrigens gelöscht….

Vom Nutzen eines Netzes von Datensatelliten

HESSI GroundtrackSatelliten haben ein Problem: Je näher sie der Erde sind, desto schneller flitzen sie von der Erde aus gesehen über den Horizont. Ein Satellit in etwa 500 km Höhe hat z.b. zu einer Bodenstation nur etwa 6-10 Minuten lang Kontakt. Noch schlimmer: Da sich die Erde um ihre eigene Achse dreht, passiert der Satellit beim nächsten Umlauf ein Gebiet weiter westlich. Wie weit westlich, hängt von der Bahnneigung und Bahnform (Ellipse, Kreis, Abstände) ab. Es können bei einer niedrigen kreisförmigen Bahn bis zu 2500-3000 km sein, so dass der Satellit dann schon außerhalb des Empfangsbereiches ist, und man nur etwa 1-2 mal Kontakt mit ihm pro Umlauf hat.
Was kann man dagegen tun? Nun es gibt eine Reihe von Lösungen. Wenn die Bahn nicht durch die Beobachtungen vorgegeben ist, so ist eine äquatoriale oder polare Bahn günstig. Die äquatoriale ist dabei die bessere. Ein Satellit der parallel zum Äquator seine Bahn zieht, passiert jeden Punkt am Äquator pro Umlauf genau einmal. Immerhin eine Verbesserung pro Bodenstation von einem Kontakt pro Tag auf einen pro Umlauf, also etwa 10 mal öfters Kontakt. Mit etwa einem Dutzend Bodenstationen könnte man den ganzen Orbit abdecken (abhängig von der Bahnhöhe). Bei einer Reihe von astronomischen Satelliten, die mit einer Scout Rakete von einer Startplattform vor Kenias Küste aus gestartet wurden, hat man dies z.B. so gemacht. Das Bild rechts zeigt den „Groundtrack“, die Abbildung des Fußpunkts auf der Erde unter dem Satelliten. Der Satellit ist HESSI, ein Röntgensatellit, der sich in einer Bahn mit 38 Grad Inklination befindet. Damit überfliegt er den Bereich von -38 bis + 38 Grad Breite, mit den 6 Bodenstationen die Daten empfangen können.
Ein polarer Satellit passiert pro Umlauf einmal die Pole. In Polnähe stationierte Empfangsstationen (praktisch nur möglich nahe des Nordpols in Russland, Grönland, Spitzbergen, Kanada und Alaska) haben dann auch einen Funkkontakt pro Umlauf, man kann aber nicht mit mehr Stationen dann den ganzen Umlauf abdecken, da in niederen Breiten es nach wie vor eine Verschiebung pro Orbit gibt. Zahlreiche Erdbeobachtungssatelliten, die ja aus polaren Bahnen auch die ganze Erde abbilden können (jede Bahn mit niedrigerer Inklination deckt nur ein Teilgebiet bis zum Breitengrad der Inklination) nutzen diese Bahnen. Sehr viele Bodenstationen sind nahe der Polgebiete. Die ESA hat z.B. einen ganzen Empfangskomplex in Nordnorwegen bei Kiruna.
Jede Bahn dazwischen macht sehr viele Bodenstationen notwendig. Das ist dumm, denn die wichtigsten Startplätze liegen in mittleren Breiten und die Bahnen niedrigster Energie haben dann als Bahnneigung den Breitengrad des Startorts, der dann zwischen 28.8 Grad (Cape Canaveral) und 51.7 Grad (Baikonur) liegt.
Eine andere Lösung ist es weiter weg von der Erde zu gehen. Dann sinkt aber die Nutzlast einer Rakete, da man Hebearbeit verrichten muss (warum soll es einer Rakete anders gehen, als Ihnen, wenn sie mal in einem Hochhaus das Treppenhaus genommen haben, dann wissen sie was Hebearbeit ist). Zudem sinkt bei Erdbeobachtungssatelliten mit steigender Entfernung die Auflösung, d.h. will man eine bestimmte Auflösung beibehalten, dann muss die Optik zum Vergrößern größer werden und wiegt mehr. Das ist also keine gute Lösung. Für Wettersatelliten ist es jedoch ein guter Kompromiss. Um das Wetter vorhersagen zu können, braucht man keine hochauflösenden Bilder. Bilder mit einer Auflösung von 1 km/Pixel reichen dafür locker aus. Dafür sieht man aus 1400 km Entfernung aber auch mehr von der Erde und kann größere Gebiete auf einmal ablichten. Daher umkreisen Wettersatelliten üblicherweise die Erde in Bahnen oberhalb von 1000 km Höhe.
Noch besser wäre es allerdings, man hätte dauernden Funkkontakt wie zu Satelliten im geostationären Orbit. Das dachte sich auch die NASA. Auch umgekehrt wird ein Schuh draus: Ein Satellit im geostationären Orbit hat Funkverbindung zu allen Satelliten auf einer Hemisphäre. Mit zweien, um 180 Grad im Orbit versetzten, kann man zu allen Satelliten eine Verbindung aufbauen.
In den 70 er Jahren entwickelte man bei der NASA daher das Tracking and Data Relay Satellite System (TDRSS). Das Ziel war, zum einen Großteil der Bodenstationen überflüssig zu machen. Dadurch sollte man einen dreistelligen Millionenbetrag pro Jahr einsparen – alleine damit wäre das System schon zu finanzieren. Satelliten hätten nun auch je nach Orbithöhe zwischen 95-100 % ihrer Umlaufszeit Kontakt zu einem Satelliten. Die Datenmenge würde so rapide ansteigen. Vor allem aber war das System wesentlich für das Space Shuttle. Anders als frühere Missionen, sollte das Space Shuttle sehr viele wissenschaftliche Experimente im Orbit durchführen. Dabei fielen viel mehr Daten und Videoaufzeichenungen an, als bei früheren bemannten Missionen an. Mit den TDRSS Satelliten machte es erst einen Sinn, denn die Möglichkeit zur Datenspeicherung an Bord waren begrenzt.
Die USA entwickelte so das TDRSS System bestehend aus zuerst 3 Satelliten. Nach 5 Jahren sollten diese durch 3 weitere ersetzt werden. Die TDRSS waren die schwersten bis dahin entwickelten Satelliten. Jeder wog 2268 kg und konnte nur mit einem Space Shuttle mit einer IUS Oberstufe gestartet werden. Der Satellit trägt einen ganzen Antennenwald. Für den Empfang im S-Band in dem damals die meisten wissenschaftlichen Satelliten sandten, gab es 30 Dipolantennen, mit 12 konnte auch gesendet werden. Zwei ausrichtbare Antennen an Auslegern konnten im S und Ku Band senden und empfangen. Sie dienten vor allem Hochgeschwindigkeitsübertragungen. Bei einem Öffnungswinkel von 22 x 28 Grad deckte jede Antenne aber trotzdem noch die ganze Erde und Orbits bis 530 km Höhe ab. Eine kleinere Parabolantenne diente zur Datenübertragung zum Boden.
Die erste Generation konnte bis zu 6 MBit/s im S-Band und 300 MBit/s im Ku Band senden. Der Aufbau des Netzwerkes verzögerte sich durch die Challenger Explosion. Bei dieser ging der zweite Satellit verloren und da man die Satelliten nur mit Space Shuttles starten konnte stand so auch der Aufbau des Netzwerks. Wie wichtig die TDRSS Satelliten waren, zeigt auch, dass der erste Start nach dem Verlust der Challenger wiederum einen TDRSS Satelliten in den Orbit beförderte.
Die NASA hatte 7 Exemplare der ersten Generation bestellt. Zum einen jeweils 3 für die komplette Überwachung im Orbit mit je einem Reserveexemplar, wenn die Lebendauer des ersten Satelliten sich dem Ende zuneigte. Der siebte war das Ersatzexemplar für den verlorenen gegangenen TDRSS-B bei der Explosion der Challenger. Die zweite Generation basierte auf dem kommerziellen Satellitenbus HS-601. Sie war auch leichter (im geostationären Orbit noch etwa 1500-1600 kg schwer) und konnte nun mit einer Atlas 2A gestartet werden. Der wesentliche Aufbau ähnelt der ersten Generation, wenngleich es durch den Satellitenbus kleinere Unterschiede gibt (wie z.B. längere Solarpanel). Neu war die Unterstützung des Ka Bandes und die 10 fache Datenrate bei den Einzellinks im S-Band.(bis zu 3 MBit bei maximal 5 Links). Im Ka Band erreichen die Satelliten der zweiten Generation (TDRS H-J) bis zu 800 MBit/s.
Die drei Satelliten der zweiten Generation wurden von 2000-2002 gestartet. Da noch alle jemals in einen Orbit gelangten Satelliten aktiv sind, selbst TDRS-A welcher zuerst in einen Flaschen Orbit gelangte und so einen Großteil seines Lageregelungstreibstoffs schon verbraucht hatte als er den eigentlichen geostationären Orbit erreichte. Er überträgt heute aber nur noch Daten einer Südpol Forschungsstation in die USA).
Zwei weitere TDRSs Satelliten die ebenfalls auf dem HS-601 Bus basieren werden 2012/2013 starten. Die ESA dachte auch einmal an ein eigenes Data Relay System als eigenen Beitrag für die ISS, hat dies jedoch wieder begraben. Und erbringt nun die Leistungen durch das ATV. Die Schwäche des TDRSS ist die begrenzte Anzahl an Hochgeschwindigkeitslinks. Dies ist zum begrenzt durch nur zwei große Parabolantennen, da man für eine hohe Datenübertragung einem Objekt folgen muss.
Da die NASA aber nicht mehr sehr viele Missionen betreibt die hohe Datenraten erzeugen ist dies zu verschmerzen. Biel mehr haben nun andere Betreiber den Bedarf an einem Daten Relay System. Deutschland betreibt z.B. derzeit 6 RADAR Satelliten (5 der Bundeswehr, 1 ziviler). Nächstes Jahr werden es 7 sein. Alleine der zivile TerraSAR-X sendet Daten mit 300 MBit/s zum Boden. Gewinnen kann er Daten sogar mit 680 MBit/s. Für Deutschland alleine würde sich also schon ein Datenrelay Netzwerk lohnen. (Die Bundeswehr lässt zwar derzeit zwei Kommunikationssatelliten entwickeln, doch dienen die zur Verbindung der Truppe in Friedenseinsätzen rund um die Welt mit Deutschland). Das gleiche könnte man von der ESA sagen die jetzt schon Envisat und ERS-2 betreibt und bald eine ganze Flotte von Erdbeobachtungssatelliten entwickeln will.
Selbst zivile Satellitenbetreiber könnten von Datenübertragungssatelliten profitieren. Wourldview 1 von Digiglobe z.B. überträgt die Daten mit 800 MBit/s zum Boden, kann wegen der begrenzten Kommunikation einmal pro Umlauf aber pro Tag nur etwa 500.000 km² ablichten, etwas mehr als die Landfläche Deutschlands. Das liegt an der Auflösung von 0.41 m pro Bildpunkt (500.000 km² entsprechen so etwa 3000 Milliarden Bildpunkten pro Tag. Für Digiglobe alleine wird ein solcher Satellit wohl zu teuer sein. Die TDRSS K+L Satelliten kosten alleine 695 Millionen Dollar, dazu kommen noch die Startkosten.
Ein Ausweg wäre wohl die optische Kommunikation. Entsprechende Tests gabt es ja schon mit einem SPOT Satelliten und Artemis. Hier konnten 50 Mbit/s zwischen zwei relativ kleinen Teleskopen übertragen werden, Im Vergleich zu Antennen sind derartige optische Terminals leichtgewichtiger. Dafür muss man sie genauer ausrichten. Da keine Wolken und keine Streuung in der Atmosphäre die Signalverbindung stört eignet sich optische Kommunikation systembedingt besser für die Kommunikation Satellit zu Satellit als Satellit zu Erde. Ich glaube eine Chance läge darin jeden Kommunikationssatelliten mit einem Terminal auszustatten, der dann jeweils einen Satelliten verfolgt. Mehrere Terminals machen die Ausrichtung problematisch, schließlich besteht jedes aus einem Teleskop, das eine gewisse Bewegungsfreiheit besitzt. Das wäre eine viel günstigere und einfachere Lösung als einen speziellen Datenübertragungssatelliten zu starten. Wie bei normalen Telekommunikationskanälen könnte man diese Kanäle dann an Satellitenbetreiber vermieten.

Supermenschen

Lese ich in meiner Computerzeitung Testberichte, so werde ich immer öfters den Eindruck nicht los, dass das typische Publikum aus Supermenschen besteht. Denn was hier gefordert wird für „Spieletauglichkeit“ oder „Auflösung zum Arbeiten“ hat definitiv nichts damit zu tun, was jemand erkennen kann oder wie schnell er reagieren kann.

Ich möchte das an zwei Beispielen verdeutlichen: Der Auflösung des Auges und der Reaktionszeit. Die Auflösung des Auges zu bestimmen ist nicht ganz einfach. Bei den üblichen Sehtests geht es sehr oft auch um Mustererkennung. Vereinfacht gesagt: Wenn wir Zahlen ablesen so wissen wir, das eine „1“ schmal ist und eine „8“ breit und sich die Form unterschiedet. Daher hört sich bei mir an der grenze des Sehvermögens auch die Antwort so an „Das könnte eine 5 oder eine 2 sein“.

Wer mal bei den Sehtests den Kopf bewegt wird auch feststellen, dass für einen kurzen Augenblick das Bild schärfer wird, da offenbar das Auge bei Bewegungen besser ist. noch schlimmer: Die Zone schärfsten Sehens ist nicht in der Mitte des Auges, man muss also schräg vorbeisehen, eine Technik die z.B. Teleskopbeobachter kennen.

Die Auflösung des Auges ist je nach Lichtverhältnissen und Objekt daher einigen Schwankungen unterworfen und schwankt zwischen 0.5 und 2 Bogenminuten, der häufigste genannte Wert ist eine Bogenminute.

1 Bogenminute, das ist ein Winkelmaß und entspricht einem 1/3500 stel des Abstands. Aus 350 mm Entfernung kann das Auge also 0.1 mm große Details gerade noch erkennen. Das muss man schon früher gewusst haben und vielleicht erinnert sich noch einer an den Merksatz für das analoge Fernsehen: Abstand = 5 x die Bilddiagonale. Bei der Auflösung von PAL Fernsehen deckt sich das recht gut mit der Auflösung desAuges. Doch nun haben wir Full HD mit 1920 x 1200 Bildpunkten. Die ct‘ die überblicken, aber ich lese empfiehlt das ab 42 Zoll Diagonale. Gemäß den optischen Gesetzen sollte man dann näher als 165 cm dransitzen. das erscheint mir bei 110 cm Diagonale doch arg nah. Noch schlimmer: Das Auge kann zwar ein so großes Feld nochnicht in voller Schärfe (sie nimmt rasch zur Peripherie hin ab) und vor allem konzentriert sich die Aufmerksamkeit auf einen kleinen Bereich der bewusst wahrgenommen wird.

Bei dem Full HD Fernsehen wird immer von Kinofeeling geschwärmt, weil die Diagonalen nun viel größer bei den Flachbildschirmen sind als bei der Röhre. Doch das hat mehr was mit dem Gefühl des „in dem Film drin sein“ zu tun als mit der Auflösung. Denn 35 mm in guter Qualität löst nur 875 Linienpaare das sind 1750 Punkte in der langen Seite. Tests an Beobachtern im Kino zeigten sogar noch eine schlechtere wahrgenommene Auflösung von 800-900 Punkten in der Horizontale. Das ist schon weniger als die 1280 x 720p Auflösung.

Den gleichen Trend sehen wir bei Notebook Displays. Da gibt es 12″ Displays mit 1440 x 900 Punkten – Der Auflösung eines 19 Zoll Monitors gepresst auf 12 Zoll. Das ist eine Auflösung von 147 dpi. Das Auge eines normalsichtigen sollte das ohne Problem aus 60 cm Entfernung erkennen können. So gesehen also kein Problem. Leider doch, denn jeder der an einem solchen Display arbeitet geht näher ran. Nicht nur das 50 % der Bundesbürger eben nicht normalsichtig sind sondern kurz- oder weitsichtig , Hornhautverkrümmung haben oder einfach nicht 100 % Sehschärfe. Vor allem strengt es an wenn man an der Grenze der Auflösung Details wahrnehmen muss und dies ist dann gegeben. Das wird munter in den Testberichten ignoriert.

Mein Lieblingsthema sind aber Spieler. Tun sie sich mal einen Spaß und unterhalten sie sich mit einem Spieler von Action Shooter über Frameraten und die Vor und Nachteile von TFTs und Röhrenmonitoren. Die ct testete spezielle Gamer-TFts mit einigen Zusatztechniken die diese für Spiele besser machen sollen wie z..b. die Simulation der Röhre indem man nach dem Bild ein Schwarzbild hinterherschickt. Nahezu keine Technik befriedigte die Spieler. Die kamen aber sehr gut mit Verzögerungen von 1-2 Frames zurecht und auch ultrakurze Schaltzeiten von 2 ms mussten es nicht sein: Die Profispieler die damit ihr Geld verdienten meinten ab 16 ms Schaltzeit (definiert von Schwarz auf Weiss, entsprechend etwa 40 ms für nah beieinander liegende Grautöne) wären die TFT’s für Spiele geeignet – das sind heute alle.

Das verwundert einen nicht. Schon seit 100 Jahren, seit es Film gibt weiss man dass das Auge ab etwa 16 fps Bilder nicht mehr auseinander halten kann und eine fließende Bewegung sieht. Mit den 24 bzw. 25 fps von Film und Fernsehen ist man also auf der sicheren Seite. Das ist eine Seite der Medaille. Höhere Frameraten sind bei Spielen unnötig, da man aus anderen Gründen nicht schneller reagieren kann: Das betrifft die Verarbeitung von Signalen im Gehirn und die Leitung dieser. Die einfachsten und am schnellsten verarbeiteten Signale die unser Körper verarbeiten kann sind Schmerzsignale. Vielleicht haben sie im Bio- Unterricht mal einen Versuch gemacht der so läuft: Ein Proband wird in die Hand gestochen und hält einen Schalter. Gestoppt wird die Zeit zwischen Peksen und wegnehmen der Hand vom Schalter. Wenn sie gut sind, dann erreichen sie Reaktionszeiten von 80 ms. Das ist das maximal mögliche bei der Nervenleitung beim Menschen. Vor allem die chemische Weiterleitung an denNervenenden limitiert hier. Normal sind aber eher 120 ms. Muss man Information verarbeiten, z.B. etwas was man im Auge sieht und dann bewusst reagieren, so braucht man viel länger. Bei Verkehrsdelikten rechnen Gutacher wirklich mit einer Schrecksekunde: Es kann bis zu einer Sekunde dauern bis jemand der jemanden vors Auto laufen sieht auf die Bremse steigt. Viele schaffen es schneller doch 1 Sekunde sind das Maximum das dann zugunsten des Angeklagten angenommen wird.

Bei den Ego Shootern rechnet man natürlich damit das ein Gegner kommt und reagiert auf das kleinste Anzeichen. Doch selbst hier wird man immer langsamer sein als bei der reinen Schmerzreaktion, bei der das Großhirn gar nicht mehr beteiligt ist sondern das Rückenmark einen Reflex auslöst. Unter diesem Aspekt machen Display Schaltzeiten im Millisekunden Bereich oder Frameraten von 30, 50 oder 100 fps keinen Sinn, wenn die minimale Reaktionszeit dann deutlich über 150 ms liegt.

Aber wie schon gesagt – wir sind ein Volk von Supermenschen….