Ich bekam eine Mail, in der ich aufgefordert wurde mich mit den sogenannten „Nanosatelliten“ zu beschäftigen. Darunter versteht der Schreiber die Konzepte von OneWorld und GoogleSpaceX. (steht hier in diesem Artikel für den Plan von Google mit SpaceX als Auftragnehmer ein Satellitensystem aufzubauen). Mal abgesehen davon dass Bezeichnungen wie „Nanosatelliten“ sich auf eine Gewichtsklasse beziehen und nicht auf eine Missionsauslegung (es gibt mit derselben Masse auch Erdbeobachtungssatelliten und Forschungssatelliten) heißt die Klasse von über 50 bis 300 kg eigentlich Mikosatelliten. Zumindest definiert Arianespace das in ihren Usermanual so.
Nun im Detail will ich mich damit nicht befassen, weil es zu wenig Informationen darüber gibt, kein einziges System ist bereits gestartet und die existierenden erdnahen Kommunikationssatelliten wie Iridium oder Globalstar sind um einiges schwerer. Aber ich will mal einige Spekulationen anstellen wie das System funktionieren könnte. An Daten gibt es sehr wenig:
- OnWorld wird 650 Satelliten umfassen, GoogleSpaceX wahrscheinlich 4257 Satelliten in 43 Orbitalebenen und zwei Bahnhöhen
- Die Bahnhöhen betragen 1100 kg bei OneWeb und 1200 km bei GoogleSpaceX
- Beide Systeme nutzen Ka und Ku Band, GoogleSpaceX getrennt in zwei Flotten.
- OneWebs Satelliten sollen 125 kg wiegen, GoogleSpaceX „mehrere Hundert Kilos“
- Satellitenterminals sollen bei OneWeb bis zu 50 MBit/s übertragen, der Satellit 8 GBit/s
- Ziel zumindest bei GoogleSpaceX ist es 10% des weltweiten Traffics direkt vom Sender zu übertragen und >50% des Backboneverkehrs über große Distanzen.
Insbesondere die letzte Aussage bringt mich ins Grübeln. Wir kennen ja schon Internet über Satellit und Systeme im erdnahen Orbit zur Kommunikation. Derzeit verläuft Internet über geostationäre Satelliten so: Jemand kauft sich eine spezielle Parabolantenne mit Empfänger oder rüstet seine bestehende Satellitenempfangsanlage um. Er empfängt nun die Daten über den Satelliten, sendet aber (in der ersten Generation) die Anforderungen (Upstream) über die Telefonleitung, wahrscheinlich weil man sonst starke Sender bräuchte und der Satellit Probleme hätte die gleichzeitigen Signale verschiedener Sender auseinanderzuhalten und zu verarbeiten. Das ist eine Lösung für Gegenden in denen es Internet über Telefon gibt, aber es zu langsam ist. Diese Lösung hat auch den Vorteil das eine Antwort nur einmal über den Satelliten geht, der aufgrund seiner Position eine hohe Latenz hat (er befindet sich 36000 km über dem Äquator).
Der Nutzer profitiert von einer höheren Bandbreite als mit ISDN, wenngleich sie nicht mit denen von VDSL mithalten kann. Er bezahlt den Preis einer großen Latenz (ein Signal legt Minimum 80.000 km zurück, das sind 0,4 Sekunden Verzögerung bei Lichtgeschwindigkeit). Vor ein paar Jahren war diese Technologie eine Alternative in ländlichen, schlecht versorgten Gebieten, inzwischen erreicht man dort wahrscheinlich dieselbe Datenrate mit Mobilfunk (LTE). Es war keine Technologie für Sauger, denn die Datenmenge war begrenzt, was bei den Investitionskosten für Satelliten auch klar ist.
Inzwischen gibt es speziell für diesen Zweck gebaute Satelliten, die erste Generation nutzte normale Kommunikationssatelliten die auch den Upload verarbeiten. ViaSat-1 hat eine Kapazität von 140 GBit/s, Er erlaubt Download mit 12 MBit/s und Upload mit 3 MBit/s. Das System (mit wahrscheinlich weiteren Satelliten) soll 8-10 Millionen Nutzer versorgen und kostet ab 50 Dollar/Monat aufwärts. Klar ist, das selbst bei 10 Satelliten nur ein kleiner Teil der Nutzer die volle Bandbreite nutzen können, etwa 120.000. Geht auch der Upload über den Satellit so muss die Entfernung Erde-Satellit viermal passiert werden (jeweils zweimal beim Up- und Downstream) und die Latenz ist nochmals doppelt so hoch.
Dann gibt es schon erdnahe Systeme: Globalstar und Iridium, die jedoch Sprache oder kleine Datenmengen (128 kbit/s Maximum) übertragen. Diese befinden sich in den Bahnhöhen der geplanten Systeme (Iridium 770 km, Globalstar 1450 km), haben aber viel weniger Satelliten (66 bei Iridium, 48 bei Globalstar). Von ihnen kennt man die Funktionsweise. Man baut eine Verbindung zu einem Satelliten über eine ungerichtete Antenne auf. Der Satellit empfängt das Signal und leitet es weiter. In der Nähe von einer Bodenstation zu dieser, ansonsten zum nächsten Satelliten, bis einer es an eine Bodenstation weitergeben kann. Ein anderes System ist auch für ein weltumspannendes Netz nicht möglich. Denn im Pazifik gibt es Wasserflächen die sehr groß sind und auf denen es keine Insel gibt auf der man eine Bodenstation erreichten könnte, selbst wenn wird diese nicht unbedingt an ein Seekabel angeschlossen sein. Es ist anzunehmen das die geplanten Systeme ähnlich funktionieren.
Das einzige System das man bisher geplant, aber nie umgesetzt hat war Teledesic, das sah 840 Satelliten in 700 km Höhe vor, dann reduziert auf 288 in 1400 km Höhe (24 Satelliten in 12 Bahnebenen, 700 km Fussprint pro Antenne in 700 km Höhe). Ein Satellit wog 120 kg und konnte 720 Mbit zum Terminal übertragen und 100 MBit empfangen. Es gab verschiedene Datenraten, die mit unterschiedlich starken Sendern und unterschiedlichen Antennengrößen erreicht wurden. 64 Sender und Empfänger gab es pro Satellit und die Koordination gab es durch Slots in denen jeweils ein Terminal aktiv sein konnte bevor ein anderes senden dürfte.
Hinsichtlich Zahl, Orbit und Gewicht ist Teledesic mit OneWeb vergleichbar, GoogleSpaceX liegt in der Dimension nochmals höher.
Warum braucht man so viele Satelliten, wenn Iridium und Globalstar mit einem Zehntel bis Hundertstel auskommen? Nun es liegt an den Datenraten. Die Voicebasierten Systeme nutzen wie jedes Handy eine weitgehend ungerichtete Antenne, die Signale aus allen Richtungen empfängt. (Rundstrahlantenne( Sobald der Satellit ein bisschen über dem Horizont gekommen ist (Sicherheitsabstand wegen Bergen und Gebäuden am Horizont und starker atmosphärischer Absorption) kommt eine Verbindung zustande. Bei Iridium sobald der Satellit 8,2 Grad über dem Horizont ist. Da man um keine Bit-Verfälschungen zu haben ein Signal deutlich über dem Rauschen sein muss ist klar, das bei mehr Bits pro Sekunde, dieses Signal-Rauschverhältnis abnimmt auch. Irgendwann reicht es nicht mehr für eine sichere Kommunikation aus, die Zahl der fehlerhjaften Bits wird auch zu groß für Fehlererkennungs- und Korrekturalgorithmen. Die Lösung ist eine höhere Sendestärke (verteuert die Satelliten die nun stärkere Sender haben, mehr Strom brauchen und durch die größeren Solarpaneele und Sender mehr wiegen) oder die Begrenzung des Winkels aus dem man Signal empfängt, indem man eine verstärkende Antenne, z.B. Parabolantenne nimmt. Sie empfängt nur Signale aus einem kleinen Winkelbereich und sammelt diese im Brennpunkt wo der Empfänger sitzt. Hat diese z.B. noch einen Öffnungswinkel von 45 Grad, so deckt sie nur noch 1/13 des Gebietes ab aus dem man bei Iridium empfangen kann (163,6 Grad). Für kostengünstige Terminals ist es zu aufwendig, die Antenne den Satelliten nachzuführen, also wird man sie fix auf den Zenit ausrichten. Dann empfängt man nur noch Daten, wenn der Satellit genau über einen hinwegzieht und nur rund um den Zeitpunkt herum – man braucht dann mehr Satelliten um eine lückenlose Kommunikation zu gewährleisten, da ein jeder nur einen Bruchteil der Zeit den Empfangsbereich der Antenne durchläuft, die er mit einer Rundstrahlantenne empfangbar wäre.
Einen weiteren Nebeneffekt hat die größere Zahl der Satelliten für die Nutzer. Wenn jeder Satellit eine fixe Bandbreite hat, so deckt jeder Satellit ein kleineres Gebiet der Erde ab, Bei Telesdisc z.B. nur Zellen von 160 x 160 km Größe. So verteilt sich die Gesamtdatenrate auf mehr potentielle Nutzer, jeder kann also einen größeren Teil dieser Datenmenge nutzen. (Supergut kommen dann Nutzer auf einsamen Inseln weg).
Die Satelliten werden dann die Daten von Satellit zu Satellit transferieren, bis man einen erreicht der nahe einer Bodenstation ist. Dieser überträgt sie zu dieser, die sie dann wieder ins Internetbackbone einspeist. Die Kommunikation von Satellit zu Satellit ist unproblematisch, da man hier nicht die Atmosphäre als Problem hat. So kann man Frequenzen ausnutzen die durch die Luft blockiert werden und hat keine Probleme andere4 Satelliten oder Services zu stören. Telesdesic nutzte das 60 GHz Band, das erlaubt 4-mal mehr Daten als das Ka-Band und 16-mal mehr als das Ku-Band. Nur die Bodenstationen müssen dann die Daten sehr vieler Satelliten auf einmal empfangen können. Da man hier nur die bekannten Frequenzbänder nutzen kann, werden die dann zum Engpass. Eine Alternative ist es das Signal über jeden Satelliten zu transferieren, bis man einen erreicht der nahe des Zieles is und dieser kontakt es direktt, doch dann verliert man zum einen den Hauptvorteil – durch die geringe Entfernung zum Benutzer eine geringe Verzögerung, zum anderen kann man so nur Nutzer erreichen die auch ein Satellitenterminal haben. Das dürfte also kaum in Frage kommen. Weiterhin passiert ein Signal so im Durchschnitt mehr Satelliten also bei dem Suchen einer Bodenstation, reduziert also die gesamte Bandbreite eines Intersatellitenlinks.
Soweit so gut. Man erhält so ein Netz das tatsächlich globales Internet zulässt. Es gibt aber einige offene Fragen. Die erste und wichtigste ist: Wo ist der Markt? In den industrialisierten Ländern, wo die Leute auch viel Internet nutzen, ist die Abdeckung mit DSL (übers. Telefonnetz) oder Kabel-Internet weitgehend flächendeckend. In den Entwicklungsländern, wo die Versorgung schlecht ist, können sich die Leute wohl kaum Satelliten-Internet leisten, sie verdienen zu wenig. Die 100 bis 300 Dollar pro Terminal sind in vielen Ländern mehrere Monatslöhne und da kommen noch die laufenden Gebühren dazu. Was bleibt sind die Leute die heute in der Pampa (in einem sonst hochentwickelten Land) wohnen und kein schnelles Internet haben und solvent sind, oder Internet das man auch haben will wenn man auf Reisen ist z.B. per Schiff oder Flugzeug. Ich bin nicht in der Materie drin, aber ich würde drauf tippen, das deise Kundschaft nicht ausriecht um diese riesige Flotte zu refinanzieren. Es wäre nichts das erste Mal, auch Iridium konnte nicht die Nutzerzahl gewinnen, die man sich vorstellt und wurde nur durch die Hilfe des US-Militärs gerettet.
Allerdings passt dieses Modell dazu nicht Elon Musks Aussage:
“We’re really talking about something which is, in the long term, like rebuilding the Internet in space,” Musk said. “The goal will be to have the majority of long-distance Internet traffic go over this network and about 10 percent of local consumer and business traffic. So 90 percent of people’s local access will still come from fiber but we’ll do about 10 percent business to consumers directly, and more than half of the long-distance traffic.” (Quelle)
Er will also nicht Enduser ans Internet anbinden, sondern die „Majoroity of long distance Traffic“ übertragen, also den größten Teil (>50%) des Traffics über große Distanzen. der Begriff „Große Distanzen“ ist dehnbar, aber selbst wenn man darunter Kontinente versteht ist das trotzdem ein ziemlich großer Anteil am Gesamttraffic. Die Server von Facebook, Google und Co stehen z.B., schon in den USA. Vor allem zeigt die Diskrepanz zwischen Local Traffic und Long Distance Traffic, das man damit rechnet das der größte Teil der Daten nicht von Endnutzen kommt sondern Knoten des Backbones, welche die Satelliten nutzen. Diese können sich aber größere Parabolantennen und Sender leisten und könnten so die Satelliten verfolgen, man bräuchte so nicht so viele, es müssten nur mindestens zwei zu jeder Zeit empfangbar sein, damit man keine Unterbrechung hat (eine Antenne verfolgt jeden Satelliten, verliert die erste Antenne den Kontakt so sendet man über die zweite weiter und die erste kann auf einen neuen Satelliten ausgerichtet werden). So kommt man in der Bahnhöhe die anvisiert wird vielleicht auf 100 Satelliten, die man braucht, aber keine 4000.
Selbst wenn Musks rechnet das der meiste Traffic „local“ ist (was allerdings voraussetzt, das der Nutzer dann diesen über eine andere Leitung übertragen kann) und so nicht über die Satelliten transferiert wird, so sind 10% des Gesamttraffics eine Menge. 2012 betrug der Traffic im Durchschnitt 32.000 Petabyte/Monat. 650 Oneweb Satelliten mit je 8 GBit/s würden etwa 40% dessen ausmachen, wenn man sie zu 100% auslasten wird (unwahrscheinlich weil 70% der Fläche der Erde Meer ist mit niedriger Bevölkerungsdichte und auch die Bevölkerung sehr unregelmäßig über die Landmasse verteilt ist). Das Problem nur: Der Traffic wächst seit Jahren um 50%. Bis das System steht (3 Jahre Bauzeit für den ersten Satelliten, 5 Jahre bis der letzte im Orbit ist) wird man rund 86-mal mehr traffic brauchen also 2012, aus 40% Abdeckung werden so 0,5%, selbst wenn GoogleSpace nun mehr Satelliten hat, werden sie weit von 10% Gesamttraffic entfernt sein.
Man wird schlauer werden wenn man das System aufbaut. Die Betonung liegt auf dem Wörtchen „wenn“.