Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 435: 27.7.2015 - 2.9.2015

27.7.2015: Die FSFA-App

Heute nun erneut eine Schlagzeile aus der Zukunft, gewonnen mit dem Temporalfluxkompensator. Die Schlagzeile heute stamme von 13.8.2017. An diesem Tag gibt es wenig neues, so konnte Minister Dobrin mit einer Pressekonferenz in die Nachrichten kommen. er feiert nach einem Jahr den Erfolg der FSFA-App. FSFA steht für freie Straßen für Alle. Die App entstand schon Ende 2015 stand aber zuerst in der Kritik. Das Bundesverkehrsministerium lancierte die App als Folge zahlreicher Beschwerden der Kommunen. Von dem Paket für den Straßenausbau, das im Juni 2015 beschlossen wurde haben die Gemeinden nichts, denn damit werden nur Straßen des Bundes saniert also Bundesstraßen und Autobahnen. Wo es aber wirklich hapert ist in den Gemeinden. Dort sind die Straßen in einem oft erbärmlichen Zustand. Sie werden immer wieder aufgerissen für neue Leitungen oder Reparaturen an alten Wasserleitungen die nun fast überall über 100 Jahre alt sind und großflächig erneuert und repartiert werden. Das Streuen von Salz vergrößert die Straßenschäden und sorgen für zahllose Schlaglöcher die viele Gemeinden nicht einmal mehr stopfen, sondern sich nur noch auf die großen Schlaglöcher konzentrieren. Eine Werbeaktion wie in den USA wo Konzerne die Beseitigung der Schlaglöcher sponsern und dafür ihr Logo aufmalen /siehe Bild unten) ist bei uns nicht denkbar. Manche Gemeinden sind dazu übergangen die Anwohner an den Kosten zu beteiligen sodass diese für die Sanierung der Straßen vor ihrem Haus aufkommen müssen.

Copyright des Bildes: Berliner KurierDie FSFA-App war eine Idee des Bundes die klammen Kassen der Kommunen aufzubessern ohne selbst Geld abzugeben. Bürger sollten Verstöße gegen die Straßenverkehrsordnung über die App melden können und ein Beweisfoto mit übermitteln. Ein zentraler Server sammelt die Daten und leitet sie an die örtlichen Ordnungsämter weiter. Dort kann nun ein Mitarbeiter viel mehr Fälle bearbeiten als einer der vor Ort die Straßen abläuft und Verkehrssünder aufschreibt. Das spült Geld in die Kassen, vor allem durch die zahlreichen Parkverstöße - da es immer mehr Autos, gibt aber die Zahl der Stellplätze gleich bleibt, sind immer mehr Straßen zugeparkt und viele Parker scheren sich nicht um Parkverbote. Aber auch andere Verstöße für die ein Beweisfoto ausreicht können bearbeitet werden wie Fahren in eine Einbahnstraße in der falschen Richtung oder überfahren eines Kreisels (die werden oft nicht mehr als  Hindernis ausgeführt sondern nur noch als Bodenmarkierung).

Die erste Version wurde bald kritisiert, weil die App zahlreiche persönliche Daten übermittelte wie den Namen der Person welche den Verstoß meldete. Zudem war sie für die Benutzer umständlich zu bedienen. Sie mussten vier Felder mit Angaben ausfüllen da sich die app an den Formularen der Ordnungskräfte orientierte. Der ADAC prozessierte und bekam in der ersten Instanz recht. Zwar konnte der Automobilclub nichts gegen die App an sich machen. Das Nutzen von Bürgerhinweisen ist rechtens und es gibt keine Handhabe dagegen, aber die unverschlüsselte Übertragung der Daten und die persönlichen Daten widersprachen dem Datenschutzgesetz. Das war am 16.7.2016. Das Urteil fiel damit in die Sommerpause und Dobrin delegierte die Aufgabe die App datenschutzkonform zu machen an seinen Staatssekretär. Der wollte in den Urlaub und verteilte die aufgaben weiter an seine drei Mitarbeiter. Doch auch diese gingen bald darauf in die Ferien und so landete die Aufgabe eine neue App schreiben zu lassen bei der Sekretärin. Diese bar jeder Kenntnis, wer so was erstellen kann kam auf die Idee die einzige Organisation damit zu betreuen, die sie kannte die sich mit Computern und Datenschutz auskannte - den Chaos Computer Club. Dieser bot an die App für 1,3 Millionen Euro bis zum 1.10. datenschutzkonform zu erstellen und nach einem kurzen Rückruf beim Staatssekretär wurde das Geld bewilligt, allerdings erfuhr dieser nicht wer die App nun programmiert.

Der CCC leistete ganze Arbeit. Er beseitigte nicht nur die Datenschutzproblem - übertragen werden nur noch ein Bild, die GPS-Koordinaten, das Autokennzeichen und einige Statuscodes für den vermuteten Verstoß und eine 128 Bit GUID und dies noch verschlüsselt. Sie machten auch die App benutzerfreundlicher und boten mit dem Portal: "Cateched" den Nutzen noch einen Anreiz Verkehrsverstöße zu überwachen.

Die neue App läuft auf jedem Smartphone oder Tablett mit einer Kamera und GPS-Empfänger. Sie ist nun enorm einfach zu bedienen. Ein klick auf die App startet sei, dann muss man die Kamera auf die Szene ausrichten und ein Foto machen. Die App analysiert das Foto ob Verkehrsschilder und Fahrzeugkennzeichen zu erkennen sind und wenn dies der Fall ist und bestimmte Verkehrsschilder sichtbar sind (Parkverbot, Einbahnstraße etc.) so sendet sie das Bild zusammen mit den erkannten Typen von Schildern und Kennzeichen an den Server. Findet die App kein Schild das in ihrem Katalog ist so kann der Anwender noch einen Kommentar schreiben warum er einen Verstoß vermutet.

Anhand der GPS-Koordinaten leitet der Zentralserver die Daten an das örtliche Ordnungsamt weiter. Dort taucht das Foto mit den vermuteten Tatbestand auf. Man muss nur entscheiden ob dies zutreffend ist, dabei wird der Aufnahmeort und bei bestimmten Smartphones, die es erlauben auch die Aufnahmerichtung eingetragen, sodass der Mitarbeiter dies mit der momentane Situation und in der Karte eingetragenen Einschränkungen oder Verkehrszeichen abgleichen kann.

Der Anwender kann sich in "Catched" registrieren und eine dort vergebene ID-Nummer mit seiner App verknüpfen. Danach werden alle von ihm gemeldeten Verkehrsverstöße dort unter seinem Pseudonym in der "Bestenliste" aufgeführt, nachdem das Ordnungsamt diese bearbeitet hat also ein Bußgeld verhängt hat. Das geht über die GUID, die einmalig pro Vorfall ist. Am 1.10.2016 ging Catched Online und wurde zwar gleich von der Presse als "Denunziantentum bisher unvorstellbarem Ausmaß" bezeichnet, erfreute sich aber wegen der Bestenliste, gestaffelt nach Ortsteil, Ort, Kreis, Land und Bund großer Beliebtheit. Innerhalb des ersten Monats registrierten sich über 100.000 Bürger, bis heute sind es über 600.000. Spitzenreiter ist der "Rächer der Fußgänger" der in weniger als einem Jahr über 4000 Verstöße in und um München zur Anzeige brachte. Nach einigen Monaten starker Kritik begann auch bei der Presse ein Umdenken, denn viele Straßen sind heute wieder zügig befahrbar, nicht mehr zugeparkt. Fahrradwege und Fußgängerwege werden nicht zur hälfte von parkenden Autos benutzt und in den Kommunen hat die App über 20.000 Arbeitsplätze geschaffen. Mehr noch. Mit den auf über 3 Milliarden Euro geschätzten Einnahmen durch Bußzetteln wollen ab nächstem Jahr die Kommunen beginnen diue Straßen zu sanieren. Manche Parker stiegen gerade aus als sie schon Passanten die Smartphones zücken sahen. Es gab daher auch 172 Fälle von Tätlichkeiten gegenüber den Ordnungshüter ohne Uniform" wie Dobrin sie bezeichnet.

Allerdings nimmt seit einem halben Jahr die Zahl der gemeldeten Delikte stetig ab. Anfangs waren es sehr viele, doch nachdem einige Fahrzeugbesitzer innerhalb eines Monats zahlreiche Bußgeldbescheide bekamen, halten sich nun viele an die Ge- und Verbote und es werden immer weniger Verstöße gemeldet. so ist die Anzahl auf weniger als 20% der Fälle im ersten Monat gesunken. Ein zweiter Grund, warum die Einnahmequelle bald versiegen wird ist die EU-Richtlinie 56/2017 die Deutschland bis zum 31.12.2019 umsetzen muss. Demnach müssen die Behörden ihre Karten die an die Hersteller der Navigationsservices geben um Informationen über Einschränkungen ergänzen, die örtlich gelten, wie Geschwindigkeitsbegrenzungen, Parkverbote etc. über das RCI (Remote Car Interface) werden diese an den Steuercomputer übertragen. RCI ist ein Protokoll das über dem Fahrer steht, d.h. es muss die Fahrzeugelektronik diese Einschränkungen respektieren. Das bedeutet, das egal wie der Besitzer auf das Gaspedal drückt der Rechner nie schneller als Tempo 30 in einer 30-kmh-Zone erreicht. Das gilt auch für die meisten nachgerüsteten Navigationsgeräte, die müssen ab dem 1.1.2020 die Fahrzeugelektronik ebenfalls über RCI unterrichten. Das klappt bei den meisten ab 2004 zugelassen Fahrzeugen denn damals wurde RCI als Terrorismusbekämpfungsmaßnahme eingeführt. Demnach kann man jedes Auto das über eine Funkverbindung nach außen verfügt (dazu reichen auch die beliebten Funk-Autoschlüssel) über RCI steuerbar sein. Bisher nutzte man dies, um über RCI vor allem gestohlene Wagen zu sperren. Das führte dazu, dass innerhalb weniger Jahre die Zeit bis ein Fahrzeug das Land verließ von 2-3 Tagen auf unter 16 Stunden sank. (noch klappt das Sperren nicht über Ländergrenzen hinweg).

Doch zurück von Dobrin: Er sonnt sich in dem unfreiwilligen Erfolg, denn es ist wohl unwahrscheinlich das er selbst den CCC beauftragt hätte. Umfragen zeigten das die meisten Bürger inzwischen der App positiv gegenüberstehen, da nicht zugeparkte Straßen der Vergangenheit angehören und die meisten Gemeinden schon begonnen haben viele Straßen zu sanieren - letzteres dürfte aber mit der Abnahne der Einnahmen bald wieder eingeschränkt werden. Beschwerden gab es nur wenige und sehr oft zeigte sich das die angeblich fehlenden Parkplätze gar nicht fehlten - oft waren die Autofahrer einfach zu Faul einige Meter von einem Parkplatz oder Parkhaus zu laufen anstatt direkt vor einem Geschäft zu parken.

29.7.2015: EADS/Airbus zweite Antwort auf das Thema Resuability

Nachdem EADS/Airbus vor einigen Wochen Adeline vorstellte, eine neue Erststufe für die Zeit nach der Ariane 6 die wiederverwendbar sein soll, aber viel geringere Nutzlastverluste als SpaceX Konzept hat, hat nun der Konzern eine Lösung für die Ariane 6 vorgestellt. Adeline (Advanced Expendable Launcher with Innovative engine Economy) wird von der ersten Stufe nur Triebwerk mit der dort angebrachten Avionik bergen die 80% des Wertes der Stufe ausmachen. Anstatt kostbaren Raketentreibstoff für die Landung zu verwenden wird Adeline durch zwei Turbofantriebwerke und Winglets wie ein Flugzeug landen. Auch ULA will nur den Triebwerksblock bergen, allerdings diesen im Flug durch Helikopter fangen.

Offensichtlich schätzt Airbus aber das bisherige Konzept von Ariane 6 nicht als so überzeugend für die bald anstehende Billigung durch den ESA-Ministerrat ein, als dass man nicht versucht hat es noch zu optimieren und dies soll nur durch Wiederverwendung gehen. Das lohnt sich bei den Boostern nicht und wäre bei der ersten Stufe aufgrund ihrer hohen Trenngeschwindigkeit sehr aufwendig und gefährlich (SpaceX hat es z.B. bei viel geringerer Trenngeschwindigkeit noch nicht geschafft eine stufe zu bergen), Daher hat man sich auf die letzte verbliebene Stufe konzentriert die es gibt: die Oberstufe.

Nun ist klar, das eine Bergung der Oberstufe nicht in Frage kommt - gegenüber der Erststufe sind die Einbußen an Nutzlast durch Treibstoff für den Wiedereintritt/Landung und Verstärkung der Struktur noch höher. SpaceX nennt die Bergung der Oberstufe als langfristiges Ziel, hat dieses bei den derzeitigen Raketen aber nicht angegangen. So überlegte man bei Airbus, wie man die Stufe im Orbit erneut einsetzen konnte. Die offensichtlichste Idee wäre es eine Stufe im Orbit aufzutanken. So kann man auch hier den teuersten Teil: Das Triebwerk und die Avionik mehrfach verwenden. Doch Untersuchungen zeigten, dass die Zeit in der der Wasserstoff selbst bei Kühlung flüssig ist sehr knapp für eine automatische Kopplung ist. Das Manöver wäre sehr riskant-. Zudem ist vor allem der flüssige Wasserstoff sehr schwierig umzupumpen. Seine Eigenschaften weichen im flüssigen zustand stark von denen lagerfähiger Treibstoffe ab die man bisher schon für Nachfüllungen der ISS nutzt. Dazu kommt das die Tanks für flüssige Treibstoffe wegen des hohen Volumens des Wasserstoffs sehr viel wiegen.

Airbus dachte aber weiter und ersann einen neuen eklektisch-chemischen Antrieb. Wenn man die Treibstoffe nicht als kryogene Flüssigkeiten nutzen kann, dann vielleicht in gasförmigem Zustand. Berechnungen zeigten, das die Tanks der ESC-B Oberstufe dauerhaft einem Innendruck von 20 Bar standhalten können, der Berstdruck liegt über 30 bar. Im Betrieb sind die Tanks nur mit 2 bis 3 druckbeaufschlagt, doch sie müssen auch den Vibrationen und dem Gewicht des Treibstoffs multipliziert mit der Spitzenbeschleunigung aushalten. Daher sind sie erheblich steifer als es der nominelle Innendruck erfordert. Bei 30 bis 26 t Treibstoffzuladung (noch sind die Planungen für die Oberstufe nicht abgeschlossen) würde der Treibstoff im gasförmigen Zustand und 20 Bar Druck noch 266 bzw. 663 kg wiegen. Damit kann man das Triebwerk maximal 20 s lang betreiben. Das ist nicht die Lösung die man sich erhofft, zudem wären die Drucktanks für die Triebstoffe viel zu schwer.

Eine zweite Lösung ist es nicht die Treibstoffe getrennt zu transportieren, sondern Wasser. Das wird dann durch Elektrolyse in Wasserstoff und Sauerstoff gespalten. Dieser wird in den Treibstofftanks der Oberstufe zwischengelagert bis der Sauerstofftank 20 bar erreicht. Aufgrund der Unterschiede der Dichte im gasförmiger und flüssigen Zustand wird der Wasserstofftank maximal 8,4 bar erreichen. Das Triebwerk arbeitet dann 20 s lang, was eine minimale Beschleunigung von 72 m/s ergibt. So muss man für das Erreichen des GTO-Orbits ausgehend von einem LEO-Orbit mindestens 30 Zündungen.

So erarbeitete Airbus folgendes Szenario: Der erste Start ist der einer normalen Ariane 6 mit einer kryogenen Oberstufe mit dem Vinci Triebwerk und 30 bis 36 t Flüssigtreibstoffen. Nach dem Absetzen der Nutzlast wird der Nutzlastadapter abgetrennt. Unter ihm befindet sich der Kopplungsadapter der auf dem beim ATV verwendeten basiert, jedoch in Europa produziert wird. Die Stufe bremst sich zuerst passiv durch Reibung der Atmosphäre ab, bis das Apogäum in 600 km Höhe liegt. Dann wird mit Hydrazin betriebenen Triebwerken das Perigäum angehoben, sodass die Stufe nicht verglüht. In einem 300 x 600 km Orbit sollte sie 1 Jahr verbleiben können. Nominell dauert diese Abbremsphase 2 Monate, sodass sie beim übernächsten Ariane 6 Start im neuen Zwischenorbit angekommen ist.

Die nächste Ariane 6 startet dann ohne Oberstufe. Die Zentralstufe setzt die Nutzlast mit der RAUS-Stufe (Reusable Ariane Upper Stage) in einem niedrigen Orbit ab. Sie besteht aus einem Kopplungsadapter, einer Elektrolyseapperatur, einem Wasserstofftank mit Solarzellen und einer Steuersektion mit der Avionik und Triebwerken die mit Hydrazin betreiben werden. mit ihnen navigiert die RAUS zur Ariane 6 Oberstufe die der passive Part ist. Angekoppelt wird durch den Strom den die Solarzellen liefern das Wasser in Wasserstoff und Sauerstoff gespalten die dann in die Oberstufentanks geleitet werden. Sobald der Sauerstofftank 20 Bar erreicht hat kann die Oberstufe gezündet werden. Das dauert anfangs 20 Stunden, später mit ausweitendem Orbit ohne Phasen im Schatten 12 Stunden. Sobald die Stufe das Perigäum durchläuft kann die Stufe gezündet werden. So weitet sie den Orbit sukzessive auf. Nach spätestens einem Monat hat das Gespann den GTO-Orbit erreicht. Der restliche Hydrazintreibstoff wird nun in die Oberstufe umgepumpt und RAUS abgetrennt. Die Oberstufe bremst nun wieder passiv in einen LEO Orbit ab den sie durch das Hydrazin stabilisiert. Ein Zyklus dauert etwa 3 Monate, sodass man bei monatlichen Starts mehrere stufen nutzen muss.

Damit sich RAUS lohnt müssen natürlich einige Randbedingungen erfüllt sein. Vor allem muss RAUS billiger als eine Ariane 6-Oberstufe sein. Dies muss trotz Avionik, Kopplungsadapter mit Annäherungssensoren, Elektrolyseanlage und Solargenerator der Fall sein. Airbus setzt hier auf COTS-Komponenten: COTS (Commercial off the Shelf) ist das Zauberwort bei der Raumfahrt um Kosten zu senken: anstatt eigene weltraumtaugliche Komponenten zu entwickeln nutzt man kommerzielle Komponenten die aber nicht für einen dauerhaften Einsatz im Weltraum gedacht sind. Man kann dieses Risiko tolerieren, wenn die Einsatzdauer gering ist (hier maximal 2 Monate) oder man Einflüsse abschirmen kann. Airbus verwendet normale Elektronik, diese ist aber fünffach-redundant verbaut. Trotzdem spart man bei rund 1000 Euro pro Platine Geld, denn ein weltraumtauglicher RAD6000 Prozessor kostete etwa 20.000 Euro, eine Platine bis zu 100.000 Euro. Die Solarzellen sind normale aus der Produktion für Solaranlagen aus polykristalinem Silizium. Sie verlieren in einem Monat rund 20% an Leistung und haben nur einen Wirkungsgrad von 12%, doch sie sind erheblich günstiger als die normalen Solarzellen. Die Elektrolysenalage ist eine handelsübliche Anlage für Labore zur Erzeugung von reinem Wasserstoff und Sauerstoff. Anstatt der Videometer und Telegonmeter wird man IR-Kameras als Annäherungssensoren nutzen deren Bild ausgewertet wird. Ein Test dieser fand beim letzten ATV statt (LIRIS-System).

Noch ist RAUS nur ein Konzept. Es gibt zahlreiche offene Fragen die in einem beantragten Forschungsprogramm geklärt werden müssen. So ist das Vinci Triebwerk für 5000 s Betriebszeit ausgelegt, wird aber maximal 900 s lang betrieben werden so sollte die Stufe mindestens viermal danach erneut betankt werden können. Allerdings wird es derzeit nur mit flüssigem Treibstoff betrieben. Man hat bisher noch nicht getestet ob dies auch mit Gas geht und vor allem ob das Triebwerk so viele Zündungen übersteht und der Startup Zyklus dann noch funktioniert (bei dem wird die Turbopumpe durch gasförmigen Wasserstoff gestartet. Eine Lösung, die im Computer funktioniert, wäre ein "Turbopumpenbypass". Dabei schließt man die Ventile zum Gasgenerator und Turbopumpe und öffnet diese zu einer Leitung die im normalen Betrieb nicht genutzt wird und die direkt vom Triebstofftank zum Triebwerk führt. Dann verbrennt das Triebwerk den Treibstoff direkt ohne Förderung durch eine turbopumpe. In jedem falle ist der spezifische Impuls geringer weil der Druck geringer ist: beim Vinci sind es 60 bar, bei RAUS anfangs 20 dann absinkend auf 2 bar. Danach werden die Ventile geschlossen weil der Wirkungsgrad darunter zu stark absinkt.

Sollte RAUS beim nächsten Treffen bewilligt werden, so könnte die Ariane 6 schon auf deren Einsatz optimiert werden. RAUS würde 2-3 Jahre nach dem Jungfernflug der Ariane 6, also 2022 bis 2024 zur Verfügung stehen. Der Einspareffekt wäre bei 50% der Oberstufenkosten allerdings moderat: er läge bei 10 bis 15% der Gesamtkosten. Die Nutzlast würde um rund 5% sinken, das ist sicher nicht der Brüller. Vieles spricht dafür das sowohl Adeline wie RAUS Konzepte sind die Airbus derzeit auflegt um dem Vorwurf zu begegnen, dass man in Europa nichts tut um die Wiederverwendung zu erforschen.

31.7.2015: Warum es mit RAUS nicht klappt

Es war ja in die Münchhausen Kolumne einsortiert. Um so mehr hat mich überrascht dass man bei EADS/Airbus doch tatsächlich über das Oberstufenparken nachdenkt. Doch dazu später mehr. An und für sich klingt der Vorschlag den ich gemacht habe logisch, wie immer bei meinen Münchhausen Aufsätzen liegt der Fehler im Detail. Doch das ist ja öfters so, so klappen viele andere Dinge ja auch prinzipiell, sie sind nur nicht ökonomisch umsetzbar.

Ein paar Fakten: Um in eine niedrige Erdumlaufbahn zu kommen braucht man nur 7800 m/s Geschwindigkeit. Je nach geographischer Breite des Startorts muss eine Rakete davon 7400 bis 7600 m/s aufbringen. Für den GTO Orbit braucht man dann noch etwas mehr so ungefähr 10.200 bis 10.260 m/s je nach Höhe des Perigäums. Diese rund 2400 m/s mehr führen bei den Trägern zu einer Reduktion der Nutzlast um den Faktor 2,2 bis 2,8 abhängig von Treibstoffart, Stufenzahl und Stufenleergewicht. Das starke Absinken liegt auch daran, dass neben der Nutzlast auch die letzte Stufe zur "Bruttonutzlast" zählt und deren Gewicht ist immer gleich. So wäre es logisch nur den Treibstoff zu transportieren. Noch dazu bei dem bei der Ariane Oberstufen verwendeten Kombination LOX/LH2, denn die hat nur eine spezifische Dichte von 0,35. Wasser, das Kondensationsprodukt, dagegen eine von 1. Daher wäre ein Wassertank dreimal leichter als der Oberstufentank. Das Triebwerk fällt auch weg also wäre doch alles super oder?

Äh eher nein. Ich habe schon mal meine Zweifel, dass es mit dem einfachen Bypass den ich vorgeschlagen habe funktioniert. Darüber hinaus würde wohl das Starten nicht funktionieren - das wird heute durch einen Tank mit Wasserstoffgas bewerkstelligt. Wasser ist zu wasserstoffarm, denn dort beträgt das Mengenverhältnis 1:8 (LH2/LOX), das Triebwerk arbeitet dagegen mit 1:6 als einem Wasserstoffüberschuss Die unterschiedlichen Dichten der Flüssigkeiten (0,069 und 1,14 g/cm³) führen zu unterschiedlichen Tankdrücken die natürlich mit unterschiedlichen Flussmengen korrespondieren. Natürlich ist es bei der Stufe auch nicht nur mit einem Adapter getan. Sie muss nach Beendigung ihrer Arbeit ja noch aktiv sein. So muss sie die Bahn weiter stabilisieren, damit sie durch die atmosphärische Reibung langsam das Apogäum abbaut, aber nicht das eh schon niedrige Perigäum - sonst verglüht sie schneller als einem lieb sein kann. Dann muss sie während des Ankoppelns stabilisiert sein, denn an eine torkelnde Stufe kann man nicht ankoppeln. Die automatische Kopplung klappt ja, das beweisen ATV und Progress. Ich habe aber Zweifel das dies wirtschaftlich ist.

Der eigentliche Knackpunkt ist aber das ich komplett die Rechnung weggelassen habe, wie viel Energie man braucht um wie in dem Szenario in einem bis zwei Monaten den GTO zu erreichen. Eine Ariane 6 Oberstufe wird derzeit mit 30 bis 36 t Treibstoff geplant. Diese Menge braucht man auch beim Wiederauffüllkonzept, eher mehr, weil ja noch die Tanks der Auffüllstufe und die Elektrolyseanlage und der Stromgenerator transportiert werden. Ein kleiner Blick in ein Standardwerk für anorganische Chemie zeigt das die Bildungsenthalpie von Wasser 268,8 kJ pro Mol (18 g) beträgt. Bei 36.000 kg Treibstoff sind das dann 537600 MJ. Ein 10 KW Stromgenerator, wie ihn große Kommunikationssatelliten haben, bräuchte 53,76 Millionen s um diese Strommenge zu produzieren, das sind 622 Tage. Darin ist nicht berücksichtigt, das die Elektrolyse keinen Wirkungsgrad von 100% hat, es Zeiten im Erdschatten gibt und man wegen des anderen Verhältnisses von LOX/LH2 im Vinci mehr als 36 t Treibstoff aufspalten werden muss (der Sauerstoff wird dann teilweise nicht genutzt). Würde man es in einem Monat schaffen wollen bräuchte man 207 kW Leistung (immer noch ohne die oben  gerannten Verluste) und die würden bei einem typischen Flächengewicht von 80 W/kg rund 2,6 t wiegen.

Der grundsätzliche Fehler ist aber ein Denkfehler: es ist unsinnig elektrische Energie in chemische Energie umzuwandeln. Es ist viel effektiver dann mit der elektrischen Energie gleich ein Arbeitsmedium zu ionisieren und in einem elektrischen Feld zu beschleunigen, also ein Ionentriebwerk einzusetzen. Das hat den zehnfachen spezifischen Impuls, aufgrund des Logarithmus in der Ziolkowski Gleichung braucht man beim zehnfachen Impuls nicht ein Zehntel des Treibstoffs sondern viel weniger. Bei rund 14 t Bruttomasse im GTO-Orbit dient ein Großteil des Treibstoffs dazu den restlichen Treibstoff mitzubeschleunigen. Ein Ionenantrieb würde nicht 36 t Treibstoff beim zehnfachen Impuls brauchen sondern nur 800 kg, wäre also viermal effizienter.

Man könnte auch Wasser als Arbeitsmedium nutzen, z.B. in Plasmatriebwerken. Diese erreichen zwar nicht die hohen spezifischen Impulse von Kaufmann- oder Hal-Effekttriebwerken aber immerhin noch mindestens den doppelten von LOX/LH2.

Zuletzt noch zu dem Link von kay (http://www.ingenieur.de/Branchen/Luft-Raumfahrt/Airbus-denkt-ueber-Parkhaus-im-Orbit-fuer-Raketen-Oberstufen). Soweit ich diesen verstehe, ist damit etwas anderes gemeint: man will Nutzlast und Oberstufe getrennt starten und zuerst die Oberstufe parken und dann die Nutzlast ankoppeln. Das Konzept halte ich für ausgemachten Blödsinn. Das eine ist das Oberstufe und Nutzlast unterschiedlich schwer sind. Bei Ariane 6 wird die Oberstufe rund vier bis sechsmal schwerer als die Nutzlast sein. Das bedeutet man müsste mit der Nutzlast Treibstoff transportieren und umtanken - nicht wenig aufwendig. Die Bahn in 1500 km Höhe ist viel zu hoch. Eine voll betankte Oberstufe hat ein relativ günstiges Masse/Oberflächenverhältnis, sollte also nur langsam an Höhe verlieren. In 1500 km Höhe hat sie eine viel zu lange Lebensdauer (Gefahr von Weltraummüll) und man braucht auch viel Energie um sie erst dorthin zu befördern. 400 km wären besser, da würde sie 1-2 Jahren zur Erde zurückkehren, ein Zeitraum in dem sowieso der ganze Treibstoff verdampft ist. Die nötige Isolation wäre auch eine Herausforderung. Derzeit kann man den Treibstoff einige Stunden lang kühl halten. Vor allem der Wasserstoff dürfte problematisch sein und eine Sonnenschutzschild und eine Rückverflüssigungsanlage würden die Masse doch sehr erhöhen. Die Kosten ebenfalls.

Vor allem ist der Nutzen doch begrenzt: Ariane 6 wird von einem Vulcain angetrieben, das steht fest. Wenn man nun die Größe der Zentralstufe verkleinert spart man etwas an den strukturen aber sonst nichts. Schon im derzeitigen Konzept will man ja zwei oder vier Booster einsetzen und damit 6,5 und 10 t Nutzlast erreichen. Wenn man die Nutzlast um 60% durch zwei preiswerte Booster erhöhen kann, warum sollte man das komplexe Szenario eines Mehrfachstarts für eine Nutzlast angehen?

2.9.2015: "Best with 6 MPixeln"

Michael K. hat mir den Link zu einer Kamera geschickt, die nur 2,26 MPixel hat - und das bei einem Vollformatsensor. Die Kamera ist so lichtempfindlich dass man nach dem Datenblatt selbst in mondhellen Nächten die Szene wie bei anderen Kameras bei Tag aufnehmen können umgerechnet sind es 4 Millionen ISO. Wer noch mit Film gearbeitet hat weiß: normaler Film hatte 100 bis 400 ISO, 800 ISO Film wurde schon sichtbar grobkörnig., Das brongt mich zu meinem Thema, das nicht neu ist, aber man kann es ja mal wieder ausgraben oder?

Es gibt die Webseite 6Mpixel. Sie entstand, als die ersten Digitalkonsumerkameras aufkamen die mehr als 6 Mpixel hatten und sich in Zeitschriften Testberichte über schlechtere Bildqualität häuften und auch Privatpersonen die Erfahrung machten, dass die Bildqualität abnimmt. Sie konnte eines nicht ändern: den Pixelwahn. Er ist in den letzten Jahren bei den Digitalkameras etwas abgeschwächt, bei den in Tabletts oder Smartphones eingebauten Kameras geht er weiter. Warum ist der Pixelwahn schlecht?

Nun es ist eigentlich ganz einfach: egal ob Film mit Silberkorn-emulsion oder einem CCD mit einem lichtempfindlichen Halbleiter, es passiert immer das gleiche: Lichtteilchen (Photonen) treffen auf ein Element und lösen durch die übertragene Energie etwas aus. Bei Film eine chemische Reaktion, bei CCD übertragen sie Energie auf ein Elektron das dann das Atom verlassen kann. Beide Techniken brauchen eine gewinne Mindestmenge an Photonen, damit man eine Belichtung von dem normalen Rauschen unterscheiden kann. Das Rauschen entsteht bei einem CCD durch die Temperatur. Gemäß Maxwellscher Verteilung haben bei einer bestimmten Temperatur nicht alle Teilchen die gleiche Energie. Einige haben eine höhere und andere eine niedrige bei einigen riecht es aus das sich auchb durch diese Energie sich ein Elektron ablösen kann.

Ein Maß für die Qualität eines Detektors ist daher die Quantenausbeute. Sie liegt bei CCD in der spitze bei 80%, fotografischer Film liegt deutlich unter 10%. Das sind allerdings Spitzenwerte. Die 80% erreicht man nur mit Kühlung um das thermische Rauschen zu vermindern und auch nicht über den ganzen Spektralbereich. Das Hubble Weltraumteleskop bei dem die Detektoren nicht gekühlt werden können, hat eine Spitzenausbeute von 30-40% bei der WPFC3 Kamera. Doch selbst ohne Kühlung ist ein CMOS-Sensor wie er in einer Konsumerkameras verwendet wird weitaus empfindlicher als fotografischer Film - bei derselben Größe eines fotografischen Elements.

Bei Film ist wegen der unregelmäßigen Natur des Filmkorns recht schwer die Auflösung anzugeben. Man misst sie meistens mit der Fotografie eines Linienmusters das immer enger wird. Wenn man gerade noch zwei Linien unterscheiden kann bevor es in einen Brei von Hell-Dunkel übergeht hat man die Auflösung. Diese wird in Linienpaaren pro Millimeter angegeben. Kleines Detail am Rande: Bei Raumsonden hat man noch lange die Auflösung ihrer Bilder in Kilometer pro Linienpaar" angegeben. Die Umrechnung für die Mpixel die bei CCD üblich ist ist relativ einfach:

Um ein Linienpaar zu unterscheiden braucht man zwei Pixel (eines dunkel, eines weiß). Multipliziert man dies mit der Angabe pro Millimeter und der Länge bzw. Breite des Detektors so bekommt man die Pixel in der jeweiligen Dimension. Ein typischer nicht besonders lichtempfindlicher Farbfilm für Hobbyknipser hatte eine Auflösung von 125 Linienpaaren pro Millimeter. Das Kleinbildformat hatte Abmessungen von 24 x 35 mm. So erreichte sich die äquivalente Pixelmenge so:

Länge: 35 mm x 125 Linienpaaren/mm * 2 Pixeln/Lininenpaar = 8750 Pixel

Breite: 24 mm x 125 Linienpaaren/mm * 2 Pixeln/Lininenpaar = 6000 Pixel

Gesamt: 6000 Pixel * 8750 Pixel = 52,5 Mpixel

So gesehen scheint fotografischer Film immer noch deutlich besser als die Sensoren bei den heutigen Konsumerkameras zu sein. Allerdings muss man bei dem Vergleich berücksichtigen, dass dort die Sensorgröße viel kleiner sind "Vollformat" Sensoren, die also das Kleinbildformat als Sensorgröße haben, erreichen durchaus 50 Mpixel und fotografischer Film erreicht diese hohen Werte nur bei hohen Kontrasten, das liegt an der physikalischen Eigenschaft des Filmkornes. Er ist deswegen auch hervorragend geeignet um als Mikrofilm Text aufzunehmen (hoher Kontrast von schwarzen Buchstaben zu weißem Blatt). Bei niedrigem Kontrast also ähnlicher Helligkeit sieht es deutlich anders aus. Dann erreicht derselbe Film nur noch 40 Linienpaare/mm, was 5,4 MPixeln entspricht. Das sind die Werte eines typisches Films für Kleinbildkameras mit 125 ISO Empfindlichkeit. Für Vergrößerungen oder schwierigere Lichtbedingungen ging man schon früher bei Kameras auf das Mittelformat über mit deutlich größeren Negativen.

Nun ist eines unbestritten: selbst billigste CMOS-Sensoren sind fotografischem Film in Bezug auf Lichtempfindlichkeit überlegen. Das gilt aber nur für gleiche Pixelzahlen und Sensorgrößen. Ich habe mir mal eine gebrauchte Canon EOS mit 8 MPixeln und APS-C gekauft. Die bildet in 15 s Belichtungszeit mehr Sterne ab als mein Teleskop mit einer Kleinbildkamera in 10 Minuten. Bei vollem Sonnenschein im Sommer sind die Bilder selbst bei geringster Belichtungszeit leicht überleblichtet.

Das leitet zum dritten Kriterium über: den Lichtverhältnissen. Eine Kamera die astronomische Aufnahmen machen soll wird sicher größere Pixel haben als eine die nur draußen bei Sonnenschein Aufnahmen machen soll. Da unser Auge durch die sich schließende Iris und verschiedene Sensortypen (Zäpfchen und Stäbchen) die Fähigkeit hat sich an sehr unterschiedliche Lichtverhältnisse anzupassen, täuscht man sich leicht über die Helligkeitsverhältnisse in der Umgebung:

Da wir bei Vollmond zwar nicht mehr farbig sehen können, aber durchaus noch gut Wege erkennen können kommt unser Auge mit Extremen der Beleuchtungsstärke um den Faktor 400.000 zurecht. So gut ist kein Sensor, auch kein kommerzieller für fünfstellige Beträge (das scheitert schon an der Quantifizierung die mit maximal 12 bis 14 Bit erfolgt also 4096 oder 16384 Stufen)

So ist aber auch einiges verständlich: viele Kameras mit kleinen Sensoren und vielen Megapixeln machen draußen bei Sonnenschein tolle Aufnahmen. In einem Innenraum wo es meist wenige Hundert Lux hell ist, dagegen sind sie verrauscht. Das Problem ist nicht neu: Rauschen gibt es schon bei fotografischem Film. Bei CCD und CMOS Sensoren ist es aber lästiger, denn diese haben eine Bayes-.Maske über dem Chip. Aus je 4 Pixeln gewinnt man die Farbinformationen. Zwei sind grün (weil das Farbempfinden des Auges maximal im grünen Spektralbereich ist) und je einem roten und blauen Pixel wird die Farbinformation gewonnen. Ist nun einer durch Rauschen heller als die anderen so entsteht ein Farbrauschen aus blauen, roten, gelben Pixeln die in einem sonst andersfarbigen Hintergrund stark auffallen.

Als Kriterium für die Qualität tauglich ist daher eher die Pixelgröße.

Astronomische CCD haben eine Pixelgröße von 6 - 14 µm Kantenlänge pro Pixel. Die New Horizons Kamera LORRI die gerade die Aufnahmen bei Pluto machte, hat 13 µm Kantenlänge pro Pixel. Trotzdem braucht man 1/6 bis 1/10 s Belichtungszeit bei einem so lichtschwachen Objekt wie Pluto Nur zum Vergleich: Bei Jupiter reichte 1/300 s. Das bedeutet die Kamera ist bei Jupiter in etwa genauso empfindlich wie eine normale Kamera auf der Erde (und das bei 27-mal weniger Licht). In diese Pixelgröße kommen auch Vollformatkameras. Eine Vollformatkamera mit 33 MPixeln hat z.B. Pixel mit 6 µm Kantenlänge. Das "Best with 6 MPixel" Kriterium bezieht sich auf einen 2/3 Zoll Chip, das entspricht 3,1 µm Kantenlänge. Das ist deutlich unter den astronomischen Kameras, aber man will die Kamera ja auch bei Tage einsetzen.

Das andere Extrem sind die Kameras in Smartphones. Hier kommt zum Pixelwahn (man will sich ja von Konkurrenzprodukten absetzen) noch die Problematik, dass man in dem kleinen Gehäuse wenig Platz für den Sensor hat. Bei dem IPhone 6s sind es nach Apples Angaben nur noch 1,5 µm große Pixels. Vergleichen mit einem 6 µm großen Pixel ist das eine 16-mal kleinere Fläche. Anders ausgedrückt: ein Foto gemacht mit einem Iphone und 1/100 s Belichtungszeit müsste genauso verrauscht wie eines in einer Spiegelreflexkamera mit APS-C Format und 12 MPixeln bei 1/1600 s.

So ist klar, dass nicht nur die Pixelzahl alleine sondern auch die Sensorgröße eine Rolle spielt. Traditionell wird die in der Diagonalen angegeben wobei man diese als Bruchteile eines Zolls angibt. Historisch betrachtet ist ein Zoll aber nicht 25,4 mm sondern nur 16 mm, da man den Außendurchmesser der alten Vidiconröhren als Maßstab nahm. der nutzbare Innendurchmesser war aber mit 16 mm kleiner.

Bei den Digitalkameras konnte man von 2000 bis 2005 schon eine Reduktion der Bildgrößen von 1/1.6 auf 1/2.5 Zoll sehen (entsprechend 10 bzw. 6,4 mm Diagonale). Dabei ist es bis heute geblieben, man findet aber ab und kann auch noch kleinere Größen wie 1/3".  Smartphones haben noch kleinere Sensoren von 1/4 und 1/6. APS-C liegt bei 1,8 und Vollformat bei 2,65 Zoll. Im Extremfall hat eine Vollformatkamera die 120-Fache Chipfläche eines 1/6 Sensors in einem Smarttphone

Sie hat in der Regel aber nicht 120-mal mehr Pixel. Nun gilt es abzuwägen - wie viele Pixel brauche ich? Neben der Art wie man das Foto verwendet (für Vergrößerungen braucht man naturgemäß mehr Pixel, macht man nur Außen Schnappschüsse vom Urlaub so genügt auch eine lichtschwache Kamera mit kleinen Pixelgrößen) spielt auch die Optik eine Rolle. Je kleiner die Pixelfläche ist desto höherwertiger muss diese sein. So gesehen sollte ein Hersteller eigentlich mehr Interesse an größeren Chips haben. Aber dem ist nicht so. Denn je kleiner der Chip ist, desto kleiner auch die Optik für eine bestimmte Blende. Verwendet man eine etwas größere Optik so kann man leicht Superzooms realisieren, heute sind Faktoren bis 30-fach möglich, das ist eigentlich die Vergrößerung eines kleinen Fernglases und bei einer Kamera ohne Stativ nicht praktikabel (das Muskelzittern sorgt dafür dass man keine Fotos mit 30-fachem Zoom schießen kann, ohne das sie verschwommen sind oder man das Motiv nicht unbedingt in der Mitte hat).

Die kleine Chipgröße hat auch eine folge: Je kleiner diese ist desto größer der Bereich der scharf abgebildet wird. Das ist nicht unbedingt von Vorteil, denn die geschickt eingesetzte Unscharfe erlaubt es Dinge hervorzuheben - Eine Person vor einem unscharfen Hintergrund oder eine Landschaft hinter unscharfen Zweigen.

Natürlich haben die Hersteller die Probleme erkannt. Anfangs konnte man noch etwas physikalisch herausholen. Bei den Chips laufen zwischen den Pixel Leiterbahnen. Man ging zu anderen Formen über wie hexagonale Pixel bei denen der Leiterbahnenanteil über und später setzte man ein Linsenarray auf den Chip, dieses lenkt das Licht von den Leiterbahnen auf den lichtempfindlichen Teil. Damit konnte man mit 8 MPixeln Chips das gleiche erreichen wie mit 6 MPixeln. Doch heute hat man 12, 16 oder 20 Mpixeln. Das geht mit solchen Tricks nicht mehr. Seitdem regiert die Software. Die Elektronik schärft zum einen nach, zum anderen wendet sie auch Weichzeichner an. Nachschaffen muss man weil mit kleineren Chipflächen weniger Kontraste hat, ein hell belichtetes Pixel unterscheidet sich nur noch wenig von einem nicht so stark belichteten Pixel. Aus dem gleichen Grund muss das Signal verstärkt werden, damit aber auch das Rauschen und um die Bildfehler zu reduzieren wird weichgezeichnet. Beides zusammen bewirkt dass Flächen mit wenig Struktur mehr oder weniger homogen glattgebügelt werden und umgedreht bei den starken Kontrasten sind diese Überschrift oder es kann zu Artefakten kommen. Trotzdem haben die Kameras durch die Verstärkung und Bildfilter kaum Reserven für sehr helle oder sehr dunkle Bereiche.

Zurück zu meinem Wunsch nach der 3 Mpixel Kamera. Das ist noch etwas kleiner als die 6 MP die als Optimum von der Webseite angegeben wurden, allerdings haben die Kameras die ich bisher hatte, einen 1/2.3 bis 1/2.5 Zoll Sensor und die Webseite geht von 1/1.6 aus. Berücksichtigt man das, so sind 3 MP in etwa die gleiche Pixeldichte. 3 MP reichen für normale Abzüge und auch leichte Vergrößerung bis Din A5 aus und das ist das was ich mache. Sie sind auch noch am Monitor darstellbar, auch wenn es nun 4K Monitore mit 8 MPixeln gibt. Wofür soll ich Bilder mit mehr Pixeln generieren wenn das mir nichts nutzt? Ich gehe jetzt für Aufnahmen die ich per Mail verschicke oder in die Webseite einbette in der Auflösung runter.

Schön wäre es wenn die Kameras einen Modus anbieten würden, in dem sie die Pixel zusammenfassen (binnen) und so zumindest teilweise die geringere Pixelgröße kompensieren, doch die Modi mit weniger Pixeln sind meist Softwaremodi in denen das Bild heruntergerechnet wird. Nutzbar wäre auch ein besserer Digitalzoom, indem man z.B. von einem 12 MPixel Bild die inneren 3 MPixel nimmt - da entspricht einem Zoom um den Faktor 4. Allerdings scheint das Binnen von Pixeln anders als in astronomischen CCD nicht zu funktionieren. In einem Test der Ct' ergab sich bei diesem als "PureView!" bei einem Hersteller implementierten Verfahren keine bessere Bildqualität. Stattdessen monierte der Redakteur die "unzeitgemäße" 5 MPixel Auflösung der 18,7 MPixel Kamera nach dem Binnen. Wahrscheinlich wurde nicht auf Chipebene von dessen Elektronik gebinnt sondern von der Software heruntergerechnet, da hat man aber schon verrauschte Pixel zusammengefasst.

Überhaupt scheinen Zeitschriften nicht so genau zu wissen was sie wollen. Da jammert man im einem Artikel über die Algorithmen die zu viel nachschärfen und empfiehlt im nächsten dann Raw-Image Anwendungen für Android Smartphones um dem zu Begegnen: das dies eine Folge des Pixelwahns ist und man keine Raw-Verarbeitung bräuchte wenn dieser nicht vorliegen würde scheint den Redakteuren zu entgehen. Ebenso wird in einem Artikel ein 5 Jahre alter  gebrauchter Rechner als ausreichend für Office & Co beworben und in einem anderen die neuesten Broadwell-Prozessoren als leistungsschwächer als die in einem Telefon verbauten bemängelt. Überhaupt scheinen in Computerzeitschriften Supermenschen zu arbeiten: während normale Menschen alle Bewegungen mit mehr als 16 Bildern pro Sekunde als fließende Bewegung wahrnehmen, brauchen die Redakteure dort neue "FreeSync" Monitore damit sie nicht bei 40 oder 50 fps ihr Spiel verlieren. Schön wenn man die Schuld auf jemand anderen schieben kann. Manchmal wünsche ich mir die Redakteure würden einen einfachen Schulversuch wiederholen, denn wir mal machten. Da bekam man einen Piecks in eine Hand und musste mit der anderen dann auf einen Schalter betätigen. Damit bestimmte man die Reaktionszeit, respektive die Nervenleitgeschwindigkeit. Man wird rasch feststellen, dass man nicht schneller als 1/10 s ist, die meisten langsamer. Dann macht aber 1/40 oder 1/60 s mehr nicht mehr vielm aus.

Na ja besser aussehen werden die Bilder aus Freesync Monitoren schon. Das erklärt sich aus der Tatsache dass nun Billdaufbau und Frameraten synchronisieret sind, also nicht der Monitor einen Teil eines Frames anzeigt und dann von der Grafikkarte einen neuen bekommt sodass ein Teil des Bildes alt und ein Teil neu ist - eventuell mit einem Sprung in der Mitte. Das dies bei einem Windrad als Demo besonders auffällt ist auch klar. Nur ob dies auch die Reaktionszeit verbessert, da habe ich doch meine Zweifel.

Zurück zu den 3MPixel Kameras. Für das Problem gibt es eine Reihe von Lösungen. Das eine sind größere Sensoren. In den letzten Jahren hat sich zwischen den Kompakt Kameras für wenig Geld und Spiegelreflex neue Typen eingebürgert wie Bridge- oder System Kameras die in den Eigenschaften zwischen beiden Klassen liegen. dort findet man auch größere Sensoren wie 1 Zoll oder 4/3 Zoll Format. Ein 1 Zoll Sensor mit 13,5 MPixeln erfüllt auch das Kriterium von 6MPixel.org (dort bezogen auf 1/1.6 Zoll) genauso wie ein 4/3 Zoll Sensor mit 24 MPixeln. Leider sind diese Kameras auch preislich in der gehobenen Klasse, einige sogar teurer als Spiegelreflexkameras der Mittelklasse.

Das zweite ist, das die Hersteller mal eine Kamera mit 3  - 5 MPixel Sensoren im normalen 1/2.3 oder 1/2.5 Zoll Format anbieten. Jeder Hersteller hat inzwischen Zig Modelle im Programm und ich denke sie werden feststellen das diese auch Käufer finden. Denn auch jenseits des Pixelwahns gibt es für den einen oder anderen Gründe weniger Pixel zu haben: Wenn man die mehr Pixel nicht nutzt (sprich der Ausdruck oder Monitor sie gar nicht alle darstellen kann) dann belegen sie nur Speicher auf der SD-Karte und dem Backupmedium und das Übertragen dauert länger. Manchmal ist weniger mehr. So gibt es ja auch Handys ohne jeden Schnick-Schnack zu kaufen mit denen man nur Telefonieren und SMS Schreiben kann. Es gibt Leute die wollen das. Weil jedes mehr die allgemeine Bedienung verkompliziert. Zum anderen reicht auch ein Blick auf die Spiegelreflexkameras: Dort gibt es den Pixelwahn nicht. Seit Jahren bleiben die maximalen Pixelzahlen weitgehend gleich, weil dort gute Bilder mehr zählen. Will man in diesem Segment mehr Pixel haben, so muss man einen Sensor im Vollformat anstatt APS-C einsetzen, der mehr Fläche hat. Dort scheint also die Kundschaft Qualität zu honorieren: warum nicht auch bei billigeren Kameras?

 
Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99