Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 615: 1.4.2021 - 9.4.2021

1.4.2021: Die Märznachlese von SpaceX

Ja so viel gibt es nicht zu schreiben. Die Starts für Starlink nehmen an Fahrt auf, in einem Monat vier Stück am 4, 11, 21 und 24 März 2021, aber das verwundert ja nicht bei einer Firma die „den Wettbewerb dominiert“ - wenn der Wettbewerb nur aus ihr selbst besteht, braucht man natürlich auch keine Kunden und hat so genügend Ressourcen das eigene Netz schneller fertigzustellen. Bei der Einstufung des „Wertes“ von SpaceX hat das Netz den höchsten Anteil, das derzeitige und zukünftige Launchgeschäft (mit Starship/Superheavy) macht nur einen kleinen Bruchteil aus. Auch nach Musks eigenen Ankündigungen steckt darin das meiste Geld und sollte das ein Flop werden, dann war es das mit der Firma. Sie sind nun mit über 1.300 Satelliten nahe an der Grenze, wo das Netz in Betrieb gehen kann, das sollen 1.384 Satelliten sein. Schon seit Monaten können Betatester sich bewerben. Dann wird sich sehr bald zeigen, ob es genügend Kunden für den Service gibt. Inzwischen können US-Bürger sich schon mal für Starlink registrieren.

Dann haben sie wieder mal einen Prototypen hochgejagt, ich erspare mir weitere Kommentare, da bei SpaceX Fans es sowieso egal ist, wie viele Explosionen es sind. Die glauben tatsächlich, dass man heute, 80 Jahre nach dem ersten Start einer A-4, als man nichts über Raketen wusste und in Peenemünde fast alles erst mit viel Versuch und Irrtum entwickeln musste, was heute eingesetzt wird, man immer noch alles ausprobieren muss. Klar, in den USA kann man nicht Raumfahrttechnik oder „Rocket Science“ studieren. Es gibt auch keine Computer, in denen man alles simulieren könnte, oder für Tests Windkanäle und Prüfstände. Und natürlich findet man in den ganzen USA keinen, der jemals an einer Rakete gearbeitet hat. Da kommen solche Fehlschläge vor, anders als bei den Raketenbauern in Peenemünde bei der schon die dritte A-4 ein voller Erfolg war. Sarkasmus beiseite, warum SpaceX allerdings, nachdem man weniger Probleme bei der Falcon 9 Erprobung hatte (wir erinnern uns auch hier wurde die Landung mit der Grashopper erprobt) und die Landung der Falcon 9 meistens klappt (diesen Monat ging wieder eine Stufe durch Triebwerksausfall durch Materialermüdung bei der Landung verloren) nun so scheitert gibt mir ein Rätsel auf. Ich vermute, alle die qualifiziert sind und bei der Falcon 9 das Konzept erarbeitet haben, haben die Firma inzwischen wieder verlassen, dürfen sie bei Musk zwar viel arbeiten, werden aber soweit man weiß nicht besonders geschätzt und mit einer ominösen Vision von Marskolonisierung, für die die Firma bisher nichts unternommen hat, kann man die Leute auch nicht ewig bei der Stange halten.

Unbill droht inzwischen durch die Politik. Nachdem SpaceX beim ersten Test in gro0ßen Höhen nicht eine Freigabe der FAA (nötig wegen des Risikos für die Bevölkerung und Sperrung des Luftraums) gewartet hat, muss ein FASA Inspektor bei jedem Test vor Ort sein. Das verzögerte diesen schon um einen Tag. Inzwischen findet auch die Politik, das sich die FAA nicht von SpaceX auf der Nase herumtanzen lassen soll.

Was Musk beunruhigen wird, ist aber ein Bericht des Geheimdienstes. Demnach soll Starlink in das Visier von Nordkoreas Regime gerückt sein. Dort soll man an Plänen arbeiten, das Netz zu stören oder besser zu zerstören. Nordkorea ist in vielerlei Hinsicht einzigartig. Es begann mal als kommunistisches Land, ist jetzt aber eine Erbdiktatur, inzwischen ist der Enkel des ersten Führers Kim Il Sung am Ruder. Die Führung schottet ihr Volk von der Außenwelt ab und pflegt ein Bild, in dem die USA der Feind an sich sind. Das wird schon Kindern eingetrichtert und das erstreckt sich nicht nur auf die USA, sondern alle, die irgendwie mit den USA verbündet sind oder gute Beziehungen haben. Das Regime hält sich durch mehrere Maßnahmen an der Macht. Zum einen durch ein enorm großes Militär. Die nordkoreanische Volksarmee hat 1,3 Millionen aktive Soldaten und ist mit Reservisten 4,7 Millionen groß. Dabei hat Nordkorea nur 25 Millionen Einwohner. Übertragen auf die BRD entspräche das rund 4 Millionen aktiven Soldaten. Entsprechend gibt Nordkorea auch mehr als 25 Prozent seines Bruttosozialprodukts für das Militär aus. Bei uns hat die Politik das 2,0 % Ziel ausgegeben und davon sind wir noch weit entfernt. Dann gibt es das in Diktaturen probate Mittel des Konzentrationslagers, wobei man in Nordkorea eine neue Variante „erfunden“ hat: die Sippenhaft. Wenn jemand verdächtig ist, wird seine ganze Familie inhaftiert. Ein probates Mittel für die Kontrolle innerhalb der Familie, dorthin kommen Spione und Blockwarts ja selten.

Vor allem funktioniert das Regime wie jede Diktatur durch Propaganda oder besser Informationsverhinderung. In Nordkorea erfahren die Leute nur die offizielle Meinung der Partei oder Regierung. Früher konnten dort gebaute Fernseher nur die Frequenzen der Regierungssender empfangen. Seit die beiden Nachbarstaaten Südkorea und China aber ihr Fernsehen auf digitales Format umgestellt haben, ist das nicht mal mehr nötig, denn die analogen Röhrenfernseher können mit dem DVB-Signal nichts anfangen. Internet gibt es nur für wenige privilegierte auf Linie befindliche Parteigenossen. Reisen dürfen auch die wenigsten, auch wenn es an der Grenze zu China eine Wirtschaftszone gibt, bei der Nordkoreaner nach China als Fremdarbeiter tagsüber dürfen. Damit sie auch wiederkommen, erwartet ihre Familie beim Wegbleiben ein Aufenthalt im Lager.

Wir können uns nicht vorstellen, wie es ist, wenn man von der Geburt bis zum Tod - die meisten Nordkoreaner wurden ja geboren nach dem zweiten Weltkrieg, als Kim Il Sung sein Regime etablierte, nur eine, offizielle Meinung hört. Ein nicht ganz korrekter, aber in die Richtung gehender Vergleich sind die Blasen die Verschwörungstheoretiker um sich bauen. Nur ist diese Abschottung dort freiwillig. Man sucht also nur nach Nachrichten, die einem in den Kram passen und ignoriert andere. Genauso werden dort andere Meinungen als „feindlich“ oder Bestandteil der Verschwörung angesehen. Als im Web aktive Person habe ich da schon etliche Emails bekommen wo man sieht, dass es den Schreibern nicht um die Wahrheit geht. Um wie viel schlimmer muss der Einfluss sein, wenn man nicht mal die Möglichkeit hat, eine andere Meinung zu hören und alle von der Kindergärtnerin, über Lehrer, Vorgesetzte im Militär und Betrieb dieselbe Ansicht wiedergeben. Es gab ja nach Ende des Dritten Reiches und der DDR noch Leute die Jahrzehnte später meinten dort wäre es viel besser gewesen. Dabei gab es in beiden Systemen viel mehr Möglichkeiten auch an eine andere Meinung zu kommen.

Was hat das nun mit Starlink zu tun? Nun Internet und damit natürlich der freie Zugang zu Informationen, ist in Nordkorea reglementiert. Ausländische Besucher müssen ihre Emails sogar vor dem Verschicken „prüfen“ lassen. Wie bei China kann die Regierung den Zugang relativ einfach über die Knoten die ins Ausland führen kontrollieren und Server mit missliebigen Informationen einfach blockieren. Entsprechend hilflos versuchen südkoreanische Aktivisten auch Nordkorea zu infiltrieren, indem sie USB-Sticks ins Land schmuggeln oder an Ballonen Flugzettel über die Grenze treiben lassen.

Das Abschotten von der Außenwelt geht mit Starlink nicht. Zwar gibt es schon Internet per Satellit. Doch das sind geostationäre Satelliten. Damit diese Daten über die Entfernung von rund 40.000 km empfangen können und umgekehrt man auf auch Daten senden kann braucht man eine 60 bis 90 cm große Parabolrichtantenne, wie die meisten sie vom Satellitenfernsehen kennen. Sie muss genau auf den Satelliten ausgerichtet sein, sondern hat man keinen Empfang. Damit ist ein Internetempfang aber für jeden sichtbar. Die Antenne fällt auf, die benutzten Frequenzbänder können Mauern nicht passieren, die Antennen müssen also im Freien platziert werden – jeder kennt ja den Schüsselwald in unseren Wohngebieten. Kurz, die Technik hat verhindert, dass man so Internet in Nordkorea nutzen konnte, sofern man nicht sich mit seiner Familie in einem Lager wiederfinden wollte.

Bei Starlink ist das anders. Es kommt mit elektronisch geschwenkten Antennen aus, die nicht in einem Außenbereich sein müssen. Musk will Terminals auch an Flugzeuglinien verkaufen, wo sie natürlich in den Druckkabinen der Flugzeuge angebracht werden. Damit könnte man eine Antenne verstecken und da sie elektronisch geschwenkt wird benötigt sie auch keine feste Ausrichtung und einen festen Standort, sondern könnte „wenn die Luft rein ist“ einfach aufgebaut werden. Ansonsten kann man sie verstrecken und braucht nur noch ein Notebook, ja könnte damit sogar jenseits jeder Ortschaft und jeder Überwachung ins Internet – zumindest so lange wie der Akku hält. Dem Regime dürfte klar sein, welche Folgen das hat. Was Nordkorea in jedem Falle verhindern will, ist das es ihr so geht wie der DDR. Nach Ansicht der Kims hat den Niedergang der DDR mitverursacht, dass die meisten Einwohner Westfernsehen sehen konnten und damit mitbekamen, wie es woanders aussieht. Weniger die politischen Botschaften der BRD waren relevant, sondern einfach was man über den Alltag sah. Was dort normal war bei Einrichtung, Autos, Konsumelektronik und was es in der DDR eben nicht gab. Bei Nordkorea ist dies noch extremer. Das Land pflegt einen Lebensstandard der Jahrzehnte hinter dem Südkoreas liegt. Autos sind selten und „private“ PKW gibt es gar nicht. Die meisten Personen arbeiten in der Landwirtschaft und dort auch noch meist von Hand, ohne Traktoren und Maschinen. Das Niveau der Elektronik für die Bevölkerung liegt bei dem, was bei uns vor Einführung der ersten Computer normal war. Wie groß muss der Kulturschock sein, wenn Nordkoreaner dann sehen, was in Südkorea heute normal ist. Südkorea ist wegen der gleichen Sprache die größte Bedrohung und nicht etwa westliche Medien, schlussendlich können die meisten Nordkoreaner keine einzige Fremdsprache. Niemand weis dies besser als Kim Yong-Un selbst, denn er war mehrere Jahre auf einem Schweizer Internat und kennt so den „Westen“ aus eigener Erfahrung.

Gemäß den Geheimdienstinformationen betrachtet die Führung Starlink als einen Versuch der Trump-Regierung (ob sich mit Biden da was ändert, ist nicht bekannt), die Führung von innen heraus zu schwächen oder gar zu stürzen, so wie dies im arabischen Frühling passierte. Ein Szenario, von dem man verständlicherweise Angst hat. Trump wurde dies zugetraut nachdem die Abrüstungsgespräche vor einigen Jahren geplatzt waren. Nordkorea scheint die Trennung zwischen dem Staat und einem von einer Firma aufgebauten Netz nicht geläufig zu sein. Das merkte schon zu Schröders Zeiten die deutsche Regierung, als Nordkoreaner als „Zeichen der Freundschaft“ ein von Thyssen stillgelegtes Stahlwerk von der deutschen Regierung geschenkt haben wollten. Das allerdings die US-Regierung die beiden neuen Netze OneWeb und Starlink unterstützt, zuletzt durch eine Anfrage an die beiden Unternehmen mit der Absicht Datenvolumen zu erwerben, macht die Sache nicht besser.

Untersuchungen ergaben, das Nordkorea nicht viel braucht, um das gesamte Netz zu zerstören. Ein Starlinksatellit muss nicht durch ein Killervehikel wie eine Rakete, die vom Erdboden aus gestartet wird, getroffen werden. Es reicht aus einen Satelliten in eine ähnliche Bahn zu befördern und dort zu sprengen, eine Fähigkeit, die Nordkorea hat, sie haben schon Satelliten selbst gestartet. Schneller würde es gehen wenn sie den Satelliten vor der Sprengung nahe eines Starlinksatelliten manövrieren. Optimieren kann man dies durch Schrapnells oder eine Seite die verstärkt ist, sodass die Trümmer bevorzugt in eine Richtung fliegen. Doch auch ohne diese Maßnahmen ist der Erfolg sicher. Simulationen zeigen, was passiert, wenn ein Satellit in einem Orbit des Starlinknetzes explodiert, z.B. durch eine eingebaute und per Funk ausgelöste Sprengladung. Ein Teil der Trümmer wird abgebremst und verglüht bald, der Rest erreicht eine elliptische Bahn mit einem hohen Apogäum. Die meisten Trümmer verbleiben nahe der ursprünglichen Bahnneigung, bei Starlink 53 Grad. Die Trümmer auf der elliptischen Bahn haben eine längere Umlaufdauer asls die Satrlink-Satelliten, sie kreuzen so die Bahn anderer Starlinksatelliten nach einigen Stunden oder Tagen, führen dort zu weiteren zerstörten Satelliten, die dann einen Lawineneffekt auslösen, das berühmt-berüchtigte Kesslersyndrom.

Für jede Bahnhöhe gibt es eine Mindestzahl an Satelliten, ab der die Zerstörung exponentiell ansteigt und zur völligen Unnutzbarkeit erdnaher Orbits führt – nicht nur der Starlinksatelliten, sondern der Zerstörung aller erdnahen Satelliten. Das wäre das Ende der Raumfahrt für lange Zeit, doch da Nordkorea bisher nur drei Satelliten gestartet hat, dürfte dies für das Land kein Problem sein. Starlink hat schon lange die Mindestzahl an Satelliten für dieses Szenario überschritten. OneWeb wird die Zahl bei der ersten Ausbaustufe nicht erreichen – die Satelliten haben einen doppelt so hohen Orbit und es sind selbst im Endausbau nur die Hälfte der Satelliten, die Starlink schon jetzt im Orbit hat. Allerdings plant Oneweb eine zweite Ausbaustufe, mit der auch dieses Netz diese Anfälligkeit erreicht.

Wenns dazu kommt ist SpaceX als Firma Geschichte – die Raumfahrt, zumindest im erdnahen Raum aber dann auch.

1.4.2021: Kiffen schützt vor Corona

So, kurz zusammengefasst könnte man Ergebnisse der medizinischen Forschung im letzten Jahr wiedergeben. Doch da ich immer etwas tiefer bohre hier die ganze Geschichte inklusive der vielen offenen Fragen.

Als die Pandemie losging, installierte die John Hopkins Universität (JHU) ihr Covid-19 Dashboard, dessen Daten über Fallzahlen weltweit auch bei uns in den Medien lange zeit verbreitet wurden, weil das bundeseigene Robert Koch Institut lange brauchte, um etwas ähnliches nationales auf die Beine zu stellen. JHU hatte von der amerikanischen Gesundheitsbehörde FDA die Aufgabe bekommen, die Daten über Infektionen und Todesfälle zu sammeln und auszuwerten. Primär um das Risiko bestimmter Bevölkerungsgruppen bestimmen zu können. In den USA ist das weitestgehend leichter als bei uns, im Prinzip kann die JHU auf alle Daten zurückgreifen, die den Krankenversicherungen vorliegen mit Ausnahme von persönlichen Daten. Wie z. B. Der Name. Aber Alter oder Wohnort in Form des ZIP-Codes, dem Pendant unserer Postleitzahl werden weitergegeben.

Perah Rhamabaking an der Fakultät Center for Systems Science and Engineering (CSSE) untersuchte im Rahmen seiner Masterarbeit, wie hoch das Risiko von Covid-19 SARS/2 bei Personen ist, die Drogen nehmen. Dazu wertete er die Daten statistisch aus. Wie nicht anders zu erwarten ist es bei Rauchern deutlich erhöht. Bei Alkohol ist das Risiko leicht erhöht. Bei den meisten anderen Drogen – zumindest dehnen die wir, als solche bezeichnen würden, denn in den USA zählt dazu auch der Missbrauch von Medikamenten, der bei uns kaum erfasst wird, waren aber die Fallzahlen zu klein für eine statistische Aussage. Was möglich war, war es die Fälle einfach zu zählen und eine Reihenfolge festzustellen. Rhamabaking konnte keine Aussage über das Risiko für die meisten Drogen machen, aber nach Alkohol eben die Häufigkeit des Auftretens benennen. Da fiel auf, dass Marihuanakonsum an sechster Stelle rangierte, bei der Gesamtbevölkerung liegt der Konsum aber an dritter Stelle nach Alkohol und Nikotinkonsum. Das Ergebnis wurde im August 2020 im National Journal of Drugs veröffentlicht.

Damit war Rhamabakings Arbeit abgeschlossen. Dr. Florence Schwartz las den Artikel und fand es interessant dem nachzugehen. Schwartz arbeitet an der University of Californa und untersucht wie Viren Lungengewebe infizieren und schädigen. Seit Januar 2020 gehören dazu auch Tests mit Covid-19 Viren in einem Sicherheitslabor. Da dort die einzelnen Proben sowieso von der Umgebung isoliert sind, war es relativ einfach möglich, eine entsprechende Versuchsreihe anzusetzen. Nachdem man bei einem Probanden den THC Gehalt in der Ausatemluft bestimmt hatte und damit wusste, wie viel man vom Marihuanadampf man der Umgebungsluft zumischen musste, begannen klinische Tests mit Zellkulturen. Drei Reihen gab es: In einer wurde der Luft nichts beigemischt als Referenz, in einer Zweiten wurde Marihuana auf 200 Grad erhitzt, wie dies beim Vaporizer der Fall ist und die Luft der Umgebungsluft zugefügt und in der dritten Reihe wurde Marihuana verbrannt. Schon in der ersten Messreihe zeigte sich ein deutlicher Rückgang der Infektionen bei beiden Reihen, die Marihuana enthielten. Die Luft aus dem Vaporizer war dabei etwas effektiver, da offensichtlich, so die bisherige Erklärung, bei der Verbrennung entstehende Giftstoffe die Zellen schädigen können. Im Folgenden wurde dann auch nur noch trocken erhitztes Marihuana für die Versuche verwendet.

Schwartz bekam eine eigene Arbeitsgruppe, die dem Thema nachging. Als nächsten Schritt analysierten sie die Zusammensetzung des Gases. Das war bedeutend einfacher bei der Luft aus dem Vaprozier, da hier die Verbrennungsprodukte fehlten, also konzentrierte man sich nur auf die dort gefundenen Stoffe. Die flüchtigen Stoffe von Hanfblüten, also dem, was als Marihuana im Handel ist – Haschisch sind die mit Fett extrahieren Stoffe aus den Blüten – bestehen vor allem aus Cannaboiden und Terpenen. Zu den Cannaboiden gehören der psychoaktive Wirkstoff Tetrahydrocannabinol (THC) und das kaum psychoaktive Cannabidiol (CBD), das derzeit „in“ ist. Dazu später noch mehr. Terpene sind eine Klasse von Stoffe, die aus Vielfache des Moleküls Isopren bestehen. Terpene sind im Pflanzenreich weit verbreitet und dienen unter anderem als Fraßschutzmuttel gegen Insekten und als Botenstoffe. Mit ihnen warnen Pflanzen ihre Umgebung vor einem Insektenbefall. Einige Pflanzen nutzen Terpene sogar um Fraßfeinde der Insekten anzulocken, die sie befallen. So locken einige Akazienarten Ameisen mit Terpenen an. Terpene werden wieder in Unterklassen unterteilt je nachdem, wie viele Isoprenmoleküle sie enthalten. Fündig wurde man bei der Klasse der Sesquiterpene. Dies sind Moleküle mit 15 Kohlenstoffatomen. Unter ihnen findet man zahlreiche Geruchsstoffe wie das Caryophyllen (Geruchsstoff im Nelkenöl) oder das Geosmin, das nach Erde riecht. In dieser Klasse und noch häufiger bei den Monoterpenen findet man die Stoffe, nach denen Marihuana so streng riecht. Für den Versuch wurde die Luft mit Druck durch eine Chromatografiesäule gepresst, dabei aufgetrennt und nach definierten Zeitabschnitten jeweils anderen Zwllkulturen zugeführt. Zeigte sich eine Verringerung der Infektionsrate, dann wurde die Fraktion weiter aufgetrennt. Aufgrund der Inkubationszeit von mehreren Tagen dauerte das ziemlich lange, doch Ende Dezember 2020 hatte man den Stoff identifiziert, auf dem die Verringerung der Infektionsrate beruhte, es war das 5-Methyl Cannaterpenol (5-MCT). Seitdem laufen Messreihen, in denen untersucht wird, wie es wirkt und welche Dosis präventiv wirksam ist. Beides ist nicht einfach. Es gibt jedoch in beiden Gebieten erste Theorien. 5-MCT lagert sich nach Analysen der Zellen bevorzugt in die Zellmembran ein. Das scheint nur möglich zu sein, wenn es aus der Unmgebungsluft stammt. Setzt man es der Nährlösung zu, so enthalten Zellen danach kaum 5-MCT und sind genauso leicht infizierbar wie in Vergleichsgruppen. Warum es aber eine Infektion verhindert, ist offen. Die gängige Theorie ist es, dass es die Öffnung von Kanälen behindert, mit denen die Zellen normalerweise größere Moleküle aufnehmen die zu groß sind, um die Zellmembran durch Diffusion zu passieren. Dazu gehört auch die Virus-DNA. Eine andere Theorie, die verfolgt wird, ist das 5-MCT die Oberflächenstruktur so verändert, das das Virus schlechter andocken kann. Da nach einer Publikation von Schwartz im Januar nun aber andere Arbeitsgruppen in den USA, England und den Niederlanden die Arbeit aufgenommen haben, hofft man auf baldige Fortschritte bei der Aufklärung des Mechanismus.

Mehr Aussagekraft gibt es bei dem Schutz. Hochgerechnet auf die gesamte Oberfläche der Lunge gab es einen Schutz, wenn mindestens 3 mg 5-MCT aufgenommen wurden. Die Schutzwirkung stieg an, um oberhalb von 10 mg konstant zu bleiben. Setzte man die Zellen dann normaler Luft aus, so waren sie je nach vorher eingesetzter Dosis noch 8 bis 15 Tage gegen die Viren geschützt.

Was problematisch ist, und darauf weisen die Forscher hin, ist dies in Konsumeinheiten umzurechnen. Zum einen ist der Gehalt von 5-MCT in Marihuana schwankend. Er liegt zwischen 1,5 und 4 % bei Proben, die in den USA gehandelt wurden. Hier wurden Labors in Ländern, in denen der Marihuanakonsum legal ist, um weitere Analysen gebeten. Anhand dessen kann man die Marihuanamenge errechnen, die diese Menge an 5-MCT enthält bei 3 mg Gehalt sind es 200 mg, bei 4 % nur 75 mg. Für die maximal wirksame Dosis von 10 mg sind es entsprechend 667 bzw. 250 mg. Diese liegen deutlich über üblichen Konsummengen. Da in den statistischen Zahlen der JHU sich aber der Effekt bei normalen Konsumenten zeigte, die dann auch normale Mengen konsumieren, geht man davon aus, dass der Stoffwechsel verlangsamt ist, wofür auch die Schutzwirkung über mehrere Tage spricht. Vereinfacht gesagt, reichern sich kleine Mengen die als Einzeldosis unwirksam sind, bei regelmäßigem Konsum in den Zellmembranen an. Übersteigt die Zufuhr durch regelmäßiges Rauchen von Cannabis die Abbaurate, so entsteht nach einiger Zeit Schutz, der bei weiterem regelmäßigem Konsum dauerhaft Bestand hat. Welche Menge und welche Frequenz dafür notwendig ist, wird derzeit erforscht.

Ebenso arbeiten zwei Arbeitsgruppen in den USA an Verfahren den Stoff aus Marihuana in Reinform zu extrahieren, bzw. ihn synthetisch herzustellen. Dann könnte er als Medikament eingesetzt werden, eine Zulassung vorausgesetzt. Er würde dann inhalativ aufgenommen vergleichbar Asthmasprays. Schon vorher könnte die Industrie auf den Zug aufspringen, denn 5-MCT ist nicht der erste Stoff der aus Cannabis gewonnen und vermarktet wird. Das geschieht seit einigen Monaten schon mit Cannabidiol. Cannabidol (CBD) ist ein Cannaboid, gehört also zu einer anderen Stoffklasse als 5-MCT, derselben wie das berühmtere THC. Anders als dieses ist es aber nicht psychoaktiv. Was CBD kann und was nicht, ist noch wenig erforscht, das ist die unmittelbare Folge dessen, dass Cannabis in den meisten Ländern als Rauschgift eingestuft wird und damit der Handel und natürlich auch die Forschung verboten bzw. eingeschränkt sind. Glaubt man den vielen Webseiten, die CBD verkaufen so ist es ein reiner Tausendsassa, wissenschaftlich abgesichert sind nur entkrampfende, entzündungshemmende, angstlösende und gegen Übelkeit gerichtete Wirkung. Für jede dieser Wirkungen gibt es aber auch andere Mittel, so wirkt auch Acetylsalicylsäure, also der Wirkstoff von Kopfschmerztabletten entzündungshemmend. Trotzdem wird heute CBD-Öl wie geschnitten Brot verkauft. Vielleicht weil es eben aus Cannabis stammt. Wir sehen hier den Effekt eines offenen Binnenmarkts, denn in Deutschland ist CBD als Stoff, der aus Cannabis stammt nach wie vor verboten. Die Stellungnahme des BVL (Bundesamt für Verbraucherschutz und Lebensmittelsicherheit) ist eindeutig:

„Dem BVL ist derzeit keine Fallgestaltung bekannt, wonach Cannabidiol (CBD) in Lebensmitteln, also auch in Nahrungsergänzungsmitteln, verkehrsfähig wäre.

Aus Sicht des BVL muss für CBD-haltige Erzeugnisse vor dem Inverkehrbringen entweder ein Antrag auf Zulassung eines Arzneimittels oder ein Antrag auf Zulassung eines neuartigen Lebensmittels gestellt werden. Im Rahmen dieser Verfahren ist die Sicherheit des Erzeugnisses vom Antragsteller zu belegen.“

Nur stammt das bei uns gehandelte CBD nicht aus der Bundesrepublik sondern aus Österreich, wo es seit Dezember 2018 legal ist, sofern der THC Gehalt unter 0,3 % liegt. Wenn man CBD-Öle im Internet bestellt merkt man oft nicht, das die Ware eigentlich aus Österreich kommt. Damit der THC Gehalt dieses niedrige Niveau erreicht, in Marihuana ist selbst in sogenannten CBD-reichen Sorten das THC immer noch häufiger als das CBD, müssen die Wirkstoffe getrennt und angereichert werden. Da ist es nur ein weiterer Prozessschritt, aus der Fraktion noch das MCT herauszulösen. Da 5-MCT anders als das Paar CBD / THC aber eine komplett andere chemische Struktur hat, dürfte dies kein großes Problem sein. Das Haupthindernis ist immer noch die Rechtslage. Die Zulassung von CBD in Österreich erfolgte nach einem Urteil des EuGH. Das gilt aber eben nur für CBD. Das einzige legale Schlupfloch in der BRD dürfte die generelle Zulassung von Hanfprodukten sein, sofern ihr THC-Gehalt so gering ist, das sie garantiert nicht berauschend sind. Ein Hersteller könnte dann auf den MCT Gehalt hinweisen, dürfte das MCT aber selbst nicht aktiv bewerben also ihm Wirkungen zuschreiben, denn dann wäre es schon kein Nahrungsmittel mehr sondern ein Arzneimittel oder zumindest ein Nahrungsergänzungsmittel. Beides erfordert nach deutschem Recht eine Zulassung mit Wirkungsnachweis. Man wird , sofern MCT wirklich wirksam ist, dann wohl Produkte für Vaporizer sein. Also so was wie Aromaöle mit einem „Zusatz“. So was gibt es schon für CBD. Man bewirbt bei soclhen Produkten nicht das CBD und vertraut darauf, dass der Verbraucher weis, was sich hinter diesen drei Buchstaben verbirgt.

So lange bleibt für die Vorbeugung wohl nur eines: Regelmäßiger Marihuanakonsum entweder geraucht oder für Nichtraucher mit einem Vaporizer verdampft. Ich habe gute Erfahrungen mit dem V-Tower von Arizer gemacht, den ich seit 7 Jahren einsetze. Er eignet sich natürlich auch für die Aromatherapie oder um die Atemwege bei Erkältungen frei zu bekommen, indem man Eukalyptus-, Minz- oder Kamillenaroma verdampft.

3.4.2021: Die Zahl für heute: 4500

Ich habe in der ct einen Beitrag über Kryptographie und deren Sicherheit gelesen. Dabei ging es auch um die Möglichkeit der Entschlüsselung. Das RSA-Verfahren basiert auf Primzahlen. Es werden bei der Verschlüsselung zwei Primzahlen miteinander multipliziert. Das Entschlüsseln ist deswegen so schwer, weil man aus dem Produkt nur durch Ausprobieren herausfinden kann, welche Primzahlen verwendet wurden. Dazu kommt der einfache Umstand, dass dabei etliche Primzahlen, die recht groß sind – und bei heutigen Rechnern nur mit speziellen Bibliotheken berechnet werden können, da sie viel größer als die normalen Zahlen mit 64 Bit Breite sind. Das reduziert auch die Geschwindigkeit.

Im Artikel kam ein Kasten aus der Originalpublikation von 1970, wo eine Tabelle mit den zu erwartenden Entschlüsselungszeiten abhängig von der Codelänge und der dazu benötigten Operationen mittels „Brute Force“, also einfaches Durchprobieren drinstand. Bei RSA-100 Code mit 100 Dezimalstellen (330 binäre Stellen) langen Primzahlen benötigt nach der Tabelle 74 Tage zum Entschlüsseln, was angesichts der 2,3 x 1015 Operationen auf 1 Million Operationen pro Sekunde schließen lässt. Später im Beitrag wurde gesagt, dass ein heutiger PC (Ryzen 2400G) dafür 6 Tage braucht, wenn er nicht Brute Froce nutz,t sondern eine spezielle Technik sogar „nur“ 3 Stunden.

Immerhin: 6 Tage zu 74 Jahre, das ist eine Geschwindigkeitssteigerung um den Faktor 4500. Klingt erst mal toll, relativiert sich aber, wenn man weiß, dass seitdem 50 Jahre vergangen sind.

Gordon Moore hat das nach ihm benannte „Moore‘sche Gesetz“ in den Sechzigern erstmals publiziert, dann aber noch mal korrigiert, weil die ursprüngliche Frist der Verdopplung zu kurz gewählt, war, anfangs 12 Monate, dann korrigiert auf 18. Das war noch optimistisch in der Intel Serie und den Speicherchips war der Verdopplungszeitraum über Jahrzehnte 24 bis 26 Monate. Nach dem Mooreschen Gesetz verdoppelt sich alle 12, 18 oder 24 Monate, je nach Gusto, die Zahl der Elemente auf einem Halbleiter. Daran gekoppelt ist dann auch ein Anwachsen der Leistung des Computers, typisch der Geschwindigkeit und des verfügbaren Speichers. Das ging auch lange Zeit in demselben Maße hoch. Es ist, da der Ausdruck ja inzwischen durch Corona allgemein bekannt ist ein Exponentielles Wachstum.

Der Faktor 4500 entspricht, wenn man ihn auf Zweierpotenzen umrechnet, etwas mehr als 12 Verdopplungszyklen (212 = 4096, 213 = 8192). Das liegt weit unter dem Moorschen Gesetz, und dies selbst bei 24 Monaten für eine Verdopplung 25 Verdopplungszyklen oder den Faktor 32 Millionen nahe legt. Also schaue ich mal genauer nach. Anders als die Geschwindigkeit eines Computers ist die Zahl der Transistoren genau angebbar. Wie viele es sind, hängt von der Größe eines „Die“, also der Chipgröße ab. Sie ist variabel und die Größe eines Die kann bei Serverprozessoren viel größer sein als bei Prozessoren für ein Smartphone. Wichtigster Wert für das Moorsche Gesetz ist aber die minimale Strukturbreite, die man bei der Fertigung umsetzen kann. Etwas nach der Vorhersage der Entschlüsselungszeiten für RSA kam Intels erster Prozessor heraus. Der Intel 4004 entstand in 10 Mikrometer Technologie und hatte 2.250 Transistoren. Die Taktfrequenz betrug MHz. Der aktuelle Ryzen 5950X wird in 7 Nanometer Technologie gefertigt


Intel 4004

Ryzen 5950X

Steigerung

Transistoren

2.250

19.200.000.000

8.533.333

Taktfrequenz

0,74

3.400 / 4.900

4594 / 6621

Technologie

10.000 Nanometer

7 Nanometer

1.428

Kerne

1

16

16

Der Vergleich ist wegen der technologischen Veränderungen natürlich schwierig. Heute haben Prozessoren mehrere Kerne und können für einzelne per Turboboost die Taktfrequenz erhöhen. So was beherrschte der Intel 4004 natürlich nicht. Am größten ist die Steigerung bei der Transistorenzahl, die in knapp 50 Jahren (Erscheinungsdatum des Intel 4004 war der 15.11.1971) um den Faktor 8,5 Millionen hochging, immerhin eine Verdopplung alle 25,5 Monate. Passt noch gut zum Moorschen Gesetz, das aber in den letzten Jahren deutlich abflachte.

Warum ist ein heutiger PC aber dann nur 4500-mal schneller? Gut man muss berücksichtigen, das der Test-PC etwas älter war, ein Ryzen 2400G mit nur vier Kernen, 14 nm Technologie und maximal 3,6/3,9 GHz. Aber es sollte trotzdem schneller als nur Faktor 4500 gehen.

Dieser Faktor passt auf den ersten Blick zur Steigerung der Taktfrequenz. Doch die sagt heute eigentlich nicht mehr viel über die Geschwindigkeit aus. Die Taktfrequenz stieg bis etwa 2003 rasant, bis Intel beim Pentium 4 eine Spitzentaktfrequenz von 3,82 GHZ erreichte, dann aber die Abwärme nicht mehr in den Griff bekam. Die Architektur auf der die heutigen icore Serie basiert, setzte als Folge auf eine geringere Taktfrequenz mit weniger Abwärme. Seitdem sind die Taktfrequenzen kaum gestiegen. Spitze sind heute um die 5 GHz, was in 17 Jahren nur eine geringe Zunahme ist – in den vorherigen 17 Jahren stieg sie von 16 auf 3830 MHz. Die 3830 MHz Normalfrequenz, also ohne Turboboost übertreffen selbst heute nur die wenigsten Prozessoren. Daneben sollte die Kernanzahl eine Rolle spielen. Der Brute Force Algorithmus ist ja nichts anderes als Ausprobieren und da kann jeder Kern separat Zahlen ausprobieren, man muss nur den Zahlenbereich in n Teile unterteilen. Aussagekräftiger als Maß der Leistungssteigerung ist dagegen die Verringerung der Strukturbreite. Halbiert man die Strukturbreite, so sollten viermal so viele Elemente auf ein Die passen. Beim Faktor 1428 also 1428² mehr. Mit der Steigerung der Elementezahl um den Faktor 8,5 Millionen ist hier sogar die Steigerung überproportional groß (erwartet: 2,04 Millionen). Das liegt an der größeren Die-Größe die sich auch im Preis niederschlägt, der obige Ryzen-Prozessor kostete bei Einführung im Handel 799 Dollar. Der Intel 4004 kostete 60 Dolalr als Einzelexemplar, in größeren Stückzahlen 20 bis 30 Dollar. Der Ryzen 5950 ist übrigens durch coronabedingte Verknappung mit derzeit 1317 Euro extrem teuer.

Ich vermute die geringe Steigerung der Dekodierungsleistung liegt an dem Algorithmus. Er basiert auf dem Rechnen mit wirklich großen Zahlen. Bei RSA-100 mit 330 binären Ziffern. Da nützen die Rechenwerke der heutigen Prozessoren, die zwar festverdrahtet und schnell rechnen, nichts, da muss man jede Stelle einzeln per Software berechnen, in etwa so, wie dies auch der Mensch tut. Dann geht die Zahl der Operationen aber in die Knie. Denn anstatt (wie bei 64 Bit Zahlen) so 20 Stellen in einem Rutsch zu berechnen, ist es nur eine. Man rutscht auf das Niveau zurück, das früher als Prozessoren ohne eingebaute Fließkommarecheneinheiten hatten. Ein Intel 8080 konnte 160.000 8 Bit Ganzzahloperation pro Sekunde ausführen, bei der Berechnung von 32 Bit Fließkommawerten sank er auf 700 Operationen pro Sekunde.

Die zweiet Einschränkung ist der Computer, der für die Abschätzung, wahrscheinlich nach einem Lauf mit einem kleinen RSA-Schlüssel eingesetzt wurde. Denn die ct‘ hat mit einem PC verglichen. Einen PC gab es 1970 noch nicht. Damals gab es Minicomputer und Großcomputer. Ich vermute das für die Abschätzung ein Großcomputer genutzt wurde. Denn 1 Million Operationen pro Sekunde war damals viel. Der damals schnellste Rechner weltweit, eine Cyber 6600 errichte maximal 10 Millionen Operationen pro Sekunde, typisch eher 3 bis 5. So gesehen müsste man heute auch nicht mit einem PC mit einem Prozessor vergleichen, sondern den heute schnellsten Rechnern und die haben Zehntausende bis Hunderttausende dieser Prozessoren und nutzen noch GPUs zusätzlich. Entsprechend schneller sind sie. Auch offen ist warauf sich die Operationenzahl bezieht – MIPS eines Computers – dann benötigt aber jede Rechenoperation aufgrund der Ladebefehle mehrere Operationen oder ob sich dies gar auch Operationen pro Primzahl bezieht. Ich denke es sind Nettorechenoperationen gemeint, keine MIPS, denn der obige Ryzen 2400G erreicht nach der Tabelle so 4,4 Mrd. Operationen pro Sekunde, was bei vier Kernen und 3,5 GHz Normalfrequenz 3 Takte pro Operation sind.

Auf der anderen Seite wird man schon damals spezielle Hardware konstruieren können, die nur der Entschlüsselung dient und gerade diese eine Problemstellung sehr schnell lösen kann. Heute nutzen Bitcoin-Miner, die im Prinzip nichts anderes als diese Rechnungen tun, dafür spezialisierte ASIC-Bausteine oder eben Grafikkarten die viel mehr Kerne haben. Diese sind zwar nicht sehr ausgeklügelt, aber sie müssen ja eigentlich nur Zahlen in Primzahlfaktoren zerlegen.

Kleiner Trost am Rande: Für RSA-200, also einen doppelt so langen Schlüssel (550 binäre Stellen) braucht man nicht doppelt so lange, sondern nach der Tabelle rund 50 Millionen mal länger. (1,2 x 1023 Operationen) Das dürfte selbst heute noch ausreichend sicher sein, selbst wenn man optimierte Verfahren zur Entschlüsselung nutzt und 100.000 Prozessoren mit GPU-Beschleunigern. Eine Verlängerung auf 300 Stellen erhöht die Entschlüsselungsdauer nochmals um den Faktor von etwa 1 Million.

7.4.2021: Die acht-acht

Ich will heute mal an ein Geschütz erinnern, das in seiner eigentlichen Rolle nicht so erfolgreich war wie in einer anderen. Es war eine Flugabwehrkanone. Im Zweiten Weltkrieg gab es zwei Arten von Flugabwehrkanonen. Die einen mit kleinem Kalber – in Deutschland 20 bis 40 mm wurden zum direkten Schutz eingesetzt um anfliegende Flugzeuge, z.B. auf Schiffen Torpedo- oder Sturzkampfbomber abzuschießen, an Land als Schutz gegen Tieffliegerangriffe durch Erdkampflugzeuge und Jagdbomber. Diese Geschütze hatten eine hohe Schussfolge von theoretisch bis über 800 Schuss/Minuten (in der Praxis durch das Nachladen eines Munitionsstreifens etwa halb so viel) und wurden auch oft in Gruppen als Zweierflak oder Vierlingsflak zusammengefasst. Zum Kriegsende wurden auch Flugabwehrpanzer entworfen, die jedoch in begrenzter Stückzahl zum Einsatz kamen.

Wie bei den Bordwaffen der Flugzeuge gab es den Trend zum größeren Kaliber. Das lag daran das die Flugzeuge im Laufe des Krieges gepanzert wurden, zumindest die wichtigen Teile wie Motor und Pilotenkanzel. So wurden auch bei Jagdflugzeugen die Bordwaffen immer größer. Hatten Jagdmaschinen anfangs nur normale Maschinengewehre im Kalber 7,62 mm, so gab es bald Bordkanonen mit dem Kalber 20 mm und zu Kriegsende auch 30 mm Kanonen. Gegen gepanzerte Erdkampfflugzeuge konnte man mit Maschinengewehren, die ja in ausreichender Zahl bei der Infanterie zur Verfügung standen wenig ausreichten.

Es gab aber auch eine zweite Sorte von Flugabwehrkanonen, zur Abwehr von in großer Höhe fliegenden Maschinen, meistens Bombern im Formationsflug. Diese hatten ein sehr großes Kaliber. Um eine dieser Kanonen geht es in diesem Blog, die Flak 18, meist nur als „acht-acht“ nach dem Kaliber 88 mm abgekürzt. Wer das Kaliber von gängigen Waffen der Zeit kennt, wundert sich: 88 mm zur Abwehr von Flugzeugen? In der Tat existierte die Flugabwehrkanone schon beim Ausbruch des Zweiten Weltkrieges, die Zahl „18“ gibt an, dass sie auf einen Entwurf zurückging, der noch im Ersten Weltkrieg entworfen wurde. Das ist allerdings nicht bei allen Waffen, die es vor und in der Anfangszeit des Dritten Reiches gab, so. Oft wurde „18“ als Tarnung genommen um eine nach dem Versailler Vertrag verbotene Waffenentwicklung zu verschleiern. Aber diesmal stimmte es, denn schon zu Ende des Ersten Weltkrieges flogen Flugzeuge immer höher und waren mit den existierenden Kanonen nicht mehr abfangbar. Das Problem war nicht, dass man das Kaliber benötigte um die Panzerung zu durchschlagen, sondern überhaupt die Flughöhe zu erreichen. Wie ich mal in einem Blog vorgerechnet habe fliegt eine 7,62-mm-Kugel, also die eines MG typisch etwa 2500 m hoch. Damit erreicht man nicht B17 Bomber, die eine typische Flughöhe von 7620 m hatten. Der Grund ist die Abbremsung durch den Luftwiderstand. Man benötigte das Kaliber, damit die Granate die Flughöhe eines Bombers erreichte und zwar noch mit einer gewissen Geschwindigkeit, denn die Maschinen flogen mit 400 bis 500 km/h. Damit man dies auch noch beim schrägen Schuss erreicht, schlussendlich tun einem die Bomber nicht den Gefallen genau über einem zu fliegen, musste die Gipfelhöhe deutlich über der Flughöhe der Bomber liegen. Die maximale Flughöhe einer Granate betrug bei der acht-acht 10.600 m. Die Gipfelhöhe sank auf die normale Flughöhe der US-Bomber, wenn der Winkel auf 60 Grad sank.

Doch bekannter wurde das Geschütz in einer anderen Rolle. Als der Zweite Weltkrieg begann, war die deutsche Panzerwaffe noch im Aufbau. Den Großteil machten die veralteten Panzer II mit einer 20-mm-Kanone aus, der Hauptpanzer war der Panzer III mit einer 37 mm Kanone und in kleinen Stückzahlen gab es den Panzer IV mit einer 75-mm-Kanone, aber einem kurzen Lauf und niedriger Mündungsgeschwindigkeit. Er war als Artillerieunterstützung gegen Infanterie oder ungepanzerte Ziele gedacht. Die deutsche Panzerwaffe setzte auf Beweglichkeit, weniger als auf Feuerkraft und Panzerung. Das verwundete auch die Sowjets, mit denen man noch zusammenarbeitete und die schon den T-34 mit wesentlich stärkerer Panzerung und 75 mm Kanone entwickelt hatten. Doch der Erfolg im Polenfeldzug gab der Auslegung der Panzerwaffe recht. Es kam zum Blitzkrieg. Die Panzer waren so beweglich und kamen schnell vorwärts. Allerdings hatte Polen auch keine modernen Panzer.

Anders war das im Frankreich-Feldzug. Frankreich hatte das genaue gegenteilige Konzept verfolgt. Ihre Panzer waren langsam, schwer gepanzert und hatten starke Geschütze. Auch ein britischer Panzer, die Mathilda war schwer gepanzert, allerdings nur mit MG bewaffnet und damit keine Gefahr für deutsche Panzer. Deutsche Panzer stellten bald fest, das ihre Kanonen die Panzerung eines Char B1 oder Mathilda nur durchdringen konnte, wenn man auf eine verwundbare Stelle zielen konnte, wie die Rückseite. Als Notbehelf richtete man die 88 mm Flugabwehrkanone auf die Panzer. Mit einem Kalber 88 wogen ihre Geschosse zehnmal mehr als die der 37-mm-Kanone. Als positiver Nebeneffekt konnte eine Flak 18 den Panzer noch in einer Entfernung ausschalten, in der dieser noch nicht das Feuer erwidern konnte. Man versuchte mit ihnen auch Forts der Maginotlinie auszuschalten, doch an deren Panzerung scheiterte auch die acht-acht. Gegen massive Panzeransammlungen nutzen die wenigen Flugabwehrkanonen natürlich wenig. Da musste die Luftwaffe aushelfen, was auch gut klappte und zu einem – übertriebenen Ruf – der Ju 87 „Stuka“ beitrug. Dies wiederholte sich im Russland-Feldzug. Zuerst lief alles nach Plan. Die meisten russischen Panzer waren nicht so modern wie die der Wehrmacht. Die wenigen stark gepanzerten KW-1 mussten mit der acht-acht bekämpft werden. Da sie nur langsam waren, waren sie keine echte Bedrohung. Doch mit der Gegenoffensive setzten die Sowjets erstmals den T-34 ein, mit einer starken Kanone, wendig und schnell und trotzdem gut, wenngleich nicht so stark wie der KW-1 gepanzert. Er konnte zwar mit einer acht-acht bekämpft werden, aber es zeigten sich ihre Grenzen. Die Kanone war relativ schwer, saß auf einer festen Lafette, konnte mal nicht schnell versetzt werden und war so eher für defensive Abwehr gedacht als der Unterstützung von Panzerangriffen. Zudem war sie verwundbar – ohne eigene Panzerung nicht nur gegen das Feuer von Panzern, sondern auch Luft- und Artillerieangriffe, sie konnte ja nicht schnell die Stellung wechseln.

Optimal einsetzen konnte man sie nur dort, wo ihre Vorteile zum Tragen kamen, das war im Afrika-Feldzug. Beide Gegner hangelten sich bei Offensiven von Küstenstadt zu Küstenstadt, um jeweils den nächsten Hafen einzunehmen, um die Versorgungsstrecke für Nachschub zu verkürzen. Kämpfe in der Wüste gab es, wenn man den Gegner einkreisen oder abschneiden wollte. Dann aber konnte er durch strategisch positionierte Geschütze gut aufgehalten werden, vor allem wenn sie in erhöhter Stellung waren. Die britische Gegenoffensive „Battleaxe“ scheiterte im November 1941 auch daran, das es nicht gelang den von nur 900 Verteidigern gehaltenen Halfaya-Pass einzunehmen. Durch die eingegrabenen acht-acht erlitten die Angreifer bei den Panzern große Verluste trotz mehrmaliger Angriffe. Wo, wie in Europa das Gelände nicht so eben und ohne Deckung war, verschwand der Vorteil der acht-acht.

Die Wehrmacht lernte aus der mangelnden Durchschlagskraft. Die Kaliber in den schon existierenden Panzern III und IV wurden größer. Der Panzer III erhielt eine 50-mm-Kanone, später die kurze 75 mm Kanone, die der Panzer IV ursprünglich hatte. Beim Panzer IV wurde diese verlängert von 24 auf 43, dann 48 Kaliberlängen, sodass die Granate das Rohr mit einer höheren Geschwindigkeit verlies und mehr Durchschlagskraft hatte. Der neue Panther (Panzer V) erhielt sogar eine 75 mm Kanone mit 70 Kaliberlängen. In den damals in der Entwicklung befindlichen Tiger wurde gleich die acht-acht eingebaut, in den verbesserten Tiger II dann die Flak 41 mit noch längerem Rohr und 30 % höheren Mündungsgeschwindigkeit.

Denn auch bei der Flak 18 gab es Verbesserungen. Das Nachfolgemodell Flak 41 hatte ein längeres Rohr, erreichte eine höhere Mündungsgeschwindigkeit und Gipfelhöhe. Denn als Flugabwehrkanone war die acht-acht relativ ineffektiv. Es dauerte rund 30 Sekunden, bis die Granate die Höhe der Bomber erreichte. In dieser Zeit waren diese über 3 km weiter geflogen. Man versuchte die Bewegung auszurechnen, indem man Radardaten in einen analogen Rechner einspeiste, der dann den Vorhaltewinkel ausgab. Aber bedingt durch die Ungenauigkeit der Radarmessungen mit einem Fehler von über 100 m und dem damaligen Stand der Technik war ein Treffer eine Glücksache, zumal die Granate gegen die Bomber nur in einem Umkreis von 10 m effektiv war. Die Taktik einer Batterie aus zehn Geschützen war es so einen Teppich um ein Ziel herum zu legen in der Hoffnung eine Granate trifft. Für einen Abschuss musste man mehrere Tausend Granaten abfeuern. Die Erhöhung der Mündungsgeschwindigkeit senkte die Flugdauer ab, erhöhte so die Treffergenauigkeit und zudem war die Reichweite höher.

So verwundert es nicht, dass die Wehrmacht noch größere Flugabwehrkanonen mit dem Kaliber 105 und 128 mm baute, diese hatten ein größeres Kaliber als die stärksten Geschütze von Panzern! Das größere Kaliber führte zu einer höheren Reichweite (Einsatzradius) aber auch kürzerer Flugzeit und somit größerer Treffergenauigkeit. Die größere Sprengstoffmenge erhöhte zudem den Radius, wo ein Flugzeug beschädigt werden konnte. Die 128-mm-Kanone schaffte denn auch noch eine zweite Karriere als Hauptwaffe des Jagdtigers. Allerdings wurde hierfür nicht die Flugabwehrkanone eingesetzt, sondern eine Adaption dieser. Denn die Granaten hatten ein Gewicht von bis zu 47 kg, die Granaten für die Panzerabwehrkanonen mussten in der Enge unter einem Schutzschild oder im Panzerturm geladen werden. Es gab in der Regel nur eine Person, welche die Granate heben konnte. Weshalb man bei den Panzerabwehrkanonen die Granate in Treibladung und Projektil aufteilte und so das Gewicht auf maximal 27 kg reduzierte. Das ist auch bis heute der Grund, warum kein Kampfpanzer bisher das Kaliber 128 mm übertroffen hat (der Leopard II und M1 Abrahams haben jeweils eine 120 mm Kanone. Selbst der neue T-14 hat „nur“ das Kaliber 125 mm. Alle Pläne für eine 140-mm-Kanone für den Nachfolger des Leopard II verliefen bisher im Sande. Dabei hat Russland, das anders als die NATO, Panzer mit Laderobotern baut, nicht das Problem der begrenzten Muskelkraft der Besatzung. Wie die 128-mm-Flak wurde auch die 88-mm-Flak als Panzerabwehrkanone (für die Infantrie) neu konzipiert, ebenfalls auf die spezifischen Anforderungen dieses Einsatzes optimiert. Sie kam so auch auf zahlreichen improvisierten Lösungen zum Einsatz um veraltete Fahrgestelle weiter einsetzen zu können, so im Jagdpanther oder der Hornisse (auch Nashorn genannt). Daneben war eine Kanone dieses Kalibers, aber nicht von der acht-acht abstammend während der ersten Hälfte des Zweiten Weltkriegs auf Ubooten als Bordwaffe installiert. Diese sollten Handelskrieg führen und gemäß den internationalen Gepflogenheiten tauchten die U-Boote auf, wenn sie nur ein Handelschiff sahen, forderten die Besatzung auf es zu verlassen und versenkten es danach. Dazu musste man aber keinen Torpedo opfern, das ging auch mit einem Schuss aus der Bordkanone. Mit der Einführung von Geleitzügen und Begleitung derer durch Korvetten und Zerstörer hatte sich dies aber erledigt und ab 1942 wurde diese Kanone durch kleinere 2 cm Flak im Turm ersetzt.

Die Flak 18 zeigt auch das man die Bedeutung des Heimatschutzes stark unterschätzte, obwohl man ja 1940 meinte, England sturmreif bombardieren zu können. Mit den Flak konnte man nicht Städte oder auch nur Industrieanlagen schützen, obwohl über 10.000 produziert wurden und es alleine 200.000 Flakhelfer in der Wehrmacht gab. Jagdflugzuge zur Abwehr gab es zu wenige. Als diese Tatsache offensichtlich war, versuchte man mit undurchdachten Lösungen gegenzuhalten wie dem Me 163 Raketenjäger oder der Bachem Natter. Stattdessen hätte man mehr der Jagdflugzeuge benötigt. Interessanterweise hatte man eine Lösung aber lange Zeit übersehen. Während man in Peenemünde eine große Rakete, die A-4, entwickelte, um England zu bombardieren hätte man mit einer kleineren Rakete durchaus die Bomberverbände effektiv angreifen können. Die Rakete hat den Vorteil, dass sie nach dem Abschuss noch lenkbar ist, entweder über Sicht oder Radardaten. Die Möglichkeit der Eigensteuerung über Infrarotannäherung wie wenige Jahre nach dem Krieg bei der AIM-9 Sidewinder war technisch zumindest möglich. Daneben hat sie eine viel größere Nutzlast, sodass sie mehr Sprengstoff mit Schrapnells versetzt transportieren könnte und ihr Zerstörungsradius viel größer wäre. Doch begann man aus der A-4 eine entsprechende verkleinerte Version, die „Wasserfall“ erst zu entwickeln, als es zu spät war. Die Rakete befand sich zu Kriegsende erst in der Flugerprobung war aber schon so ausgereift das sowohl Amerikaner wie Russen aus ihr ihre ersten Flugabwehrraketen konstruierten.

In ihrer Rolle als Panzerabwehrkanone war die Flak 18 so erheblich erfolgreicher als in ihrer eigentlichen Konzeption als Flugabwehrkanone. Es gelang sogar, einmal einen Zerstörer, die HMS Sikh mit einer Flak 18 zu versenken.

9.4.2021: Die technisch optimale Rakete

Mich reizen ja immer die optimalen technischen Lösungen. Bevor ich ins Detail gehe, gleich eine Bemerkung um einigen Lesern ihre Kommentare zu ersparen. Die technisch optimale Lösung ist nicht die kommerziell optimale. Das gilt auch in anderen Bereichen. So ist ein Rennwagenmotor sicher einem Diesel in einem PKW in vielen Leistungsdaten überlegen, aber eben auch viel teurer. Darum geht es heute nicht. Ich weiß, dass die skizziere Lösung teurer wird als eine weniger effiziente. Es geht nur darum, die beste Lösung zu finden.

Das leitet zum nächsten Punkt über – was ist die technisch optimale Rakete? Nun man kann sicher viele Aspekte ansehen, ich reduziere es auf einen, den Nutzlastanteil, also den Prozentsatz den die Nutzlast bei der Startmasse ausmacht. Da dieser mit zunehmender Stufenzahl ansteigt, das ergibt sich einfach aus der Raketengrundgleichung habe ich mich um die Zahl der Varianten nicht zu stark ansteigen zu lassen, mich auf zwei Stufen beschränkt, die bei den verwendeten Triebwerken auch für hohe Geschwindigkeiten ausreichen sollten.

Triebwerke

Ich habe das Thema schon mal untersucht, damals aber alles hinzugenommen, was technisch möglich, wenngleich auch noch nicht in die Praxis umgesetzt ist. Diesmal beschränke ich mich auf das was existiert. Dann führt an der Kombination LOX/LH2 kein Weg vorbei. Sie hat Nachteile wie hohe Tankmassen, hohe Kosten für Triebwerke und höhere Gravitationsverluste durch die längere Brennzeit. In der Summe schlägt sie aber alle anderen Kombinationen, und zwar um so mehr, je höher die geforderte Geschwindigkeit ist.

Das Triebwerk mit dem höchsten spezifischen Impuls auf Meereshöhe (für die Erststufe) ist das RS-25, das Haupttriebwerk des Space Shuttle und der SLS. Für die Oberstufe habe ich zuerst das Vinci gewählt, wobei mich stutzig macht das im aktuellen Datenblatt der spezifische Impuls von 4.560 auf 4.485 m/s abgesunken ist. Dafür hat es nun einen zweiten Arbeitspunkt mit 130 kN Schub bekommen. Man könnte nun als Ersatz für das Vinci, das RL-10B2 nehmen das dann im spezifischen Impuls etwas höher liegt aber schubschwächer ist, das lasse ich erst mal offen.

Strukturen

Bei gleicher Technologie kann man für den Aufbau der Rakete ab einer bestimmten Größe mit einem einfachen Faktor, dem Voll-/Leermasseverhältnis arbeiten. Der Grund ist einfach: Tanks müssen einem bestimmten Druck widerstehen. Nach der Kesselformel ist die Wanddicke bei gleicher Geometrie aber linear abhängig von dem Durchmesser und damit wiegt ein Tank immer einen konstanten Prozentsatz des Inhalts. Ebenso ist es bei Triebwerken, die ab einer bestimmten Größe linear zum Schub an Gewicht zulegen. Dasselbe gilt für andere Teile der Rakete wie Druckbeaufschlagung und Schubrahmen. Nur bei der Oberstufe kann man die Masse der Avionik als relativ konstant ansehen unabhängig von der größe der Oberstufe.

Bei einem großen LOX/LH2 Tank ist Stand der Technik immer noch der Space Shuttle ET. Die letzte Einsatzversion dieses Tanks wog leer 26.260 kg bei 722 t Zuladung. Damit die Rakete aber abheben kann benötigt man noch die Space Shuttle Haupttriebwerke und den Schubrahmen die im Orbiter stecken, dazu kommen noch einige leichtere Subsysteme wie die Hydraulik und die Druckbeaufschlagung und ein Stufenadapter.

Der Shuttle ET ist nicht optimal für eine Erststufe konstruiert. Er ist, weil an ihm die Feststoffraketen angebracht sind, zweigeteilt, das erlaubt es die Raketen in der strukturell verstärkten Zwischentanksektion anzubringen. Auf der anderen Seite fehlt bei ihm der Stufenadapter der in etwa genauso lang, wie die Zwischentanksektion ist. Ich nehme an, dies soll sich im Gewicht ausgleichen. Für den LH2 Tank der knapp die Hälfte des Gewichts ausmacht, gibt es aber inzwischen eine um 25 % leichtere Alternative. Das reduziert die Masse auf 23.248 kg.

Ein Tank alleine kann nicht abheben. Er benötigt dazu noch Triebwerke. Jedes RS-25 hat rund 182 t Bodenschub bei maximalem Schubniveau. Um den Tank zu heben, benötigt man mindestens vier Triebwerke. Soll die Beschleunigung deutlich über 1 g sein und noch eine Oberstufe mitbefördern so steigt die Zahl auf sechs Triebwerke. Jedes RS-25 wiegt 3.150 kg. Addiert man noch das Schubgerüst dazu, so ist man bei 4.300 kg. Mit sechs Triebwerken wiegt eine hypothetische Stufe auf Basis des ET so leer 49.65 t bei 771 t Startgewicht, das ergibt einen Strukturfaktor von 15,7.

Bei der Oberstufe habe ich keine so komplexe Rechnung angestellt. Die LH2/LOX Oberstufe mit dem günstigsten Strukturfaktor ist nach wie vor die uralte Centaur, basierend auf innendruckstabilisierten Edelstahltanks. Auch für die Vulcan war eine Oberstufe ACES auf Basis dieser Technologie geplant. Da diese vom Strukturfaktor noch etwas besser liegt, die Avionik ist schließlich immer gleich schwer und anders als bei der Centaur, die im Laufe des Einsatzes um 50 % länger wurde, kann man die Geometrie gleich von Anfang an ideal auslegen. Die ACES kam auf 67.6 t Startmasse und 5,9 t Leermasse, das ist ein Strukturfaktor von 11,45 den auch große LOX/LH1 Stufen wie die S-IVB erreichen. Auch ist die ACES relativ schubstark (420 bis 670 kN Schub). Das ist bei meiner nur zweistufigen Trägerrakete wichtig. Damit habe ich die Strukturfaktoren, die später für die Simulation als konstant angesehen werden.

Auslegung

Jede Rakete muss an einen Einsatzzweck ausgelegt sein. Eine Rakete die vor allem LEO Orbits ansteuert hat eine andere Auslegung, als eine die Mondtransferbahnen anstrebt. Das Masseverhältnis der Stufen ändert sich dann. Ich habe mich für die Auslegung auf die GTO-Bahn entscheiden, als Kompromiss und bei schwereren Nutzlasten auch häufigster angesteuerten Bahn. Weiterhin muss man sich für eine Größe, also Startmasse entscheiden. Da die RS-25 als Triebwerke feststehen, richtet sich dies einfach nach Anzahl der RS-25 in der ersten Stufe. Bei einem Bodenschub von 1.860 kN fiel die Wahl auf zwei Triebwerke. Zwei Triebwerke haben 3.720 kN Schub und lassen bei einer Startbeschleunigung von 12 m/s eine 316 t schwere Rakete zu. Die Nutzlast einer solchen Rakete schätzte ich auf Basis meiner Erfahrung auf 9 t ein, daraus kann man eine grobe Abschätzung der Aufteilung der Stufen machen. Es gilt bei ungefähr gleichen spezifischen Impulsen der Stufen, das die Verhältnisse Zündungsmasse zu Brennschlussmasse in etwa gleich sein müssen. Bei einem Verhältnis von 34,4 zu 1 von Startmasse zu Nutzlastmasse habe ich daher die erste Stufe zu 265 t und die zweite zu 43 t angenommen. Die zweite Stufe erhält dann zwei Vinci Triebwerke.

Erste Simulation

Hier die Daten der Rakete beim ersten Durchgang, aufgrund von Erfahrungswissen. Die Nutzlast liegt bei 9,6 t, die Startmasse bei 320 t. Das sind 3 % der Startmasse. Im LEO sind es 21,1 t oder 6,4 %. Die Aufstiegsverluste sind allerdings sehr hoch mit 2465 bzw. 2555 m/s.

Rakete: Optimale Rakete 43 t Stufe GTO

Startmasse
[kg]

Nutzlast
[kg]

Geschwindigkeit
[m/s]

Verluste
[m/s]

Nutzlastanteil
[Prozent]

Sattelpunkt
[km]

Perigäum
[km]

Apogäum
[km]


320.100

9.600

10.278

2.492

3,00

130,00

200,00

35800,00


Startschub
[kN]

Geographische Breite
[Grad]

Azimut
[Grad]

Verkleidung
[kg]

Abwurfzeitpunkt
[s]

Startwinkel
[Grad]

Konstant für
[s]

Starthöhe
[m]

Startgeschwindigkeit
[m/s]

3.720

5

90

2.500

200

90

10

120

0

Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez. Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

1

265.000

16.000

4.436

3720,0

4558,0

242,34

0,00

2

1

43.000

4.000

4.485

360,0

360,0

485,88

244,00


Die Aufstiegsverluste entstehen durch die langen Brennzeiten der Stufen bedingt durch den hohen spezifischen Impuls. Erhöht man die Zahl der RS-25 in der Erststufe von zwei auf drei, so bringt das aber lediglich 200 kg mehr. Dafür steigt die Spitzenbeschleunigung auf ein nicht akzeptables Maß. Das ist, da ja auch 4,2 t Gewicht addiert werden aber keine Verbesserung des Nutzlastanteils auf 2,98 Prozent. Besser sieht es bei LEO-Bahnen aus, denn dort steigt die Nutzlast von 21,1 auf 22,3 t, der Nutzlastanteil auf 6,64 Prozent also 0,24 Prozent mehr.

Bei der Oberstufe habe ich bisher das Vinci eingesetzt. Das erfolgte aus der Überbelegung heraus, das ich bisher annahm, das Vinci wäre der Rekordhalter im spezifischen Impuls. Das RL10B2 war nominell 30 m/s geringer eingestuft. Ich denke auch, das Vinci kommt auf diesen Wert, hat es doch einen höheren Brennkammerdruck und eine längere Expansionsdüse. Aber testweise probierte ich es auch mal mit zwei RL10B, die haben nur 220 kN Schub, wiegen aber auch 290 kg pro Triebwerk weniger, die ich bei der Masse abzog. Mit zwei Triebwerken kommt man auf keine bessere Lösung. Mit drei Rl10B schon, dann kommt man auf 10,2 t Nutzlast und mit vier Triebwerken ebenfalls auf 10,2 t. Bei einem Durchmesser eines RL10B von 215 cm passen vier Triebwerke auch in den Stufenadapter – basierend auf Hochskalierung von der Ariane 5E müsste die Rakete einen Durchmesser von 6,21 m haben. Damit habe ich die erste Vorlage:

Rakete: Optimale Rakete 43 t Stufe RL10B2

Startmasse
[kg]

Nutzlast
[kg]

Geschwindigkeit
[m/s]

Verluste
[m/s]

Nutzlastanteil
[Prozent]

Sattelpunkt
[km]

Perigäum
[km]

Apogäum
[km]


320.700

10.200

10.278

2.353

3,18

130,00

200,00

35800,00


Startschub
[kN]

Geographische Breite
[Grad]

Azimut
[Grad]

Verkleidung
[kg]

Abwurfzeitpunkt
[s]

Startwinkel
[Grad]

Konstant für
[s]

Starthöhe
[m]

Startgeschwindigkeit
[m/s]

3.720

5

90

2.500

200

90

10

120

0

Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez. Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

1

265.000

16.000

4.436

3720,0

4558,0

242,34

0,00

2

1

43.000

4.000

4.532

440,0

440,0

401,70

244,00


Optimieren

Diese Version hat Aufstiegsverluste von 2353 m/s. Etwas weniger als beim ersten Entwurf. Sind diese bekannt und verändern sie sich bei einer anderen Rakete nicht oder nur wenig, so kann man die optimalen Stufenmassen rechnerisch ermitteln lassen und dies tat ich, mit folgendem Ergebnis:


Vollmasse

Leermasse

spez. Impuls

Geschwindigkeit

Strukturfaktor

265.000,00 kg

16.002,4 kg

4.436,0 m/s

7.109,7 m/s

16,6

36.317,29 kg

3.378,4 kg

4.532,0 m/s

5.521,1 m/s

10,8

Gesamtstartmasse:

311.774,0 kg


Nutzlast:

10.456,7 kg

= 3,5 Prozent der Startmasse



Wie man sieht, war die erste Stufe mit 43 t schon nahe des Optimums, in der Realität sollte sie jedoch nochmals 7,7 t leichter werden. Mit den Daten ging ich dann an die zweite Runde, erneut mit einer korrekten Aufstiegssimulation. Sie liefert nochmals 100 kg Nutzlast mehr, nicht 256 kg, wie bei der einfachen Berechnung bei der allerdings auch keine Nutzlastverkleidung und Aerodynamik berücksichtigt wird. Der Prozentanteil der Nutzlast steiger aber deutlich stärker an, weil die Rakete um knapp 3 % leichter wird. Erreicht werden so 3,25 % Nutzlast. Oder anders ausgedrückt: Die Rakete wiegt weniger als eine Falcon 9 Version 1.0 (334 t) und hat die dreifache Nutzlast dieser oder die gleiche Nutzlast einer Ariane 5 ECA bei nur 40 % derer Startmasse. Angesichts des enormen Preises für ein RS-25 dürfte es aber keine finanziell audioaktive Lösung sein.

Drei Stufen

Mit drei Stufen wird die Nutzlast nochmals etwas besser. Da nun aber die Variationsmöglichkeiten noch weiter steigen, haben ich nur die rechnerische Optimierung untersucht. Ich ging bei der dritten Stufe von einem Voll/Leermasseverhältnis von 9 aus, das Verhältnis für die zweite steigt dann auf 12, weil die Avionik nun in die dritte Stufe rutscht. Die zweite Stufe setzt vier RL-10B2 ein, die dritte RL10A, die etwas leichter sind bei niedrigerem spezifischen Impuls.


Vollmasse

Leermasse

spez. Impuls

Geschwindigkeit

Strukturfaktor

265.000,00 kg

16.002,4 kg

4.436,0 m/s

5.482,6 m/s

16,6

58.930,80 kg

4.910,9 kg

4.532,0 m/s

4.485,1 m/s

12,0

13.938,22 kg

1.548,7 kg

4.423,0 m/s

2.709,6 m/s

9,0

Gesamtstartmasse:

350.979,5 kg


Nutzlast:

13.110,5 kg

= 3,9 Prozent der Startmasse


Doch in der Praxis ist diese Rakete in der Aufstiegssimulation weitaus schlechter, kommt auf nur 9,3 t. Das liegt an nun enorm hohen Aufstiegsverlusten von 3470 m/s, also 1.000 m/s mehr als vorher. Sieht es bei 500 m/s mehr Aufstiegsverlusten – entsprechend kleineren Stufen – besser aus?


Vollmasse

Leermasse

spez. Impuls

Geschwindigkeit

Strukturfaktor

265.000,00 kg

16.002,4 kg

4.436,0 m/s

5.652,0 m/s

16,6

56.421,39 kg

4.701,8 kg

4.532,0 m/s

4.644,0 m/s

12,0

13.060,51 kg

1.451,2 kg

4.423,0 m/s

2.881,2 m/s

9,0

Gesamtstartmasse:

345.674,2 kg


Nutzlast:

11.192,2 kg

= 3,3 Prozent der Startmasse


Es sind nun zwar 900 kg Nutzlast mehr, aber die Rakete wiegt auch mehr, so bleibt der Anteil an der Nutzlast gleich.

De Fakto muss man eine dreistufige Rakete anders auslegen. Die erste Stufe braucht mehr Schub und die zweite Stufe, die ja aus der Oberstufe hervorging ebenfalls mehr Schub. Baut man in die erste Stufe drei RS-25 anstatt zwei ein, in die zweite vier Vinci, so kommt sie bei derselben Startmasse von 354.770 kg auf eine Nutzlast von 13.400 kg, mithin 3,77 % Nutzlastanteil. Das wäre also die bisher beste Version.

Als letzte Option bin ich zur zweistufigen Version zurückgegangen, nun aber mit zwei Vinci und diesmal mit dem geplanten spezifischen Impuls von 4560 m/s. Mit nur einem Vinci kommt man wegen der langen Brennzeit auf nur 9,3 t Nutzlast. Selbst wenn man noch 500 kg für das Triebwerk abzieht, ist das weniger als die erste Version noch dazu bei niedrigerem spezifischen Impuls. Mit zwei Vinci liegt die Nutzlast bei 10,3 t in etwa gleichauf mit dem bisherigen Optimum bei 314 t Masse oder 3,28 % Nutzlastanteil. Je nachdem ob man drei RL10B oder zwei Vinci einsetzt – die Nutzlast ist fast gleich hoch, die Triebwerkgewichte unterscheiden sich auch nur um wenige hundert Kilo. Praktischer im Einsatz dürften aber zwei 180 kN Triebwerke anstatt dreier mit 110 kN sein.

Höhere Geschwindigkeiten

Mit zwei hochenergetischen Stufen nimmt die Nutzlast langsamer ab, als bei anderen zweistufigen Raketen. Bei der dreistufigen Variante sogar noch weniger. Als Extrem habe ich mal die Plots für die dreistufige optimale Rakete und die Falcon Heavy (wohlgemerkt eine Falcon Heavy mit der Nutzlast der SpaceX Website) gegenübergestellt. Während die Falcon Heavy bei GTO Bahnen doppelt so viel Nutzlast hat, sind es bei Marstransferbahnen (hier beginnt die Grafik) nur noch 50 % mehr und bei etwa 13.800 m/s, das ist eine Geschwindigkeit zwischen einer Merkur- und Jupitertransferbahn, überholt die optimale Rakete die Falon Heavy. Die Grafik endet bei 16.500 m/s, das ist die bisher höchste erreichte Geschwindigkeit von New Horizons. Diese erreicht die Falcon 9 schon nicht mehr, die dreistufige optimale Rakete hat dagegen noch 1.300 kg Nutzlast – dreimal mehr als die Atlas V 551 + PAM D die damals genutzt wurde, bei geringerer Startmasse (von der viermal schweren Falcon Heavy mal ganz zu schweigen).

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99