Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 387: 11.6.2014 -

11.6.2014: Die Sache mit Europa

Gestern ging durch die Schlagzeilen, das Cameron Junkers nicht als EU-Präsident haben will und auch Merkel soll sich mit den Regierungschefs von Schweden, England und Holland getroffen die Junkers nicht haben wollen.

Habe ich da irgend etwas verpasst? Hat man nicht so arg betont die Europawahl wäre diesmal so wichtig, weil diesmal der Präsident direkt gewählt wird? Nun wird wieder von den Regierungschefs entschieden wer es sein soll, wobei Merkel schon direkt nach der Wahl irgendwie nicht so richtig hinter ihrem eigenen Kandidaten stand. Wahrscheinlich hätte sie wohl lieber einen Hampelmann wie McAllister an der Spitze gehabt, denn sie nach belieben manipulieren kann. Der Mann macht ja sogar jeden Witz der Heute-Show mit.

Das bestätigt doch alle Vorurteile gegenüber "Europa" (in der Bedeutung: der Institutionen der EU). Man wählt und entschieden wird trotzdem alles von den Regierungen. Genügend Beispiele gab es ja so erst vor kurzem die Blockierung von strengeren Abgasnormen durch die deutsche Regierung oder der Enthaltung der deutschen Regierung bei der Zulassung des Genmais 1507, dabei weis man im Kabinett das 92% der Bevölkerung gentechnisch veränderte Produkte ablehnen.

Dabei bestimmen europäische Gesetze schon seit langem unser Leben und der Anteil an den Gesetzen wird immer größer. Im letzten Jahr war es schon mehr als ein Drittel der neu beschlossenen Gesetze. Um genau zu sein: die EU beschließt Verordnungen, die innerhalb einer Frist in nationales Recht umgesetzt werden müssen. erfolgt dies nicht so gilt die Verordnung so wie im Wortlaut veröffentlicht. Schon als ich Lebensmittelchemie studierte war das der überwiegende Teil der Gesetze, manche Teilgebiete, wie das Weinrecht, sind sogar richtig zugekleistert davon. Vor allem aber betrifft es die Regelungen für Verpackungen wie Lebensmittelkennzeichnung, Zusatzstoffe oder Nährwertkennzeichnung. Das verwundert nicht, denn die EU war zuerst und ist bis heute noch primär eine Wirtschaftsgemeinschaft und was die EU beschließt sind im wesentlichen Verordnungen die wirtschaftliche Hemmnisse abbauen sollen. Bei den Lebensmitteln bedeutet dies: EU-weit müssen dieselben Vorschriften für Kennzeichnung aber auch die Verwendung von Zusatzstoffen gelten.

In der Praxis bedeutet dies, dass bei den Zusatzstoffen alle zugelassen sind die in irgendeinem EU-Staat verwendet werden und toxikologisch unbedenklich sind. Ich würde schon deswegen einen Austritt Englands aus der EU befürworten den einige Zusatzstoffe sind nur für englische Produkte zugelassen, zumindest isst au0erhalb dieser Insel die keiner. Zudem drohen sie seit 30 Jahren mit dem Austritt, zumindest erinnere ich mich an die letzten dreißig Jahre, wahrscheinlich haben sie dieses Druckmittel noch länger benutzt. Die EU braucht die Engländer nicht. Sie können sich ja bei den USA anschließen. Bei jedem Krieg der USA sind sie ja sowieso mit von der Partie.

Viel wäre für den Verbraucher gewonnen wenn man bei gemeinsamen Regelungen immer die strengste nimmt. Das bedeutet, man würde nur Zusatzstoffe zulassen die in allen Mitgliedsstaaten verwendet werden, oder man führt mal ein gemeinschaftliches Datenschutzgesetz ein, das sich am strengsten nationalen Gesetz orientiert - dann würde aufhören das die meisten Internetkonzerne wie Google, Apple oder Amazon ihren europäischen Firmensitz in Irland haben - Irland hat das EU-weit lascheste Datenschutzgesetz.

Man tut der EU aber oft auch unrecht. Das habe ich bei "Hart aber Fair" gesehen, vor allem bei den Einspielern (für das Geschwätz der Politiker kann Blasberg ja nichts). Da kam als "EU-Regelung" das die EU angeblich die Herstellung einer Pizza Napolitana normiert und man hat sich darüber lustig gemacht, dass die "Vorschrift" vorschreibt, die Tomatensoße spiralförmig von der Mitte aus zu verteilen, was wohl keiner so macht. Ich bin mir zu 99% sicher dass es keine Normierung ist sondern der Text für eine Zulassung einer geschützten Bezeichnung. Die EU will auch Regionen fördern und so können Lebensmittel, aber auch andere Produkte, ein Siegel beantragen das es in drei Stufen gibt, wobei bei der Pizza Napoletana wohl nur die niedrigste Schutzstufe greift. Um das Siegel zu bekommen und auf der Verpackung als Werbung zu benutzen, muss man dann nachweisen, das es das Rezept seit mindestens 25 Jahren in unveränderter Form gibt und eben genau das Rezept vorlegen. Jeder der dann nach diesem Rezept die Pizza macht kann das Siegel auf seine Packung machen. Mehr ist es nicht. Das bedeutet nicht das ein Pizzabäcker keine Pizza Napoletana machen kann. Die Pizza ist nicht normiert. Fas ganze gilt nur für verpackte Lebensmittel und soll letztendlich auch dem Verbraucher nützen, denn er ist so vor Nachahmungsprodukten, Verfälschungen wie minderwertigen Zutaten oder dem sparen an hochwertigen Zutaten schützen.

Andere "unsinnige" Dinge machen Sinn, wenn man die Intension versteht. So das Glühlampenverbot oder die 1600 Watt Staubsaugerleistungsgrenze. Es geht ums Energiesparen, nicht um eine Leistungsbegrenzung. Das Glühlampenverbot leis mich schon kalt, denn ich hatte Jahre zuvor schon die meisten Lampen durch Energiesparlampen ausgetauscht. Glühlampen brauchte ich nur fürs Treppenhaus. Dafür gibt es jetzt als Alternative LED Lampen die in den letzten enorm viel leistungsfähiger und billiger wurden - sicher auch ein Effekt des Verbotes. Und beim Staubsauger geht es nicht um die Saugleistung sondern den Stromverbrauch. Das bedeutet dass man die Sauger verbessern muss. Das gleiche macht man ja auch mit den laufend sinken Schadstoffgrenzwerten für Neuwagen.

Anderes wird der EU einfach unterstellt so die ominöse Normierung von Gurken. Die EU beschließt das zwar, aber die Vorlage kommt von den Discountern. Die wollen mehr Gurken in jeder Schachtel haben. Genauso haben sie schon die Normierung der Banane durchgesetzt. Auf der anderen Seite verstehe ich nicht wie man auf die Idee kommen kann die Trinkwasserversorgung zu privatisieren. Zum einen sieht man  in Großbritannien wohin das führt. Zum anderen gibt es auch sonst genügend andere Beispiele wenn Infrastruktur privatisiert wird, wie es läuft: investiert wird nur dort wo man Gewinn macht. Das bedeutet Streckenabbau bei der Bahn, stagnierender Ausbau bei DSL etc. Gerade DSL zeigt wie nun privatisierte Staatskonzerne verfahren. Es heißt ja immer nur kleine ländliche Gebiete haben kein DSL, aber ziemlich viele haben nur DSL-Light. Das ist inzwischen für Unternehmen schon ein Wettbewerbsnachteil, weshalb Gemeinden zur Eigeninitiative greifen oder für die Telekom die Gräben ausheben. Und dieser "ländlicher Raum" ist ein dehnbarer Begriff. Unser Stadtteil ist 5 km von Esslingen (70.000 Einwohner) und 12 km von Stuttgart (600.000 Einwohner) entfernt, also gewiss nicht ländlich. Am Ortsrand bekommt mein Bruder nur noch DSL 2000, dort ist auch nicht TV-Kabel als Alternative verlegt. Ein Ort weiter, in Scharnhausen war es bis letztes Jahr so, dass nur 768 kbit möglich waren. Dann hat die Gemeinde einen Vertrag mit einem Unternehmen abgeschlossen, dass nun ADSL verlegt wobei sich die Stadt an den Kosten beteiligt. Ist das die Infrastruktur, die wir dann haben wollen? Wie wird es dann bei Wasser und Elektrizität werden? Welche Bahnstrecken bleiben dann noch übrig?

Ich würde mir wünschen, wenn das Parlament mehr zu entscheiden hat, von den vier Institutionen die Gesetze beschließen ist es das einzige gewählte Organ. Woanders sitzen die Regierungen, Staatschefs oder von ihnen gewählte Kommissare, so wie unser Energiekommissar Öttinger. Das sind meistens Politiker im Ruhestand, die von der Thematik keine Ahnung haben, oder wie man schon zu meiner Jugend sagte "Hast Du einen Opa, schick ihn nach Europa". Das Parlament hat am wenigsten zu sagen oder wie die Bundeszentrale für politische Bildung schreibt: "Der Europäische Rat muss bei seinem Vorschlag auch das Ergebnis der Europawahlen berücksichtigen.". immerhin haben wir einen vernünftigen europäischen Gerichtshof, der schon mal die Vorratsdatenspeicherung kippt. Solange der noch den Regierungen die Leviten liest (das macht ja unser Verfassungsgericht auch, leider nicht oft genug), ist noch nicht Hopfen und Malz verloren.

13.6.2014: Raketenwahnsinn

Als das Zeitalter der Raumfahrt begann, nahm man in Ost und West das was man hatte. Das waren erst mal ICBMs die schon fast Orbitalgeschwindigkeit erreichten, aber auch Mittelstreckenraketen. In den sechziger Jahren erweiterte man sie um neue Oberstufen wodurch die Nutzlast deutlich gesteigert wurde. Die der Atlas z. B. von 1.400 auf 4.600 kg und die der R-7 von 1.300 auf 7.700 kg. In den USA wurden dann noch Stufen gestreckt, Triebwerke verbessert und Booster angebaut, während Russland ihre Träger weitgehend unverändert über Jahrzehnte weiter betrieb. Dabei gab es beachtliche Startzahlen. Die USA hatten ihr startreichstes Jahr 1966 mit 83 Starts die Orbitalgeschwindigkeit erreichten (darunter zwei suborbitale)

Trägerfamilie Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Atlas 34 33 97,06 1966 – 1966
Nike 2 2 100,00 1966 – 1966
Saturn 3 3 100,00 1966 – 1966
Scout 9 9 100,00 1966 – 1966
Thor-Delta 24 22 91,67 1966 – 1966
Titan 11 10 90,91 1966 – 1966
Gesamt Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Gesamt 83 79 95,18 1966 – 1966

Russland hatte sein Jahr mit den meisten Starts 1982 mit folgender Aufteilung:

Trägerfamilie Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Kosmos 25 21 84,00 1982 – 1982
Proton 10 8 80,00 1982 – 1982
R-7 61 58 95,08 1982 – 1982
Tsiklon 12 12 100,00 1982 – 1982
Gesamt Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Gesamt 108 99 91,67 1982 – 1982

10 bis 61 Starts eines Trägers in einem Jahr, heute kaum noch vorstellbar. Inzwischen läuft die Sache anders. In den USA begann man Anfang der neunziger Jahre zuerst zahllose kleine Trägersysteme in Dienst zu stellen, obwohl es hier die wenigsten Nutzlasten gibt. Wenn man nur die Systeme nimmt in den letzten par Jahren einen Start haben, dann gibt es da die Taurus XL, Pegasus XL, Minotaur 1, Minotaur 4 und Minotaur V. ende der neunziger Jahre begann dann die Entwicklung neuer Trägersysteme für schwere Nutzlasten und da gibt es mittlerweile auch fünf: Die Falcon 9, Falcon Heavy, Antares, Delta 4 und Atlas V. Sogar noch einige alte Delta II wurden reaktiviert. Im letzten Jahr hatten die USA gerade noch 19 Starts, das ist weniger als ein Fünftel des wertes von 1966, und die verteilen sich so:

Trägerfamilie Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Antares 2 2 100,00 2013 – 2013
Atlas III/V 8 8 100,00 2013 – 2013
Delta IV 3 3 100,00 2013 – 2013
Falcon 3 3 100,00 2013 – 2013
Minotaur 2 2 100,00 2013 – 2013
Pegasus 1 1 100,00 2013 – 2013
Gesamt Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Gesamt 19 19 100,00 2013 – 2013

Es wurde eine Familie mehr eingesetzt, trotz stark reduzierter Startzahl. Ähnlich sieht es in Russland aus:

Trägerfamilie Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Dnepr 2 2 100,00 2013 – 2013
Proton 10 9 90,00 2013 – 2013
R-7 16 16 100,00 2013 – 2013
Rockot 5 4 80,00 2013 – 2013
Zenit 2 1 50,00 2013 – 2013
Gesamt Starts Erfolge Erfolgreich [%] Einsatzzeitraum
Gesamt 35 32 91,43 2013 – 2013

Auch hier eine Familie mehr, bei nur einem Drittel der Startzahl. Ein Ende ist aber nicht in Sicht. Die Falcon Heavy kommt auf US-Seite nächstes Jahr dazu, dieses Jahr wahrscheinlich noch die Super-Strypie. Russland hat die Angara in der Entwicklung und letztes Jahr eine neue Sojusvariante in Dienst gestellt. Bei den USA gibt es dann noch die Maxime bei schweren Nutzlasten, von denen es eh ja nicht so viele gibt, zwei Träger zur Verfügung zu haben - wie blöd ist das denn? 1966 habt ihr 34 Starts mit der Atlas gemacht, da habt ihr auch nicht gedacht "oh was könnte passieren wenn die mal gegrounded ist", dabei hätte das größere Auswirkungen gehabt. Das macht alles nur teurer. Die Produktionskosten steigen durch sinkende Stückzahlen, es müssen zwei Pads anstatt einem offen gehalten werden.

In Russland sieht es nicht anders aus. Die Zenit wird nun auch für Regierungsstarts genutzt, nachdem Boeing aus Sealaunch ausgestiegen ist und das Unternehmen nun zum größten Teil russischen Anteilseignern gehört. Beide Träger haben fast die gleiche GTO-Nutzlast. Dann wird die Angara entwickelt. Die zwar die Proton ablösen könnte, aber keine Version hat welche die Sojus ablöst die ja auch von Arianespace noch gebucht wird. Trotzdem wird die Proton noch lange im Service bleiben und die Sojus auch. Für die dürfte das Ende der ISS das Aus sein, denn darauf entfielen die Hälfte der Starts. Wenn dann noch die Starts vom CSG wegfallen ist man noch bei 6 Starts pro Jahr.

Glaubt man Jewgeni-7 so ist die Angara auch schon vor dem Jungfernflug ein Auslaufmodell weil zu teuer und weitere träger sind geplant.

Doch woanders ist man auch nicht schlauer. China entwickelt die lange Marsch 5, eine modulare Serie. Allerdings in der Nutzlast deutlich über dem, was China derzeit nutzt und dort vor allem die kleineren Modelle, so erschließt sich einem der sinn auch nicht sofort. Allerdings hat China die Startrate in den letzten Jahren hochgefahren, hat ambitionierte bemannte Pläne und könnte so durchaus einen leistungsstarken Träger brauchen. Japan baut die H-III, die natürlich billiger in der Produktion werden soll - nur lohnt sich das bei den wenigen japanischen Starts pro Jahr? Sicher nicht, aber das gibt man wenigstens zu. Es geht darum das Wissen zu erhalten und deswegen müsse man von Zeit zu Zeit eine neue Rakete entwickeln. Indien wird dieses Jahr die GSLV Mark III testen - anders als die Mark II eine bedeutende Entwicklung. Doch bisher gibt es ja schon massive Probleme bei der Mark II viele Starts gab es in den letzten Jahren auch nicht.

Europa setzt dem ganzen die Krone auf. Zuerst verschiebt man die Weiterentwicklung der Ariane 5 um acht Jahre, dann wird sie durch die Ariane 6 abgelöst werden, die nur etwas mehr als die halbe Nutzlast hat 8zu den neuesten Nachrichten über die Ariane 6 morgen mehr) und dann mustert man die Ariane 4 aus um die Sojus mit gleicher Nutzlast zu starten. Ach ja eine Trägerrakete für kleine Nutzlasten braucht man auch noch. Immerhin hat die schon 10 Startaufträge, was rund 50% des recht kleinen Marktes entspricht.

Dabei bewegt man sich selbst bei den am häufigsten eingesetzten Trägern weltweit in einer Stückzahl im niedrigen zweistelligen Bereich. Sinnvoll wäre meiner Ansicht nach nicht das jedes Land noch mehr neue Träger baut sondern internationale Kooperation. Im Prinzip würde es reichen wenn man weltweit pro Nutzlastsegment zwei Träger hätte (aus Redundanzgründen und wegen militärischer Nutzlasten. Doch wie die Diskussion um das RD-180 zeigt wird es dazu nie kommen. Zumindest die einzelnen Länder sollten aber die Zahl ihrer Träger reduzieren und bei "Ersatzentwicklungen" auch eine Wirtschaftlichkeitsrechnung machen. Für die 4 Milliarden die die Ariane 6 kosten wird könnte man z.B. jede Menge Ariane 5 Starts subventionieren (etwa 200, das wäre bei der derzeitigen Startrate ausreichend für rund 33 Jahre....).

14.6.2014: 720 Dollar pro Stunde

Nein das ist nicht das Honorar eines Luxus-Callgirls, sondern der Preis für eine Rechenstunde auf der Cray X-MP. Ich arbeite gerade an einem Artikel über diesen Rechner und bei der Vervollständigung schlug Google auch "Cray X-MP for sale" und ich kam auf diese Seite. Die Diskussion dreht sich ganz schnell um die Kosten des Computers im Betrieb und nachdem einer einen Preis von 720 Dollar pro Stunde bringt, fängt die Rechnung an wie viel Strom die Maschine verbraucht. Das die 720 Dollar auch andere Kosten beinhalten (ein Rechenzentrum hat ja auch Angestellten und das Gebäude muss ja auch abgeschrieben werden) darauf kommt keiner. Natürlich verbraucht eine Cray X-MP nicht für 720 Dollar Strom. Der Verbrauch ist abhängig vom Modell, aber ein typischer Wert sind 128 kWatt. Das sind bei den niedrigen US-Strompreisen vielleicht 15 Dollar pro Stunde.

Meine Einschätzung: es ist die Miete des ganzen Rechners, die auch die Abschreibung beinhaltet, schließlich kostet nicht nur der Betrieb etwas sondern auch die Anschaffung. Das NCAR nennt für eine 1986 angeschaffte Cray X-MP 48 folgende Zahlen:

Also der Rechner war 4 Jahre in Betrieb, das sind bei 500 Stunden pro Monat rund 24.000 Stunden. Er kostete mit allen Extras 20,1 Millionen Dollar. Alleine die lineare Abschreibung beträgt also 837,5 Dollar pro Stunde. So gesehen ist die Miete von 720 Dollar pro Stunde ein Schnäppchen (eventuell bezieht sich der Preis auch auf eine kleinere Version, die Cray X-MP gab es mit 1,2 oder 4 CPU und mit 1,2,4 oder 8 MWort Speicher, das NCAR hatte die größte und teuerste Version gewählt).

Damit wäre die Frage schon beantwortet. Was vielmehr vielleicht interessiert: ist es wirklich billig? Zur damaligen Zeit konnten sich Großrechner nur wenige leisten, viele Unis konnten aber immerhin Minis oder Super Minis sich anschaffen. Das neueste Modell der VAX 11 Serie, die sogar noch jünger als die Cray war, war bei Vorstellung der Cray X-MP die VAX 11/785 für die mit Speicher und Software ein Komplettpreis von 332.000 Dollar fällig war. Sie schaffte 1,4 VAX-MIPS (keine echten MIPS, da eine VAX 11/780 das Urmodell nur etwa 0,5 MIPS schaffte, aber so populär war, bürgerte es sich ein die Rechenleistung der 11/780 als 1 VAX-MIPS zu setzen). Nun von dieser kenne ich dank einem Buch die Leistung im Vergleich zu einer Cray 1. Sie hat 1/400 der Geschwindigkeit einer Cray 1. Eine Cray X-MP ist je nach Modell 30-425% schneller. Nehmen wir das zwei Prozessorenmodell als goldene Mitte, so sind es 262% Cray 1 Leistung.

Eine VAX 11/785 müsste also 750 Stunden rechnen um ein Problem zu lösen, dass eine Cray X-MP 2 in einer Stunde schafft. Nehmen wir an, sie wird auch 4 Jahre betrieben, 24 Stunden, rund um die Uhr, dann sind das 35.000 Betriebsstunden, in denen sie 46,7 Cray Betriebsstunden Rechenarbeit leistet. Schreibt man nur die 332.000 Dollar Anschaffungskosten ab, so wäre dies erheblich teuer, nämlich 7100 Dollar pro Stunde.

Ein zweites Rechenbeispiel: 1984 kam gerade frisch der IBM AT auf dem Markt mit einem Fließkommaprozessor erreicht er ein Tempo von 0,1 MFlop/s - immerhin rund ein Sechstel der Geschwindigkeit der VAX. Da er in Großserie produziert wird, sollte er billiger sein. Bei der Einführung kostete das Modell mit 512 KByte Hauptspeicher und 20 MByte Platte (man vergleiche das mit den 64 MByte der Cray X-MP 48 und 2 GByte RAM Disk und 40 x 1200 MByte Wechselplatten) 5795 Dollar, dann kommen noch 375 Dollar für den Coprozessor hinzu. In 4200 Stunden hat ein IBM-AT das berechnet was eine Cray X-MP 2 in einer Stunde schafft. In 4 Jahren Nutzung rund um die Uhr schafft er immerhin 8,33 Cray Stunden - und liegt dann mit Kosten von 6000 Dollar (Cray) zu 6170 Dollar (IVM 51790/AT) fast gleichauf - nun ja wenn man ignoriert, dass man viel mehr Speicher hat und nichts selbst installieren muss.

So gesehen waren die Supercomputer doch recht preiswert. Doch zurück zu der Diskussion. Mir fallen ein paar andere Gründe ein, warum man sich keine Cray X-MP kaufen sollte.

Kurzum: als Heizung vielleicht noch geeignet, für viel mehr nicht. Selbst abgehangene Rechner übertreffen die Rechenleistung bei weitem. Mein Athlon 5050e von 2009 leistet 2,2 GFlops, das ist die 2,5-fache Leistung des schnellsten Cray X-MP Modells und das in echten Anwendungen, nicht als theoretische Peakperformance. Ich denke heute schaffen selbst Smartphones mehr Flops als eine Cray X-MP. So nach einer Faustregel des computings ist Konsumerhardware so schnell wie die schnellsten Rechner vor 20 Jahren. Und die Cray X-MP ist schon 32 Jahre alt.

Übrigens: auch den Stromverbrauch muss man in Relation sehen. Der IBM AT kam mit einem 192 Watt Netzteil. Nun ist das natürlich immer überdimensioniert, man kann den Rechner ja noch erweitern udn braucht dafür noch Reserven. Aber nehmen wir nur mal 100 Watt an, so würden die 4200 IBM AT, die man bräuchte um dieselbe Rechenleistung wie eine Cray X-MP zu erreichen, auch 420 kW Strom verbrauchen.

Nicht umsonst achtet man bei Supercomputern inzwischen auch auf die GFLOP/Watt - nicht so sehr wegen der Stromrechnung sondern weil man dann weniger Platz braucht und die Schränke enger zusammenstellen kann. Denn heute belegen Supercomputer nicht mehr 4 m², sondern eine ganze Halle.

15.6.2014: Panzer und der zweite Weltkrieg

Die Artikel von Niels Harksen über skurrile Panzer bracht mich auf die Idee mal etwas über Panzerkonzepte im zweiten Weltkrieg zu schreiben. Wei sie sich entwickelten, konnte sicher keiner erahnen, aber die Ausrüstung der Länder im Hinblick auf das was erwartet wurde, waren sehr unterschiedlich. (Da Niels den Artikel seit einigen Tagen auf dem Entwurfstatus hat, funktioniert der Link wahrscheinlich erst in einigen Tagen, aber dann lohnt es sich den Artikel zu lesen).

Frankreich und England hatten noch die Vorstellung das die Panzer im zweiten Weltkrieg so eingesetzt werden würden wie im ersten Weltkrieg. Dort dienten sie dazu den Stellungskrieg aufzubrechen. Jahrelang stand man im Westen sich in Gräben gegenüber, beschoss sich mit Artillerie und stürmte gegen gegnerische Stellungen. Die Generäle bewiesen erstaunlich wenig Lernfähigkeit denn die ganzen Jahre hindurch gab es das einfache Schema: Artillerie Dauerfeuer -  Sturmangriff - Stellung erobern. Obwohl sich bald zeigte dass der Gegner sich durch tiefliegende Bunker gegen Artilleriefeuer schützen konnte und ein Angriff von Soldaten ohne Deckung und ohne Schutz gegen Gegner die in Gräben geschützt waren und über Maschinengewehre verfügten enorme Verluste mit sich brachten.

Die ersten Panzer waren dagegen immerhin so gut gepanzert, dass ihnen Infantriewaffen nichts anhaben konnten und obwohl langsam doch beweglich genug um nicht von der Artillerie getroffen zu werden. Verwundbar waren sie primär durch direkten Beschuss durch Artillerie, allerdings hatten sie dann schon einen großen Teil der Strecke zurückgelegt und sie hatten ja auch eigene Bordwaffen.

Beide Nationen entwickelten daher Panzer welche die Infanterie beim vorrücken unterstützen sollten. Dazu mussten diese nicht schnell sein. um gegnerische Infanterie und Geschütze zu bekämpfen brauchte man auch keine großkalibrigen Kanonen, aber sie mussten gut gepanzert sein, weil ihre langsame Geschwindigkeit sie sonst verwundbar machte. Auf der französischen Seite waren das der Panzer Char B1, und auf englischer Seite die Mathilda II. Der Char B1 war sehr gut gepanzert und hatte zwei Kanonen - eine bewegliche 47 mm Kanone im Turm und eine nur gering schwenkbare in der Wanne mit 75 mm Durchmesser. Deutsche Panzer mussten ihn ausmanövrieren, denn die Frontpanzerung war für ihre Waffen undurchdringlich. (der Panzer III hatte eine 37 mm Kanone, und der Panzer IV zwar eine 75 mm Kanone, aber eine sehr kurze mit geringer Geschossgeschwindigkeit, da auch er als Infantrieunterstützungspanzer entworfen war)

Durch die Langsamkeit war der Char B1 aber ein Ziel von Luftangriffen. Die Mathilda II war noch langsamer (ein Infanterist konnte sie im Gelände mühelos überholen) noch stärker gepanzert, aber mit nur einer kleinen Kanone mit 40 mm Kaliber ausgestattet. Der Vorgänger Mathilda I hatte sogar nur ein Maschinengewehre als Bewaffnung. Während er gegen die italienischen Panzter sehr erfolgreich war und auch gegen die deutschen Panzer III und IV als sie im März 1941 in Afrika auftauchten, zeigte sich bald, dass beim Einsatz von großkalibriger Artillerie das die Langsamkeit des Panzers ein großer Nachteil war. Die Flugabwehrkanone Flak 18 wurde zweckentfremdet zur Panzerabwehr eingesetzt und schaltete einen Mathilda auf 1,8 km Entfernung aus. Dieser musste aber bis auf 500 m an die Flak herankommen um sie zu beschießen zu können. Bei 9 km/h Geschwindigkeit im Gelände waren das über 8 Minuten, in denen der Gegner feuern konnte ohne selbst gefährdet zu sein - im Krieg eine halbe Ewigkeit.

Der Erfolg dieser Waffe führte dazu dass man zum einen den Tiger mit dieser Kanone ausstattete, zum anderen die Kanone auch in ältere Fahrgestelle einbaute, auch wenn dann der Schutz abgespeckt werden musste oder die Kanone nicht mehr voll bewegt werden konnte. So entstand die Hornisse/Nashorn auf dem Fahrgestell des Panzers IV und der Jagdpanther ebenfalls mit einer 8,8 cm Kanone.

Es gab auch das gegenteilige Konzept, die eines sehr leichten, schnellen Panzers. Interessanterweise resultierte dieses aus derselben Überlegung: Wenn ich die Infanterie und Artillerie als Gegner ansehe, dann reichen zur Bekämpfung der Infanterie schon Maschinengewehre und gegenüber der Artillerie schützt dann eine hohe Beweglichkeit bei geringer Panzerung, In Russland war dies z.B. die BT-Serie, in Amerika warn bei Kriegsbeginn alle Panzer leichte Panzer, wie der Typ M2. Diese wurden dann ziemlich eilig in den M3 Lee umgebaut indem man in die Wanne eine 75 mm Kanone einbaute. Bedingt durch den geringen Schwenkbereich und die niedrige Position war dies allerdings nicht die Kampfwertsteigerung die man sich von ihr erwartete. Leichte Panzer kamen dann vor allem im Pazifik zum Einsatz, weil dort die Geographie anders war: es fehlten die freien Flächen mit dem Schussfeld für großkalibrige Kanonen und durch das "Inselspringen", das Landen an Inseln bei denen man schweres Gerät nur mit großem Aufwand von einem Landungsboot absetzen kann waren die schweren Panzer dort nicht von Vorteil.

Auch in Deutschland waren die ersten Panzer leichte Panzer wie der Panzer I mit nur zwei Maschinengewehren oder der Panzer II mit einer 20 mm Kanone. Die deutschen Panzer III mit einer langen 37 mm Kanone oder der IV mit einer kurzen 75 mm Kanone waren bei Kriegsbeginn sicher nicht die besten Panzer (dafür würde ich den T-34 halten, auch vom einfachen Aufbau und der Robustheit her), aber sie waren beweglicher als ihre westalliierten Gegenstücke. Damit konnte man viele Nachteile ausgleichen und Gegner ausmanövrieren und an der Seite oder von hinten angreifen.

Heute erscheint die Überlegung der Westalliierten, dass der zweite Weltkrieg ähnlich wie der erste verläuft als falsch, aber ganz falsch war sie nicht. Denn der Großteil der Armeen war eben noch nicht motorisiert. Die Infanterie marschierte den Panzertruppen hinterher und sie musste die Gebiete sichern. Im Frankreichfeldzug hielt Hitler die Panzerdivisionen mehrfach an, weil er befürchtete ein Angriff hinter den Linien würde sie von der Versorgung abschneiden - sie hatten längst die Verbindung zu der nachmarschierenden Infanterie verloren. Im Russlandfeldzug erreichte er auch nicht Moskau früher als Napoleon - noch immer kam die Infanterie im Marschtempo vielleicht 20 km pro Tag vorwärts.

Vor allem in Deutschland entwickelte man dann auch Panzer zur Unterstützung der Infanterie die nicht so beweglich war wie Stumgeschütze als Offensivwaffe und Jagdpanzer als Defensivwaffe. So richtig erfolgreich waren sie wohl nicht, denn man setzte diese Waffengattungen nicht mehr nach dem Krieg fort. Es war oft aber auch nur eine Zwecklösung, um veraltete Panzer bzw.. deren vorhandene Produktionsstätten, weiter nutzen zu können wie die Panzer III und IV, indem man großkalibrige Waffen einbaute, da diese in die Türme nicht mehr passten wurden sie in die Wanne oder einen Wannenaufbau eingebaut wodurch man die freie Schwenkbarkeit verlor. Manche der Lösungen waren oben nicht mal geschützt und hatten nur dünne Panzerplatten als Aufbau wie die Marder Reihe oder der Jagdpanzer I

Als einzige neue Waffengattung die sich aus Panzern entwickelten und die bis heute Bestand hat, sind dies die Selbstfahrlafetten: mit ihnen wurden war die Artillerie beweglich. Bis heute gibt es das, z.B. hat die Bundeswehr gerade erst ihre Panzerhaubitze 2000 in Dienst gestellt, die in Afghanistan wesentlich wirksamer gegen die Taliban als die Panzer war.

Es zeigte sich, dass über den Krieg hinweg eines galt: der beste Panzer war ein guter Kompromiss aus Beweglichkeit, Mobilität, Feuerkraft und Panzerung. Panzer die zwar schnell, aber nur leicht gepanzert und leicht bewaffnet waren, waren im direkten Duell anderen Panzern unterlegen. Sie eigneten sich für Erkundungen oder Landeoperationen wenn schweres Gerät erst bei einem vorhandenen Hafen oder zumindest gehaltenem Frontabschnitt abgesetzt werden konnte. Fast alle schweren Panzer litten unter Problemen durch das Gewicht. Die Maschinen mit hoher Leistung waren anfällig, ihr Einsatzradius war durch den hohen treibstoffverbrauch begrenzt. Deutschland verlor mehr Tiger durch Ausfälle aufgrund technischer Schäden als durch Feineinwirkung. Ähnlich erging es schon Jahre vorher dem russischen KW-1. Trotzdem wurden beide Modelle weiterentwickelt, der Tiger zum Tiger II, der KW-1 zum Josef Stalin (JS-1 und JS-2). Als bester Panzer des zweiten Weltkriegs wird der Panther angesehen. Zumindest für Deutschland spielten auch die Herstellungskosten eine Rolle die einher gingen mit dem Aufwand. Da war ein Tiger mehr als doppelt so teuer wie ein Panther oder vier Panzer IV.

Zu Kriegsende wurde erkannt, das auch Panzer sehr verwundbar sind, selbst die am besten gepanzerten. Flugzeuge können sie von oben beschießen oder bombardieren. Oben ist die Panzerung meist schwach. Weiterhin ist die Abwehr gegen ein sich schnell bewegendes Flugzeug fast nicht möglich. Das war die Bedrohung auf dem freien Feld. Amerikanische Jagdflieger waren im Westen eine ständige Bedrohung. Im Osten schoss Oberst Rudel mit Ju-87 und später FW-190 über 500 Panzer ab. Es gab auch umgebaute Flugzeuge die unten eine Panzerkanone oder Maschinenkanone trugen, wie auf Deutscher Seite die Ju-87G und HS-129, auf englischer Seite die Mosquito.

Mit Panzerfäusten und Hohlladungssprengladungen war selbst ein Infanterist der sich leicht verstecken konnte eine Bedrohung. sein. Im zweiten Weltkrieg musste ein Infanterist bei den Reichweiten einer Panzerfaust von wenigen Dutzend Metern noch gute Nerven hatten und war in Lebensgefahr wenn der Panzer nach dem Treffer noch manövrierbar war. Doch Verbesserungen in den Triebsätzen erhöhten die Reichweite schnell. Das war die Gefahr in den Städten wo es genügend Unterschlupfmöglichkeiten gab.

Unverständlich ist, dass in Ost und West nach dem Krieg trotzdem Panzer in Massen produziert wurden. Es schien als hätte man keine Lehren daraus gezogen. Dabei zeigte sich in den vergangenen Jahrzehnten das ihre Zeit abgelaufen war. In unwirtlichen Gebieten wie in Vietnam war er nutzlos. er war ein Gerät für die Ebene ohne Bäume und auch nicht für den Kampf in Städten. Das ohne Luftüberlegenheit der Panzer nur noch eine Todesfalle war, bewiesen der Golfkrieg 1990 und die Invasion des Irak, noch deutlicher weil ganz ohne eingreifen von Bodentruppen zeigt dies die NATO Intervention in Mazedonien und Libyen. Deutschland hat als Folge die meisten ihrer Leopard 2 außer Dienst gestellt oder verkauft (z.b. an Griechenland: die haben die größte Panzerstreitmacht in Europa).


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99