Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 409: 26.12.2014 - 2.1.2015

26.12.2014: VLIW: Eine Idee die nicht so richtig in die Gänge kommt

VLIW steht für very long Instruction Word und ist eine Computerarchitektur. Zuerst einmal was ist damit gemeint? Gemeint sind nicht lange Befehlsworte, die es auch gibt. Bei der x86 Architektur können sie z.B. bis zu 16 Bytes lang sein. So lange Befehlsorte bekommt man z.B. bei SIMD Architekturen (Single Instruction Multiple Data), da blasen dann die angehängten Daten die Länge auf. Bei VLIW werden vielmehr mehrere einfache Befehle zu einem langen Befehlswort gebündelt.

Welchen Nutzen hat dies? Nun die erste Implementierung diente vor allem dazu, mit dem grundsätzlichen Manko des Speichers umzugehen. Schon immer war Speicher langsamer als die CPU. Das war schon in den Sechzigern so. Eine der Lösung die Langsamkeit auszugleichen war Bandbreite. Vereinfacht gesagt: wenn man auf die Daten schon warten musste, dann glich man dies dadurch aus, das man mehr Daten holte. Bei Daten hatten daher sehr oft die CPU mehr als einen Anschluss zum Speicher (oft Port genannt). Bei den Befehlen bestand die Lösung in VLIW: anstatt das der Decoder ein Wort holte, holte er ein langes Wort, das mehrere einzelne Worte enthielt. So musste er nicht auf die nachfolgenden Worte warten, sie waren schon in der CPU.

Die Cyber Star/203/205 Architektur hatte z.B. Befehlsworte von 64 Bit Länge, griff aber auf den Speicher immer in Superworten von 512 Bit zu die 8 Worte oder 16 einfach bzw. 8 doppelt genauen Zahlen oder eben acht Befehlen zu. Obwohl nicht zwingend erforderlich, sind viele VLIW Architekturen RISC Archietekturen. Das vereinfacht es, mehrere Befehle in ein VLIW zu packen, denn RISC Architekturen haben im Allgemeinen wesentlich weniger unterschiedliche Befehlslängen. Das erlaubt es einfacher ein VLIW zu dekodieren oder zumindest den Platz in einem VLIW auszunutzen ohne Leerbytes oder Leerbefehle einzufügen.

Man kann denselben Effekt wie ein Superwort aber auch einfach durch breite Datenbusse (heute z.B. in Grafikkarten verwendet) oder durch weiter vorrausschauenden Prefetch (x86 Architektur) erreichen. Bei den heutigen Architekturen haben VLIW Instruktionen einen anderen Sinn. Sie sind in der Regel superskalar. Das bedeutet ein Prozessor hat mehr als eine Ausführeinheit für Ganzzahl oder Fließkommaoperationen, bzw. heute oft auch für Daten/Adressen laden und Sprünge durchführen. Da der Code (anders als bei mehreren CPU-Kernen) aber nichts von den mehreren Einheiten weiß müssen CPUs mit dieser Architektur (superskalar genannt) schauen, dass sie alle Einheiten auslasten. Sehr bald zeigte sich das das schwer wird. Superkskalare Architekturen haben daher oft eine "Out-of-Order" Architektur: Sie erkennen Abhängigkeiten zwischen den Befehlen und Daten und ziehen Befehle vor, wenn diese nicht von anderen abhängen. Eine solche Architektur braucht sehr viel Logic. Intel lies sie z.B. beim Atom Prozessor weg. Als er 2008 im 45 nm Prozess erschien, hatte er z.B. 42 Millionen Transistoren, die zeitgleich in derselben Fertigungstechnologie gefertigte "Penryn" Mikroarchitektur dagegen 410 Millionen Transistoren (aber bei zwei Kernen). Allerdings erreichte diese erste Atomgeneration auch keine bessere Performance als ein 5 Jahre älterer Pentium 4 Prozessor.

VLIW eröffnet die Chance ohne diese aufwendige Logik auszukommen. Die dahinterstehende Idee ist, dass der Compiler der den Code kennt, die Worte so anordnet, dass alle Einheiten möglichst voll ausgelastet sind. Schafft er das nicht, so füllt er mit "Nichts Tun" Befehlen auf. (NOP - No Operation). Bei der Texas Instruments TMS320C6xx Familie ist ein VLIW 256 Bit breit und besteht aus 8 Befehlen. Dieses wird in zwei Teile aufgeteilt, die zu den beiden Kernen geführt werden und jeder  hat vier Ausführungseinheiten. Bei dieser Architektur klappte das auch sehr gut. Dazu trug ein Registerfile bei, bei dem es sehr viele Register gab, sodass Abhängigkeiten seltener als bei wenigen Registern vorkamen und die Harvard-Architektur die getrennte Daten- und Instruktionsbusse hat. zudem verarbeitete diese Architektur keine Fleißkommazahlen.

Derselbe Ansatz scheiterte aber beim Itanium-Prozessor, obwohl er dort noch ausgeklügelter war: In einem 128 Bit Wort gab es neben drei Befehlen à 41 Bits Breite noch 5 Bits um die Abhängigkeiten und benutzten Einheiten zu markieren. Damit kann der Compiler die CPU informieren wie die Befehle zu verarbeiten sind. Der Itaniumprozessor erreichte nie den Markterfolg den sich Intel erhoffte. Sehr bald überholten ihn auch x86 Prozessoren in der Performance. Woran es liegt? vielleicht hat der Itanium ein zu komplexes Innenleben denn bei ihm wollen auch noch einige Branchunits und Fließkommaeinheiten mit Daten versorgt werden, vielleicht ist der Code für Signalverarbeitung aber auch per se besser parallelisierbar oder die Compiler sind zu doof. Angesichts der ct'-Ergebnisse der Matrizenmultiplikation die man heute durch einen einzigen AVX Befehl ersetzen kann wo CPUs nur einen Bruchteil der theoretischen Leistung erreichen, würde mich das nicht wundern.

Anders als SIMD hat sich die VLIW Architektur auf jeden Fall nicht auf breiter Front durchsetzen können.

Link zu dem Artikel auf der Webseite.

28.12.2015: Alte und neue Vorsätze

Ich weiß von den Kommentaren das ihr wenig von dem Brauch haltet sich fürs neue Jahr etwas vorzunehmen. Aber für mich ist das meistens ein Ansporn auch etwas durchzuhalten, und meistens schaffe ich es auch. Letztes Jahr hatte ich mir vorgenommen nur noch an jedem zweiten Tag Fleisch zu essen. Das hat nicht so richtig geklappt. Zumindest nicht in der Form in der ich mir das dachte. Also einen Tag ohne Fleisch, einen mit. Es gab zu viele Widrigkeiten. Da bleibt mal an einem Tag ein Rest übrig den man am nächsten Tag noch essen kann, der aber nicht mehrere Tage hält, da ist meine inzwischen Neunzigjährige Mutter die Wurst haben will und nach der Hälfte was anderes essen will. Wegschmeißen kommt für mich aber auch nicht in Frage. (Das Schwein soll ja nicht umsonst gestorben sein). Aber ich denke in der Summe habe ich es weitgehend eingehalten, so esse ich morgens nie und abends nur selten Wurst und beim Mittagessen vielleicht nicht jeden zweiten tag vegetarisch, aber durchaus öfters als früher.

Für das neue Jahr habe ich mir vorgenommen, endlich mal einige Buchprojekte fertigzustellen. Da habe ich dieses Jahr kein neues Buch rausgebracht, wenn auch einige alte aktualisiert. Nächstes Jahr soll das besser werden. Denn zu tun gäbe es viel:

Wenn ich das alles schaffen will, dann muss ich mich sputen. Das Problem ist zum einen die Motivation, die auch von den Verkäufen abhängt. Wenn die trotz immer mehr Büchern stagnieren habe ich nicht viel Lust an neuen zu arbeiten. Das zweite ist der Zeitfaktor. Nicht das ich zu wenig hätte, aber zu wenig am Stück, ohne Unterbrechung. Da ich mich inzwischen auch um meine Mutter kümmern muss kann ich kaum noch wie früher einige Stunden am Stück recherchieren und wenn ich da rausgerissen werde, ist es nur schwer wieder den Anschluss zu finden. Dann arbeite ich eher an der Webseite wo es nicht so in die Tiefe geht, aber auch die Arbeit schneller abgeschlossen ist. Trotzdem brauche ich für einen neuen Artikel immer noch 2-3 Tage. Also das alles zu schaffen wird eine Herausforderung.

Dann wird es das aber auch einmal mit den Büchern. Die Absätze sind so gering dass es sich nicht lohnt viel Arbeit in Bücher zu stecken und die Themen die ich beackert habe für mich selbst, schließlich lese ich in den Büchern selbst nach bzw. eigene mir Wissen beim Recherchieren an habe ich auch durch. Ideen habe ich viele, doch den Markt sehe ich eben nicht. Den negativen Kritiken bei Amazon entnehme ich auch das den meisten Lesern offensichtlich der Inhalt egal ist und es nur auf die Orthographie ankommt. Da muss man sich nicht wunderen warum es in Deutschland nur reich bebilderte Einstiegsbücher für Laien und Lehrbücher für Studenten gibt, aber dazwischen fast nichts.

29.12.2014: Warum haben Prozessoren so wenige Kerne?

Nächste Woche gibt es bei ALDI einen Tablett-PC mit Achtkernprozessor und auch Intel hat bei den Desktop Exemplaren dieses Jahr mit 6 bzw. 8 Kernen eine Schippe draufgelegt, doch noch immer sind das deutlich weniger als man nach Intels eigenen Angaben erwarten dürfte. Als 2005 die ersten Dualcoreprozessoren eingeführt wurden, verkündete Intel, nun würde sich die Kernzahl alle zwei Jahre verdoppeln. Damit dürften wir 2015 die ersten 64-Kernprozessoren erwarten. Die kommen aber nicht. Nicht das Intel das nicht hinbekommt. Schon 2009 gab es bei der Westmere Generation 10 Kerne, im Einklang mit dem "Gesetz" (das für 2009 acht Kerne vorhersagte) und heute liegt der Rekord bei den Xeon Prozessoren bei 18 Kernen mit Hyperthreading (36 logische Kerne). Daneben gibt es den Xeon Phi mit 50 Kernen, doch dazu später mehr. Warum aber belässt man es im Desktop-Segment bei zwei oder vier Kernen, wenn doch technisch mehr möglich sind?

Nun es gibt eine Reihe von Gründen dafür. Der erste ist, dass im Desktop-Bereich meist ein Programm mit einem Thread aktiv ist. Andere Threads sind zwar auch vorhanden, arbeiten aber meist im Hintergrund und brauchen oft nur eine geringe Rechenleistung. Daher hat man mehr Arbeit in den Turbo-Boost gesteckt, darunter versteht man dass einer oder mehrere Kerne kurzzeitig eine höhere Taktfrequenz fahren können, wenn die anderen nicht ausgelastet sind. Das erhöht die Singlethreadperformance die im PC-Bereich so wichtig ist.  Es verwundert nicht das Xeon Prozessoren die für Server gedacht sind und damit für Multithreadanwendungen mehr Kerne haben.

Es gibt aber auch noch einen sehr einfachen Grund, warum es nicht so viele Kerne gibt, denn die müssen auch mit Daten versorgt werden. Bei der derzeitigen Intel Architektur teilen sich alle Kerne einen gemeinsamen Level 3 Cache und einen gemeinsamen Frontbus zum Speicher. Der unterstützt im Desktopbereich maximal 4 Speicherriegel. Die Xeon Prozessoren haben nicht nur größere Caches, sondern unterstützen auch 8 oder 16 Speicherkanäle. Schon seit ewigen Zeiten ist Speicher der Flaschenhals des Systems. DDR-RAM konnte zwar das Problem des langsamen Zugriffs nicht lösen, das physikalisch bedingt ist, aber man hat als Kompensation die Datenrate erhöht, indem bei einem Zugriff viele Bänke in dem Chip angesprochen werden und diese dann nach dem ersten Zugriff relativ schnell die folgenden Daten an den Prozessor liefern. Sie landen in einem Cache, der wieder deutlich schneller als der Hauptspeicher ist. So merkt im Idealfall der Prozessor nichts von der Langsamkeit des Speichers, der wenn der Zugriff noch so erfolgen würde, wie vor Einführung von SD-RAM, für maximal 100 bis 133 MHz Takt gut wäre. Doch je mehr Kerne ein Prozessor hat um so kleiner der Anteil am Cache und um so öfters muss er auf den langsamen Hauptspeicher warten. So verwundert es nicht dass die Xeon Linie viel größere Caches als die Desktoplinie hat. Bei der E7-Serie sind es bis zu 37,5 MByte, Auf meinem Core I5-4690 immerhin eines der Spitzenprodukte der Desktoplinie sind es gerade mal 6 MByte.

Doch es gibt auch Anwendungen, wo man viele Kerne auslasten kann und nicht so viel Cache braucht - im Supercomputing. Dort werden viele Daten mit immer der derselben Rechenvorschrift abgearbeitet, die Daten sind meist Felder und liegen so linear im Speicher. Dann dient der Cache nur als Durchgangsstation und wenn der Prozessor vorrausschauend die Daten anfordert wirkt sich auch die Langsamkeit des Speichers nicht so aus. Der Xeon Phi von Intel basiert z.B. auf den relativ einfachen Kernen des Pentiums, erweitert aber um eine AVX Einheit ,die bis zu 512 Bit auf einmal bearbeitet (in den normalen Prozessoren maximal 256 Bit). Den L3-Cache hat man dort weggelassen, aber das Speicher Interface enorm ausgebaut: bis zu 352 GByte/s gehen dort über den Bus - im Desktopbereich sind es pro Modul derzeit maximal 12,8 GByte, bei vier Modulen also maximal 51,2 GByte. Damit dies geht, sitzt der Speicher mit den Prozessoren auf einer Karte mit entsprechend vielen Datenleitungen. Dieselbe Technik setzen auch Grafikkarten ein die sehr viele Shader mit Daten zu versorgen haben.

Für solche Zwecke wurde auch der Pezy-SC Coprozessor entworfen: Hier werkeln 1024 Kerne die bei 733 MHZ bis zu 3 TFlop erreichen (4 einfach oder zwei doppelt genaue Rechnungen pro Takt). Um diese Kerne zu versorgen hat er ein Speicherinterface von 2048 Bit Breite (Core und Xeon Serie: 64 Bit pro Modul) das bis zu 1533 GByte pro Sekunde transferiert. Entsprechend muss einen auch nicht verwundern, dass der Chip nicht weniger als 2112 Anschlüsse hat (allerdings erreichen auch Core Prozessoren heute schon 1150 Pins).

Solange aber die Anwendungen für solche Hardware beim Durchschnittsbenutzer fehlen, wird's wohl bei wenigen Kernen bleiben. Intel hat stattdessen in den letzten Jahren immer mehr integriert. Speicherkontroller, PCI-E Controller und zuletzt auch die Grafik. Die letztere hat von Generation zu Generation an Geschwindigkeit zugelegt, während die Prozessoren kaum noch schneller werden. Ich vermute dieser Trend geht so weiter. Derzeit ruht sich die Firma auf dem erreichten aus und plant nicht die 14 nm Fertigungstechnologie für Desktopprodukte einzusetzen, sondern nur für energiesparende Mobilprozessoren. Man will im Desktopbereich eine Generation überspringen und auf Haswell folgt gleich Skylake als neue Architektur.

1.1.2015: Was mich an den Anhängern der Moonhoaxern nervt

Ich habe mich ja schon mit den Moonhoaxern beschäftigt. Man kann davon ausgehen, dass sie nicht belehrbar sind und viele machen auch ihr Einkommen damit, anderen Leuten Lügen zu verkaufen. Aber sie wären vollkommen bedeutungslos, wenn es nicht genügend Dumme gäbe, die ihnen zuhören würden und ihre Bücher kaufen würden. Dazu gibt es noch die Medien, doch dazu ist ein anders Thema.

Nun betrachten wir mal den Durchschnittsanhänger der Moon-Hoaxer oder auch nur den der gewillt ist, ihnen Glauben zu schenken. Er hat meist keine Ahnung von Raumfahrt. Auch ist die allgemeine naturwissenschaftliche Bildung gering, denn sonst würde er viele der angeblichen Beweise entlarven können. Die kann man nämlich leicht in zwei Gruppen einteilen. Die eine erfordert Nachrechnen oder zumindest intensives Nachdenken. Das betrifft z.B. die Sprünge auf dem Mond, die einfach nur langsam abgespielte Aufnahmen sein sollen oder die Sache mit dem fehlenden Krater, unter dem Landefahrzeug.

Aber es gibt auch eine zweite Gruppe für die braucht man nun keine besonderen physikalischen oder technischen Erkenntnisse und sie haben auch nichts mit dem Mond und der Landung zu tun, sondern sie können auf der Erde leicht beobachtet und verifiziert werden. In die Gruppe gehören die nicht parallelen Schatten, die angeblich auf Scheinwerfer hinweisen oder die Fotos, auf denen man keine Sterne erkennt (einfach mal im Flutlicht im Stadium die Tribüne fotografieren und dann auf den Aufnahmen nach Sternen suchen und man weiß, dass das nichts mit dem Mond zu tun hat). Wenn jemand diese offensichtlichen Fehler der Moonhoaxer nicht erkennt, muss er schon eine enorme Naivität haben.

Mehr noch, er scheint danach seine Leichtgläubigkeit nicht hinterfragen, denn wenn mir jemand weismachen will, das fehlende Sterne auf das Drehen im Studio hinweist, eine Tatsache, die ich mit 5 Minuten Zeit eine Digitalkamera und einer Nachtaufnahme überprüfen kann, dann ist für mich die Sache erledigt. Offensichtlich ist der Moonhoaxer sehr doof und wohl aus der Suche nach noch dooferen Leuten. Stattdessen blenden die Anhänger die Entlarvung des Hoax aus und glauben an die anderen "Argumente", ohne Kritik, denn wenn ein Argument nachweislich falsch ist, dies sogar leicht überprüfbar ist, warum ist der Urheber nicht da drauf gekommen und wie zuverlässig sind dann alle anderen Argumente?

Ich bekam sogar mal eine Mail von jemand, die den Fehlschlag eines Tests eines experimentellen Mond Gefährts als Beweis für die gefälschte Mondlandung anführte. Die NASA könnte es ja nicht mal heute. Also wenn ich dieser Argumentation folge, dann kann ich folgern das Autos auch nicht zuverlässig sind, ich habe da mal vor Jahren eine bei einem "Elchtest" umkippende A-Klasse gesehen. Und wenn sie das schon heute nicht können, wie dann vor 100 Jahren?

Was aber anscheinend niemand derer, die sich an diesen Theorien ergötzen, auffällt ist die fehlende Gesamterklärung. Denn eines ist ja typisch für Moonhoaxer: sie nehmen sich irgendetwas aus der Mondlandung vor (aufgrund des niedrigen Bildungsstandes eigentlich nur Videos und Bilder, niemals Meßdaten, Gesteinsanalysen oder ähnliches) und entdecken dort etwas was nicht stimmt. Was sie nicht bieten können oder wenn nur in grobem Umriss "Wurde im Studio gedreht" ist eine Erklärungsmöglichkeit für das Gesamtkonzept Moon-Hoax. Also warum erfolgte der und wie lief er genau ab?

Nach allem was ich weiß gibt es folgende Hypothesen, warum die NASA die Mondlandung nicht durchführte

Da kann man schon einhaken. Welchen Grund sollte man haben, wenn es Hindernisse gibt, diese nicht zu kommunizieren. Die Strahlendosis des Van Allen Gürtels war schon vor dem Mondprogramm bekannt. Die ersten Sonden hatten ihn entdeckt und seitdem gab es einige Satelliten die nur die Strahlenbelastung maßen. Dann ein Mondprogramm zu starten, ist ziemlich dämlich, man muss da der Van Allen Gürtel ja nicht verschwindet, damit rechnen dass bald andere Länder die Tödlichkeit entdecken und dies publizieren und nebenher ist natürlich so das Verlassen der Erde per se unmöglich.

Wenn die Hardware nicht fertig war, so macht es noch weniger Sinn. Bis 1969 hat man acht Jahre lang entwickelt. Russland war längst aus dem Rennen, man fühlte sich zwar Kennedys Versprechen verpflichtet, aber einen Zacken wäre aus der Krone nicht gebrochen wenn man erst 1070 und 1971 gelandet wäre. Noch weniger Sinn macht das man nicht landen kann, weil wie ich auch schon gehört habe, die Steuerung zu komplex ist. Nun ja, das gilt aber auch für unbemannte Missionen und da gab es ja inzwischen etliche Sonden die auf dem Mond gelandet sind. Zuletzt Chang E'-3

Skizzieren wir mal wie die Moonhoaxer, wenn man ihre "Beweise" nimmt, sich die Mondlandung vorstellen müssen. Nun erst mal lief 8 Jahre und 20 Milliarden Dollar lang alles super. Tausende arbeiten in ganz Amerika an Abläufen, Hardware, Tests. Bauen Startkomplexe, Windkanäle, spezielle Transportflugzeuge für Stufen und Teststände. Die gefertigte Hardware ist ebenso unbestreitbar wie die Bezahlung der Arbeiter und die Zeitzeugen. Dazu gibt es heute frei einsehbare Dokumente über die Entwicklung bis hin zu Bauplänen, die jeder durchlesen, prüfen und deren Daten man nachrechnen kann, was viele wie der Autor für ihre Publikationen auch tun und diese sind auf keine Fehler gestoßen, obwohl sie, anders als die Moon Hoaxer, etwas von der Materie verstehen.

Unbestritten dürften auch Start und Landung sein. Den Start sahen Zigtausende im Kennedy Space Center und bei der Landung gab es eine Bergungsflotte von einigen Dutzend Schiffen und über 10.000 Personen die die Kapsel niedergehen und vielen Hundert die auch die Astronauten nach dem Ausstieg auf dem Flugzeugträger sahen. Das die Saturn V und Apollo funktionierten, zeigten sie bei dem folgenden Skylab und Apollo-Sojus Programm. Es gibt nun, wenn die Mondlandung getürkt ist zwei Szenarien. Das erste sieht vor, dass die Astronauten starteten, aber weil es so gefährlich ist, nur in einen Erdorbit. Von dort aus machten sie dann auch die Aufnahmen von der Kapsel aus. (Problem: Wie kommt man an die Aufnahmen der Mondoberfläche und der kleinen Erde?) sie landen dann wieder und die Mondlandung wurde schon vorher im Studio gedreht.

Szenario 2: Alles wird im Studio gedreht, die Kapsel fliegt ohne Astronauten weg, man kann so sogar bis zum Mond fliegen. Dann muss man die Kapsel für die Landung nach der Mission  irgendwie ins Landegebiet bringen, was schwierig wird. Ein Flugzeug, das sie abwirft wird auffällig sin. Alles müsste man sie mit einer anderen Rakete dorthin schicken, was sicher auch auffällig wäre. Dafür kann man die Mondlandung "life" senden, was aber, wenn ich die Moonhoaxer nehme ja gar nicht geplant ist, denn life kann man z.B. keine Sprünge über den Mond drehen.

So gesehen bekommt man eine Erklärung. Aber was für eine? Sie ist ja in keiner Weise logisch. Wenn man nachweislicher Weise funktionierende Hardware entwickelt hat, Milliarden in deren Entwicklung und Tests gesteckt hat, dazu das ganze Unternehmen so gut dokumentiert hat, das selbst 40 Jahre später Raumfahrtexperten keine Fehler in den Dokumenten finden, wenn es also funktionieren könnte - Warum sollte man die nicht einsetzen? Warum sollte man stattdessen diese Schmierenkomödie ansetzen? Das erinnert mich an jemand, der acht Jahre lang auf einen Triathlon trainiert. Muskeltraining betreibt, täglich schwimmt, Fahrrad fährt und Läuft, der alle Einzeldisziplinen und fast die Gesamtstrecke schon mal durchlaufen hat (Apollo 7-10 Missionen) nur eben das ganze noch nicht. Und was macht er nach 8 Jahren beim Hawaii-Triathlon antrritt? Er biegt kurz nach dem Start ab, versteckt sich, schleicht sich zum Ziel und taucht dort 16 Stunden später auf. Das ist in etwa genauso logisch wie die Moonhoaxererklärung.

Man muss schon eine krankes Hirn haben, um das für logisch zu halten und sehr naiv sein, um es zu glauben. Noch interessanter ist ja, das die Verantwortlichen enorm raffiniert und unglaublich dämlich zugleich sind. Wie schon geschrieben: Bis zum Abflug kann kein Moon Hoaxern dem Programm einen Fehler nachweisen. Bis dahin hat also alles funktioniert oder es war so raffiniert getäuscht, das diese Meister der Enttarnung es nicht widerlegen konnten. Dann machen diese so hochbegabten Täuscher aber bei den Studioaufnahmen so einfache Anfängerfehler wie fehlenden Windschutz (wehende Fahne),  oder fehlende Sterne (Aufnahmen der Mondoberfläche) die sogar von Literaturwissenschaftlern und Druckern gefunden werden.

Ich meine ja: nur Literaturwissenschaftler und Drucker und andere selbsternannte Experten (einer bewies z.B. das alle Theorien über die Erdkruste nicht richtig sind, da seinen Berechnungen nach Felsen mit mehr als 200 m Höhe unter ihrem Eigengewicht kollabieren - psst sagt das niemand im Empire State Building) so was rausfinden. Wenn ich nämlich von dem Tatbestand keine Ahnung habe, kann ich mir jede beliebige Erklärung zusammenreimen.

Umgekehrt scheinen die Anhänger gar keinen Wert drauf zu legen welchen Beruf die haben die "alternative" Erklärungen haben, sprich ob sie überhaupt fachlich qualifiziert sind. Ich vermute keiner der ihnen glaubt wird bei einer Krankheit einen Drucker anstatt einem Arzt konsultieren. Wenn sie einen Defekt bei ihrem Auto haben, rufen sie dann auch einen Literaturwissenschaftler oder vielleicht doch einen Automechaniker? Wohl kaum. Es spricht, als gäbe es nicht schon Beweise genug, für die mangelnde Kritikfähigkeit des Publikums der Moonhoaxer.

2.1.2015: Anstatt einem Vorausblick auf das neue Jahr

Ich muss gestehen, in den letzten Jahren beschäftige ich mich weniger mit zukünftigen Raumfahrtmissionen so ist mir nicht so viel eingefallen zumindest nicht, dass es für einen ganzen Blog reicht. Also wir hätten da den von diesem November auf Februar verschobenen Testflug des europäischen Testgleiter IXV, dann wird so um den März rum Dawn Ceres erreichen und dann im Juli New Horizons Pluto. Dank der IAO und Dawn ist es weder der Besuch des letzten Planeten noch der erste eines Zwergplaneten.

Ich habe mir deswegen was anderes vorgenommen. Ich hatte ja schon angekündigt das ich mich nächsten Jahr mehr auf die Bücher konzentrieren will. Mit selbst viel schon auf, das ich da viel Schleifen lies in diesem Jahr. Dabei habe ich im Gegenzug nicht mal viel an der Webseite gemacht. Es gibt dafür verschiedene Gründe, auch private die ich nicht beeinflussen kann, aber ich habe auch viel Zeit vertrödelt. Für das nächste Jahr habe ich mir daher fest vorgenommen, alles was derzeit angefangen oder angedacht ist im nächsten Jahr zu vollenden. Und als kleinen Druck hier einige verbindliche Termine:

Und als kleinen Ansporn gibt es, wenn ich das Datum eines oder mehrerer Bücher nicht einhält, für den der das als erstes entdeckt und meldet ein kostenloses Buch aus meiner Schreibe nach seiner Wahl.

Dafür will ich beim Blog kürzer treten. Angekündigt habe ich das ja schon lange, aber es wird Zeit es auch zu tun. Ich habe schon seit Jahren das Gefühl das es eigentlich immer dieselben Themen sind die auftauchen, auch weil ich meistens einen Blog schnell wieder vergesse. So wird es einige Lücken geben, denn die Hoffnung das Gastautoren die Lücke auffüllen könnten habe ich inzwischen aufgegeben.

3.1.2015: Die Medien und die Moonhoaxer

Die Medien haben natürlich auch mit dem Phänomen zu tun. Bill Kaysing publizierte seine Moon Fake Theorie doch erst als Fox "Conspiracy Theory: Did We Land on the Moon?" 2001 herausbrachte, wurde aus diesem wirren Geschreibse ein Massenphänomen. Nun das hat zum einen damit zu tun, dass selbst bei korrekter Berichterstattung es sich genügend Dumme finden, die an die Verschwörungstheorie glauben. Die die dran glauben halte ich für weitgehend unbelehrbar, denn wenn sie so dünnen "Beweisen" glauben, dann wird eine Fernsehsendung nicht sie überzeugen.

Meistens aber haben diese Sendungen wegen des Spannungsbogens aber eine Struktur, die wie folgt geht: Es wird dargestellt wie die Leute auf die Idee gekommen sind, dann wie sie sich das vorstellen, inklusive Szenen mit selbstgebastelten Astronautenanzügen nachts in der Wüste, dann kommen die angeblichen Beweise, immer mit dem fragenden Unterton "waren wie wirklich auf dem Mond". Erst am Schluss, sonst wäre es ja langweilig, kommt die Auflösung die meistens sehr schnell geht. Um die nicht parallelen Schatten zu erklären, reicht eine einige Aufnahme auf der Erde, um die fehlenden Sterne zu erklären, ein Kameraschwenk nachts. Das sind dann Einstellungen die einige Sekunden bis maximal eine Minute dauern.

Was herauskommt ist das der Zuschauer drei Viertel bis vier Fünftel der Zeit nur Material "Pro Moon Conspiracy" sah und den Rest der Zeit dagegen. Zudem sind viele der "Pro Beweise" dann mit realen Aufnahmen verknüpft, die viel besser im Gedächtnis haften bleiben. Als die Erklärungen. So erreichen die Medien eher das Gegenteil, zumal sie mit jeder dieser Sendungen das ganze auch noch aufwerten. Wenn sich die Medien damit beschäftigen muss doch was dran sein oder?

Das man mit dem Hintergedanken mit dem Möglichkeiten der Medien so was direkt "beweisen" kann zeigt der Film "Kubrick, Nixon und der Mann im Mond". Der Film ist keine Dokumentation, vielmehr eine Satire oder ironische Aufarbeitung des Genres. Die Story von den Moonhoaxern beeinflusst, damit es spannender wird hat die Aufnahme Stanley Kubrick selbst die Aufnahmen für die CIA gemacht, natürlich verbunden mit Nixon, dessen schlechter Ruf ja bekannt ist und der dann Reitzeugen beseitigen lies.

Der Film arbeitet wenig mit Bildern und Videosequenzen, stattdessen viel mit Interviews. Es gibt dabei zwei Gruppen: bekannte Zeitzeugen wie Kissinger, Astronauten wie Aldrin und Scott und andere Zeitzeuegen. Die Letztern sind Schauspieler und sagen erfundene Texte auf. Dazu kommt der Sprecher aus dem Off, der "Tatsachen" erzählt und dabei echtes mit erfundenem vermischt. Die Technik bei den Szenen ist die: die bekannten Reitzeugen sagen etwas nachdem der Sprecher eine Einleitung machen wobei sich Schauspieler und bekannter Zeitzeuge abwechseln, einmal der eine vorne und einem der andere. Eine Szene: Der Sprecher stellt die Behauptung auf, Kubrick hätte die Fotoausrüstung für "Barry London" nur von der NASA bekommen, wenn er die Mondlandung filmt. Dann schildert die Witwe von Kubrick, wie er verzweifelt nach einem Objektiv sucht, um die Aufnahmen bei Kerzenlicht zu machen und schließlich ein von Zeiss für die NASA entwickeltes Objektiv findet. Diese erste Aussage hat nun nichts mit Verschwörung zu tun. Sie wird es durch den Schauspieler, der behauptet, nur die NASA hätte das Recht dieses Objektiv zu verwenden, weil sie es entwickeln lies und es machte den Dreh zur Mondlandung als Bedingung, also etwas frei Erfundenes (das Objektiv war von Zeiss im Auftrag der NASA entwickelt worden, danach konnte es aber jeder kaufen der es wollte, es war Bestandteil der normalen Produktpalette). So hat man etliche Zeitzeugen zum Mondprogramm, der NASA, Stanley Kubrick und der Politik unter Nixon befragt und geeignete Ausschnitte für den Film genommen.

Das ganze wirkt absolut glaubwürdig. Wer nach dem Schluss nicht mehr den Abspann mit Versprechern der Schauspieler und der Liste der Darsteller mit Rollennamen sieht, könnte es sogar für wahr halten. Es zeigt sehr gut was man mit den Möglichkeiten der Meiden machen kann.

Das gilt noch mehr, wenn man naturwissenschaftliche Dinge in den Medien erklärt. Auf ZDF-Info kommen viele Sendungen vom Discovery Channel und sie sind voll mit Animationen über die Erdvergangenheit, da werden dann Katastrophen wiedergegeben, wie z.B. der Einschlag des Planetoiden an der KT-Grenze von 65 Millionen Dollar oder den "Schneeball Erde". Damit kann man vieles darstellen oder suggerieren wie es war oder zumindest sein könnte. (Die Schneeball Erde Theorie ist zum Beispiel sehr umstritten). Entsprechend kann man so auch fast jedes "beweisen" oder zumindest suggerieren das es so wäre, wenn man es will.

Wenn wir diesen Schritt machen von der Verschwörungstheorie zu einer "alternativen" Erklärung wird's schon schwierig. Die meisten Zuschauer haben nicht das Hintergrundwissen, selbst wenn man naturwissenschaftlich vorgebildet ist so finde ich die "Schneeball Erde" Theorie z.B. sehr unwahrscheinlich, könnte aber nicht sagen, dass sie nicht möglich wäre (ohne Atmosphäre läge die Schwatzschildtemperatur der Erde z.B. bei -6° und sie würde bei stärkerer Eisbedeckung sogar noch sinken. bei einer Atmosphäre ohne Treibhauseffekt wäre also eine totale Vereisung zumindest nicht ausschließbar).

Ich kenne nicht die BBC-Dokumentation die Rakf erwähnt und die das kopernikanische Weltbild als falsch darstellt (das übrigens wirklich falsch ist, denn nach Kopernikus sind die Umlaufbahnen ideale Kreise), aber so was ist z.b. sehr leicht möglich. Es dauerte nicht umsonst viele Jahrhunderte bis man das Ptolemäische Weltbild als falsch beweisen konnte, das konnte auch Kopernikus nicht, das schaffte erst Kepler. Der springende Punkt ist, das von der Sicht von der Erdoberfläche es bei den meisten beobachtbaren Phänomenen keinen Unterschied zwischen beiden Modellen gibt. Die einzige Differenz ist die Rückläufige Bewegung der Planeten bei der Opposition. Um die zu erklären, führte man Epizykel ein, die dann auch die Beobachtungen erklären konnten, zumindest in der Genauigkeit die ohne Fernrohr möglich war. Christus Kolumbus rettete 1504 seine Haut, als er von feindlichen Indianern eingeschlossen wurde, indem er eine Mondfinsternis "voraussagte". Diese war mit dem Ptolemäischen Modell richtig vorausgesagt worden.

Ja manchmal trügen die beobachtbaren Tatsachen. Das Gravitationsgesetz wurde z.B. über Jahrtausende nicht entdeckt. Lange Zeit galt: Ein Körper fällt proportional schnell zu seiner Masse, was sehr leicht mit Federn und Holzsplittern und Stahlstiften beobachtbar ist. Das Gravitationsgesetz entdeckte man nicht durch Fallversuche sondern dem Rollen von Kugeln aus unterschiedlichen Materialen über schräge Ebenen.

Die Medien können auch falsche Darstellungen populär machen. In fast allen Filmen über Kolumbus kommen Szenen in denen er sein vorhaben vor "Wissenschaftlern" verteidigen muss, da ja die erde eine Scheibe sei und er so von dem Rand herunterfalle. In Wirklichkeit glaube damals schon keiner an diese Hypothese, schon die Griechen erkannten das die Erde eine Kugel ist, das ist experimentell daran überprüfbar dass bei Schiffen die über dem planen Meer auftauchen aus jeder Richtung zuerst die Mastspitze auftaucht, dann das Segel und dann der Rumpf. Das wäre bei einer Scheibe nicht so. Erasthotenes bestimmte den Erdumfang schon 240 v. Chr auf 41.750 km, also bis auf einen Meßfehler von weniger als 5% genau.

Nun wurde Kolumbus in der Tat damals angegangen, und zwar weil man diesen Erdumfang kannte und weil die Portugiesen schon nach Indien gefahren waren auch die Entfernung dorthin. Spanien liegt bei 5 West, Indien bei 90 Grad Ost. In Höhe des 40 Breitengrades ist das eine Entfernung, wenn man nach Westen fährt von 23400 km. Kolumbus dagegen war im Irrtum und ging von einem Erdumfang von 28.000 km aus, worauf sich diese Entfernung auf 15.700 km reduziert (trotzdem dürfte er selbst wissen dass er nach 4000 km nicht bei Indien angekommen sein kann).

Trotzdem wird diese geschichtliche Auseinandersetzung immer falsch dargestellt: Alle Filme stellen Kolumbus als Genie dar und die Gegner als Dummköpfe die an einem veralteten Weltbild festhalten (Scheibe), dass sie stattdessen in genauer Kenntnis der Entfernung zu Indien die Erfolgschancen sehr realistisch einschätzten wird so ins Gegenteil gekehrt. Übrigens machte man sich damals ernsthaft Gedanken wie die Leute auf der Südhalbkugel nicht von der erde "herunterfallen", die Gravitationskraft war ja noch nicht entdeckt ....


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99