Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 212: 4.2.2011 - 9.2.2011

Freitag den 4.2.2011: Kommunikation über interstellare Distanzen

Ich bin doch noch auf ein Thema gekommen, dass vielleicht den einen oder anderen interessiert. Kann man über interstellare Distanzen miteinander kommunizieren?

Nun man kann das sich exakt ausrechnen, ich habe da auch eine Formel von Ruppe aus den frühen Achtzigern. Sie liefert aber etwas niedrige Datenraten, wenn man sie auf bekannte Systeme von Raumsonden/Empfänger anwendet. Daher versuche ich mal eine Extrapolation aus bekannten Daten. Zuerst mal die Fakten:

So nun noch einige Gesetzmäßigkeiten

Damit haben wir alles um die Kommunikation über interstellare Distanzen zu berechnen. Nehmen wir erst mal Voyager. Nehmen wir mal an, sie gelangt bis zum nächsten Stern Alpha-Centauri in 4,3 Lichtjahren Entfernung. Wie hoch wäre ihre Datenrate?

Ein Lichtjahr sind 9 460 730 472 580 800 km. Die Datenrate ist daher 19200 Bit/s * (4,5x109/4.3*9,461x1012)² = 0.00023 Bit/s

Das dürfte weit unterhalb der Schwelle sein, wo das Signal im Rauschen untergeht. So geht das also nicht. Wir dürfen aber voraussetzen, dass wir natürlich nicht mit Raumsonden kommunizieren, sondern einer Zivilisation, die mindestens die gleichen Möglichkeiten wie wir hat.

Dazu benötigt man noch die Sendeleistung der DSN Antennen. Ich habe da verschiedene Werte gefunden und mich mal für den mit 34 kW entschieden.

Mit den bekannten Gesetzmäßigkeiten erhöht sich nun die Datenrate um den Faktor (70 m/3.74 m)²*34000/23 Watt = 121 Bits/s

Das ist nicht viel, reicht aber doch aus um einfache Textnachrichten zum nächsten Stern zu schicken.  Bei 6 Bit pro Zeichen (ausreichend für Buchstaben, Zahlen, Sonderzeichen) ist so eine Buchseite mit 2000 Zeichen in 100 s übertragen. Das sind wenn man rund 8 Stunden pro Tag sendet (mehr dürfte wegen der Erdrotation kaum möglich sein) knapp 300 Seiten pro Tag.

Die letzte Frage: Wie hoch ist die Reichweite, wenn man 1 Bit/s Datenrate als Minimum ansieht? Nun Sie steigt um √121 = 11 * 4,3 LJ also auf rund 47,3 Lichtjahre

Wenn man noch etwas weiter geht und höhere Sendefrequenzen nimmt - bei der Satellitenkommunikation sind Downlinkfrequenzen von 12,5 GHz üblich, so erhöht sich die Reichweite auf bis zu 70 Lichtjahre. Leider gibt es hier eine Grenze. bei höheren Frequenzen kommt man in den Bereich in dem Moleküle in der Atmosphäre zum Schwingen angeregt werden und so die Kommunikation stören. Auf der Erde stört z.B. Wasserdampf bei höheren Frequenzen. (Es hat seinen Grund warum, alle DSN Stationen in Wüsten oder Halbwüsten stehen).

Auf der Erde gibt es auch stärkere Sender (bis 400 kW Leistung) und größere Antennen (bis 300 m), doch meistens gibt es dann Einschränkungen. Die Arecibo Antenne ist z.B. nicht mehr frei beweglich. Optische Kommunikation wird wahrscheinlich wegen des Lichts des Sterns direkt neben dem Planeten ausscheiden. Was aber möglich wäre, wäre ein großes Array kleiner Antennen für den Empfang und das Senden zu koppeln und die Signale zu integrieren. Das Optimum wird wohl darin liegen, sehr viele Antennen die in der Größe von heutigen Satelliten Sende/Empfangsstationen liegen zu kombinieren. Z.B. haben 30 Antennen von je 12 m Größe dieselbe Empfangsfläche wie eine 70 m Antenne.

Samstag 5.2.2010: Kohlenwasserstoffe

So mangels neuer Blogthemen fange ich mal weiter in meiner losen Reihe von Chemie-Grundlagenblogs einen neuen hinzufügen. Heute beginnen wir mal mit den Grundlagen er organischen Chemie: Den Alkanen, Alkenen und Alkinen. Diese Verbindungen sind aliphatische (kettenförmige) Kohlenwasserstoffe und Hauptbestandteil des Erdöls. Für einen Chemiker sind sie allerdings recht langweilluge Substanzen, denn sie gelten als reaktionsträge.

Nun sagen sie "reaktionsträge? die Feuerwehr nennt sie Brandbeschleuniger und da gibt es diese tollen Explosionen im Fernsehen....". Ja, sie sind reaktionsträge, denn bei normalen Temperaturen, sagen wir mal Zimmertemperatur, reagieren sie mit fast nichts. Also nicht mit Sauerstoff, Säuren, Laugen, Reduktionsmitteln. Man kann elementares Natrium in Petroleum lagern, das sogar mit Wasser reagiert. Eine Reaktion in einer Flamme bei 800°C sagt gar nichts aus, weil bei diesen Temperaturen nahezu alles reagiert. Den Nach der RGT Regel steigert sich die Reaktionsgeschwindigkeit pro 10°C um 100%. RGT : Reaktionsgeschwindigkeit-Temperatur-Regel).

Der Grund dafür ist dass die C-H Bindung bei Kohlenwasserstoffen fast genauso stark wie die C-C Bindung ist. Die Energie um ein Wasserstoffatome abzuspalten, ist nahezu gleich groß wie die für die Spaltung der Kette.

Alkane, das sind gesättigte Kohlenwasserstoff reagieren unter Normalbedingungen nur mit Halogenen. Dieser Mechanismus beruht auf der hohen Reaktivität von Radikalen. Radikale reagieren unspezifisch mit allem was sie finden. Es ist nicht so einfach Radikale zu erzeugen, doch bei den Halogenen geht es verhältnismäßig einfach, weil dieintermolekulare Bindung schwach ist. Es reicht etwas höhere Temperatur oder sogar Licht dazu aus.

Was dann passiert ist folgendes:

Cl2 + Energie → 2 Cl*

Cl* + CnH2n → HCl + CnH2n--1*

CnH2n--1 + Cl2 → CnH2n--1Cl + Cl*

Jedes Sternchen stehet für ein Radikal. Wenn man sich das genauer ansieht, dann wird am Ende der dritten Reaktion ein Chlorradikal freigesetzt, das wieder in die zweite Reaktion eingeht. Das setzt die Kette fort - das ganze ist eine Kettenreaktion, die stoppt, wenn entweder ein Substrat (Chlor, Alkan) zuende geht, oder die freiwerdende Energie bei der Reaktion nicht mehr ausreicht weitere Radikale zu erzzeugen - die Reaktion ist exotherm, das bedeutet es wird Energie frei.

Obwohl Alkane reaktionsträge sind, ist der Effekt bei geeigneten Umständen enorm: Erste Oranikvorlesung. Beginn mit den Alkanen. Der Assistent fühlt in einen Luftballon Chlorgas und Butan. Das ganze kommt in einen Drahtkäfig. Dann wird ein Foto gemacht - Bumm! Die Energie des Blitzes reichte aus, so viele Chloratome zu spalten, dass die Kettenreaktion aufrechterhalten bleibt und die freiwerdende Energie bewirkt dann die Spaltung weiterer Chloratome. Die Reaktion bezeichnet man als radikalische Substitution. Die Benennung der Reaktionstypen ist in der organischen Chemie relativ geradlinig: Das Substantiv ist der Reaktionstyp und das Verb die Reaktionsumstände.

Allerdings war es dann schon auch. Außer der unspezifischen Verbrennung oder dem Cracken, der Aufspaltung bei hoher Temperatur in kleinere Molekülbruchstücke, gibt es keine Reaktionen der Alkane.

Das ändert sich bei den Alkenen Alkene haben eine Doppelbindung im Molekül. Diese Doppelbindung ist erheblich reaktionsfreudiger als die C-H Bindung der Alkane. Es gibt dafür zwei Gründe. Zum einen ist die Sp3 Konfiguration die der Kohlenstoff bei den Alkanen hat energetisch ungünstig. Die Elektronen in der Doppelbindung stoßen sich gegenseitig ab und die Bindungswinkel betragen nun 120 anstatt 109 Grad. Daher ist die Energie die nötig ist um sie zu spalten auch geringer als bei der zweiten Bindung. Das zweite ist das so viele Elektronen auf einem Fleck Verbindungen anziehen die einen gewissen Elektronenmangel haben oder elektronenliebend sind, weshalb man auvh von einer elektrophilen Addition spricht.

Alkan addieren Verbindungen des Typs XY wobei X an einem der Atome der Doppelbindung und Y an dem anderen addiert wird. Wenn die Reste an beiden Atomen unterschiedlich sind, so gibt es eine Regel:

Der Teil von XY der elektrophil ist addiert sich an dem Atom mit den meisten oder längsten Resten. Auch hier verläuft die Reaktion in mehreren Schritten. Nehmen wir mal die Addition von Wasser:

CH3-CH=Ch2 + H2O → CH3-CH2+-CH3 + OH-

CH3-CH2+-CH3 + OH- → Ch3-CHOH-CH3

Das zwischendurch gebildete Ion (mit der positiven Ladung) nennt man auch Carbeniumion. Es sucht den stabilsten Zustand, d.h. die positive Ladung verschiebt sich dorthin wo das Kohlenstoffatom am besten mit ihr zurecht kommt. Das ist bei dem Kohlenstoffatom mit den meisten Resten der Fall. Sie haben weitere Elektronen in Bindungen und können daher eine positive Teilladung aufnehmen. Der Wasserstoff kann dies nicht, da er nur eine Bindung hat.

Die meisten Verbindungen die addiert werden haben ein Wasserstoffatom in der Bindung wie Wasser, Säuren (HCl, H2SO4). Es können aber auch Halogene, Peroxide oder Boran addiert werden. Der gleiche Mechanismus wird auch bei der Addition von Alkanen genutzt wobei man nur mit geringen Mengen an Additionsmitteln zusetzt. Dann kann das Carbeniumion keinen Reaktionspartner finden und sucht sich ein anderes Alkan/Alken zur Addition wobei ein neues Carbeniumion entsteht.

Aufgrund der vielseitigen Möglichkeiten der Addition und Verknüpfung sind daher Alkene die Ausgangsstoffe für die industrielle Synthese von zahlreichen Stoffen, so Halogenide, Alkohole, Sulfonate und höhere Alkanen.

Bleiben noch die Alkine. Sie haben eine Dreifachbindung im Molekül. Alles über die Alkane gesagte, gilt daher auch für die Alkine, nur sind sie noch reaktionsfreudiger. Das hat zwei Folgen. Zum einen ist die Reaktion praktisch nicht stoppbar. Es ist nicht möglich nur ein Molekül zu addieren und auf der Stufe der Alkene stehen zu bleiben, sondern meistens reagieren diese dann weiter. Das zweite ist, dass das Spektrum der Substanzen mit denen reagiert wird noch größer. So reagieren sie z.B. mit Schwermetallen zu Acetylieden, die jedoch stoßempfindlich sind,  Wer noch als Kind die Spielzeugpistolen in Erinnerung hat: Die Substanz die dort knallt ist Silberacetylid oder Kupferacetylid.

Genauso reaktiv sind konjungierte Doppelbindungen, die Diene. Doch dazu kommen wir noch.

Sonntag 6.2.2011: Die Dominotheorie

Die nun nach Tunesien auch Ägypten ergriffenen Unruhen, gegen die Regierung, (die ja auch schon in Jordanien zur Absetzung geführt haben) erinnern mich an eine in der US-Politik populäre Domino Theorie. Meiner Meinung nach haben die US-Politiker ja ein sehr einfaches, Schwarz-Weißes Bild von der Welt, fast noch mehr wie sie ihr eigenes Land recht unkritisch sehen und die Dominotheorie bestätigt das.

Sie kam zuerst während des kalten Kriegs auf, ich dachte von Lyndon B. Johnson als Rechtfertigung für die Einmischung in Vietnam. Die Aussage war: Wenn Vietnam kommunistisch wird, dann werden wie bei einem Dominospiel alle anderen Staaten in Südostasien auch umfallen um kommunistische Regime bekommen.

Es wundert nicht, das sich diese Theorie als falsch erwies. Obwohl die Vietnamesen 1978 ins Nachbarland Kambodscha einfielen - allerdings wurde das von allen begrüßt, denn sie beendeten den Massenmord der roten Khmer. Sie zogen sich 1989 wieder ab und Kambodscha bekam eine neue Regierung.

Trotzdem ist es nicht verwunderlich, das der DEP (dümmste existierende Präsident) George Dabbel-Ju Busch eine umgekehrte Dominotheorie aufstellte: demnach sollte der Irak nach der Invasion weiter besetzt bleiben, um eine Demokratie zu stabilisieren, die dann zum Sturz aller muslimischen und monarchistischen Staaten in der Umgebung auslöst.

Natürlich ist auch das falsch. Ich möchte nicht bestreiten, dass es einen Dominoeffekt gibt - wir alle haben das 1989 im Ostblock erlebt, als die kommunistischen Regierungen von Ungarn, der DDR, der Tschechoslowakei, Bulgarien und Rumänien innerhalb von sechs Monaten stützten und das findet nun in Tunesien und Ägypten statt. Aber es gibt einen Unterschied: das geht nicht durch Einsetzung einer Regierung von Außen, sondern es geschah durch das Volk. Das Volk in einem Staat, das unzufrieden ist mit einer Diktatur, sieht wie im Nachbarstaat die Leute ihre Regierung absetzen und begehrt auch auf. Es ist ein Katalysator, der eine Entwicklung die unausweichlich ist, beschleunigt.

Das irgendwelche Modelle sich von alleine exportieren, kann man auch daran sehen, dass alle Befürchtungen bestimmte Ideologien würden sich verbreiten, welche die USA schon hatten sich nicht bewahrheitet haben. Weder wurde aus Mittelamerika eine kommunistische Region, noch aus dem mittleren Osten ein einziger Gottesstatt und auch Vietnam ist heute nicht mehr richtig kommunistisch.

Eigentlich sollten die USA doch sehen, das diese Idee absoluter Mist ist. Wenn eine Revolution eine Kettenreaktion auslösen würde: es gab schließlich genug in den letzten Jahrzehnten. Auch das eine Demokratie wie eine Befruchtung für eine Region wirkt, ist mit Gegenbeispielen zu belegen. Vielleicht schauen sie mal über ihre eigenen Landesgrenzen heraus - wenn ihr System so toll ist, warum hat es sich nicht in ganz Amerika durchgesetzt? Ich wage ja zu behaupten, das es viel mehr demokratische Staaten in Amerika gäbe, wenn die USA sich nicht als Kolonialmacht aufgespielt hätten und massiv auf die Innenpolitik vieler Staaten durch Unterstützung von Bewegungen oder Personen die ihnen gefallen (egal ob diese Diktatoren sind) und demokratisch gewählte aber sozialistische Regierungen zu fall gebracht haben. Es ist ja erstaunlich, dass ein Volk, das sich als Mutterland der Demokratie sieht sich imperialistischer als die meisten europäischen Staaten vor 200 Jahren aufführen. Neu ist das nicht - die Monroe Doktrin gibt es seit fast 200 Jahren.

Besonders schlimm ist ja wie nach wie vor Kuba durch das Wirtschaftsembargo zugrunde gerichtet wird. Unabhängig wie man zur Regierung Castros steht - solange es den bösen Bruder USA gibt sehe ich da keine Änderung. Nichts schweist so zusammen wie ein übermächtiger Feind der ein Embargo verhängt hat. Irgendwie ist das die "beleidigte Leberwurstpolitik" - ihr bösen Kubaner habt eine kommunistische Regierung, die nachdem eine US-amerikanisch unterstützte Invasion scheiterte sich an die Russen wendet und dann kurzzeitig Raketen aufstellt. Und weil wir das euch 50 Jahre lang übel nehmen, machen wir eure Wirtschaft kaputt und treiben die Menschen in die Armut. Ja so handeln echte Demokratien, ein Land das grenzenlose Freiheit für die Wirtschaft fordert.

Seid frohj liebe Amis, das viel schlimmere Dinge die ihr anderen Ländern angetan habt euch nicht so übel genommen werden Wie heißt es so schön: Das Land des unbegrenzten Wahnsinns....

Montag 7.2.2011: PC-Paradoxien

Was mir bei meiner Recherche über die Geschichte des PC auffiel ist wie schnelllebiger der Markt geworden ist. Vor 20-30 Jahren dauerte es Jahre bis ein neuer Prozessor einen sehr hohen Marktanteil aufwies. Noch einige Jahre nachdem der 286 und 386 erschienen, wurden noch mehr PCs mit dem Vorgängermodell verkauft. Das ist heute undenkbar. Aus mehreren Gründen. Zum einen war es eine Marketingtaktik von Intel den Verkauf der neuesten Generation zu fördern, die mit "intel Inside" in den frühen Neunzigern begann. Neben der Maximierung des eigenen Profits: nur mit den neuesten Prozessoren gibt es die maximalen Gewinnspannen, war dies auch wichtig um die Konkurrenz abzuschütteln, die meistens hinterherhinkte und trotzdem noch gutes Geld mit der letzten Generation machte.

Das zweite war, dass Intel auch die Geschwindigkeit der Prozessorentwicklung gesteigert hat. Seit Jahren will die Intel einen "Tick-Tack" Zyklus durchhalten: In einem Jahr folgt die Einführung einer neuen internen Architektur, im nächsten die Verkleinerung der Strukturbreite und im übernächsten wieder eine neue Architektur. Das führt allerdings dazu dass es eine Vielzahl von Prozessoren gibt, jeweils die aktuelle Generation, dann noch die etwas ältere, aber in der nächsten Strukturgröße und dann noch mehrere Linien für Desktop, Server und mobile Geräte - keiner blickt mehr durch, zumal ja auch die Bezeichnungen nun keine Rückschlüsse mehr zulassen. Früher war eben Pentium 4 besser als Pentium 3 und 3 GHz waren besser als 2 GHz. Das findet man heute nicht mehr in den Bezeichnungen und weil je nach Anwendungsfall mal vier, mal zwei Kerne besser sein können kann man auch auch nicht auf die Kernanzahl verlassen.

Auf der anderen Seite gibt es jedes Jahr mal eine Umfrage der Zeitschrift ct', die zwar nicht für den ganzen PC Markt gilt, aber ich denke doch einigermaßen repräsentativ ist. Neben verschiedenen Trends fällt mir auf, dass jedes Jahr die Nutzungsdauer eines PC im Durchschnitt ansteigt. Inzwischen sind es über 60 Monate, ich glaube vor 10 Jahren waren es noch 3 Jahre. Das ist für mich nachvollziehbar. Eine Zeitlang erhöhte der immer größere Ressourcenhunger von Windows beim Übergang von 3.1 → 95 → 2000 → xp die Nachfrage nach neuen Prozessoren. Seitdem fiel das weg. Erst mal dauerte es sieben Jahre bis eine Nachfolgeversion erschien und dann wurde die auch weitgehend gemieden. Die beiden letzten Rechner habe ich jeweils nach Defekten ersetzt - leider hat bei mir keiner 5 Jahre durchgehalten sondern jeweils nur vier.

Das ist eines der Paradoxien: Auf der einen Seite wird die Nutzungsdauer also immer länger und damit immer weniger Rechner ausgetauscht. Auf der anderen Seite stellen die Prozessorhersteller (das für Intel gesagte gilt auch für AMD) neue Prozessoren in immer kürzeren Abständen heraus und immer mehr Modelle. Warum das geht? Weil die Leute immer mehr Geräte kaufen. Wie beim Auto gibt es nun den Zweit-PC sprich Notebook, und weil das doch so schwer ist zum Surfen noch einen Dritt-PC (Netbook) und dann noch einen PC für jedes Familienmitglied, dazu noch einen zentralen Server....

Immerhin ist der Zweit-PC recht billig, weitaus preiswerter als Zweitwagen, Zweitwohnung oder Zweitfrau (Geliebte). Man braucht nur erheblich mehr Zeit, wenn man Dokumente hin und her schieben muss, um immer mit der aktuellen Version zu arbeiten. Dazu müssen Netriebssystem und Anwendungen aktualisiert werden - für mich ist der Aufwand zu groß, aber ich gehöre auch zu den Dinosauriern, die lieber mit einem Desktop PC arbeiten anstatt mit einem Notebook. (man kann das natürlich auch an Bildschirm, Tastatur und Maus anschließen und hat dann dieselbe Ergonomie, aber wozu?).

Ich frage mich nur wie lange das noch so weiter geht. Natürlich wird der PC-Boom noch dadurch vorangetrieben, dass nur in Europa, Amerika und Südostasien der Markt gesättigt ist. In den meisten anderen Ländern ist das noch nicht der Fall. Wenn das erst mal gegeben ist, dann wird sich sicher was für Intel, AMD & Co ändern.

Dienstag 8.2.2010: Die Schlechtesten Computer der Welt - Commodore 64

Zeit mal meine Meinung über einige der verkorksten Computerkonzepte zu verbreiten. Mit der Nummer 1 werde ich wohl auf Wiederspruch bei vielen stoßen, ist doch der C64 der Verkaufsschlager unter den Heimcomputern gewesen und hat entsprechend viele Anhänger.

Warum denke ich das? Nun wenn man sich die reinen technischen Daten ansieht ist der C64 sicher ein toller Computer. Aber es gibt eine Reihe von Kritikpunkten die dazu führen, dass ich das Gegenteil denke.

Der Hauptkritikpunkt ist natürlich das BASIC. Damals begrüßte einen ein BASIC Interpreter beim Rechnerstart. Man entwickelte Programme in BASIC und bei vielen Heimcomputern war das auch die einzige höhere Programmiersprache die zur Verfügung stand - weil andere Sprachen meistens mehr Speicher brauchten und der ging dann auch noch vom Arbeitsspeicher ab, während der BASIC-Interpreter im ROM steckte.

Das BASIC 2.0 ist im Prinzip ein fast unverändertes BASIC der PET Serie. Es kamen lediglich einige Befehle für die Ein-/Ausgabe auf die Diskette zu. Weshalb Commodore es nicht erweitert hat ist ein Rätsel. Schon beim Commodore VC20 wurde es unverändert übernommen, obwohl dort zumindest die Farbfähigkeit bei der Hardware hinzukam. Man könnte nun meinen, das es Commodore nicht kann - das Original stammte schließlich von Microsoft, aber beim C128 kamen ja die Grafikbefehle hinzu.

Was es spart sind einige Kilobyte ROM, obwohl das mit 20 kb auch so schon groß genug war. Der Sinclair Spectrum mit Grafikfähigkeiten hat nur 16 kb ROM, der Apple II 12 kb und der ORIC ebenfalls 16 kb ROM. Alle Rechner hatten Grafikbefehle.

Nun kommen die ganz schlauen und sagen "Dass zwang einen sich mit der Maschine auseinderzusetzen". Falsche Antwort: Wenn ich einen Computer mit einem BASIC Interpreter kaufe, will ich in BASOC programmieren und damit die Fähigkeiten des Computers ausnutzen. Wenn ich mich mit den Details des Videoprozessors und Soundchips auseinandersetzen will, dann tue ich das bewusst und programmiere in Assembler, zumal das Zugriffen über Peek und Poke auf Adressen ja um einiges umständlicher ist als die direkte Programmierung in Assembler. Es ist unnötig. Assemblerkenntnisse sind sicher übertragbar, auch wenn jeder Prozessor einen anderen Befehlssatz hat. Die Kenntnisse der Programmierung dec VIC-II oder SID (Grafik/Soundchip) sind dafür nahezu nicht übertragbar auf andere Rechner.

Das nächste ist das Diskettenlaufwerk. Angeschlossen, an einen seriellen Bus, erwarb es sich den Ruf des langsamsten Diskettenlaufwerks, das jemals gebaut wurde. Dabei hatte es einen eigenen Prozessor, aber auch dieser war so schlecht programmiert, das er ziemlich langsam war.

Der Druckerport gehorchte natürlich nicht dem Centronics Standard - wäre ja auch zu einfach gewesen.

Zuletzt das äußere - okay, das Gehäuse war kompakt, aber zu hoch ("Brotkasten") und unergonomisch und was die Designer geritten hat, den Einschaltbildschim mit den Farben hellblau für Text und dunkelblau für den Hintergrund zu gestalten?

Alle Kritikpunkte wären schnell abstellbar gewesen - ein besseres BASIC hätte vielleicht einige Kb mehr erfordert oder man hätte auf einen der beiden Zeichensätze verzichtet. Eine Centronics Schnittstelle kostet auch nicht mehr als eine nach dem IEEE488 Standard - und ein normaler Diskettenkontroller ist sogar weniger aufwendig als einer mit einem eigenen Prozessor. Aber so macht man noch Kasse mit weiteren Produkten wie Simons BASIC (erweitertes BASIC auf einem Steckmodul), eigenen Druckern die an den Port passen und einem eigenen Diskettenlaufwerk - für meinen CPC 464 gab es mindestens vier Diskettenlaufwerke von Fremdherstellern verfügbar. Ich glaube es wäre nicht teurer gewesen als in der Konfiguration in der der Rechner ausgeliefert wurde.

Ich denke das war auch das Konzept: Am Grundgerät verdient man wenig und die Kasse macht man bei der Peripherie. Ihr dürfte gespannt auf den nächsten Rechner sein...

Mittwoch 9.2.2010: Das Leben der Sterne

Heute mal wieder ein Infoblog. Wir beschäftigen uns mal mit dem Leben der Sterne.

Ein Stern beginnt sein Leben, wenn eine Gaswolke sich soweit unter ihrer eigenen Gravitation sich soweit verdichtet hat, dass in ihrem Zentrum eine gewisse Dichte erreicht wird. Ist das nicht der Fall (dazu muss etwa ein Zehntel der Sonnenmasse erreicht werden), so spricht man von einem Braunen Zwerg - das ist ein Himmelskörper der lange Zeit Infrarotstrahlung abstrahlt die aus der Erhitzung durch die Kompression abstrahlt. Auch Jupiter strahlt aus diesen Grunde mehr Energie ab als er von der Sonne erhält.

Damit das Nuklear-Feuer in Gang kommt muss eine gewisse Dichte im Zentrum erreicht sein. Die Gravitation der oberen Schichten verhindert, dass trotz der Erhitzung der Stern explodiert. Es gibt bei sehr massearmen Sternen nur die Proton-Proton-Kette eine Rolle. Sie liefert relativ wenig Energie, hat dafür sehr lange Zeitskalen - es dauert sehr lange bis der Brennstoff verbraucht wird, typisch über 10 Milliarden Jahre bis zum Verbrauch des Brennstoffs.

Bei schwereren Sternen kommt noch der CNO-Zyklus hinzu. Bei der Sonne liefert er nur wenig Energie, aber bei schwereren Sternen macht er den Hauptteil der Energieerzeugung aus. Hier wird aus einem Kohlenstoff Atom stufenweise über Stickstoff ein Sauerstoff gebildet, der dann wieder zerfällt in ein Helium- und Kohlenstoffatom. Bei der Sonne reicht nur im Zentrum die Temperatur aus. Der CNO Zyklus wird schneller durchlaufen in 380 Millionen Jahren, das bedeutet auch, dass er mehr Energie pro Zeiteinheit liefert.

Alle Zyklen haben eine sehr hohe Abhängigkeit von der Temperatur. Bei der Proton Kette ist es die sechste Potenz und beim CNO Zyklus schon die fünfzehnte Potenz. Das bedeutet, dass wenn die Temperatur im Zentrum ansteigt (was bei größerer Masse alleine durch die Gravitation der Fall ist), die Energieerzeugung stark ansteigt und damit der "Treibstoff" viel schneller verbraucht wird - bei beiden Prozessen ist dies Wasserstoff.

Irgendwann ist der Wasserstoff zu Ende und das bei beiden Prozessen gebildete Helium vorherrschend. Dann gibt der innerste Bereich dem Druck der äußeren Bereiche nach, weil nun der Strahlungsduck durch die anderen Kernprozesse fehlt. Sobald die Dichte weiter angsteigen und die Hitze durch den Druck angestiegen ist findet dann das Heliumbrennen statt. Hier fusionieren drei Heliumkerne zu einem Kohlenstoffatom. Das Problem das Sterne haben, ist nun dass diese weiteren Prozesse immer weniger Energie pro Gramm Treibstoff liefern. Gleichzeitig laufen sie in immer kürzeren Zeitspannen ab (Heliumbrennen in 100 Millionen Jahren) und ein immer kleinerer Bereich weist die nötigen Temperaturen für die Reaktion auf. Das ist so ein bisschen wie bei den Menschen: Teilt man die in Einkommensklassen ein, so gibt es immer weniger Personen in einer Einkommensklasse, doch deren proportionale Ausgaben pro Person steigen rapide an.

Bei Sternen gibt es aber nur einen begrenzten Vorrat und so ist der Übergang auf höhere Reaktionen der Beginn der Lebensende ein. Die nächste Stufe, das Kohlenstoffberennen läuft schon in weniger als 1 Million Jahre ab. Am Schluss hat der Stern eine Schalenstruktur - im innersten Bereich laufen die Prozesse ab welche den höchsten Druck und Temperatur benötigen, schalenförmig folgen die mit den niedrigeren Temperaturen und am Schluss die Gashülle in der keine Reaktion erfolgt. Durch den Strahlungsdruck ist ein Stern um so größer je höher seine Masse ist. Das bedeutet ein doppelt so massiver Stern nicht doppelt so groß ist sondern weitaus größer.

Die Sonne wird maximal drei Schichten aufweisen. Ab 8 Sonnenmassen sind es bis zu sieben Schichten. Dabei gibt es die letzten Schichten nur wenige Tage, Wochen oder Jahre vor dem Verbrauch des Kernbrennstoffs.

Doch irgendwann mal ist es wie bei einem Kohlefeuer im heimischen Ofen  - der Treibstoff ist alle. Was passiert dann? Die Kernprozesse kommen zum erliegen, der Kern kann nun nicht mehr durch Energieerzeugung dem Druck der äußeren Schichten etwas entgegensetzen. Er implodiert. Nun stürzen die äußeren Gasschichten aus Wasserstoff die bisher nicht an der Reaktion teilnahmen auf den Kern und heizen sich auf - es kommt zu einer letzten Fusionsreaktion, die entstehende Schockwelle schleudert den Rest des Gases als Rauchring in das All. Es entsteht ein planetarischer Nebel.

Der Kern hat nun eine Masse und wie es mit ihm weitergeht, hängt von der Masse ab. Ist sie kleiner als 1,4 Sonnenmassen, das ist bei den meisten Sternen der Fall, dann gibt es ein Gleichgewicht zwischen Druck durch die Masse und Abstoßungskräfte der Elektronen und Atomkerne. Je schwerer er ist, desto kleiner ist der Kern. Der Kern der Sonne wäre kleiner als Uranus und Neptun, würde aber einen Großteil der Masse aufweisen.

Ist er schwerer so ist die Abstoßung zwischen Elektronen und Protonen nicht mehr ausreichend. Die Elektronen werden in die Atomkerne hineingedrückt und es entstehen Neutronen. Der Prozess stoppt wenn die Abstoßungskräfte zwischen Elementarteilchen wirksam werden. Es entsteht ein Neutronenstern, nun nur noch 10-20 km groß und im Prinzip ein um den Faktor 1019 vergrößerter Atomkern.

Ist der Kern schwerer als 3,2 Sonnenmassen, so reicht die Abstoßung zwischen den Elementarteilchen nicht mehr aus. Nur - eine größere Kraft gibt es nicht mehr. Es entsteht ein schwarzes Loch. Bei beiden Reaktionen finden im Kern bei dem Zusammenstürzen noch weitere Reaktionen statt, weil Druck und Temperatur temporär ansteigen. Die bisherigen Reaktionen brüteten alle Elemente bis zum Eisen hin. Eisen ist der Schlusspunkt aller energieliefernden Kernreaktionen. ab dann muss man Energie aufwenden um höhere Elemente zu erzeugen (daher liefert ja auch der Kernzerfall von Uran Energie). Bei der Implosion entsteht nun viel Energie und es werden in Sekundenbruchteile alle höheren Elemente erbrütet. Es explodiert der Stern in einer Supernova. Das findet so 3-4 mal pro Jahrhundert in der Milchstraße statt.

Da alle höheren Prozesse um so schneller ablaufen je höher die Temperatur ist und diese mit steigender Masse ansteigt hat ein Stern eine um so geringere Lebensdauer je schwerer er ist. Die sonne lebt etwa 9 Milliarden Jahre. Die kleinsten Sterne von 0,1 Sonnenmasse leben über 100 Milliarden Jahre. Die Größten von etwa 100 Sonnenmassen nur wenige Millionen Jahre. Dafür sind sie viel leuchtkräftiger - fast alle hellen Sterne die man am Firmament sieht sind deutlich schwerer als die Sonne.

Hier ein Tipp zu einem schon etwas älteren, aber sehr gut verständlichen und leicht zu lesenden Sachbuch zu dem Thema: Hundert Milliarden Sonnen. Geburt, Leben und Tod der Sterne.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99