Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 137 : 27.10.2009

Deinstag den 27.10.2009: Olivenöl

Ich will, weil der Blog doch arg raumfahrtlastig geworden ist, mal in nächster Zeit wieder ein paar Ernährungsthemen aufgreifen - für die interessieren sich übrigens weitaus mehr als für Raumfahrt. Für die treuen Blogleser aber hier noch zwei Neuigkeiten: Ein neuer Aufsatz ist online - über die Phobos-Grunt Mission. Und der erste Band des Raketenlexikon: Band 1: US Trägerraketen ist nun auch bei Amazon lieferbar. Als ich heute bei den Umsätzen bei BOD nachschaute, stellte ich fest dass es schon jemand bestellt hat - der ist echt schnell, denn ich selbst habe heute erst mein Exemplar und das für den Korrekturleser (der zweite ist beim zweiten Band nicht beteiligt und möchte daher lieber diesen Band haben) bestellt.

So nun aber zum heutigen Thema. Bei Fetten gibt es ja einige Mythen, die ich mal an dieser Stelle aufklären will.

Mythos 1: Olivenöl ist besonders wertvoll

Wer die ganzen Sendungen rund ums Kochen anschaut merkt, dass Köche auf Olivenöl schwören und es muss dann auch die beste Qualität sein. Das letzte ist verständlich, denn das besondere an Olivenöl ist sein ausgeprägter Eigengeschmack, der aber verloren geht wenn man es erhitzt oder nachbehandelt z.B. um unerwünschte Bestandteile zu entfernen. So ist die höchste Qualität kaltgepresstes Öl. Dafür müssen nicht nur die Oliven kalt gepresst sein (geringe Ausbeute), sondern es müssen auch Früchte ohne Beschädigung sein und die Oliven dürfen nicht überreif sein, sonst enthält das Olivenöl zu viele freie Fettsäuren (kratziger Geschmack) und andere Fettabbauprodukte die seine Qualität mindern. Wenn dies nicht der Fall ist oder es heißgepresst wird um die Ausbeute zu erhöhen bzw. sogar raffiniert (darunter versteht man verschiedene Verfahrensschritte um unerwünschte Fettbegleitstoffe wie freie Fettsäuren, Phsophatide oder Farbstoffe zu entfernen) dann resultieren schlechtere Qualitäten.

Doch darum geht es hier nicht, denn wir beschäftigen uns mit der ernährungsphysiologischen Wirkung. Es ist ja unbestritten, dass der Geschmack von Olivenöl viel ausgeprägter ist als bei Sonnenblumenöl oder Sojaöl, doch das hat nichts mit der Zusammensetzung zu tun. Zwei Dinge sind an einem Öl wichtig:

Dabei gibt es meist eine gewisse Verbindung: Öle mit einem hohen Gehalt an essentiellen Fettsäuren enthalten auch meist viel Vitamin E, da dieses die  Fettsäuren vor Oxidation schützt.

Öle sind als Naturprodukte gewissen Schwankungen unterworfen, ich gebe hier mal die Analysen von Olivenöl mit drei Ölen zusammen, die Bestandteil billiger Pflanzenöle im Supermarkt oder Mischungen derer sind:

  Olivenöl Sonnenblumenöl Sojaöl Rapsöl
Palmitinsäure 11,5 % 6,5 % 10 % 4 %
Stearinsäure 2,5 % 5 % 5 % 1,5 %
Ölsäure 75,5 % 23 % 21 % 63 %
Linolsäure 7,5 % 63 % 53 % 20 %
Linolensäure 1,0 % <0,5 % 8 % 9 %
Vitamin E 12 mg/100 g 55 mg/100 g 15 mg/100 g 15 mg/100 g

Nun was sagt uns diese Tabelle? Die Zusammensetzung von Olivenöl stimmt in etwa mit der von Rapsöl überein, ähnelt aber nicht der von Soja- oder Sonnenblumenöl. (aus diesen beiden Sorten besteht normalerweise das preiswerte Pflanzenöl)..Ernährungsphysiologisch von Bedeutung sind die Fettsäuren die der Körper nicht selbst produzieren kann und die er für den Aufbau körpereigener Bausteine benötigt. Diese werden als essentielle Fettsäuren bezeichnet und davon sollte jeder mindestens 12 g pro Tag zu sich nehmen. Essentielle Fettsäuren finden sich kaum in tierischen Fetten (Ausnahme: Fisch), aber in vielen Pflanzlichen. Es gibt aber Ausnahmen und dazu gehört gerade das so beliebte Olivenöl. Die beiden essentiellen Fettsäuren in dieser Liste sind die Linolsäure und die Linolensäure. Die letztere ist eine sogenannte "Omega-3 Fettsäure". Dieser chemische Ausdruck hat es tatsächlich in die Umgangssprache geschafft. Er ist ein Hinweis für Chemiker wo die Doppelbindungen im Molekül beginnen. Es gibt unterschiedliche Synthesewege in der Natur die dazu führen, dass die erste Doppelbindung beim Dritten C-Atom nach dem Schwanzende (mit der Methlygruppe) oder an der sechsten Position oder neunten Position beginnen. Diese werden dann ω-3,  ω-6 und ω-8 Gruppe bezeichnet. Jede Gruppe enthält mehrere Fettsäuren die unterschiedlich häufig vorkommen.

Die Linolsäure und Linolensäure sind beide essentielle Fettsäuren, aus ihnen entstehen Hormone. Dabei gehört die Linolsäure zu ω-6 Gruppe und die Linolensäure zur ω-3 Gruppe. Die Ölsäure aus der Olivenöl vorwiegend besteht gehört zur ω-9 Gruppe. Sie ist nicht essentiell. Während aus der Linolensäure die Linolsäure gebildet werden kann, ist dies umgekehrt nicht möglich. Die aus Fettsäuren der ω-3 Gruppe gebildeten Hormone Prostagladine erhöhen die Fließfähigkeit des Blutes, senken den Blutdruck und den Cholesterinspiegel. Letzteres tun auch die Fettsäuren der ω-6 Gruppe. Jedoch scheint die Gruppe der ω-3 Fettsäuren insgesamt effektiver die Risikofaktoren für Arteriosklerose zu bekämpfen.

Leider sind die ω-3 Fettsäuren in vielen Ölen nur in geringen Mengen enthalten, dafür in größeren Mengen in fetten Seefischen (Hering), daher die Empfehlung viel Fisch zu verzehren. (Dies gilt übrigens nicht für den Magerfisch der gerne für Fischstäbchen verwendet wird). Auf der anderen Seite kann der konsequente Einsatz von linolensäurehaltigen Ölen auch die Versorgung mit diesen Fettsäuren nachhaltig sichern, einfach deswegen, weil es in größerer Menge verzehrt wird als Fisch, der nicht jeden Tag Bestandteil der Ernährung ist.

Unter diesem Aspekt betrachtet ist das Olivenöl nicht so gut wie das Sonnenblumen- oder Sojaöl. Der Gehalt an beiden essentiellen Fettsäuren ist sehr niedrig und Sonnenblumenöl weist zudem noch sehr viel mehr Vitamin E auf  Sojaöl dagegen mehr an ω-3 Fettsäuren. Olivenöl mag daher geschmacklich besser sein, aber nicht von der Zusammensetzung.

Was folgt für den täglichen Einsatz in der Küche? Überall dort wo nicht der Olivenölgeschmack benötigt wird, also beim Braten und Kochen sollte man Sonnenblumenöl oder Sojaöl einsetzen. Dafür kann man auf feste pflanzliche Fette (wie Palmin oder Kokosfett) verzichten, diese enthalten nur geringe Mengen an essentielle Fettsäuren. Für Salate oder andere Gerichte die nicht erhitzt werden müssen kann man dann zum Olivenöl greifen. Wenn es nur auf den Geschmack ankommt, so kann man auch zu Wallnussöl greifen, das 13,4 % Linolensäure enthält und auch einen ausgeprägten Eigengeschmack hat.

Freitag 30.10.2009: Wann kommt die integrierte Backuplösung?

Da ich derzeit wegen einigen Hardwareproblemen, die mir das wohl bald kommende Ende meines derzeitigen PC's anzeigen, auf der Suche nach einem neuen bin, drängt sich mir ein Thema auf: Backups. Ich bin irgendwie drauf gekommen als ich überlegt habe ob ich die zweite später gekaufte 500 GB Platte in den neuen PC übernehmen soll oder nicht.

Die Sache mit dem Backup ist die, dass es automatisch erfolgen soll, ohne dass der Anwender sich drum kümmert, idealerweise muss er sie auch gar nicht anstoßen. Es gibt heute zwei Gefährdungen für die Daten: Das eine sind Hardwaredefekte - Wie ich der aktuellen ct entnehme hat eine Festplatte eine Ausfallwahrscheinlichkeit von 2 % pro Jahr. Bei einer durchschnittlichen Benutzungsdauer von 4 Jahren sollte also jeder 12-13.te Anwender von einem Headcrash betroffen sein. Das ist nicht gerade wenig. Das zweite ist der Anwender selbst - Löschen oder Überschreiben aus Versehen ist schnell passiert und es gibt immer noch Viren und andere Malwäre die auch noch aktiv werden kann. So habe ich mal von einem Virus gelesen, das Dokumente des Anwenders verschlüsselt und erst nach Zahlung von Geld an ein russisches Konto gibt es (vielleicht) das Passwort zum Entschlüsseln per E-Mail.

Nun gibt es ja in Windows schon eine integrierte Sicherung: Die Systemwiederherstellung. Schade nur, dass die Sicherung der Daten immer noch Sache des Anwenders ist. Ich denke ein grundlegendes Backuprogramm sollte im Betriebssystem integriert sein: Grundlegend heißt es muss nicht alles können, also nicht Images ziehen und kein Restore von der Rettungs-CD aus. Sondern es geht einfach um ein automatisches Backup der Daten, nicht der Programme. Es sollte aber selbstständig aktiv sein, wenn die Hardwarevorrausetzungen vorligen, ohne dass man es extra starten oder installieren muss, so wie heute die Windows Firewall automatisch aktiviert ist.

Meine Vorstellung:

Dazu gehört natürlich noch einiges an Feineinstellungen in Windows. So landen heute im Ordner "Dokument und Einstellungen" auch zahlreiche temporäre Dateien wie z.B. der gesamte Cache von Browsern. Das gehört nicht hierhin. Das gehört alles in ein temporäres Verzeichnis, das ja dann wenn man will auch pro Benutzer weitere Unterordner hat. Im Ordner "Dokumente und Einstellungen" gehören nur wirklich Daten oder wichtige Einstellungen hinein, nichts was nur temporär wichtig ist oder entbehrlich ist.

Mich wundert dass noch kein Festplattenhersteller mit Microsoft einen Kooperationsvertrag abgeschlossen hat und selbst so ein Programm entwickelt hat und es dann nur aktiviert wird, wenn die Zielplatte vom Hersteller stammt. Ich habe auf meinem Rechner mal die Seagate FreeAgent Tools installiert, die mit auf einer USB Platte drauf waren. Das war so eine Lösung. Ich benutze sie heute aus zwei Gründen nicht mehr: Die USB Platte ist recht laut wenn sie läuft und das tat sie dauernd durch den häufigen Zugriff.  Vor allem aber legte er zig Kopien jeder Datei an und dadurch wurde bald ein ziemlicher Platz belegt.

Eine besser programmierte Lösung würde Anwendern und Festplattenherstellern nützen: Anwender weil sie eine Datensicherung hätten und selbst beim PC Totalausfall die Datenplatte dann in den neuen einbauen können und mit (einer integrierten Funktion) nach Installation der Programme Einstellungen und Daten wie im alten PC hätten. Und sie würde den Festplatenherstellern helfen, denn der Umsatz steigt. Dabei ist das heute durchaus zu finanzieren: Eine 500 GB Platte kostet unter 40 Euro. Das sind etwa 5-10 % Mehrkosten beim PC Preis für eine Datensicherung.

Ich halte es für besser als ein RAID im Mirror Betrieb. Dies mag andere Vorteile haben (Sicherung des ganzen Betriebssystems), aber es schützt nicht vor Anwenderfehlern, die meiner Erfahrung nach heute viel öfters Datenverluste verursachen als Festplattenausfälle. Mit einer Neuinstallation von Betriebssystem und Programme können die meisten Heimanwender leben können, nicht jedoch mit dem Verlust all ihrer Kontakte und Dokumente.

Donnerstag 12.11.209: Lebenszeichen

BücherIch wollte nur sagen, dass ich noch existiere. Wie schon im letzten Blog angedeutet hat mein alter PC Probleme.  Nachdem ich ihn schon auseinander genommen und um die Hälfte des Speichers und den DVD Brenner erleichtert habe (nun im PC meines Bruders), habe ich ihn nochmals zum Booten bekommen. Ich rechne aber nicht mit einer dauerhaften Lösung und der neue ist auch schon bestellt. Daher nur ein kleiner Blog als Lebenszeichen.

Wie schon hier verlautbart war ich letzte Woche im Urlaub, genauer gesagt beim halbjährlichen Großputz in unserem Ferienlandhaus in Nesselwang. Ich habe seitdem Zeit gehabt über ein paar Dinge nachzudenken und die Ergebnisse will ich mal heute passieren lassen. Eines was mich wundert ist dass ich dort Dinge bei jedem Wetter mache (auch diesmal nur Temperaturen wenig über dem Gefrierpunkt) für die ich zuhause immer Ausreden finde und wenn garantiert nicht so pingelig mache. Dazu gehört z.b. das Putzen, im Ferienhaus entferne ich nachdem sich Gäste schon beschwert haben am Schluss sogar Wassertropfen von der Edelstahlspüle (es gibt tatsächlich Leute für die das normal ist wie z.B. die Sekretärinnen bei meinem ehemaligen Arbeitgeber). Ich dachte immer das läge an der mangelnden Ablenkung (kein Internet, keine Möglichkeit ohne Auto größere Ausflüge zu machen) oder daran, dass es ein vermietetes Haus ist und nicht meine eigene Wohnung wo es mehr nach dem Motto "Passt scho" geht. Aber ich bin dann darauf gekommen, dass es wohl eher der Termindruck ist: Ich habe genau 6 Tage und dann muss alles im Haus und Garten erledigt sein. Ich habe mich dann daran erinnert dass ich auch einige Programme im Auftrag programmiert habe und die sehr gut wurden - immer unter den Bedingungen von festen, knappen Fristen. Bei eigenen Programmen fange ich dagegen mal an, verliere die Lust, lasse mich ablenken und es bleibt dann lange liegen.

Daher habe ich mir nun Termine gesetzt um noch bessere Arbeit hin zu bekommen:

Danach sollten die europäischen Trägerraketen zurück sein, so dass mit etwas Glück das nächste Buch noch dieses Jahr und das übernächste Mitte April erscheinen. Danach sollte es im Monatsabstand weitergehen. Die Erstauflagen werden dann als E-Books verfügbar sein. Wie es danach weitergeht lasse ich mal offen.

Das zweite was ich dann feststellte ist, ist das ich und meine Mutter unter Harz IV Satz leben. Da kam eine Sendung in SWR3 über Leute die ein Sparkochbuch erstellen, nachdem sie schon erfolgreich eine Broschüre Geschieben haben. Das Ziel: Essen mit dem Harz IV Satz von 4,33 Euro. Dafür suchen sie in ganz Deutschland "Sparrezepte". Gezeigt wurde wie sie in Baden-Württemberg fündig wurden. So mit einem meiner Leibreichte: Gaisburger Marsch. Das wundert mich nicht, gibt es doch bei uns den Spruch "Bei den Armen Leuten kann man das Kochen Lernen und bei den reichen das Sparen". Nebenbei erfuhr ich, dass der Harz IV Satz 4,33 Euro pro Tag für Essen ist und das sind bei 2 Personen dann rund 260 Euro pro Monat. Nun ist meine Mutter 84 und ich erledige alle Einkäufe für die mit und wir essen auch mittags zusammen. Dabei brauche ich pro Monat in der Regel 250 Euro, also noch unter dem Satz und ich finde nicht, dass unser Essen enthaltsam ist.

Soviel für heute. Wenn der PC morgen nochmals bootet gibt's dann auch einen neuen Blog.

Freitag 13.11.2009: Eine kleine Geschichte der Videokarten

Eine Mail gestern in der meine Aufsätze zur Geschichte des Computers gelobt wurden, brachte mich auf die Idee mal wieder darüber was zu schreiben. Nun finde ich die derzeitige Entwicklung ziemlich langweilig und sehe auch so was wie eine Schere zwischen Anwendungen und Hardware - es wird immer mehr Kerne auf einem Prozessor geben, aber es fehlen bei dem Privatanwender die Anwendungen die so viele Kerne nutzen können, da die meisten Anwendungen im Batch oder Dialogbetrieb arbeiten. So habe ich mich einem Kapitel aus der Hardwaregeschichte zugewandt: Der Anzeige von Informationen.

Am Anfang war alles noch recht einfach: Es gab nur Text. Eine Routine im Betriebssystem oder eine festverdrahtete Logik las aus einem bestimmten Speicherbereich den Buchstabencode aus, sah in einer Tabelle aus welche Pixel dafür an waren und welche aus und steuerte damit den Elektronenstrahl. Bei den nachleuchtenden Monitoren, die damals üblich waren musste das Timing nicht exakt sein und eine hohe Bildwiederholrate war auch nicht nötig. Das konnte selbst ein schwachbrüstiger 8 Bit Prozessor nebenher erledigen. So hatten die ersten Computer wie Altair 8800, IMSAI oder von Prozessor Technologies nur monochrome Textdarstellung. Das galt auch für viele der nächsten Generationen wie den ersten Commodore CBM Systemen. Es gab damals keine eigene Hardware für die Darstellung und auch keinen dezidierten Grafikspeicher.

Mit dem Aufkommen der Heimcomputer sollten diese an den Fernseher angeschlossen werden. Die Leute wollten dann spielen oder zumindest Grafik und Farbe haben. Das machte den Job weitaus schwieriger auch weil nun die Signal synchronisiert werden mussten und TV Bildschirme nicht nachleuchten, es also je nach Fernsehnorm 25 oder 30 Bilder in zwei Halbbildern pro Sekunde geben musste. Versuche dies mit dem Hauptprozessor zu machen, waren nicht so gut: Der Sinclair ZX81 sparte sich die Logik dafür ein und machte alles mit dem Hauptprozessor (mit nur 4 IC's dürfte er sehr lange den Rekord für den am höchsten integrierten PC gehalten haben). Doch es ging nur in Schwarz-Weiß mit einem unsauberen Bild und jedes Mal musste vor Bildschirmausgaben und -eingaben der Prozessormodus umgeschaltet werden vom Fast Modus in den Slow Modus - der letztere war nicht schneller, nur erlaubte er auch die Veränderung des Bildschirminhalts.

Eine Besserung brachten die ersten Videoprozessoren wie das TMS 9918 und der MC6845. Sie griffen auf einen eigenen Speicherebereich zu, der entweder separat war oder gemeinsam mit der CPU genutzt wurde. Die einfachste Aufgabe dieser war es, den Inhalt eines Speicherbereiches auf einem Monitor oder TV Gerät auszugeben und die entsprechenden PAL und NTSC Signale zu erzeugen - mit korrekten Synchronisationsignalen. Das Bild (die Pixel) wurden aber von der CPU berechnet. Beide hatten verschiedene Modi mit denen man die Anzahl der Farben pro Pixel, die Pixelanzahl pro Zeile und die Zeilenzahl variieren konnte und so waren sie weitgehend anpassbar. Der MC 6845 war der populärere. Er wurde in zahlreichen Heimcomputern (so der Amstrad Serie) eingesetzt und im IBM PC in der CGA Grafikkarte und der Hercules Karte. Obwohl er "dümmer" war als der TMS 9918 hatte er einen enormen Vorteil: Er konnte viel mehr Grafikmodi und adressierte bis zu 512 KByte RAM. So waren auch sehr hochauflösende Grafikdisplays ansteuerbar. Ich erinnere mich noch an meine Hercules Karte und wie gut die Bilder da in Monochrom in 720 x 348 Pixeln aussahen (zumindest für die damalige Zeit als Standardauflösung 640 x 200 Pixel war). Word (für DOS) konnte durch Grafikanzeige sogar Proportionalschrift, Italiic, Unterstreichen und Fettschrift simulieren. Der MC 5845 wurde auch noch für VGA und EGA eingesetzt, dort ergänzt durch einige Custom IC's für die höheren Farbmodi, die er nativ nicht beherrschte. Ein Vorgängermodell, der 6545 wurde in zahlreichen Commodore Maschinen eingesetzt.

Der TMS 9918 eingesetzt bei dem Texas TI 99 4A und der MSX Serie hatte zwar nur wenige einprogrammierte Modi und konnte nur 16 KB Speicher adressieren, aber er war darauf ausgelegt erstmals Grafik nicht nur anzuzeigen, sondern auch zu erzeugen. So besaß er einen Sprite Generator - er konnte eine Spielfigur wie das Pacman Männchen selbständig animieren und auf den Hintergrund reagieren oder bei einer Kollision einen Interrupt auslösen und so den Hauptprozessor entlasten. Das war der erste Vorläufer zu den heutigen Chips die nicht nur den Inhalt anzeigten.

Danach tat sich erstmals lange Zeit nichts. Zwar stiegen bei EGA und VGA die Auflösungen, aber es veränderte sich nicht die Technik der Grafikkarten. Nach wie vor zeigten diese nur den Bildschirminhalt an anstatt ihn zu verwalten. So war es beim IBM PC unter DOS beliebt, direkt in den Bildschirmspeicher zu schreiben, anstatt das BIOS dazu zu bemühen. Mit dem Verlust der Marktführerschaft von IBM Ende der achtziger Jahre gab es auch ein Vakuum bei der Entwicklung. Es gab nun nicht mehr eine Firma die einen Standard setzte sondern jeder Hersteller produzierte seine eigene Super-VGA Karte: Das war eine VGA Karte die mehr konnte als die VGA Auflösung (meistens 800 x 600 und/oder 1024 x 768). Es war jedoch nicht standardisiert und so lieferte jeder Hersteller Treiberdisketten für gängige Software wie Lotos 1-2-3, Autocad oder Turbo Pascal. Als ich damals programmierte baute ich in meine Programme Menüs ein in denen der Anwender seine Grafikkarte wählen konnte und der passende Treiber dann gewählt wurde - alles nicht gerade kundenfreundlich.

Das ganze änderte sich mit Windows. Nun gab es diesen neuen Standard und nun war auch alles Grafisch. Es kamen die ersten Grafik-Beschleuniger Karten auf den Markt. Bekannt war die Tseng ET4000. Der Unterschied: Anstatt den Inhalt des Speichers bloß wiederzugeben erzeugten sie diesen nun erstmals. Bei diesen Karten verband ein Treiber sie mit Windows: Sie konnten die elementaren Zeichenroutinen von Windows 3.1 in Hardware ausführen wie Linien Zeichen, Polygonzüge erstellen oder Flächen füllen. Es gab dann auch die ersten Benchmarks welche die Geschwindigkeit maßen und den ersten Skandal: Einige Hersteller prüften in ihren Treibern, ob das Programm das die Zeichenoperationen anstieß, das Benchmarkprogramm von Ziff Davis (Zeitschrift PC Wourld) war und wenn dies der Fall war, dann führten sie nicht alle Operationen aus (Ausnahme: Endergebnis) und waren so scheinbar schneller.

Der Urvater der heutigen Grafikkarten waren Ende der neunziger Jahre die Voodoo Karten von 3DFX. Diese Karten hatten erstmals in Hardware Operationen die für Spiele gebraucht wurden, wie Schattenwurf oder Berechnung ob ein Element nicht ein anderes verdeckt. Sie läuteten den Siegeszug dieser Serie ein, denn für nichts zahlen die Leute mehr Geld als für Spiele. Gleichzeitig begann ein Verdrängungswettbewerb unter den Herstellern von Grafikkarten bei dem fast alle Firmen unter gingen. Heute sind nur noch ATI und NVIDIA übrig. In absoluten Stückzahlen dominieren aber die Motherboard Chipsätze: Intel hat einen Marktanteil von über 50 % an den Grafikchips und fertigt nur Chips für die Mainboards. Von den rund 45 % die Nvidea und ATI zusammen an Marktanteil haben dürften auch viele auf integrierte Lösungen entfallen.

So verwundert es nicht, dass heute beide große Hersteller nach alternativen Möglichkeiten für ihre GPU's suchen, die inzwischen schon längst leistungsfähiger als eine CPU sind. Je nach Typ arbeiten einige Hundert kleiner Kerne auf einer GPU. So gibt es Bibliotheken mit denen Video Encoding viel schneller auf einer GPU möglich ist und auch die Programmierung mit C und FORTRAN ist heute möglich. Beide Firmen arbeiten daran auch die doppelt genaue Berechnung zu beschleunigen - sie spielt für Spiele keine Rolle, ist aber für den Einsatz in Wissenschaft und Technik notwendig. Warum? Nun es gibt nur wenige Leute die 500-1000 Euro für eine Top Spielekarte hinlegen, die nach einigen Monaten veraltet ist. Aber bei einem Supercomputer bei dem sie verspricht 10 mal schneller als eine normale CPU zu sein, ist das kein Thema. In einem solchen System landen dann heute gerne pro Rechner gleich mal 10.000-100.000 GPU's und so ist dieser Markt durchaus interessant für die Hersteller. Doch auch hier versucht Intel mit einem Prozessor mit 256 Kernen gegenzuhalten. Ob es dazu kommen wird ist noch offen. Vor einem Jahr angekündigt, ist es recht still um das Projekt geworden und es ist eben kein Massenmarkt wie bei den normalen Prozessoren: Für alle anderen Zwecke haben heute die Leute schon Probleme nur ihre vier oder acht Kerne auszulasten.

Ich finde es unter dem Gesichtspunkt der Energieeffizienz und der Reduzierung der Geräuschkulisse schon gut, dass es heute Lösungen gibt, bei denen man eine Grafikkarte zusätzlich zur Onboard Grafik hinzunehmen kann. Wenn gespielt wird, so schaltet sich die Mainboard Grafik ab und schleift die Signale der Grafikkarte durch an den Monitorausgang und wenn dies nicht benötigt wird, so wird die Grafikkarte abgeschaltet. Denn eines ist leider auch immer noch gegeben: Wird eine GPU nicht gefordert, soll sie also nur die Windows Elemente anzeigen, aber nicht laufend eine Spieleszenerie anzeigen, so braucht sie nur einen Bruchteil der Grafikleistung, die Leistungsaufnahme sinkt leider nicht im selben Maße. Das verbindet das beste aus beiden Welten, denn für mich ist wichtiger das bei der normalen Arbeit mein PC leise ist und das erreicht man am besten mit einem geringeren Energieverbrauch.

Samstag 14.11.2009: Mit der Railgun in den Orbit?

Bei den Diskussionen über die Reduktion der Startkosten vergisst man eine Möglichkeit: Einen Teil der Startenergie nicht durch eine Rakete aufzubringen. Nun mit einem Flugzeug wird man nicht mehr als Mach 1-3 schaffen, wobei die Nutzlast stark abnimmt und RAMJETS und SCRAMJETS sind immer noch experimentell und brauchen selbst einen Antrieb der sie auf Mach 2-3 beschleunigt. Was jedoch geht, ist die Nutzung einer elektromagnetischen Kanone.

Es gibt zwei Hauptgattungen die Railgun und Coilgun. Sie beschleunigen beide mittels einer Wechselwirkung von elektromagnetischen Feldern wobei im einen Fall die Lorenzkraft und im anderen Fall Magnetfelder die Beschleunigung erbringen. Auf dieser Basis entstanden schon Kanonen die kleine Metallkugeln auf die Geschwindigkeit von Satelliten beschleunigen - benutzt z.B. um Meteoritenschutzschilde zu testen oder Meteoritenkrater künstlich zu erzeugen aber auch die Magnetschienenbahn, die etwas anders das gleiche technische Grundprinzip umsetzt. Die US Army arbeitet an einem Geschütz das Mach 7 (rund 2100 m/s) Geschossgeschwindigkeit erreicht und bis zu 64 MJ Energie aufweist - das wäre immerhin bei dieser Geschwindigkeit ein 29 kg schweres Projektil.

Damit kann man also einige Kilometer pro Sekunde erreichen, und wie die Magnetschienenbahn zeigt auch große Massen beschleunigen. Bei einer hinreichend langen Beschleunigungsstrecke mit vielen Kondensatoren (sie speichern die Energie, die in einem kurzen Augenblick abgegeben werden muss) müsste es auch möglich sein einen Satelliten zu beschleunigen.

Das Problem ist nur die Länge der Beschleunigungsstrecke. Eine Rakete, die schnell beschleunigt braucht trotzdem einige Zeit, bei den schnellsten Raketen so 200-300 Sekunden um die Orbitalgeschwindigkeit zu erreichen und sie legen dabei einige Hundert Kilometer zurück. Eine so lange Beschleunigungsstrecke wäre auf der Erde schwer möglich - vor allem keine lineare. Als Kreisring wie in CERN würde es sicher gehen. Doch ein Körper der auf einer Kreisbahn läuft wird dauernd durch eine Kraft auf diese Bahn gezwungen und bei einigen Kilometern pro Sekunde Kräfte auf einen Körper einwirken zu lassen die ihn in eine Kreisbahn zwingen klappt nur bei sehr kleinen und leichten Elementarteilchen.

Weiterhin sollte der Austrittspunkt möglichst hoch sein, damit die Atmosphäre ihn nicht stark abbremsen kann. So ist der ideale Ort eine Beschleunigungsstrecke mit einer leichten Steigung an einem Berghang. Sie sollte möglichst lang sein, da nach der einfachen Formel Weg = (Zeit²)*Beschleunigung /2 der zurückgelegte Weg immer größer wird je höher die Beschleunigung ist.

Ich halte für einen idealen Startpunkt den Kilimandscharo. Er ist ein erloschener Vulkan der sich 4200 m über der umgebenden Ebene erhebt. Es gibt zwar höhere Berge, aber es geht nicht um die absolute Höhe sondern die Beschleunigungsstrecke. Sie sollte möglichst lang sein was von Höhendifferenz zur umgebenden Ebene abhängt (die z.B. auch beim Mount Everest nicht höher ist, weil eben das Hochplateau des Himalajas höher liegt) und der Steigung - die ist beim Kilimandscharo recht niedrig. Um die Strecke noch zu erhöhen sollte es in der anderen Richtung (unter der Erde) weiter gehen. Die tiefsten Goldminen in Südafrika sind 4 km tief. Zusammen mit den 4,2 km die der Gipfel vom Kilimandscharo über der Ebene liegt sind das 8,2 km. Bei einer Steigung von 20 Grad ist das eine Beschleunigungstrecke von 24 km. Ich habe mal in einer Tabelle die maximale Endgeschwindigkeit aufgeführt für einige mittlere Beschleunigungen:

Beschleunigung Endgeschwindigkeit Zeit
55 m/s 1624 m/s 29,5 s
100 m/s 2190 m/s 21,9 s
200 m/s 3098 m/s 15,5 s
400 m/s 4381 m/s 10,9 s
800 m/s 6196 m/s 7,75 s
1600 m/s 8763 m/s 5,47 s

Bei einer hohen Beschleunigung erreicht man also eine Geschwindigkeit, die ausreicht einen Orbit zu erreichen. Die Frage ist nun: Wie viele g's hält ein Satellit auf. Bei Raketen liegt die Beschleunigung bei unter 6 g. Da wäre also die erste Zahl relevant. Immerhin erreicht man so über 1600 m/s - das ist in etwa die Geschwindigkeit bei der bei Ariane 5 die Booster abgetrennt werden. Doch das Hauptproblem bei Satelliten ist nicht die lineare Beschleunigung sondern das Rüttel und Schütteln. So halte ich 100 m/s durchaus für möglich - schon steigt die Endgeschwindigkeit auf 2,1 km/s. Bei Eintauchsonden gab es früher schon kurzzeitig höhere Verzögerungen von bis zu 350 g, aber eben leider nur kurz. Trotzdem sind auch 2,1 km/s nicht zu verachten. Einen weiteren Antrieb braucht der Satellit sowieso, denn er muss die Bahn zirkularisieren.

Die Steigung hat auch einen Einfluss auf den Geschwindigkeitsvektor, der ja nicht nur in die Orbitalrichtung zeigt. Bei 20 Grad Steigung und 2190 m/s Endgeschwindigkeit hat die Nutzlast nach verlassen des Rohrs eine Geschwindigkeit von 1933 m/s parallel zur Erde und 1027 m/s senkrecht dazu, würde so also bis auf 54 km Höhe steigen wo dann spätestens der Zusatzantrieb einspringen müsste.  Es gibt so für jede Orbitalhöhe ein ideales Steigungs/Geschwindigkeitspaar, für das man die "Railgun" optimieren könnte.

Wie würde es gehen?

Es wäre eine Beschleunigungsstrecke mit zahllosen Punkten an denen die Nutzlast in einer aerodynamischen Verkleidung jeweils einen Energiestoß erhält und dabei schneller wird. Da anders als bei bisherigen Kanonen man gute 24 km Strecke hat und so sehr viele Spulen bauen kann verbunden jeweils mit einer eigenen Stromversorgung, müsste es nicht viel schwieriger sein als heute ein kleines Geschütz wo die Abgabe nur in einem Impuls erfolgt. Idealerweise ist die Beschleunigsstrecke luftleer und erst beim Austritt in die Atmosphäre in 5,9 km Höhe wird ein dünnes Siegel vor dem Rohr von dem Projektil durchbrochen. Es steigt dann zur Gipfelhöhe auf, wo der eigene Antrieb zündet. Vorher wird die aerodynamische Verkleidung abgesprengt. Feststofftriebwerke müssten diese Prozedur ohne Problem überleben, bei niedrigen Beschleunigungen auch Antriebe mit flüssigen Treibstoffen. Nimmt man die Zahlen für 100 m/s Beschleunigung und rechnet 600 m/s aerodynamische Verluste dazu (übernommen aus den Zahlen für eine projektierte Railgun für die US-Marine), so wären noch rund 6300 m/s aufzubringen. Eine Stufe mit dem spezifischen Impuls des Vinci Triebwerks (4560 m/s) könnte so bei 10 t Startmasse noch 2500 kg in den Orbit befördern. Zieht man die Leermasse der Stufe von etwa 1,2 t ab, so wären dies noch rund 1,3 t - immerhin 13 % der Startmasse.

Bei höheren Beschleunigungen wird der Vorteil noch höher. Bei 200 m/s Beschleunigung steigt die Nutzlast bei gleichen Daten schon auf 23 %. Geht es nur um den Materialtransport in eine Umlaufbahn, so ist die Beschleunigung weitgehend unproblematisch, dann sind auch 1600 m/s möglich und man braucht nur einen kleinen Antrieb um das Perigäum von Meereshöhe auf die Orbithöhe anzuheben und ein Nutzlastanteil von 80-90 % ist möglich.

Warum wird es nicht getan?

Weil man damit keine Menschen in den Orbit befördern kann, die halten höhere Beschleunigungen nicht aus. Eine solche Strecke mit 24 km Röhren, Beschleunigern bis 4 km unter der Erde und bis in 6 km Höhe erfordert hohe Anfangsinvestitionen, die sich zwar bei vielen Starts leicht amortisieren würden, wenn die Nutzlast verdoppelt oder vervierfacht wäre, aber solche Summen bekommt man nur für bemannte Systeme.  Daher wird es wohl niemals gebaut werden.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99