Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 192: 4.10.2010 - 9.10.2010

Montag den 4.10.2010: So wird das nichts.

Die ESA hat das ATV entwickelt. Von allen Transportern ist es der vielseitigste, aber dadurch auch komplexeste und teuerste. Das japanische HTV, das sowohl weniger verschiedene Typen an Fracht transportiert, wie auch weniger ambitioniert hinsichtlich automatischem Andocken ist, kam sowohl in den Entwicklungskosten wie auch den Transportkosten erheblich billiger.

Die ESA hat dies immer gerechtfertigt, dass dies auch Investitionen für ein neues Vehikel wäre, das auch Fracht zurück zur Erde bringt (heute ARV genannt). Durch das modulare Design des ATV könnte dies dann preiswerter entwickelt werden, so könnte man den vorderen Frachtbehälter einfach durch eine Kapsel ersetzen. In einem zweiten Schritt könnte diese sogar bemannt sein.

Nun lese ich, dass die ESA das tatsächlich vorhat. Also alles Paletti?

Nein, wer den Bericht genauer liest merkt, dass von dem Versprechen nichts übrig bleibt. Zahlreiche Subsysteme müssen ersetzt werden, so bekommt es einen neuen Kopplungsadapter. Das Servicemodul muss in vielen Teilen upgraded werden, so soll die Stromversorgung verstärkt werden, eine aktive Kühlung eingebaut usw. Besonders lustig fand ich die Passage: "need improved power generation systems and newer avionics to replace obsolete equipment on the ATV." - Lustig deswegen weil die gleiche Avionik Hardware der neue Bordcomputer der Ariane 5 und Vega sein wird, also für diese Träger gerade erst neu eingeführt wird.

Schon alleine die Summe - 150 Millionen Euro für Phase B, die meisten Kosten fallen eigentlich erst in Phase C+D an, zeigt dass es nicht billig werden wird.

Vor allem aber sehe ich keinen Nutzen. Aus zwei Gründen. Zum einen stellt sich die Frage der Notwendigkeit. Die ESA selbst bezifferte den gesamten Bedarf an Gütern die zur Erde zurück gebracht werden soll auf 1.000 bis 1.500 kg pro Jahr. Es gibt schon ein System dass fähig ist Fracht zur Erde zurückzubringen - die Dragon Kapsel von SpaceX die viermal pro Jahr starten soll und jedes Mal (da schwanken die SpaceX Angaben zwischen 1.200 und 3.000 kg zur Erde zurückbringen kann). Der Bedarf für ein zweites System existiert also nicht.

Man investiert also nochmals neue Entwicklungskosten in ein System das nicht benötigt wird und das man auch nicht bezahlt bekommt - es gibt nur eine Vertragliche Verpflichtung einen festgesetzten Frachtanteil zu liefern. Es wird nicht festgelegt dafür ein Technikwunder zu bauen, sondern wenn die ESA einen unnötig teuren und komplexen Transporter baut, dann ist das ihr Bier. Und hier wird das ARV die Nutzlast deutlich senken: Auf 2000 kg zur Station und 1.500 kg zurück. Selbst wenn dann noch Reboosttreibstoff dazukommt ist das deutlich weniger als beim ATV - ist auch klar. Die massive Kapsel kostet Nutzlast.

Vor allem aber: Es kommt zu spät! Nach dem Bericht soll es 2017 fliegen - drei Jahre vor Stationsende. Was soll das? Dann werden vielleicht 2-3 Stück gebaut und dafür wird wieder viel Geld ausgegeben (Schätzungen für das ARV beliefen sich auf weitere 800 - 1000 Millionen Euro Entwicklungskosten). Es würde vielleicht noch Sinn machen, wenn man 2006, als die Entwicklungsarbeiten am ATV abgeschlossen wurden dann an das ARV gegangen wäre. Dann wäre es 2013 zur Verfügung gestanden und eine größere Zahl wären bis 2020, dem derzeit geplanten Betriebsende der Station eingesetzt worden. Aber die damals unsichere Zukunft sprach gegen diese Idee und die gleichen Argumente zogen auch 2008, als bei der letzten Ministerratskonferenz nur 21 Millionen Euro für die Phase B Studie bewilligt wurden. Deutschland wollte erheblich mehr, in etwa ie Größenordnung um die es jetzt geht.

Die Zeit ist verloren und kann nicht kompensiert werden. Daran ist die ESA nicht schuld, das lag an der damaligen Politik der USA. Aber dann wäre es in meinen Augen konsequenter wenn die ESA nun zur Industrie sagen würde: Wir brauchen noch vier bis fünf ATV, wir nehmen die euch ab. Seht zu dass ihr sie billiger produzieren könnt oder sie noch etwas leistungsfähiger und flexibler sind. Also graduelle Verbesserungen die finanzierbar sind.

Ansonsten: Hätte nicht gedacht das Kevins Rätsel so schwierig ist. Vielleicht hätte er fragen sollen, was am 21.7.1969 passierte, das ist ja noch viel schwieriger... Huuh ist das schlimm wenn man mal selbst ein Rätsel stellen muss und dazu ein paar Sätze als Erklärung, wenn man richtig auflöst. Da am besten nicht antworten. Menschen wollen wohl nicht auffallen. Das war in der Schule so, beim Studium war ich auch einer der wenigen der sich freiwillig meldete und bei meinen Studenten beobachte ich dasselbe. Aber beim Blog? Hier sind doch alle mit Vornamen oder Pseudonyme unterwegs. Es gibt sicher einige Tausend "Hans", "Arne" und "Alexander" in dieser Republik. Also wovor habt ihr Angst? Was soll ich da erst dagegen, wenn ich (fast) jeden Tag einen Blog unter meinem Realnamen verfasse?

Dienstag 5.10.2010: Was wäre aus der Mondforschung ohne Apollo geworden?

Die Frage ist provokativ und spekulativ, weil es kaum vorstellbar ist. Mit Ausnahme der ersten Pioneer Sonden dienten doch auch die Raumsonden der Vorbereitung von Apollo: Ranger zur Erkundung der Technologie und dem Anfertigen von hochauflösenden Aufnahmen bis zum Aufschlag. Surveyor für die Untersuchung der physikalischen Eigenschaften der Mondoberfläche. Lunar Orbiter schließlich zur Kartierung potentieller Landeplätze. Keines dieser Programme, so wage ich zu behaupten wäre in dieser Form ohne Apollo entstanden. Dazu kommt natürlich das Apolloprogramm selbst, mit über 300 kg Mondgestein, Nebenbei wurden dort einige ALSEP Stationen aufgestellt.

Doch das ist nur die eine Seite - dem folgte ein Desinteresse am Mond, das über 2 Jahrzehnte anhielt. Es folgte 1994 die kurze Mission der Technologiesonde Clementine, bei der der Mond eigentlich nur dazu diente Sensoren zu erproben. Wieder fast ein Jahrzehnt Pause und dann die Rückkehr zum Mond mit SMART-1, Kayagua, LRO, Chang'E-1 und Chandrayaan.

Wer die Auflistung durchsieht merkt, dass bis heute die USA wenige Mondsonden nach Apollo gestartet haben. Es sind genau zwei. Dieses Desinteresse ist schon auffällig. Dabei ist der Mond einfach zu erreichen. Es werden keine großen Empfangsantennen benötigt. Das ist sicher auch ein Grund warum China und Indien zuerst mal den Mond ansteuern, bevor sie an Raumsonden zu den Planeten denken.

Wäre ohne Apollo es besser gelaufen? Mehr Sonden, eine kontinuierliche Erforschung. Eventuell sogar Landesonden, Rover, Bodenprobengewinnung? Die Frage ist schwer zu beantworten. doch ich denke nicht.

Warum?

Nun weil der Mond ein PR Problem hat. Er ist langweilig. Er ist kraterüberdeckt, dass kann jeder mit einem 200 Euro Teleskop feststellen. Auch wenn man näher ran geht sieht er prinzipiell nicht anders aus - nur sind die Krater eben kleiner. Es gibt kaum geologisch interessante Formationen. Das ändert sich auch nicht bei der Landung. Die Mondoberfläche sieht eben nach Kraterwüste aus. Bodenproben mögen interessant sein, aber wahrscheinlich spricht der nötige technische Aufwand gegen sie. Sonst gäbe es auch längst Marsbodenproben, denn das ist eigentlich seit 2 Jahrzehnten kein echtes technisches Problem mehr. Es ist nur ziemlich teuer welche zu gewinnen und zur Erde zurückzubringen, weil der Start vom Mars viel Treibstoff erfordert. Anders als vielleicht die Bergung von Kometenmaterie oder von einem Asteroiden. Anders als Laien glauben benötigt man sie auch nicht unbedingt - bei einem atmosphärelosen Körper kann man mit Spektrometern aus dem Orbiter die Zusammensetzung der Oberfläche bestimmen, mit Gammastrahlenspektrometern das Alter und mit anderen Instrumenten bekommt man weitere physikalische Parameter. Natürlich gibt es zahlrieche Details, die man durch chemisch-physikalische Untersuchungen feststellen kann. Die Frage ist nur ob, ohne die Möglichkeit Gestein einfach so mitzunehmen, es die Mittel geben würde für diese Zusatzinformationen eine Mission zu starten, nur um Gesteinsproben zu gewinnen.

Vergleicht man die Mondforschung mit der Venusforschung, so gibt es eine Parallelen: Beide Himmelskörper sind himmelsmechanisch ähnlich anspruchsvoll - geringer Geschwindigkeitsaufwand, kurze Reisezeiten. Weiterhin sind beide geologisch tot - oder zumindest ist es extrem schwierig festzustellen ob die Venus noch aktiv ist. Bei der Venus its das durchaus nicht sicher, aber ihre dichte, heiße Atmosphäre sorgt dafür, dass Lander recht kurzlebig sind und aus dem Orbit nur die Atmosphäre oder die Oberfläche mit Radar aufgenommen werden kann.

Wie viel einfacher hat man es doch mit dem Mars - aktive Vulkane, tiefe tektonisch gebildete Gräben, Wasser, früher sogar mal in flüssiger Form, man kann über Marsleben (zumindest in der Vergangenheit) spekulieren. Leicht aus dem Orbit und vom Boden aus erforschbar, moderte Temperaturen und eine Atmosphäre die zumindest aerodynamisch gesteuerte Landungen ermöglicht.

Die USA haben in 50 Jahren genau vier Missionen zur Venus gestartet: Mariner 1+2,5, Pioneer Venus und Magellan.

Daher mein Resümee: Aufgrund der Ähnlichkeiten zum Mond, (haut einfach keinen vom Hocker) wäre ohne Apollo auch nicht mehr Mondforschung betrieben worden. Zumal LRO als einzige anspruchsvolle Mission der USA ja schon zum nächsten Mondprogramm (Constellation) gehört.

Natürlich wäre mir persönlich ein anderer Verlauf lieber: Mehr Raumsonden zum Mond, aber auch zur Venus, vielleicht spart man dafür ein 2 Milliarden Dollar teures Marslabor ein. Doch leider läuft Raumfahrt nicht so. Ginge es rein rational zu, so würde vieles anders laufen....

Donnerstag 7.10.2010: Marktwirtschaft und PC Entwicklung

Ich denke ich muss in meinem Blog mal nachlegen und zwar zu dem Thema PC-Entwicklung. Es gab da ja schon ein paar gute Beiträge. Ich will heute mal aufzeigen, wo es hakt.

Fangen wir mal bei der Architektur an: Sie ist sicher nicht ideal, da gewachsen. Aber Intel & AMD haben ihre Nachteile inzwischen ganz gut in den Griff bekommen und es wäre illusorisch eine neue Prozessorarchitektur zu fordern. Alle Versuche eine neue zu etablieren sind gescheitert (i860, Itanium) und die vielen Konkurrenten die es mal gab, aber auch Sekond-Source Hersteller die es mal gab sind vom Markt verschwunden. Kann sich noch jemand erinnern wie viele Firmen 386er Prozessoren fertigten?

Was gerne vergessen wird: Mit jeder Verkleinerung der Technologie steigen die Kosten für die Produktion an. Eigentlich fertigen nur noch AMD, IBM und Intel Prozessoren im derzeit aktuellen 32 nm Prozess. Das andere Architekturen gerade erst mal zu Dualcoreprozessoren übergehen oder die 1 GHz Grenze überschreiten, liegt schlicht und einfach daran, dass für Embedded Prozessoren man nicht die Erlöse bekommt wie für eine CPU in einem PC oder Großrechner und sich die Herstellung so schneller IC mit den entsprechenden Aufwendungen für die Fertigung nicht rentiert.

Das GHz-Rennen, das haben sicherlich die meisten schon mitbekommen, ist nun auch zu Ende. Die 3,8 GHz eines Pentium 4, die schon 2004 erreicht wurden, sind bislang nicht übertroffen: Bei jedem Schaltvorgang fließen unerwünschte Ströme und je öfter umgeschaltet wird (eben abhängig von der Taktfrequenz) desto höher sind sie. Man muss bei Intel & AMD nur einmal in einer Reihe von Prozessoren gleicher Energie schauen, wie da die maximal abgegebene Wärme (TDP) mit der Taktfrequenz zunimmt - und zwar nicht linear sondern exponentiell.

Wer die PC-Technik genauer studiert, bemerkt dass einige Parameter nur noch kaum ansteigen - die Größe von Festplatten, die maximale Taktfrequenz. Ich bleibe auch bei der Meinung, dass mehr Kerne nicht so viel bringen und zwar gerade deswegen weil ich programmiere. Wenn ich meine Programme Revue passieren lasse, dann finde ich zwar das eine oder andere zum Paralellisieren, aber eben nur bestimmte Teile. Der Großteil läuft asynchron. Warten auf den Anwender. Auch die Beispiele die genannt wurden: Wie oft werden PDF's geblättert? 5 Minuten am Tag? Hat sich dann doch echt gelohnt. Die meiste Zeit dreht doch schon heute der Prozessor Däumchen. Nur für kurzzeitige Einsatzzwecke enorm viel Rechenleistung vorzuhalten die man 90, 99% der Zeit nicht braucht ist doof. Viele Leute sind mit einem Netbook mit Atom Prozessor glücklich - das ist in etwa so schnell wie ein 1 GHz Pentium 4. Im Vergleich dazu ist schon ein normalen Dual-Core mit 2-2,6 GHz enorm schnell. Er dreht schon heute meistens nur Däumchen. Daher der Vorschlag beide Technologien zu kombinieren. Der Atom für wenig Stromverbrauch beim Warten und ein Dulacore Prozessor für die Zeiten der Lastspitze. Dekodieren/Enkodieren von Videos kann besser ein Chipsatz erledigen, denn das ist eine Spezialaufgabe mit festgelegten Algorithmen die man in Silizium gießen kann.

Wenn jemand das was heute bei Prozessoren gemacht wird bei anderen PC Komponenten geschehen würde, dann würde man das als Verschwendung bezeichnen. Nehmen wir mal an sie bauen vier Festplatten in ihr System ein. Eine benötigen sie laufend, eine zweite ab und an belegen sie aber nie zu mehr als 30% und die anderen beiden dann zu einigen Prozent ab und an für Zwischendateien. Jeder würde sagen, "da reicht Dir doch eine oder zwei". Nur genau so ist die Auslastung eines Quadcoresystems über die Betriebsdauer gemittelt.

Vor allem geht es aber darum die Strombilanz zu verbessern, auch wenn PC-Technik in Unterhaltungselektronik einziehen soll. Das in vielen Geräten schon aus Kostengründen Embedded-IC's zum Einsatz kommen werden dürfte klar sein. aber noch träumen AMD und Intel vom Massenmarkt Multimedia-PC: Zu jedem normalen PC noch ein Multimedia PC der an den Fernseher angeschlossen wird und nur zum Anzeigen und Abspielen von Filmen, Fotos und Musik dient, verbunden mit dem normalen PC als Server oder einem Netzwerkspeicher. So ein Gerät muss flach und schick sein, ist dauernd an und darf wenig Strom konsumieren. Viel Rechenleistung wird nur beim Dekodieren/Kodieren von Videos benötigt und das können heute Spezialchips oder Chipsatzlösungen besser als die CPU. Analoges gälte für einen PC als Steuerung der Hauselektronik, wie es seit Jahren angepriesen wird - ich glaube nicht dran, aber auch ein solches Gerät wurde dauernd laufen aber vergleichsweise wenig Rechenleistung erfordern.

Derzeitige PC's haben einen Nachteil: Sie sind für alle Eventualitäten gebaut. Das bedeutet ein typischer MIDI-Tower wie meiner erlaubt den Einbau von zwei 5,25" und vier 3,5" Laufwerken. Er hat vier Steckplätze für Karten. Dass machte vor 20 Jahren noch Sinn, als Druckerschnittstelle und serielle Schnittstelle auf einer Karte waren, Festplattenkontroller und Vega Karte ebenfalls Dabei wurden die Geräte viel länger benutzt weil sie auch teurer waren.

Sicher gibt es heute noch Server die so viele Laufwerkschächte brauchen und es gibt Gamer die zwei Karten einbauen, jede blockiert zwei Slots. Ich würde aber sagen: Der Großteil der Anwender rüstet vielleicht noch eine Festplatte nach oder eine Karte. Eigentlich legt schon die Wahl des Prozessors fest wie aufgerüstet wird: Wer einen Mittelklasse PC der 500 bis 600 Euro Klasse kauft wird den nicht um 400 Euro Grafikkarte erweitern. Das macht keinen Sinn, zumal der PC ja laufend der aktuellen Technik hinterherhinken wird.

Warum also nicht PC's mit Netzteilen bauen die der erwartbaren Minimalbelastung Rechnung tragen: 200-250 W reichen bei einem Büro-PC aus. Da der Wirkungsgrad absinkt, wenn ein Netzteil nur mit einem Bruchteil der Maximalleistung betrieben wird, wird auch hier Strom verschwendet. Vor allem aber könnten auch die Gehäuse kleiner werden. Weg von den uniformen Kosten zu kleineren Geräten die vielleicht wieder unter dem Monitor verschwinden.

Vielleicht beleuchte ich das auch mal aus der Softwaresicht.

Freitag 8.10.2010: Die geheimnisvollen Zahlen

Kennen Sie die geheimsten Zahlen im Weltraumprogramm? Nein ist es ist nicht die Telefonnummer von Bolden oder Datum der ersten Marslandung. Es sind die mysteriösen Zahlen was was kostet. Auch wenn ab und an mal was publiziert wird, so sind Raumfahrtagenturen doch sehr vorsichtig damit zu publizieren was was kostet. Wie schon gesagt: Es gibt Ausnahmen. Meistens wenn es billiger als vergleichbare Projekte kommt (so bvei den Raumsonden des Discovery Programms). Meistens erfährt man gar nichts oder es gibt sogar gezielte Desinformation. Bei XMM Newton wurde z.B. angegeben, der Satellit kostete 230 Millionen Euro - ja aber nur der Satellit. Dann kommen noch die Instrumente dazu, der Start und die Mission - und zack ist man bei 686 Millionen Euro, tja und ein paar Jahre später sind es 919 Millionen Euro.

Gut viele Dinge sind schwer zu quantifizieren. So z.B. fallen bei fast allen Weltraumbahnhöfen die Fixkosten für diesen weg. Aber das so wenig über Kosten publiziert wird ist schon befremdlich. Schämt man sich dafür? Ich stehe auf dem Standpunkt, wenn man den Leuten klar macht wofür das Geld ausgegeben wird, dann kann man auch die Kosten rechtfertigen. Es ist primär eine Frage der Argumentation und wie man die Öffentlichkeit informiert - fachkundig und fair.

Vielleicht ist das nicht möglich oder es fällt bei bestimmten Projekten schwer, vor allem wenn es um Grundlagenfragen geht. Bei schönen Bildern tut man sich einfacher. Aber CERN kostet auch Milliarden, erzeugt Elementarteilchen die es im heutigen Universum nicht mehr gibt, ist also ehrlich gesagt nicht so nützlich - eben typische Grundlagenforschung und da muss man nicht suchen was der LHC kostet.

Natürlich könnten unangenehme Fragen kommen, wie auch in anderen Dingen wenn es um Geld geht. Aber wenn es gerechtfertigt ist, man sauber gewirtschaftet hat ist es doch kein Problem zu den Zahlen zu stehen oder? Zumal ja nur Weltraumorganisationen selbst zu teure Projekte abbrechen - oder eben nicht. Denn so wichtig, dass sich damit die Regierungschefs beschäftigen sind nur die Spitzenprojekte wie Constellation oder die Europa II+III Entwicklung um mal zwei Projekte zu nennen die nicht von den Weltraumagenturen sondern den Politikern gekippt wurden. Doch das sind die Ausnahmen.

Es hat sich meiner Erfahrung nach verschlechtert. So ab Mitte der Achtziger Jahre wir es schwierig Daten über Entwicklungskosten, Startpreise etc. zu bekommen. Okay, außer mir interessiert sich wohl keiner für die Kosten eines ATV Starts (ATV-002 nun schon 400-450 Millionen Euro) aber ich denke einige wird interessieren was die ISS gekostet hat oder das Space Shuttle Programm. Bei letzterem gibt es nicht mal mehr die Startpreise seit 1988. Wer es genauer wissen will, muss einige Stunden lang alte NASA Budgettabellen und Bücher wälzen.

Vielleicht weil der eine oder andere 135 Millionen Dollar für einige hopsende Astronauten (ISS) oder 126,8 Milliarden Dollar (STS) für 134 immer gleich aussehende Starts (mit einer Ausnahme)  vielleicht etwas viel. Aber ich finde auch 2 Milliarden Dollar sind für einen Marsrover etwas viel - zu teure Projekte gibt es nicht nur in der bemannten Raumfahrt. Solange aber der Steuerzahler das ganze finanziert sollte er auch umfassend informiert werden. Dazu gehört auch was wie viel kostet und wie sich dies zumindest in die wichtigsten Posten aufschlüsselt.

Samstag 9.10.2010: Parallelität - aus Anwendersicht

Da sich offensichtlich viel mehr Leute über Computer interessieren als für Raumfahrt (wer hätte das gedacht?). Will ich das Problem der Parallelität mal beleuchten. Zuerst mal aus "Anwendersicht", also ohne Kenntnisse einer Programmiersprache und ohne auch Details der Programmierung zu vermitteln. Das folgt im nächsten Beitrag.

Erst mal: was kann man parallelisieren und wie geht das - darum geht es heute.

Die einfachste Sicht erhält man wenn man den Taskmanager aktiviert (oder PS unter Linux) und sich mal die Prozesse anschaut. Bei einem "jungfräulichen" Windows XP direkt nach dem Start finden man typischerweise etwa 10 Prozesse. Wenn man einige Programme, Treiber etc. installiert hat, Online geht, können es durchaus auch viel mehr sein. So gesehen nutzen viele Kerne doch etwas, aber nur auf den ersten Blick. Jeder Prozess kann im Prinzip von einem physikalischen oder logischen Kern (das ist ein Kern der nicht existiert, aber dem Betriebssystem vorgegaukelt wird, indem der Prozessor intern aus zwei Prozessen die Instruktionen auf einen Kern verteilt damit dieser optimal ausgelastet. Das ist nicht so schnell wie ein echter Kern aber bis zu 25% schneller als ein einzelner Kern (der typische Gewinn liegt allerdings bei 10-15%). Bei Intel heißt das Hyperthreading. AMD das nicht in den CPU's.

Wer allerdings genauer hinschaut wird feststellen, dass die meisten Prozesse nur wenig CPU Zeit brauchen. Ein Prozess kann ein Anwendungsprogramm sein, ein Dienst oder auch ein Thread.

ProzesseWas ein Programm ist, brauche ich wohl nicht zu erklären. Ein Programm wird üblicherweise vom Anwender gestartet. Ein Dienst ist eigentlich fast das gleiche, nur wird er meist vom Betriebssystem gestartet. Entweder automatisch beim Start oder bei Eintreten eines Ereignisses. Ein Dienst ist normalerweise verborgen, also in de Taskleiste nicht tu sehen und macht sich auch selten oder gar nicht mit Meldungen bemerkbar. Typische Dienste sind z.B. der Virenscanner, Druckertreiber, Explorer und der Dienst zum Aufbauen von Netzwerkverbindungen SVhost.exe, denn man recht häufig im Taskmanager finden kann. In der Systemsteuerung → Verwaltung → Dienste kann man die installierten einsehen.

Ein Thread ist ein Teil eines Programmes, das von diesem gestartet wird und von dem Programm abhängig und meist eine eigene Aufgabe hat. Also im Bild rechts sieht man z.B. mehrere Threads von Google Chrome. Chrome öffnet für jedes Tab (im Moment des Schnappschusses waren 10 offen) einen Thread. Genauso macht es Star Office für jedes Dokument.

Prozesse haben den Vorteile, dass sich das Betriebssystem um die Verteilung an die Kerne kümmert und dabei die vom Programm gewünschte Priorität kümmert. Trotzdem wird beim Schauen auf den Taksmanager bei den meisten Anwendern ein Prozess die meiste CPU Zeit bekommen - der Leerlaufprozess, der die niedrigste Priorität aller Prozesse hat also erst dran kommt wenn alle anderen ihre Zeitscheibe erhalten haben. Betriebssysteme weisen Prozessen "Zeitscheiben" zu, also sie bekommen einen Kern z.B. 20 ms lang und dann werden sie wieder in die Schlange eingereiht und müssen warten bis andere Prozesse der gleichen Priorität dran waren. Für Laien zum Angeben, das Verfahren heißt "Round Robin". Es ist das einfachste Multitasking Verfahren und auch alle Computer in der Raumfahrt arbeiten danach. Es können so viel mehr Prozesse abgearbeitet werden als es Kerne gibt, auch weil bei den meisten Anwendungen ein Prozess nur wenig Rechenzeit benötigt. während ich diesen Schnappschuss anfertigte lief bei mir z.B.  simultan: Thunderbird, Google Chrome, Salamander, Expression Web, Irfan View und der SMPlayer, dazu noch die Hintergrundprozesse. Die meiste Rechenzeit braucht letzterer der ein Video neben der Arbeit abspielt. Wie man sieht liefen zum Zeitpunkt des Schnappschusses 96 Prozesse und trotzdem wurden nur 36% der CPU Zeit benötigt, ohne das Video wären es sogar nur 15%.

Das ist eine Möglichkeit, aber die Möglichkeiten von Prozessen zu kommunizieren sind beschränkt. So kann eine Anwendung selbst Aufgaben parallelisieren. Ich will hier zwei Beispiele nehmen. Die Videokodierung und Dekodierung und Bildbearbeitung. Alle Videokodierungen / Dekodierungen basieren auf dem Verfahren der Diskreten Cosinustransformation. Dieses basiert darauf, (stark vereinfacht gesagt!!!) dass die Bildinformation die in einem 8 x 8 Pixelgroßen Block ersetzt wird, durch die Koeffizienten einer Funktion. Diese muss berechnet werden (Encodierung) oder der Funktionswert ermittelt (Dekodierung). Der Algorithmus ist festgelegt und jeder Block ist vom anderen unabhängig. Ein Programm kann also bei einem Bild daran gehen, die Anzahl der Kerne abzufragen und dann das Bild in mehrere gleich große Einzelteile aufzuteilen, die dann jeweils von einem Thread, einem Prozess innerhalb des Programmes verarbeitet wird.

Bei der Bildbearbeitung basieren die meisten Verfahren auf Informationen aus den Nachbarpunkten oder es wird ein Algorithmus auf das ganze Bild (jeden Bildpunkt angewandt). Auch dies ist gut parallelisierbar. So basiert der Scharfzeichnenfilter z.B. darauf, dass von einem Bildpunkt der Mittelwert der Helligkeitswerte der Nachbarpunkte (mit frei wählbarem Radius) abgezogen wird. Auch hier kann im Prinzip jeder Bildpunkt separat berechnet werden. Neben den Kernen kann dies bei geeigneter Programmierung dann noch auf die Rechenwerke verteilt werden, von denen jeder Kern auch über mehrere (typischerweise 2-4) verfügt.

So sind innerhalb eines Programmes Dinge parallelisierbar. Doch wo geht es nicht? Nun es geht schlicht und einfach nicht dort wo die Aktion nicht vorhersehbar ist. Also bei der Interaktion mit dem Anwender. Hier ist es zwar möglich vorausschauend zu denken, also z.B. alle Seiten die mit der aktuellen Webseite verlinkt sind zu laden oder zu rendern, Nur ist das eben mehr eine Pausenfülleraktion, die auch nicht immer Sinn macht (folgt man jedem Link? - zudem erzeugt es Netzwerklast, dass dann den eigentlichen Flaschenhals darstellt. Vor allem ist die Zeit für das Rendern einer Seite sehr klein im Vergleich zur Zeit die man braucht sie zu lesen.

Wirklich am effizientesten ist die Parallelisierung von Berechnungen bei immer gleichen Algorithmen, wie die oben angesprochenen. Da bei Spielen es im Prinzip die gleiche Problematik gibt - die Szene ist vorgegeben, es müssen die Objekte nach einem Algorithmus berechnet, gezeichnet, eingefärbt und dann mit Texturen und Licht/Schatten überzogen werden. Auch dies wird für jede Einheit (meist ein Dreieck) separat durchgeführt. Daher haben Grafikkarten CPU aus sehr vielen, sehr einfach gestrickten Recheneinheiten aus vielen (Maximum sind glaub ich derzeit 480 Kernen). Werden sie mit solchen Algorithmen gefüttert die extrem gut parallelisierbar sind, dann sind sie viel schneller als die CPU. So gibt es Treiber um Bildeffekte zu berechnen oder Videos mit der Grafikkarte zu en/dekodieren, das letztere kann man wegen des feststehenden Algorithmus auch in Silizium gießen und so sind moderne Chipsätze dazu fähig Videos zu dekodieren, wodurch ein Atom erst HD Videos abspielen kann - die erfordern sonst einen Dualcoreprozessor mit der etwa zehnfachen Rechenleistung.

Was gibt es noch?

Wir haben ja einige Sci/Fi Freunde hier. Ich bin da auf was gestoßen, das euch sicher freut: Ijon tichy, Raumschiffpilot. Es hat alles was Sci/Fi Serien auszeichnet: Zeitschleifen, Außerirdische, Hologramme, Kampf um die Aufnahme der Menschheit in den galaktischen Rat, gefräßige Monster - nur ist die Serie, sagen wir mal "etwas anders". Ladet sie euch runter und schaut selbst. (90 Minuten 713 MB, 6 Folgen à 15 Minuten, derzeit wird die Fortsetzung gedreht).

http://www.megaupload.com/?d=23ML8YIG

Das zweite ist dass ich die Blogleser von der so arg strapazierenden Aufgabe zu erläutern, warum man ein Rätsel gestellt hat entbinden will. Aber im Auflösungskommentar sollte man schon noch was erklärendes schreiben.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99