Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 197: 31.10.2010 - 5.11.2010

Sonntag den 31.10.2010: Wozu braucht man einen Heimcomputer?

Ich habe mir mal die DVD der alten ct' Jahrgänge von 1983 bis 1989 bestellt und bin da ein bisschen ins Schmökern gekommen, wobei auch die Anzeigen interessant sind. Vor allem was man damals für Peripherie gezahlt hat. Schlappe 1000 DM für ein Floppy Disk Laufwerk... Ich habe mal überschlagen was ich zwischen 1982 und1992 für Computer ausgegeben habe und bin auf 8-9 KMark gekommen. Viel Geld für Hardware die im Vergleich zu heute fast nichts kann.

Beim Lesen von Testberichten kommen noch weitere Erinnerungen auf. Es ist schon Interesssant was für Kriterien damals wichtig waren. In erster Linie der Basic Interpreter und seine Fähigkeiten. Ich glaube heute geht das nicht mehr. Geräte wie die damaligen Heimcomputer rauszubringen. Sehen wir es mal rational:

Wozu kann man einen Heimcomputer einsetzen? Was ist das Kaufargument für dieses Gerät?

Man kann mit ihm Programmieren lernen. In BASIC. Ja, nicht lachen. Also in BASIC größere Programme zu erstellen, die schnell sind, übersichtlich oder andere Ansprüche an Professionalität erfüllen ist schlechterdings nicht möglich. Zumindest nicht mit den eingebauten BASIC Interpretern der 8-Bitter. Es bleibt also Programmieren Lernen als Selbstzweck. Was anderes kann man mit dem Gerät in der Grundausstattung nicht anstellen. Natürlich kann man Spiele kaufen und spielen, doch damals gab es auch schon Konsolen, wie das ATARI 2600 System, die dafür gebaut wurden und billiger waren. Klar bei einigen Geräte konnte man den Eindruck haben, der BASIC Interpreter war nur ein Alibi, weil jeder einen hatte. Gedacht war wohl eher daran, dass man damit spielen sollte. Anders ist es nicht zu erklären wenn ein Gerät tolle Grafikfähigkeiten und Sound hat und diese über BASIC kaum oder nur schwer ansprechbar waren und es noch dazu ellenlangsam war. (Man darf raten welche Geräte gemeint sind)

Aber objektiv betrachtet: Man gibt also einige Hundert Mark für ein Gerät aus, dessen einziger Zweck es ist, über Stunden, Wochen und Monate zu lernen, wie man es bedient, also programmiert. Das traut sich heute keiner. Nicht, dass man immer noch Leute dazu bringen kann Stunden, Tage oder Wochen ihrer Lebenszeit für Dinge zu verplempern die absolut überflüssig sind (SMS scheiben, Social Networks, Browserspiele). Aber die Einstiegshürde muss viel geringer sein. Niemand will auch nur mal ein paar Stunden investieren um erste Erfolgserlebnisse zu haben. Wie lange haben sie gebraucht bis ihr erstes, nicht triviales BASIC Programm lief?

Das Anspruchsnieu, auch beim Lernen ist heute viel höher. Ich bemerke das bei meinem Unterricht in der DHBW. Kaum einer der Studenten will sich dort noch mit den Grundlagen beschäftigen. Wenn die Syntax nicht beherrscht wird schaut man im Internet nach oder fragt gleich den Dozenten, auch wenn die Entwicklungsumgebung deutlich sagt, dass man ein Semikolon vergessen hat. Manchmal hätte ich wirklich Lust, anstatt mit RAD Studio 2010 den Unterricht mit Turbo Pascal 3.0 zu gestalten.... Würde bei der PISA Generation aber wohl Proteste auslösen.

Warum hat man trotzdem einen Heimcomputer gekauft? Also ich kann hier nur mutmaßen wie es bei anderen war. Aber es sind sicher einige Gründe. "Computer", das waren in den frühen achtziger Jahren noch Geräte von denen man nichts wusste. Niemand hatte mit einem gearbeitet, keiner eine Ahnung was Programmieren bedeutet. Computer kannte ich aus der Raumfahrt. Dort steuerten sie Raumsonden und von Sci/Fi Serien, da konnten sie einfach alles. Also waren sie wohl die universelle technische Maschine.

Der zweite Aspekt ist dass man in dem Alter auch noch neugieriger und offener ist. Neugierig auf technische Geräte die man so noch nicht kennt und offen sich auf die einzulassen, auch wenn es Arbeit bedeutet. Nicht umsonst sind die besten Kunden für neue Handys noch heute Teenager und Twens. Irgend wann mal wird man zielstrebiger, vielleicht auch fauler - man sucht nach der Lösung die am schnellsten erreichbar ist. Anstatt sich komplett neu in ein neues System einzuarbeiten arbeitet man lieber mit dem alten und umschifft dessen bekannte Schwachstellen. Anstatt eine neue Programmiersprache zu lernen, die supercool und supertoll ist, bleibt man bei dem was man kann, weil man viel schneller in ihr ein Programm schreiben kann.

Also was war euer erster Computer, warum habt ihr ihn gekauft und wie waren die ersten Gefühle mit Bits & Bytes?

Montag 1.11.2010: Der Sieg der Allgemeinheit über die Norm

Ich lese ja immer die Kritiken meiner Bücher bei Amazon. Da konnte nun einer nichts damit anfangen. Ich würde es für einen typischen Fehlkauf bezeichnen. Was mir auffällt ist, dass er sich über die Verwendung von kJ anstatt kcal mokiert und schreibt, dass inzwischen ja auch Bücher nur mit kcal Angaben erscheinen.

kJ sind seit 1978, also 32 Jahren gesetzliche Einheiten. Ich bin damit aufgewachsen. In der Schule waren alle Energieangaben in kJ, auch beim Studium der Chemie und Lebensmittelchemie war alles in kJ. In Fachbüchern taucht auch nur diese Einheit auf. Natürlich sind alte Einheiten nicht auszurotten und weil in den USA z.b. die Einheit immer noch kcal ist wird man Nährwertangaben auf Lebensmitteln immer in kcal/kj vorfinden - übrigens zumeist falsch nach der gesetzlichen Vorgabe, wonach die gesetzliche Einheit Vorrang hat und erst dann die nicht mehr zulässige folgen darf: Meistens wird kcal als erstes genannt.

Alte Einheiten haben ja ein langes Leben. Die meisten bleiben bei denen, mit denen sie aufgewachsen sind. Wie ich anderen Kommentaren von "Gänseblümchen" entnehme ist er über 70, da ist es kein Wunder wenn er an kcal hängt. Doch selbst die Automobilindustrie hat inzwischen auf kW umgestellt. Ich selbst hab kein Problem mit kcal und sehe auch keine Probleme mit dem Umrechnen, weil ich alle Nährwertangaben nicht absolut nehme, also so in der Richtung "1000 kj - gut, 2000 kJ - schlecht" sondern sie auf meinen Tagesbedarf beziehe und dann überlege ob mir die Portion dafür zu klein erscheint oder nicht. Da muss ich in jedem Falle rechnen, egal in welchem System.

Ich habe da wir ja die Woche der Ernährung im Fernsehen haben einige Sachen genauer angeschaut. Bei SWR "Odysso" gab es einen Beitrag über Fast-Food und die Energie und darüber wie die Portionen immer größer werden. Alle Angaben waren in kcal. Bei den meisten nur mündlich übermittelten Infos in den zahlreichen Kochsendungen - ebenfalls nur kcal.

Der Grund dafür liegt das zwar Ernährung ein größeres Thema im Fernsehen ist, aber ich keine Fachleute mehr in den Sendungen sehe, also keine Lebensmittelchemiker, Ökotrophologen oder spezialisierte Ärzte (hier liegt das Hauptaugenmerk auf "spezialisierte", da die Ernährung bei der normalen Ausbildung nur sehr stiefmütterlich behandelt wird. Stattdessen haben die Köche die Ernährungsberatung übernommen. Köche, das sind die Leute die bei einem Rostbraten das letzte Stück Fett abschneiden und dann das ganze in einem halben Pfund Butter anbraten. Die haben von Ernährung so viel Ahnung wie die Kuh von der Botanik der Pflanzen die sie frisst.

Es passt zu unserer PISA Gesellschaft, das wichtige Themen nur schlagwortartig behandelt werden. Fundierte Informationen weichen Stichworten und über die Zusammenhänge werden sowieso nicht erklärt. Wichtiger sind Schlagzeilen, Skandale (ob echt oder angeblich) und Verschwörungen (die böse Lebensmittelindustrie gegen den Verbraucher). Die Medien kommen nicht mal ihren Aufgaben nach: Neben Informationen auch Druck auf die Politik auszuüben. Wenn (was in dieser Ernährungswoche sehr oft bemängelt wurde) die Lebensmittelkennzeichnung unübersichtlich und nicht intuitiv verständlich ist, dann ist daran nicht nur die Industrie schuld, sondern eben auch der Gesetzgeber, der die Gesetze macht an die sich die zu halten haben. Hier muss die Kritik ansetzen. Denn diese können die Vorgaben ändern an die sich die Industrie halten muss

Mich wundert, dass dies noch kein Thema für die Wettbewerbshüter ist, die ja sonst so aufmerksam sind. So müssen ja bei uns alle Angaben in Zentimeter sein, auch wenn das Maß ursprünglich in Zoll war. So gibt es die 8,89 cm Diskette, den 101 cm Fernseher etc. aber anscheinend gilt das nur für den Handel und nicht die Medien. Die Medien zeigen eigentlich nur ihre rapide sinkende Kompetenz, wenn sie nicht mal fähig sind die gesetzlichen Einheiten zu benutzen.

Mittwoch 3.11.2010: Revolutionär, begehrt und absolut nutzlos

Ja das könnte man über den ersten "PC" sagen, den Altair 8800. Er läutete die PC Revolution ein. Er rettete MITS vor dem finanziellen Bankrott und er machte Microsoft bekannt. Die Geschichte ist ja bekannt und findet sich auch auf meiner Website. Die Frage ist eigentlich: Warum waren die Leute so wild auf den "PC". Viele sandten an MITS Schecks per Vorkasse und sanierten dami6 die Firma, die ja an die Zeitschrift "Popular Electronics" einen Prototypen sandte - mehr gab es nicht.

Der Altair 8800 war selbst nach damaligen Maßstäben ein recht nutzloses Gerät. Viele können sich an die Einplatinencomputer zum Assembler Lernen erinnern, die man in Hexadezimal programmieren konnte - die waren gegenüber dem Altair 8800 eine echte Revolution, denn da gab es immerhin eine Hexadezimaltastatur und eine Sieben-Segment Anzeige!

Der Altair konnte nur mit Schaltern programmiert werden - acht Kippschalter pro Byte umlegen, einen Bestätigungsschalter umlegen. Ausgabemedium waren Leuchtdioden, welche den Inhalt des Datenbusses und Adressbusses wiedergaben. Das einen "Computer" zu nennen ist schon etwas kühn. Wer in die 256 Bytes des Speichers ein nützliches Programm einspeichern konnte sah sich mit einem neuen Problem konfrontiert - das Gerät hatte in der Grundausstattung keinen Massenspeicher.

Es war ein taubstummes Gerät ohne einen sinnvollen Einsatzzweck. Dafür musste es aufgerüstet werden. Beim Altair saßen alle Komponenten auf Karten. Fünf Stück hatte das Seriengerät, damit es benutzbar war, musste man es noch um eine Speicherkarte (anfangs 4K oder 8K), einen Druckeranschluss für einen Typenradddrucker und einen Kasettenanschluss anschließen (später gab es sogar Floppy Disks und Papierstreifenleser - sonst hätte Paul Allen wohl 30.000 mal Kippschalter umlegen müssen um die erste BASIC Version einzugeben....

Trotzdem war der Computer ohne eine höhere Programmiersprache weitgehend nutzlos, außer sie können eine solche selbst entwickeln oder nutzen ihn für Steueraufgaben und programmieren in Assembler. Das war die Chance von Bill Gates und Paul Allen, die BASIC für den Altair entwickelten. Die primäre Schwierigkeit war nicht das BASIC, sondern es in nur 4 KByte Speicher zu bekommen (später gab es auch noch eine 8K Version und ein EXTENDED BASIC).

Wie bekannt wurde Bill Gates darüber nicht glücklich. Er bekam Ärger an der Uni, wo er das Programm auf einer PDP-10 (einem 36 Bit Großrechner) entwickelt hatte und dabei für 40.0000 $ Computerzeit verbraucht hatte. Das war nun doch etwas viel und das noch dazu für ein kommerzielles Produkt. Vor allem wurde es aber ein Reinfall, weil bald sehr viele Kopien des Programmes (auf Papierstreifen!) kursierten, was Bill Gates zu einem bitterbösen Brief gegen die Hobbyisten brachte die sein Eigentum "stehlen" würden.

Das lag aber nicht an den Hobbyisten, sondern an MITS. Die Firma hatte Probleme: Der Altair war schlecht designt und es waren viele Verbindungen zu machen. Die meisten kauften daher nicht das Selbstbaukit sondern den 200 $ teuren zusammengebauten Computer. Die 4 KByte Speicherkarten (mit dynamischem RAM) waren fehlerhaft und konnten kaum vertrieben werden. BASIC kostete 500 $, wenn man es alleine kaufte, aber nur 75$, wenn es mit einer Speicherkarte gekauft wurde, die so mit dem BASIC billiger war als das BASIC alleine. Als dann noch Prozessor Technologies auf den Markt kam mit eigenen 4K Karten, die preiswerter waren und funktionierten (dank statischem RAM) brach der Umsatz ganz weg und das BASIC wurde auch mit Karte nicht mehr gekauft. MITS bekam innerhalb eines Jahres Konkurrenz mit ähnlichen Geräten oder sogar Clones, die billiger und zuverlässiger waren und schließlich sanken die Umsätze bald wieder. Sehr bald verkaufte ED Roberts seine Firma an einen Zulieferer.

Ed Roberts, so lese ich gerade in dem Buch "Hard Drive", war ein schwieriger Charakter. Er beschimpfte z.B. die Firmen die MITS nachfolgten, Peripherie und Klones fertigten als Parasiten. Auch der Altair 8800 in seinem Aufbau und die technischen Probleme bei den Speichererweiterungen sprechen eine deutliche Sprache - schließlich war MITS schon vorher fast bankrott. Der Altair war die Rettung, aber nur für eine kurze Zeit. Es war mit einem Computern mit Kippschaltern und Leuchtdioden nicht getan und die Konkurrenz legte nach - führte so was exotisches wie Tastaturen und Monitorausgänge ein. Kurze Zeit nach dem Verkauf war MITS pleite.

Bill Gates lernte aber einiges von MITS - der Vertrag für das BASIC war so abgefasst, dass MITS es verkaufen sollte und die Rechte dafür hatte. Doch das tat MITS nicht - Das BASIC war der einzige Wettbewerbsvorteil den der Altair nach einem Jahr noch hatte - etwa ein Dutzend Lizenzangebote, jedes im Wert von 100.000 $ lehnte Roberts ab.- Beim nächsten Deal achtete Gates darauf, sich noch Rechte zu sichern - beim PC-DOS z.B. die Möglichkeit es selbst zu lizensieren.

Donnerstag 4.1.2010: EPOXI

Heute wird die Raumsonde Deep Impact am Kometen Hartley 2 vorbeifliegen. Eigentlich hatte Deep Impact seine Mission ja schon abgeschlossen. Die Raumsonde war am Unabhängigkeitstag 2005 am KometenTempel 2 vorbeigeflogen und hatte den Einschlag eines vorher abgesetzten Impaktors fotografiert.

Danach wurde die Sonde erst mal deaktiviert und entschieden was mit ihr geschehen könnte. Schlussendlich war die Hauptsonde ohne Impaktor noch betriebsbereit und verfügte über genügend Treibstoff. Das einzige Manko war schon nach dem Start erkannt worden. Die hochauflösende Kamera war defokussiert und erreichte nicht die gewünschte Schärfe und Auflösung.

Nach dem Vorbeiflug an Tempel 1 wurde Deep Impact zuerst einmal deaktiviert und es begann die Suche nach einem zweiten Vorbeiflugziel. Lange Zeit war ungewiss, ob eine verlängerte Mission möglich war, da zum selben Zeitpunkt die NASA begann Gelder einzusparen und erwog zahlreiche Raumsonden die ihre primäre Mission absolviert hatten abzuschalten um Geld für die Überwachung zu sparen.

Doch Deep Impact bekam eine zweite Chance. Sie wurde im Juli 2007 genehmigt und kostete die NASA weitere 35 Millionen Dollar. Die neue Mission wurde nun EPOXI genannt: Extrasolar Planet Observation and Deep Impact Extended Investigation). Sie umfasste auch die Untersuchung von etwa 50 Sternen mit der hochauflösenden Kamera. Dabei wurde nur deren Licht gemessen: Wenn ein Planet direkt vor dem Stern vorbeizieht, so sollte die Lichtintensität leicht abfallen. Das wurde detektiert. Die Chancen für einen direkten Vorbeizug eines Planeten ist jedoch gering (schließlich muss er da genau in der Sichtlinie liegen, das ist in etwa so häufig wie bei uns eine Sonnen- oder Mondfinsternis). Gefunden wurde so kein Planet.

Das eigentlich Ziel ist der Komet Hartley 2. Er war umstritten, weil er sehr viel Kurskorrekturfähigkeit erfordert und die Mission um vier Jahre verlängerte. Geplant war ein Vorbeiflug am Kometen Boethin, dessen Bahn aber nicht genau bekannt ist. Doch er ging nach der Beobachtung wieder verloren, (Das passiert bei vielen Himmelskörpern, bei denen die Zeit zu kurz ist um ein größeres Bahnstück zu beobachten und so die Bahndaten genau abzuleiten). So entschied man sich für die Passage an dem Kometen Hartley. Sie verlängerte die Mission aber um zwei Jahre. Alternativ wäre auch eine Rückkehr zu Tempel 2 möglich gewesen um die Einschlagsstelle ach 6 Jahren nochmals zu beobachten. Dies wird nun aber die Raumsonde Stardust durchführen, die allerdings keine so hochauflösende Kamera an Bord hat.

Damit Deep Impact Hartley erreichen konnte waren mehrere Swing-Bys an der Erde nötig. Sie fanden am 31.12.2007, 29.12.2008 und 27.6.2010 statt.

Heute nun wird Deep Impact an Hartley 2 vorbeifliegen. Die nächste Distanz wird um 13:50 UTC mit 700 km Entfernung erreicht werden, etwas weiter entfernt als bei Tempel 1. Das entspricht 7 m beim MRI Instrument (170 Pixel geschätzter Kerndurchmesser). Beobachtungen gibt es schon seit dem 29.10 und sie werden nach dem Überspielen der Daten bis zum 6.11 fortgesetzt bis zum 16.11.2010.

Schade nur dass Deep Impact als eine der typischen "Faster, better Cheaper" Raumsonden so dürftig ausgestattet ist. Die Möglichkeit die Gase um den Kometen und den Staub zu untersuchen wäre auch interessant gewesen. So gibt es nur Spektren und Bilder von einem mittelauflösenden und hochauflösenden Teleskop, Das letztere auch mit einem IR Spektrometer kombiniert. Gerade da nun zwei Kometenbegnungen möglich sind, wäre das besonders interessant gewesen. Eventuell hätte sich die NASA nach Kooperationspartner umsehen können. Massenspektrometer und Staubanalysatoren haben deutsche MPI Institute schon für eine Reihe von Raumsonden gestellt wie Pioneer Venus, Galileo, Cassini, Stardust, Giotto, Rosetta.

Freitag 5.11.2010: Intermezzo

Hartley 2

Ich bin gestern nicht zu einem neuen Blog gekommen. Daher heute nur ein kleines Intermezzo aus verschiedenen Sachen. Also Deep Impact flog erfolgreich an Hartley 2 vorbei. Die NASA hat allerdings nur das MRI, also mittelauflösende Teleskop eingesetzt um Bilder zu machen. Das hochauflösende Instrument mit einer fünfmal größeren Auflösung hatte ja schon bei Tempel 1 nur unscharfe Bilder geliefert, die auch durch Bildbearbeitung nicht besser wurden. Eines der besten Bilder sieht man links. Der erdnußförmige Kern erinnert mich etwas an Halley, auch die Jets kenne ich von diesem Kometen.

Dann habe ich gestern einen neuen Aufsatz für die Reihe Was ist drin fertiggestellt. Kevin hat sich einen Döner für die Mikrowelle gekauft und ich habe mich dem angenommen. Zu Döner selbst will ich im folgenden noch was schreiben.

Vorher möchte ich aber noch was über Zattoo sagen. Zattoo ist ein Online-Relzeit-Streaming Client bei dem man alle öffentlichen Fernsehsender ansehen kann. Die privaten fehlen weitgehend. Doch nicht nur deswegen ist der Client gewöhnungsbedürftig. Ich habe ihn früher kaum eingesetzt, weil er im Wlan öfters ins Stottern kam. Nicht dass mein WLAN generell langsam war - ich setzte Zusatzantennen ein die auch die 20 MBit/s die mein Internetanschluss liefert voll ausnutzen, aber Zattoo pufferte zu wenig um Reserven für kurzzeitige Einbrüche der Datenrate zu haben. Seit ich Powerlan nutze ist das Problem gelöst.

Nun setze ich Zattoo öfters ein, aber meistens nur wenn die Sendung zu uninteressant ist das ich mir sie auch nicht über OTR runterlade, was ich normalerweise mache. Die Qualität ist aber schlecht. OTR Videos mit der Standardauflösung von 512 x 384 sehen besser aus. HD kostet Geld, sonst ist es umsonst. Die Kanalleiste ist immer links, was störned bei den heutigen 16:9 Format ist, zumal ich sie selten brauche. Denn umschalten sollte man nicht zu oft bei Zattoo. Zappen - Fehlanzeige. Bei jedem Wechsel eines Kanals gibt es eine 15 s Werbung die man nicht überspringen kann. Schlimmer noch, sie ist deutlich lauter als das normale Programm also wirklich penetrant laut. Zattoo nutzt auch nicht die Zeit aus das Programm schon mal zu laden, so dass noch mal 5 s für das Puffern vergehen - also 20 s für einen Kanalwechsel.

Nicht mal für Auslandsdeutsche ist Zattoo einsetzbar. Eine Email Bekanntschaft in den USA die sich für eine deutsche Serie interessierte konnte Zattoo nicht einsetzen, weil die IP nicht aus Deutschland kam.

Mein letztes Buch ist nun bei Amazon lieferbar gekennzeichnet - allerdings mit 9-12 Tagen, wie anfangs immer. Komischerweise ist es bei Amazon.com gelistet als "in Stock" - was ich bezweifele. Am meisten freue ich mich aber über die Verkäufe des Was ist drin Buches. Würde sich jedes meiner 11 Bücher so verkaufen, ich könnte vom Bücherschreiben leben. 50% des Umsatzes mache ich nur mit diesem einen Titel. Grund genug das nächste Buch wieder über Ernährung zu schreiben.

So, nun noch was zum Döner. Ich zitiere hier mal was aus meinem letzten Aufsatz über einen Döner bei dem der Hersteller damit wirbt, dass er vom Grill käme, wie der Urdöner. Das bringt den Lebensmittelchemiker auf das Stichwort der berechtigten Verbrauchererwartung, also was versteht man unter einem Döner. Dieses Gericht hat sich bedeutend gewandelt, seit es nach Deutschland kam. Wie der Hersteller richtig erkannte, verstand man lange Zeit unter "Dönerkebab" ein Gericht aus Schaf- oder Hammelfleisch in Spießen die über dem Grill geröstet wurden, also mehr so etwas wie Cevapcici. Allerdings hatte sich schon bevor der Döner nach Deutschland kam, die Herstellung am Drehspieß durchgesetzt, aus geschichtetem Fleisch. In dieser Form gab es den Döner schon in der Türkei. Auch in der Form mit zugesetztem Hackfleisch. Es gibt nicht den Döner, sondern mehrere mögliche Zubereitungsarten.

Als er nach Deutschland kam, wurde aus ihm ein Massenphänomen. Wie der Hersteller schreibt, gibt es heute mehr Umsatz mit Döner als mit anderen Fastfoodgerichten. Das führte auch zur Massenproduktion und die Qualität sank, was schließlich zu einer semigesetzlichen Regelung führte: 1989 erging ein Urteil das einen Mindeststückfleischanteil von 40% festschreibt. In den Leitsätzen, also dem was Beurteilungsgrundlage ist wird darüber hinaus als Fleisch grob entsehntes Rinder, Kalb und Schafsfleisch festgelegt und der bindegewebsfreie Teil (das Muskelfleisch) muss mindestens 65% bei histologischer und 75% bei chemischer Bestimmung liegen - es ist also nicht möglich sehr große Mengen an Sehnen oder anderem Bindegewebe zusetzen.

Alles andere darf sich nicht Döner nennen, weshalb die (seit BSE ein Thema ist) aufgetauchten Döner aus Geflügelfleisch dann einen Namenszusatz bekommen wie "Chicken-Döner".

Bei Döner gibt es für den Verbraucher zwei grundsätzliche Probleme: Die enormen Verdienstspannen, wenn das eigentlich vorgeschriebene Fleisch (Rind, Kalb, Schaf) durch anderes ersetzt wird, vor allem wenn dies dann billiges Hackfleisch anstatt teurem stickigem Fleisch genommen wird. (Vom Zusatz von Sehnen und anderem Bindegewebe nicht zu sprechen). Das weitere ist natürlich bei einem Produkt, das Hackfleisch enthält (immerhin bis zu 60% sind erlaubt) natürlich die Hackfleischverordnung: Das bedeutet die fertigen Drehspieße müssen kühl gelagert werden und innerhalb von 24 Stunden verbraucht werden.

Ein Kollege von mir fasste mal die Erfahrungen mit Döner-Drehspießen so zusammen: "Wer als Lebensmittelchemiker Döner isst, bei dem siegt die Hoffnung über die Erfahrung". Denn fast alle Döner waren bei den Untersuchungen fast nur aus Hackfleisch. Kein stückiges Fleisch war zu sehen. Das Fleisch war aufgrund der Färbung garantiert kein Rinderhackfleisch sondern, maximal Halb-Halb und einige waren innen grün, weil sich schon Bakterien durch Unterbrechung der Kühlkette vermehren konnten.

Ach ja, ich habe nicht so viel Vertrauen und esse keine Döner... Ich kaufe bei meinem Türken nur Pizza, aber die ist wirklich gut.

Samstag 6.11.2010: Wie startet man Raketentriebwerke?

Eine interessante Frage, denn bis heute gilt der Startvorgang als der kritische Vorgang, bei dem am meisten schief gehen kann. Nicht umsonst geht der Trend dazu möglichst wenige Triebwerke im Flug zu zünden. Arbeiten wir uns in der Schwierigkeit nach oben.

Druckgeförderte Triebwerke mit hypergolen Triebstoffen: Heute in zahlreichen Satelliten eingesetzt, aber auch in einigen Oberstufen wie der EPS oder Delta. Die Technologie ist auch deswegen so verbreitet weil sie so einfach und zuverlässig ist.

Es reicht im Prinzip die Ventile zu öffnen. Der Druck in den Tanks treibt den Treibstoff in die Leitungen. Bei Zünden unter Schwerelosigkeit und nicht ganz vollen Tanks wird es schwieriger. Dann wird entweder durch ein dehnbares Diaphragma der Druck auf die Flüssigkeit ausgeübt, sodass es keine Gasblase geben kann (Das Druckgas ist nur in dem einen Teil der von dem Treibstoff durch eine Membran abgetrennt ist.

Es gibt kein aktives Treibstoffförderungssystem. So kann wenig passieren - nun ja doch einiges. Der kritische Punkt ist der Start der Verbrennung. Es muss vermieden werden, dass diese zu abrupt startet und es dann eine Verbrennungsinstabilität gibt. Zwar reagieren die Treibstoffe spontan und bilden kein hypergole Gemisch, trotzdem muss beim Start vermieden werden, dass die Temperatur zu schnell zu stark ansteigt und es zu einer Druckspitze kommt. Wenn dies passiert, dann kann es zu einem Feedbacksymptom kommen, wie dies bei L510 der Ariane 5 geschah. Üblicherweise wird dies so gemacht indem die Ventile zeitverzögert geöffnet werden und wenn möglich die Flussmenge langsam erhöht wird (meistens nicht gegeben). Beim Start am Boden wird so das NTO Ventil zuerst geöffnet. Danach das des Hydrazins. So liegt NTO im Überschuss beim Start vor, es verbrennt nur ein Teil und der Rest wirkt als "Kühlmittel" - er reagiert noch nicht nimmt aber Wärme auf. Da NTO in der Luft ein braunes Gas bildet sieht man daher bei Ariane 1-4 oder der Titan 2 eine braune Wolke beim Start. (Hydrazin wird nicht als erstes vorgelegt, weil es giftig ist).

Schwieriger ist der Start eines Triebwerks ohne hypergole Treibstoffe. Diese müssen entzündet werden. Die bei LOX/Kerosin noch immer verbreitete Methode ist der hypergole Vorlauf. Substanzen wie Triethylaluminat entzünden sich hypergol mit Sauerstoff. Sie werden entweder aus einem separaten Tank injiziert oder es gibt in den Tanks einen vrlauf oder die Treibstoffleistungen werden mit einer Membran blockiert in die der hypergole Vorlauf eingeschlossen ist. Sie wird durch den Treibstoffdruck dann gesprengt. So wurde dies bei der Saturn V gehandhabt.

Hypergole Vorläufe werden meist angewandt bei Triebwerken die nur einmal gezündet werden. Bei mehreren Zündungen oder bei flüssigem Wasserstoff als Treibstoff geht dies nicht. Die Temperatur von LH2 ist so niedrig dass alle hyerpgolen Substanzen zu Eis gefrieren würde. Es gibt mehrere Methoden. Eine sehr sichere ist eine Zündung durch ein eigenes Triebwerk. Also Festkörpertriebwerke mit kurzer Brennzeit. Die heißen Flammen entzünden das Gas und sie können bei Triebwerken mit Gasgeneratorantrieb acuh das Startgas für den Betrieb des Gasgenerators liefern. Da man für mehrere Zündungen mehrere Triebwerke benötigt ist dort eher die Entzündung mit einer Flamme, induziert durch einen elektrischen Zündfunken verbreitet. Bei Triebwerken mit Expander Cycle ist dies sogar die normale Vorgehensweise.

Das Problem ist es auch hier den Treibstoff zu entzünden. Ist die Energie gering oder kommt die Flamme nicht direkt an den Treibstoffeinlaß, so kann es sein, dass es zu keiner Zündung kommt. Das war die Ursache von zwei Fehlstarts bei der Ariane 2+3 (V15 und V18). Danach wurde das Triebwerk überarbeitet und lieferte dreimal so viel Energie.

Über die unterschiede beim Triebwerksstart geht es dann in einem neuen Blog.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99