Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 540: 26.11.2018 - 5.12.2018

26.11.2018: Das kannst Du nicht verlangen!

Das werde ich bald von meinem Ansprechpartner bei meinem Kunden zu hören bekommen. Denn ich habe mir erlaubt meinen Stundensatz zu erhöhen und den Spruch habe ich schon bei der letzten Erhöhung gehört. Daher habe ich auch gut recherchiert. Als ich 2008 als freiberuflicher externer Mitarbeiter anfing, habe ich 50 Euro verlangt und da gab es keine Einwände. Das habe ich damals mit einer Abfrage über den durchschnittlichen Lohn bei meiner Qualifikation begründet und die habe ich wieder gestartet – Ergebnis, ich könnte 87 verlangen. Dann habe ich mich bei der IG-Metall informiert, inwieweit der Lohn durch Tarifabschlüsse in den letzten 11 Jahren gestiegen ist: Ergebnis 36,5 Prozent, dies wären bei gleicher Steigerung meines Arbeitslohnes wie bei den tariflich bezahlten Mitarbeitern 81,93 Euro. Also wählte ich 82 Euro. Dagegen wird man wohl nichts haben, schließlich werden die Mitarbeiter nach IG-Metall Tarif bezahlt, obwohl sie nicht Mitglied im Arbeitgeberverband sind.

Klar, bei einem Gehalt meines Ansprechpartners nach EG 14 /nach eigener Auskunft 5000 Euro), nach Tabelle 5024 (übrigens nur bis 12 Monate in der Gruppe, obwohl er mindestens seit 2002 in dem Unternehmen und der Abteilung arbeitet) und einem Stundenlohn von 33 Euro erscheinen 82 viel zu sein. Zeit mal etwas Aufklärung zu betrieben.

Das erste was einen Arbeitnehmer von einem Freiberufler unterscheidet sind die Sozialabgaben und steuern. Dabei gibt es zwei Fälle zu unterscheiden. Verdient man bis 17.500 Euro im Jahr, so kann man auf die Erhebung von Umsatzsteuer verzichten, ansonsten muss man 19 % Umsatzsteuer abführen. Umgekehrt gibt es aber auch bei dem niedrigen Einkommen einen Fallstrick. Sobald das Einkommen aus selbstständiger Arbeit, sei es auch gering die anderen Einkünfte überschreitet berechnet die Krankenkasse den Beitrag nicht nach dem tatsächlichen Einkommen, sondern einem Monatseinkommen von 2283,75 Euro also 27.405 Euro Jahreseinkommen. Das man mehr als 27.405 Euro Einkommen (nicht Umsatz) aus anderen Quellen erzielt setzt ein sehr hohes Vermögen voraus, bei 2 Prozent Nettozins (abzüglich der Kapitalertragsteuer, Soli, Kirchensteuer wird man nicht mehr heute erzielen können) bräuchte man ein Vermögen von 1,37 Millionen Euro. Auf ähnliche Summe in Form von Immobilienwert kommt man, wenn man Mieten als weitere Einkommensquelle hat. Wenn es ganz dumm läuft, liegt man über 17.500 Euro muss dann Umsatzsteuer und den hohen Krankenkassenbeitrag bezahlen.

Bei mir sind es mit Pflegeversicherung 406,52 Euro pro Monat, bei 16.030 Euro Jahreseinkommen. Dazu kämen noch 12,575 % für Rentenversicherung und andere Sozialversicherungen ohne die Krankenversicherung, die bezahlt man ja noch ganz. Das ist der Arbeitgeberanteil, den man als Selbstständiger ja auch übernehmen muss. Wenn man nicht den erhöhten Krankenkassenbeitrag zahlt, sind es mit Krankenversicherung 19,575 Prozent, aber dann liegt man in jedem Falle über den 17.500 Euro Verdienst und muss Umsatzsteuer bezahlen, das sind auch weitere 19 % abgaben. Kurzum: Ich komme schon im ersten Schritt auf 43 % Abzüge, bei hohem Einkommen wären es 38,585 %. Das reduziert den Nettoverdienst schon auf 46,74 Euro bzw., 50,84 Euro/Stunde.

Doch es geht noch weiter. Arbeitnehmer werden nicht nach Stunden bezahlt, sondern haben ein Monatsgehalt. Feiertage werden dabei als Arbeitstage bezahlt, das sind im Mittel acht bis neun pro Jahr die auf Montag bis Freitag fallen. In dem Betrieb, in dem ich arbeite, haben Arbeitnehmer 30 Tage bezahlten Urlaub, also 6 Wochen. Daneben ist der Deutsche im Mittel 11,5 Tage im Jahr krank. Das Jahr hat 260,7 Arbeits-Wochentage (ohne Samstag und Sonntag, die krumme Zahl kommt dadurch zustande das es 52 Wochen und 1 Tag dauert). Zieht man davon 8,5 Feiertage, 30 Urlaubstage und 11,5 Krankheitstage ab, so bleiben noch 210,7 Tage übrig, also 23,7 Prozent weniger. Um diese 23,7 Prozent muss man das Tarifgehalt von 33 Euro/Stunde erhöhen und kommt auf 40,83 Euro, die ein Arbeitnehmer pro Stunde wirklich verdient. Die Differenz schrumpft zusammen.

Aber das ist noch nicht alles. Für den Arbeitnehmer ist mit dem Abstempeln die Arbeit erledigt, bei mir nicht. Es kommen zu in diesem Jahr 183 Stunden bezahlter Arbeit beim Kunden noch einige Besprechungen zu Hause, Telefon- und Mailsupport und die Installation der Entwicklungsumgebung, die mein Kunde gekauft hat, auf dem eigenen Rechner inklusive Zusatzkomponenten. Da ich schon seit Längerem mit dem Gedanken der Erhöhung des Satzes spielte, habe ich mir diese aufgelaufene Zeit dieses Jahr mal notiert und kam auf 22 Stunden. Umgekehrt muss ich für die Steuer eine Ein-/Ausgaberechnung machen, der Krankenkasse Steuerbescheide und Bögen zum Beantworten schicken und die Steuererklärung ist auch deutlich zeitaufwendiger. Wenn ich dafür zwei Arbeitstage also 16 Stunden zusätzlich rechne, ist das noch eher wenig. Das sind 38 Stunden unbezahlte Arbeit oder 20,7 % der Gesamtheit von 207 Stunden. Um diese reduziert sich mein Verdienst von 46,74 Euro auf 38,72 Euro. Damit verdiene ich netto weniger als mein Ansprechpartner, wenn man es wirklich auf die Stunden bezieht.

Wenn man berücksichtigt, das in den meisten Betrieben noch ein 13-tes Monatsgehalt, manchmal sogar ein vierzehntes bezahlt wird, für das man gar nicht arbeiten muss, steigt die Differenz noch weiter an. Bei 13 Monatsgehältern würde meine Kontaktperson 44,23 Euro verdienen, ich dagegen nur 38,72 Euro pro Stunde. Oder, damit ich auf denselben Verdienst käme müsste ich eigentlich 93,66 Euro pro Stunde verlangen ...

Dabei hat man ein größeres Risiko: Der Verdienst ist stark schwankend, mal mehr mal weniger, auch wenn ich, weil mir ein unkompliziertes Leben wichtiger ist, als Verdienst immer unter den schon erwähnten 17.500 Euro bleibe. Dann fällt nicht nur Umsatzsteuer an, dann ist man kein Kleinunternehmer mehr und muss eine Buchhaltung betreiben und andere bürokratische Sachen erledigen. Die Steuerklärung geht dann auch nicht mehr alleine ohne Steuerberater.

Kein Wunder, das ich seit Jahren den Vorschlag habe, das sie mich mit kleinem Zeitvolumen so eine Drittel-Stelle, anstellen. Das wäre sicherer und für mich sogar günstiger. Aber externe Mitarbeiter sind trotz des angeblich hohen Stundensatzes für Betriebe von Vorteil. Wenn „die Krise“ (geflügeltes Wort meines Ansprechpartners) mal wieder kommt, (die wohl alle paar Jahre zuschlägt, 2016 wurde auch das Budget für „Externe“ um die Hälfte gekürzt) wird zuerst mal an den Externen gespart. Außerdem ist ein Externer effizienter. Bei jemanden, der pro Stunde bezahlt wird, nicht für die Anwesenheit am Arbeitsplatz, nimmt man an, dass er auch dauernd arbeitet und ich tue das auch. Ich sehe durchaus, dass in der Firma auch mal ein privates Pläuschchen am Arbeitsplatz stattfindet, die Mittagspause eine Stunde anstatt der in der Arbeitszeit berücksichtigten 30 Minuten dauert, das Handy gecheckt wird oder man im Internet surft und Youtube Videos anschaut. Dazu kommt auch dort die Bürokratie. Zahlreiche Besprechungen, Meetings, Personalgespräche, beantworten von Mails. Das Schreiben von Dokumenten für Zertifizierungen. Deswegen ist das Thema jetzt auch für mich vom Tisch, denn ich erhoffte mir einen Vertrag, bei dem ich arbeiten kann wie jetzt, nur eben als Angestellter und mit reduzierter Stundenzahl. Wie man mir sagte, gibt es aber nur Standardverträge und dann wäre ich in diese ganzen unproduktiven Verwaltungssachen eingebunden. Ich programmiere gerne, nur deswegen habe ich die Tätigkeit überhaupt, denn sonst würde mir das Geld auch so zum Leben reichen. Aber dann macht das Programmieren eben nur einen Teil der Arbeit aus und auf den anderen Teil kann ich gerne verzichten.

26.11.2018: Die NASA-Arithmetik

Heute Abend landet ja Insight und wie immer bei einer Marslandung aber auch dem Einschwenken in den Orbit wird die NASA drauf hinweisen, das die meisten Marsmissionen gescheitert sind. Damit beugt man vor, wenn die Landung nicht gelingt – ein Restrisiko gibt es ja immer. Vor allem, wenn sie gelingt, natürlich auf die eigene tolle Leistung hinzuweisen.

In der Gesamtstatistik sieht es so aus:

Nation

Starts

Erfolge

Fehlschläge

USA

21

16

5

Russland / UdSSR

19

0

19

ESA

4

2

2 (Sekundärnutzlasten)

Japan

1

0

1

Indien

1

1

0

China

1

0

1 (Sekundärnutzlast)

Gesamt

47

19

28

Ich habe die Sekundärnutzlasten Beagle 2, Schiaparelli und Yinghuo als eigene Missionen eingestuft. Man könnte sie natürlich auch weglassen. Je nachdem, ob man sie berücksichtigt, kommt man so auf eine Erfolgsquote von 40 bzw. 43 Prozent. Das ist wenig.

Betrachtet man dagegen nur die US-Starts so sieht es anders aus: 16 von 21 Missionen, also über 76 % waren erfolgreich. Meine eigene Statistik würde nur US-Landungen betrachten, denn darum geht es ja. Das Einschwenken in den Orbit, was die meisten US-Missionen taten, ist eigentlich risikolos. Trotzdem gab es hier drei Ausfälle – davon zwei bei US-Missionen. Größer ist das Risiko eines Fehlstarts, doch das erwischte nur zwei US-Missionen, dagegen gingen zehn russische Missionen schon beim Start verloren.

Nimmt man nur die Landungen so stehen sieben Erfolgen (Viking 1+2, Mars Pathfinder, Spirit, Opportunity, Phoenix, Curiosity) nur ein Fehlschlag, der Mars Polar Lander gegenüber. Daher würde ich die Chance einer erfolgreichen Landung bei 87,5 Prozent ansetzen. Man kann auch die Bayes Abschätzung bemühen. Insight ist die dritte Sonde die auf der Architektur des Mars Polar Landers basiert. Die Bayes Abschätzung, die für Raketenstarts gerne bemüht wird, liefert 80 Prozent nach:

W=E+1/N+2

Wobei W: Wahrscheinlichkeit. E: Erfolge (7), N: Anzahl der Starts (8) ist.

Beide Zahlen sind um den Faktor zwei besser als die NASA-Statistik.

27.1.2018: Geschenke für den Raumfahrtbegeisterten

Weihnachten naht, es sind nur noch vier Wochen bis zum Fest. Natürlich kauft der Schlaue die Geschenke schon rechtzeitig vorher, aber jetzt ist es noch nicht zu spät. Daher einige Empfehlungen für Geschenke für den Raumfahrtfan von mir:

Revell Saturn V Bausatz: 1969 aufgelegt, bis heute verfügbar und wirklich eindrucksvoll. Trotz des Maßstabs von 1:144 noch 77 cm hoch. Mit Mondfähre und Mondraumschiff und beweglichen Düsen. Ich nehme mir regelmäßig vor den Bausatz zu bestellen, wenn das Modell mal wieder als Dekoration bei Fernsehsendungen zu sehen ist es zu bestellen, aber meine zwei linken Hände haben mich bisher davon abgehalten - Günter von Lojewski hat es nach eigenen Angaben auch nicht fertiggestellt. Revell selbst stuft die Schwierigkeit als Level 3 ein, der mittleren von 5 Stufen. Mit 82 Teilen etwa doppelt so umfangreich wie ein Flugzeugmodell, wird man in jedem falle viel Zeit brauchen um es fertigzustellen.

David Wood: How Apollo flew to the Moon: Das Buch erklärt die Apollotechnik, aber auch die gesamten Vorgänge von der Startvorbereitung bis zur Rückkehr. Wie viele US-Bücher geht es nicht sehr in die Tiefe, enthält aber trotzdem viele technische Angaben. Es ist leicht zu lesen weil Vorgänge immer auch durch Originalzitate erläutert werden und es ist ein wichtiges Buch für alle die genau wissen wollten, wie was funktioniert. Nicht für Moon-Hoayer geeignet.

David Wood: Saturn V: Das zweite Buch von David Wood das ich mir speziell für die Recherche für mein aktuelles Buch gekauft habe. Ich finde es noch besser als den ersten Band. Es gibt mehr Abbildungen, auch in Farbe und er geht mehr auf die Technik ein, Abläufe gibt es beim Raketenstart ja nicht so viele. Praktisch ist auch das es diesmal ein Hardcover ist. Eine Empfehlung für alle, die sich für die Technik der Saturn V interessieren. Schade das es vom Autor keine Bücher über das CSM und den LM gibt. Es gibt noch einen über das Mondmobil, das steht als nächstes auf meiner Liste, doch da ich es noch nicht gelesen habe, kann ich mich nicht dazu äußern.

Natürlich dürfen bei den Geschenktipps auch nicht meine neuesten Bücher fehlen: (Vorsicht! Werbung!)

Mit Raumsonden zu den Planetenräumen Teil 1 und Teil 2 werden alle Raumsonden besprochen die bis 2019 gestartet wurden. Da es natürlich auch eine große Sektion dazu auf der Website gibt, stellt sich die Frage, warum jemand noch ein Buch kaufen sollte. Nun zum einen habe ich vor allem bei Nicht-US Missionen noch etwas weiter recherchiert und das einfließen lassen. Zum Zweiten geht zwar jeder Artikel nicht so tief in die Materie wie die Webseite ein, doch dich denke das ist für alle, die nicht so interessiert an Technik sind wie der Autor eher von Vorteil. Das Format ist einheitlich, es sind nicht abgeschlossene Aufsätze, sondern es sind einzelne Kapitel eines Buchs, es gibt also Bezüge zueinander. Der Fokus liegt mehr auf der Missionsgeschichte als der technischen Beschreibung der Raumsonden und Experimente. In einem Datenblatt kann man schnell die wichtigsten Angaben nachschlagen. Nicht zuletzt sind die beiden Bücher mit zusammen über 800 Seiten zwar umfangreich aber die Webseite hat in etwa den vierfachen Umfang. Da hat man den ersten Artikel schon vergessen, wenn man beim Letzten angekommen ist.

Mein letztes Buch über das Meruryprogramm, dessen Beginn sich gestern gerade zum 60-sten Male jährte, ist trotz des kleinen Programms, mein bisher Umfangreichstes über bemannte Raumfahrt. Das liegt daran, das es wirklich alle Aspekte behandelt. Sonst habe ich ja einen Fokus auf einen Teil, meist die Technik oder Mission. Behandelt wird nicht nur das Raumschiff und die Missionen (inklusive aller unbemannten Tests) sondern auch die Atlas, Redstone und Little Joe Rakete, die Astronauten und ihre Ausbildung, das TAGIU-Netzwerk und die Vorgeschichte der bemannten Raumfahrt ab dem Zweiten Weltkrieg. Mit Sicherheit ist eine Angabe nicht gelogen: es ist das umfangreichste deutschsprachige Buch zum Mercuryprogramm. Das gilt aber für die meisten meiner Raumfahrtbücher.

1.12.2018:Die Problematik der Benennung nach bekannten Persönlichkeiten

Ich bin kürzlich durch Zufall über Heinrich Lübke gestorben, den ehemaligen Bundespräsidenten. Ich lass da mit Erstaunen, dass er bei der Heeresversuchsanstalt Peenemünde für den Einsatz von KZ-Häftlingen verantwortlich war und danach noch für die Verlegung der Flugzeugproduktion in Stollen, wofür dann auch KZ-Häftlingen genutzt wurden. Wie bei vielen dieser Arbeiten überlebten viele diese Arbeiten nicht.

Das erinnerte mich an eine Denkschrift von Horst Köhler (nicht der Ex-Bundespräsident, sondern der Fachjournalist), in der er vergeblich gegen die Umbenennung der letzten Schule kämpfte, die von Brauns Namen trägt. Es erinnerte mich auch an unseren neuen Stadtteil. Er entstand seit 1992 aus einer ehemaligen US-Kaserne. Noch früher war es ein Institut der Luftwaffe „Forschungsinstitut Graf Zeppelin“. Die neuen Straßen hat man dann in Anlehnung an diese Geschichte nach Flugzeugpionieren wie Heinkel und Dornier und anderen Persönlichkeiten aus diesem Bereich wie Rudolf Diesel benannt. Vor einigen Jahren hat man das revidiert, nachdem mehr über die Zwangsarbeiter bekannt wurde, die praktisch in allen Flugzeugproduzenten während des Dritten Reichs arbeiteten.

Umgekehrt gibt es wie ich feststellte noch mindestens eine Heinrich-Lübke-Schule, ich möchte nicht wissen, wie viele Straßen nach ihm benannt wurden. Das gleich gilt sicher auch für andere Politiker die eine Nazi-Vergangenheit haben. Genauer gesagt eine einschlägige Nazivergangenheit. Also verstrickt in Verbrechen des Regimes wie Filbinger. Filbinger war als Richter an mindestens 234 Strafverfahren in der Marine, beteiligt, vier Todesurteile hat er unterzeichnet.

Ich finde es erstaunlich, dass man sich bei Politikern viel leichter mit der Vergangenheit tut als bei Wissenschaftler oder Wirtschaftsgrößen. Einfacher haben es noch Künstler oder Vertreter der Geisteswissenschaften. Nehmen wir das Paar von Braun und Lübke. Beide haben ja an derselben Stelle gewirkt. Von Braun war wissenschaftlicher Leiter von Peenemünde, Lübke war für zwei KZ-Lager dort zuständig. Man weiß heute, dass von Braun nicht nur von Zwangsabreitern und KZ-Häftlingen wusste, das gab er ja noch zu Lebzeiten zu. Er hat auch Leute angefordert. Er war aber organisatorisch davon getrennt. Das war Sache der SS, die ja auch den wissenschaftlichen Teil der Versuchsanstalt unter Kontrolle bringen wollte. Es gibt heute wenig nach von Braun benannt wurde und in allen deutschen Dokumentationen, in der er eine Rolle spielt (und das sind, wegen des Mondprogramms nicht wenige) kommt das Thema zur Sprache. US-Dokumentationen, die es ja auch gibt, sehen das durchaus anders. Sie vertreten die Ansicht, dass von Braun sein Ziel Raketen für die bemannte Raumfahrt zu entwickeln verfolgte und er nicht direkt in Verbrechen verstrickt sei, was für die US-Dokumentationen wesentliche ist. Nur in Deutschland ist man der Meinung, dass man im Dritten Reich entweder Widerstandskämpfer oder 12 Jahre im Koma sein muss, um nicht in Naziverbrechen verstrickt zu sein. Das ist heute wichtiger als die persönliche Leistung. Hier mal zwei Beispiele. Es gibt bei uns ein Otto-Hahn-Gymnasium. Nicht nur bei uns, es gibt etliche Schulen, die nach Otto Hahn benannt sind. Er hat einige Isotope und das Element Protactium entdeckt. Seine bedeutendste Entdeckung war aber die Kernspaltung, die schlussendlich wenige Jahre später zur Atombombe führte. Otto Hahn ist, obwohl das im Dritten Reich stattfand , aber „politisch sauber“, denn er schützte solange es ging seine jüdische Mitarbeiterin Lise Meitner vor dem Regime. Werner Heisenberg, ebenfalls Physiker arbeitete dagegen bereitwillig mit dem Regime zusammen, um weiterhin seiner Forschung nachgehen zu können. Was wäre die Alternative gewesen? 12 Jahre lang nichts tun? Damit wäre seine wissenschaftliche Karriere beendet gewesen. Heisenberg nahm auch gerne Geld und forschte an einem deutschen Forschungsreaktor, versprach dem Regime auch eine Atombombe ohne aber jemals konkret an einer zu arbeiten. Nach dem Krieg wandte er sich vehement gegen die Aufrüstung mit Atombomben und für Kernreaktoren zur Stromversorgung. Heisenbergs Einfluss auf die Physik ist durch seine Forschungen am Atommodell und die nach ihm benannte Unschärferelation (wie man auch an dem Planckschen Wirkungsquantum das den Buchstaben h nach Heisenberg bekam sieht) viel größer als die Zufallsentdeckung von Hahn. Aber wegen der Zusammenarbeit mit den Nazis sind wesentlich weniger Gebäude nach ihm benannt. Wikipedia führt 34 Otto Hahn Schulen aber nur 10 Werner Heisenbergschulen auf.

Wenn man gegen die Nazis war, gibt es eine Benennungschwemme, offensichtlich hat man es damit in Deutschland besonders. Ganz besonders beliebt: die Geschwister Scholl. Nach Wikipedia tragen 187 Schulen diesen Namen, pro Jahr kommen zwei weitere hinzu. Okay, ich mache mich jetzt mal unbeliebt: aber die einzige „Leistung“ die das Geschwisterpaar vorweisen kann, ist eine Flugblattaktion, die dann auch zu ihrer Verhaftung führte. Graf Stauffenberg führte ein Attentat aus, um auch wirklich Hitler zu beseitigen und nach ihm ist wesentlich weniger benannt. Wohl, weil er Wehrmachtsangehöriger war und mit dem Attentat bis 1944 gewartet hat. Ebenso Johann Georg Elser, der nahezu unbekannt ist und 1939 ein Bombenattentat auf Hitler verübte, das deswegen scheiterte, weil er die Veranstaltung vorzeitig verließ. Im Gegensatz zu den Geschwistern scholl haben Stauffenberg und Elsner aktiv etwas getan, um wirklich die Herrschaft Hitlers zu beenden. Ich vermute bei den Geschwistern Scholl schwingt einiges mit, das aus heutiger Sichtweise positiv ist: Sie waren als Studenten noch jung genug, um nicht in den Jahren von 1933 bis 1943 irgendwie in das Regime verstrickt zu sein. Wie schon gesagt. Bei Stauffenberg gibt es immer den Vorwurf, das er ja als Wehrmachtsangehöriger indirekt den Krieg am Laufen hielt, vielleicht von den Verbrechen wusste und ein Attentat erst durchführte, als nach der Landung der Alliierten der Krieg verloren war (als Militärangehöriger hätte er wissen müssen, dass er eigentlich schon ab 1943 verloren war). Das zweite und wohl Wichtigere ist, dass der Verstand einen Bombenanschlag, auch wenn er das Ziel hat, einen Verbrecher zu beseitigen, ablehnt. Bomben sind unspezifisch und eine Waffe für Feige, die jemanden nicht direkt töten wollen. Anders ging es aber sicher nicht. Es gab ja überwall Wachen und vor Gericht stellen hätte man Hitler kaum können. Dagegen ist ein Todesurteil nur wegen einiger Flugblätter etwas, worüber sich jeder empört. Es ist völlig unverhältnismäßig. So ist es dann leicht, Schulen nach dem Martyrer-Geschwisterpaar zu benennen.

Ich würde, wenn man Schulen, Straßen oder andere öffentliche Gebäude und Plätze benennen, wie natürlich auch die politische Dimension zu betrachten. Ich wäre z. B. Dagegen nach Fritz Haber zu benennen. Fritz Haber hat zusammen mit Carl Bosch (die Firma Bosch wurde von Robert Bosch gegründet, das ist nur eine Namensähnlichkeit)das Haber-Bosch-Verfahren entwickelt. Es erlaubt die Gewinnung von Stickstoffverbindungen aus dem Stickstoff der Luft. Das ermöglichte zum einen die Produktion von Kunstdünger, ohne die man heute nur einen Bruchteil des Getreides ernten könnte. Es ermöglichte aber auch dem Kaiserreich den Krieg vier Jahre lang durchzuhalten, obwohl man von der Einfuhr von Salpeter für die Produktion von Schießpulver und andere Explosivstoffen wie Dynamit abgeschnitten war. Dafür konnte Haber nichts, aber seinen Ruf hat er sich ruiniert, weil sich Haber aktiv dafür ausgesprochen hat, Chlorgas im Krieg einzusetzen und den Einsatz sogar leitete, womit der Gaskrieg begann. Dabei ist Haber als Jude auch ein Opfer der Nazis, er emigrierte 1933 nach England und starb ein Jahr später im Exil.

Vor allem aber ist die Lebensleistung maßgeblich. Bei den Straßen ist auch eine Felix-Wankel-Straße – nichts gegen Felix Wankel, aber sein von ihm erfundener Motor hat sich eben nicht durchgesetzt. Im Allgemeinen gibt es meiner Ansicht nach zu wenige Naturwissenschaftler bei den Namensgebern für Plätze und Gebäude. Wie viele Benennungen nach Schiller, Goethe, Kant gibt es und wie viele nach Kepler, Frauenhofer, Koch?

Vor allem dominieren viele Personen der jüngeren Vergangenheit, die Größen der vergangenen Jahrhunderte sind fast vergessen.

4.12.2018:Warum IBM nicht langfristig erfolgreich mit dem PC war

Ich habe ja schon Artikel über den IBM PC im Blog geschrieben, über die Technik, zum 30-jährigen und 35-jährigen Jubiläum. Dann gibt es noch die legendäre Geschichte von PC-DOS. Doch darum geht es nicht in diesem Artikel. Die Schöpfungsgeschichte des IBM PC habe ich schon ausführlich beackert. Ebenso seine Macken und die Unkenntnis der Manager vom Markt und nur mal den Firmen, die dort tätig sind.

Nicht immer ist es das beste Produkt, das marktbeherrschend wird. Das kennt man nicht nur vom Computer. Das meistverkaufteste Auto war der Käfer – sicher nicht das beste Auto. Ebenso verkaufte sich die „Ente“ recht gut, obwohl manche sie nicht mal als Auto bezeichnen würden. Ich denke die Entwicklung, die auf den IBM PC folgte, war vorhersehbar, auch wenn sie IBM selbst erstaunte.

Das Gerät war von Anfang an ein Verkaufserfolg. Das überrascht. Es gab ja schon 16 Bit Rechner vor dem IBM PC. So der Sirius 1. Er war etwas billiger als der IBM PC hatte einen echten 8086 Prozessor mit 8 anstatt 5 MHz, Zwei Floppies, die mehr als doppelt so viel Daten fassten und einen hochauflösenden Grafikmodus, dessen Auflösung IBM erst mit der Vega-Grafik acht Jahre später erreichte. Trotzdem verkaufte sich der IBM PC besser. Warum?

Einfach weil IBMs Ruf bei Computern legendär war. Das beruhte nicht einmal so sehr auf der Technik. Vielmehr hatte die Firma einen hervorragenden Service und auch eine sehr gute Marketingabteilung. Kunden wurden bei IBM gut behandelt. Sie baute nicht nur Computer, sie stellten sie auch auf, nahmen sie in Betrieb und bei einer Störung war schnell ein Techniker vor Ort. Sie brachte die Kunden sogar dazu, die Rechner zu mieten, anstatt zu kaufen. Das verdoppelte für IBM den Gewinn. Das die Firma teurer als die Konkurrenz war störte da nicht.

Die Mikrocomputer waren dagegen noch neu. Der Altair war gerade mal sechs Jahre alt als der IBM PC erschien. Nimmt man den Apple II oder Commodore PET als Basis für den Vergleich – das waren die ersten Rechner, die so leistungsfähig waren, dass man mit ihnen arbeiten konnte – dann war der PC sogar nur drei Jahre alt. Bisher kauften die Geräte Nerds. Leute, die einen besonderen Bezug zu Technik hatten oder sich beruflich damit beschäftigten wie Ingenieure. Der PC war noch nicht da angekommen, wo später die meisten stehen sollten – im Büro.

Das änderte sich mit dem IBM PC. Der eintritt der Firma in den Mikrocomputermarkt bedeutete für viele auch, dass sie dieses Marktsegment erst wahrnahmen. Wenn IBM einen eigenen PC baut, dann müssen diese Mikrocomputer wohl doch für etwas gut sein. Viele kauften von IBM, einfach wegen des guten Rufs, oder wie es damals unter Entscheidern heiß „Niemand ist jemals dafür entlassen worden, dass er bei IBM kaufte“. Die Firma hatte in etwa den Ruf den Apple heute hat – es mal billigere und genauso leistungsfähige Smartphones geben, aber Apple ist eben der Standard, an dem sich alle messen. Deswegen bezahlen Apple-Käufer gerne mehr für Apple-Produkte.

Davon profitierten alle Hersteller von Mikrocomputern, denn nicht jeder wollte einen IBM PC – er war teuer und es gab noch kaum Software für ihn. Es gab einen enormen Boom und auch die Verkäufe von Apple & Co stiegen drastisch an.

IBM wurde selbst von der Nachfrage überrascht. Die optimistische eigene Prognose ging von 250.000 Rechnern in den ersten 5 Jahren aus. In Wirklichkeit wurde diese Grenze schon nach zwei Jahren gerissen. Die Nachfrage war so groß, dass IBM zuerst nur den US-Markt bedienen konnte, erst Anfang 1983, eineinhalb Jahre nach der Einführung, waren die Geräte auch in Europa verfügbar.

So verwundert es, das am 1.5.2005 IBM die PC-Linie an Lenovo verkaufte, gefolgt 2014 von der x86 Serverlinie. Aber bis dahin hatte die Firma einiges falsch gemacht.

Die Probleme waren vielfältig: organisatorischer, technischer und wirtschaftlicher Art. Als Laie denkt man zuerst daran, dass die Klones IBM das Leben schwer machten. Sehr bald erschienen Nachbauten des IBM PC. Zuerst als sogenannte MS-DOS-Kompatible von anderen Herstellern von Computern wie Zenith, HP, Data General, Texas Instruments, NCR. Sie waren nur auf Betriebssystemebene kompatibel. Das lies den Herstellern die Freiheit die Hardware anders zusammenzustellen, z.B. den 8086 anstatt 8088 Prozessor zu verwenden. Diese Rechner hatten aber keine Zukunft, denn wegen der Langsamkeit des IBM PC programmierten viele am Betriebssystem vorbei und die Programme liefen dann nur noch auf dem IBM PC oder einem 100 % Kompatiblen. Davon gab es bald jede Menge. Compaq begann mit dem Entwurf einer „tragbaren“ Version des IBM-PC. Das war vor Einführung von LCD oder Plasmabildschirmen mit einem kleinen Monitor eher ein schleppbarer Computer, aber man konnte ihn immerhin überall hin mitnehmen. Auch andere Computerhersteller sprangen auf den Zug auf. Commodore waren erfolgreich mit ihrem PC Klone. In Deutschland war es die Firma Schneider, die eigentlich Audiotechnik produzierte und zuerst den CPC von Armstrad vertrieb, später aber einen eigenen PC und einen PC, bei dem alles in die Tastatur passte, vorstellte.

IBM wusste das es dazu kommen würde. Bei Großrechnern waren „Kompatible“ schon gang und gäbe. Weder das Bussystem noch andere Teile waren urheberrechtlich geschützt und es gab das Phänomen schon bei den Mikrocomputern. Der Altair 8800 wurde als IMSAI 8080 nachgebaut (sein berühmtester Auftritt ist im Spielfilm „War Games“) und vom Apple II gab es sogar etliche Nachbauten.

IBM meinte, das man so große Stückzahlen herstellen würde, dass die Nachbauten kein Problem wären, einfach weil man kostengünstiger produzieren würde. Das ist aber nur eine Seite der Medaille. Die andere ist das IBM trotzdem viel teurer verkaufte als andere. Das lag am eigenen Vertrieb, der nochmals unterteilt in einen Großkunden und Normalvertrieb war. Der Großkundenvertrieb bekam aufgrund höherer Stückzahlen günstigere Preise, was dazu führte das sich viele Händler mit mehr Geräten eindeckten, als sie kurzfristig verkaufen konnten. Da damals die Preise für die Hardware laufend sanken – pro Jahr um ein Drittel war durchaus normal – konnte diese Praxis zum Ruin führen. Michael Dell begründete sein Unternehmen, als er IBM PC von Händlern aufkaufte, die sich übernommen hatten und wieder weiterverkaufte. Vor allem war aber IBM noch nicht in der Welt der Mikrocomputer angekommen. Ich kann mich an keine einzige Anzeige eines Händlers in einer Computerzeitschrift erinnern, in der ein IBM PC auftauchte. Er wurde vom eigenen Vertrieb verkauft, nicht über einen Computershop, der auch andere Marken vertrieb.

Das funktionierte trotzdem gut, die meisten PC wurde schon wegen des Preises nicht von Selbstständigen oder kleineren Firmen, sondern von größeren Firmen eingesetzt und da meist nicht vom Boss, sondern der Sekretärin. Langfristig erschloss aber der PC mit sinkenden Einstiegspreisen immer größere Käuferschichten und die schloss man so aus.

Der Preisverfall war ein anderes Problem. Der war nicht neu. Seit es integrierte Schaltungen gab, sanken die Preise für eine bestimmte Schaltung dauernd. Was den Mikrocomputermarkt aber von dem kleinen Markt von Großrechnern unterscheidet, war die Konkurrenz. Es gab zig verschiedene Hersteller von RAM-Chips, TTL-Bausteinen, PROMS und selbst der Prozessor wurde von mindestens 5 Herstellern produziert. Diese Konkurrenz führte zu einem viel schnelleren Preisverfall als bei Großrechnern. Das bedeutete aber auch: man musste einen PC schnell verkaufen, dürfte keine Lagerbestände aufbauen. IBM erwies sich nicht als flexibel genug und war auch deswegen immer teurer als die Konkurrenz.

Schlussendlich scheiterte die Firma daran, dass sie zu wenig innovativ war. Erst 1984 erschien der IBM AT mit dem Nachfolgeprozessor 80286. Den Prozessor gab es seit zwei Jahren, doch IBM wollte lange keinen Nachfolger entwickeln, verkaufte sich der IBM PC doch sehr gut. Zeitgleich erschien der Macintosh – anders als der IBM PC AT ein revolutionäres Gerät und es erschienen die ersten Workstations. Beim nächsten Prozessor, dem 80386 wartete die Konkurrenz nicht bis IBM einen Rechner fertig hatte: der Compaq 386 verwandte einfach die Hardware des BM PC AT, ersetzte den Hauptprozessor und erweiterte das Bussystem um einen zweiten Stecker, in dem die zusätzlichen Leitungen des 80386 ansprechbar waren.

Zwischendurch versuchte sich IBM sogar im Segment der Heimcomputer. Schon der Ansatz ist sportlich, denn dort herrschte ein gnadenloser Preiskampf. Es zählte vor allem der Preis. Es verkauften sich Geräte gut, die günstig waren, wie der Sinclair Spectrum oder C64. Die meisten Käufer waren wohl Jugendliche, die mit den Geräten nicht arbeiteten oder programmierten, sondern spielten. Der IBM PC jr (für junior) war eine einfache Version des PC wie dieser lief er unter MS-DOS. Das Gerät wurde zum totalen Flop. Zum einen gab es Hardwaregründe wie die miese Tastatur. Daneben war, da man die Hardware des PC übernahm, der Rechner auch nicht so gut zum Spielen geeignet, dazu fehlten ihm die Grafikfähigkeiten. Vor allem war er aber zu teuer: eine Version mit Diskettenlaufwerk kostete 1269 Dollar, ein C64 mit Diskettenlaufwerk weniger als die Hälfte. In Europa kam er gar nicht erst auf den Markt.

Die Firma beschritt dann einen Weg, der sich als Sackgasse entpuppte. Man wollte wieder die Kontrolle über die Plattform zurückgewinnen. Das bedeutete eigene Hardware die lizenzrechtlich geschützt war. Die Modellreihe PS/2 führte diese ein: Den Microchannel-Bus, VGA-Grafik, 1,44 MB Diskettenlaufwerke im 3,5 Zoll Format und die bis heute üblichen Buchen für Tastatur und Maus. Wer dafür Hardware produzieren wollte, benötigte eine Lizenz von IBM. Das machte nicht nur die Rechner teuer, sondern auch jegliche Peripherie. Damals war aber IBM nur ein Anbieter von vielen und den Wechsel machten die Kunden nicht mit. Sie blieben lieber beim alten Standard trotz seiner Nachteile. Dabei hätte man schlauer sein können. Genau dasselbe tat Apple beim Mac, der auch als abgeschlossenes System konzipiert war, anders als der offene Apple II. Auch beim Macintosh scheiterte das Konzept.

Noch desaströser fiel die Entwicklung eines eigenen Betriebssystems aus. Damit Microsoft es nicht einfach lizenzieren konnte, wollte IBM mit Microsoft es zusammen entwickeln. Die Zusammenarbeit verlief niemals reibungslos. So bestand Microsoft immer noch darauf, es weiter anzubieten. Es gab zwar keine Lizenzierung aber Microsoft verkaufte es auch. Microsoft wollte den 80286 Prozessor überspringen, für den die erste Version von OS/2 entwickelt wurde, weil er schon veraltet war (und Bill Gates vom Prozessor nichts hielt). IBMM wollte das System aber für die aktuellen Rechner haben und nicht für zukünftige. Vor allem dauert es enorm lange OS/2 zu entwickeln - über zwei Jahre, was damals eine halbe Ewigkeit war. Als 1987 die erste Version erschien, war der 80386 seit zwei Jahren Standard und er wurde nicht unterstützt. Dabei hatte die erste Version nur eine Textoberfläche wie DOS – zwei Jahre vorher waren mit Windows und GEM die ersten grafischen Benutzeroberflächen erschienen. OS/2 hinkte immer Windows hinterher, auch wenn es das stabilere System war. Schließlich stieg Microsoft ganz aus und IBM entwickelte es alleine weiter. Die beiden letzten Version 3.0 und 4.0 waren auch wirklich gut gelungen. Das Problem: Als OS/2 3.0, die erste von IBM alleine produzierte Version 1994 erschien, war Windows längst marktbeherrschend. Zwar konnte OS/2 auch Windows Programm in einer Emulation ausführen, das war aber quälend langsam, wie der Autor bei einem Highscreen-PC von VOBIS selbst erleben konnte, den die Firma mit OS/2 anstatt Windows verkaufte, da sie damals gerade Ärger mit Microsoft hatten. Schließlich stellte man nach der Version 4.0 das System komplett ein.

Mit dem Scheitern sowohl einer eigenen Hardwareplattform wie auch eines eigenen Betriebssystems war IBM nur ein Hersteller von PCs wie viele andere. Die Hardware wurde inzwischen von Intel weiterentwickelt oder von Industriegremien festgelegt. Das Betriebssystem stammte fast vollständig von Microsoft. Dabei blieb IBM teurer als die Konkurrenz, auch wenn ihre Geräte wie die Notebooks der Thinkpad-Serie einen sehr guten Ruf hatten. Bei immer weiter sinkenden Preisen für Computerhardware verlagerte sich aber die Käuferschicht hin zum Normalbürger und dem war das Renommee von IBM egal. Firmen, die 1980 noch neu waren, waren zehn Jahre später eingeführte Hersteller von Mikrocomputern und hatten damit auch einen guten Ruf. Der Marktanteil sank laufend und als Schluss beendete IBM das Kapitel PC komplett und konzentriert sich seitdem auf größere Rechner (Server) aus Basis der hauseigenen PowerPC-Plattform.

Mehr und weitere spannende Geschichten rund um den PC und seine Pioniere findet sich in meinem Buch „Computergeschichte(n)“.

Home Site Map Lebensmittelchemie + Ernährung Lebensmittelchemie im Alltag counter

5.12.2018: Wie gesund ist Popcorn?

Seit letztem Jahr esse ich gerne mal abends Popcorn, weil ich faul bin, bevorzugt als Mikrowellenpopcorn. Nun bin ich ja auch Lebensmittelchemiker und da fängt man sich Gedanken zu machen, wie gesund das ist. Mein Ansatz ist es nur den Popcornmais zu betrachten und dann die gesamte Mischung. Dafür gibt es gute Gründe. Zum einen gibt es auch andere Herstellungsmethoden wie Heißluft bei der Popcornmaschine (ich habe über die Anschaffung angedacht, aber bei mindestens 35 Euro pro Maschine lohnt sich das nur bei wirklich viel Popcorn). Zum anderen gibt es dafür konkrete Angaben auch für Minorbestandteile, bei der Gesamtmischung, die noch Öl und eventuell Zucker oder Salz enthält, nur eine Summenangabe.

Mein erster Gedanke war, das Popcorn relativ gesund ist. Es enthält wenig Fett, selbst wenn es gezuckert ist, dann ist es wenig Zucker. Der Mais selbst ist ja Vollkorn. Vollkorn, das magische Wort für alle ernährungsbewussten. Vollkorn ist gut, Vollkorn ist gesund. Das weiß doch jeder: Vollkornbrot ist besser als normales Brot. Müsli aus ganzen Krönern gesünder als Cornflakes nur aus der Stärke.

Doch, wer sich mit Ernährung auskennt, sieht es differenzierter. Auch wenn Weizen, Roggen, Hafer, Reis und Mais alle zu den Gräsern gehören, ist ihre Zusammensetzung nicht identisch. Das müsste eigentlich auch der Laie erkennen. So schmecken Roggenvollkornbrot und Weizenvollkornbrot unterschiedlich. Nur aus reinem Weizen kann man nur mit Hefe Brot backen. Dabei sind beides eng verwandte Arten. Es geht sogar noch ähnlicher: Dinkel und der normale Weizen (Weichweizen) sind nur zwei Arten des Weizens, also eng miteinander verwandt. Trotzdem gehen Dinkelvollkornbrötchen besser auf und enthalten mit 10,6 g/100 g weniger Ballaststoffe als Weichweizenvollkorn (13,3 g/100 g). Kurz: die Zusammensetzung der Körner von Getreidearten differiert von Art zu Art. Hafer entfällt viel Protein und ungesättigte Fettsäuren, Reis am meisten Stärke von allen Getreidearten. Mais fällt schon von dem Aussehen her auf. Die Kolben und Körner sind viel größer. Damit will ich Folgendes sagen: Vollkorn bei Mais muss nicht unbedingt so gut sein wie Weizenvollkorn.

Die Inhaltsstoffe von Mais

Der Lebensmittelchemiker beurteilt meist nicht die Absolutmenge eines Stoffs, sondern wie viel im Vergleich zum Tagesbedarf und zum Energiegehalt enthalten ist. Enthält ein Lebensmittel z. B.. 50 Prozent des Tagesbedarfs pro Portion, die Energie macht aber nur 25 Prozent des Tagesbedarfs aus, dann ist sie reich an dem Stoff, sind es weniger als die 25 Prozent so ist sie arm an dem Stoff. Hier die Analyse von reinem Mais:

Nährstoff

Gehalt absolut

Tagesbedarf (8400 kJ, 60 kg schwere Frau Alter 25-51)

Prozent Tagebedarf bezogen auf Energie

Energie

1389 kJ

8400 kJ

100 Prozent

Kohlenhydrate

64,7 g

244 g

160 Prozent

Davon Zucker

3,2 g

60 g

32,2 Prozent

Ballaststoffe

9,2 g

30 g

185 Prozent

Eiweiß

8,5 g

48 g

107 Prozent

Fett

3,8 g

64,7 g

29,8 Prozent

Essenzielle Fettsäuren

1,67 g

6,5 g

155 Prozent

Natrium

6 mg

1500 mg

2,4 Prozent

Kalium

330 mg

4.000 mg

49,9 Prozent

Magnesium

120 mg

300 mg

241 Prozent

Calcium

15 mg

1.000 mg

9,0 Prozent

Eisen

2 mg

15 mg

80,6 Prozent

Kupfer

0,2 mg

1,25 mg

96,7 Prozent

Mangan

0,48 mg

3,75 mg

77,4 Prozent

Zink

2,5 mg

7 mg

215 Prozent

Phosphor

255 mg

700 mg

220 Prozent

Fluorid

0,06 mg

3,1 mg

19,3 Prozent

Iodid

0,003 mg

0,15 mg

12 Prozent

Selen

0,002 mg

0,06 mg

20,1 Prozent

Carotin

0,37 mg

6 mg

37,9 Prozent

Vitamin E

1,95 mg

14 mg

84,3 Prozent

Vitamin K

0,04 mg

0,06 mg

403 Prozent

Vitamin B 1

0,36 mg

1,0 mg

217 Prozent

Vitamin B 2

0,2 mg

1,1 mg

109 Prozent

Nicotinamid

1,5 mg

12 mg

75,5 Prozent

Pantothensäure

0,65 mg

6 mg

65,5 Prozent

Vitamin B 6

0,4 mg

1,2 mg

201 Prozent

Biotin

0,006 mg

0,045 mg

80,6 Prozent

Folsäure

0,025 mg

0,3 mg

50,3 Prozent

Bei den Hauptnährstoffen gibt es wenige Überraschungen. Wie jedes Getreide ist Mais reich an Kohlenhydraten. Als Samen enthält er auch Eiweiß für den Keimling. Der Fettgehalt ist dagegen gering. Es ist jedoch biologisch hochwertig und enthält viele essenzielle Fettsäuren und natürlich enthält das Vollkorn kaum Zucker und viele Ballaststoffe, auch wenn er weniger ballaststoffreich als bei Weizen oder Roggen ist, aber immer noch mehr als bei Hafer, Hirse und Reis.

Wie jedes andere pflanzliche Nahrungsmittel enthält Mais von den Hauptmineralstoffen viel Kalium und Magnesium und wenig Natrium und Calcium. Bei den metallischen Spurenelementen liegt die Bedarfsdeckung im Durchschnitt. Iod und Selen sind kaum enthalten.

Bei den Vitaminen sind die Vitamine der B-Gruppe wie bei anderen Getreidesorten in größerer Menge enthalten. Provitamin A und Folsäure sind dagegen kaum enthalten.

Bedenkt man, dass es ein Snack ist, so hat Mais erst mal eine sehr gute Zusammensetzung - viele Vitamine, kaum Zucker, kaum Fett. Genügend Eiweiß, allerdings mit niedriger biologischer Wertigkeit.

Die Zusammensetzung von Mikrowellenpopcorn

Für die gesamte Packung von Popcorn für die Mikrowelle gibt es nur eine Summenangabe. Ich nehme mal die Packung mit Zucker:

Nährstoff

Gehalt absolut

Tagesbedarf (8400 kJ, 60 kg schwere Frau)

Prozent Tagebedarf bezogen auf Energie

Energie

1734 kJ

8400 kJ

100 Prozent

Kohlenhydrate

62 g

244 g

123 Prozent

Davon Zucker

17 g

60 g

37,2 Prozent

Eiweiß

6,4 g

48 g

64,5 Prozent

Fett

14 g

64,7 g

104 Prozent

Essenzielle Fettsäuren

2,4 g

6,5 g

178 Prozent

Relativ logisch ist das durch den Zusatz von Fett und Zucker, der Kohlenhydrat- und Eiweißgehalt sinken und dafür der an Zucker und Fett. Insgesamt bleibt die Beurteilung positiv, vor allem beim Zucker, wobei ich die niedrige DLR-Vorgabe nehme, nicht die von der Industrie (90 g Zucker/Tag).

Wie sieht es bei den Minorbestandteilen aus? Popcorn wird nur 3 Minuten lang erhitzt, vorher sind Vitamine gut geschützt im Korn, anders als bei Müsli wo das ganze Korn gequetscht wird und dann wochenlang in der Verpackung Luft und Licht ausgesetzt wird. So kann man annehmen, dass es praktisch keine Vitaminverluste bei der Zubereitung gibt.

Nun wäre noch der Maisanteil wesentlich, da zugesetztes Fett außer bei den fettlöslichen Vitaminen nichts ändert und Zucker absolut frei von Vitaminen und Mineralstoffen ist. Aufgrund der Differenzmenge von Fett und Zucker zu reinem Popcornmais kann man von einem Maisanteil von 76 Prozent ausgehen. 13 Prozent sind Zucker, 11 Prozent zugesetztes Fett. Allerdings steigt auch der Energiegehalt an, sodass man von einer Reduktion der Vitamine und Mineralstoffe um 64 Prozent annehmen kann.

Damit reduzieren sich dann die Mineralstoffe und Vitamine auch um 64 Prozent und es bleiben noch mit hohen Gehalten übrig: Ballaststoffe, Zink, Vitamin K, Vitamin B 1, Vitamin B 6. Nicht viel, bei rund zwei Dutzend Nährstoffen, aber wenn man bedenkt, dass es kein Grundnahrungsmittel ist, doch in der Bilanz positiv, denn verglichen mit anderen Süßigkeiten enthält Mais:

Daneben ist der Energiegehalt relativ gering - trotz zugesetztem Fett. Noch gesünder wäre natürlich Heißluft gepoppter Mais (ohne Fettzusatz) und wenn man das Popcorn gesalzen mag, fällt auch der Zucker weg. Salz enthält zwar Natrium, doch Mais selbst enthält kaum Natrium.

Fazit

Popcorn ist ein relativ gesunder Snack - relativ zuckerarm, fettarm, dafür reich an essenziellen Fettsäuren, Ballaststoffen und einigen Vitaminen.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99