Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 456: 26.3.2016 - 9.4.2016

26.3.2016: „Bitte benutzen sie die Handschuhe“

So eine Verkäuferin bei ALDI zu mir, als ich gestern mir aus dem Fach zwei Brezeln nahm. Unsere Filiale hat von den sonst bei ALDI bisher üblichen Aufbackautomaten auf echte Backöfen umgestellt. An und für sich eine Verbesserung, denn auch wenn die Firma bisher mit „Backöfen“ warb, war es so, dass diese Automaten fertig gebackene und dann tiefgekühlte Waren nur nochmals aufwärmten, wobei sie im Ofen im Kreis zirkulierte, bis jemand auf den Knopf drückte und die Ware anforderte. Das ging ganz gut bei Brötchen, die man bald isst. Brot kam meiner Erfahrung nach aber immer mit einer enorm dicken und harten Kruste heraus.

Nun hat ALDI, wie andere Discounter Backöfen, die von einer Angestellten regelmäßig geleert und in die Auslagen umgefüllt werden. Dort muss man sich nun selbst bedienen. Jeder Discounter hat dazu ein System eingeführt, damit der Kunde die Backwaren möglichst nicht anfasst. Bei LIDL sind es große Schaufeln, mit denen man vom vorne abgeschlossenen Auslagenkorb das Ganze in eine Rutsche umbugsiert. Das ist meiner Erfahrung nach das einzige System das wirklich funktioniert. Bei Real ist es ein überdimensionaler Doppellöffel, der deutlich umständlicher ist (mir ist schon mehrmals ein Brötchen auf den Boden gefallen, was nicht im Sinne des Erfinders ist), vor allem aber an einer viel zu kurzen Leine hängt, sodass das ganze im besten Fall umständlich ist. Bei ALDI sind es nun überdimensionale Folienhandschuhe, mit denen man die Dinge anfassen soll.

Nun sind Backwaren, wenn sie aus dem Backofen kommen, keimfrei. Sie sind wegen der harten und wasserfreien Kruste auch kein guter Nährboden für Keime. Das bedeutet: Selbst wenn man sie mit den Händen anfasst, resultiert daraus keine gesundheitliche Gefahr. Sicherlich will der Discounter, dass die Kunden keine Angst haben, dass sie schon angefasste Ware kaufen. Das ist verständlich, aber realistischerweise ist es ja nicht so, dass Hunderte von Kunden die Einlagen durchwühlen. Die meisten nehmen ein Gebäckstück und berühren kein anderes oder nur eines, um es zur Seite zu schieben. Dann wird ein Stück maximal einmal angefasst, das ist weniger, als wenn man es beim Bäcker kauft, da fasst es die Verkäuferin in jedem Falle an.

Ich habe dann mal geschaut, ob sich seit meinem Studium, was geändert hat und es eine neue Vorschrift gibt, wonach man alle unverpackten Lebensmittel nicht mehr mit Händen anfassen darf. Aber die inzwischen dafür geltende Verordnung EU 852/2004 gibt da nichts her. Es gibt nur allgemeine Vorschriften, aber kein Gebot für Handschuhe, sondern nur die Forderung nach ausreichender Hygiene. In der Bäckerei, in der ich sonst einkaufe, werden die Brötchen auch von Hand eingetütet. Die einzige Ausnahme liegt bei leicht verderblichen Lebensmitteln vor. Beim Verkauf von Fleisch und Wurst, mit Abstrichen auch bei Käse (zumindest Weichkäse), wo schon Handkeime nicht auf die Lebensmittel gelangen sollten, können kann man dagegen als Standardhygiene den Einsatz von Handschuhen erwarten. Daher haben die Angestellten bei entsprechenden Theken oder Fleischer die Bedienungen Handschuhe an. Mit Handschuhen ist es aber auch nicht immer besser. Dazu müssten diese nämlich öfters gewechselt werden, zudem haften an den Handschuhen auch Lebensmittel und werden so übertragen. Also ich möchte eigentlich nicht dass mit den Handschuhen, mit denen gerade Hackfleisch für die letzte Kundin angefasst wurde, nun Streichwurst für mich verpackt wird. Hände wird man wohl eher kurz waschen, als dass man Handschuhe wechselt. Man spürt ja nicht, ob was an den Handschuhen haftet. In jedem Falle gibt es keine Vorschrift, die mich als Kunden verpflichten kann, diese Einweghandschuhe zu benutzen, die übrigens von der Lebensmittelkontrolle wegen ihrer geringen Foliendicke als weitgehend unwirksam angesehen werden.

Vor allem ist ein Kurieren an einer Front, wo es weitestgehend unsinnig ist. Will man die Keimübertragung stoppen dann ist das an anderen Stellen sinnvoll. Brötchen und Brot, zumindest solange es nicht geschnitten ist, ist kein guter Nährboden für Bakterien. Dagegen ist Obst und Gemüse ein sehr guter Nährboden. Davon ist zwar das meiste inzwischen auch verpackt (allerdings nicht aus hygienischen Gründen, sondern wegen des Transports oder Warenauszeichnung) doch es gibt genügend, das noch nicht verpackt ist Blumenkohl, Kraut, Fenchel fallen mir spontan ein. Inzwischen wird es sogar wieder mehr: Lidl bietet immer öfters Obst unverpackt zum Selbstabwiegen an, weil das den Umsatz erhöht. Hier dürfte die Gefahr, das etwas angefasst wurde höher sein, wenn Kunden sich etwas herauslesen wollen. Wenn Kohlrabi nach Stück verkauft werden, kann man drauf wetten, dass die kleinen oben liegenden mehrmals angefasst wurden, weil jeder sie zur Seite räumt, um unten nach größeren zu suchen. Noch größer ist die Gefahr, wenn Lebensmittel zerkleinert und verarbeitet werden. Hier sind sie anfälliger, weil Zellstrukturen zerstört werden, die Oberfläche wird größer, und selbst wenn man das mit Handschuhen macht, kann es leicht zur Kreuzkontamination kommen so z. B. von Geflügelfleisch auf Zutaten des Salats, wenn man ein Gericht zubereitet: Das Hühnerfleisch wird durcherhitzt. Die Erreger, die meist auf Geflügel vorkommen (fast alle Hühner und alle Enten haben Salmonellen im Darm, die gehen bei der Schlachtung auf das Fleisch über), werden abgetötet, aber der Salat wird nicht erhitzt. Zudem kann man in auch in Großküchen nicht davon ausgehen, dass bei jedem Schritt Handschuhe getragen werden. Zerkleinern und Schälen ist mit Handschuhen sehr schwer, man kann z.B. das Messer so nicht mit den Fingerkuppen führen, wenn man fein schneiden will. Auch hier weis man nicht, ob nach jedem Arbeitsschritt die Handschuhe gewechselt werden, um eine Kreuzkontamination zu vermeiden.

Wenn es den Discountern so wichtig mit der Hygiene bei Backwaren ist, dann sollten sie weiter denken: Was ist mit den Auslagenboxen, den Blechen etc.? Wie oft werden wie gereinigt und wie gründlich? Auf Krümeln, abgegangenen Samen können sich viel eher Bakterien ansiedeln als auf den Backwaren selbst. Dazu gibt es Backwaren mit zuckerhaltigen oder fetthaltigen Oberflächen, entweder glasiert oder durch den Eigenfettanteil (wie bei Croissants). Die ziehen einen schönen Film auf die Auslage, den man nur als Bakterienrasen bezeichnen kann. Eine gründliche Reinigung dieser wäre viel wirksamer, als umständlich jeden Kunden zu zwingen, Handschuhe zu tragen.

1.4.2016: Die Sache mit der Testnutzlast der SLS

Eigentlich sollte eine Mission für den ersten Teststart der SLS keine große Sache sein, doch wie jetzt bekannt wurde, war die Nutzlastwahl durchaus nicht so einfach.

Alles fing mit einem Experiment an, das 2013 am Stanford Linear Accelerator Center (SLAC) durchgeführt wurde. Eine Forschergruppe der UA (University of Arizona), die auch an zahlreichen Experimenten von Raumsonden beteiligt ist und die Führung bei der 2008 gestarteten Phoenix Mission hatte, wollte die „Sequestration“ 2013 für ein Experiment nutzen. Der SLAC wurde damals gerade umgebaut für ein neues Experiment und mit der Zwangsbeurlaubung waren auch wenige Arbeiter vor Ort. Dies waren nach Ansicht der Forscher ideale Bedingungen für einen Test der interferometrischen Optik unter Weltraumbedingungen.

Interferometrie gibt es schon lange und in der Radioastronomie ist das eine weit eingesetzte Beobachtungstechnik. Das Grundprinzip ist recht einfach: Wenn zwei Teleskope oder Antennen X m voneinander entfernt sind und man die Signale zeitlich genau zuordnen kann, so kann man rechnerisch aus den beiden Signalen eines rekonstruieren, das einem Teleskop von X Metern Durchmesser entspricht. Das erprobte man zuerst bei Radioteleskopen, indem man die Signale über Leitungen in einem Punkt genau zwischen den beiden Antennen analog zusammenführte. Später, mit dem Aufkommen von Computern, installierte man bei den Empfängern Atomuhren und zeichnete die Daten auf Band auf. Ein Rechner bekam dann die Bänder mehrerer Antennen führte die Signale gleicher Zeitstempel zusammen und berechnete nach mathematischen Verfahren (Fourier-Analyse und -synthese) das theoretische Bild. So konnte man schon in den Achtziger Jahren eine synthetische Antenne mit einem Durchmesser von mehreren Tausend Kilometern konstruieren, indem man Teleskope aus Europa und den USA zusammenschaltete.

Bei Radioteleskopen klappt das sehr gut. Das liegt daran, dass sie nur einen Empfänger haben, also es nur einen „Bildpunkt“ pro Antenne gibt und Radiosignale werden zwar im Weltraum beeinflusst, nicht aber durch die Atmosphäre. Soe erfassen alle Antennen die gleichen Störungen und diese kompensieren sich. Optische Teleskope haben jedoch Sensoren die Tausende bis Millionen Bildpunkte haben und der Rechenaufwand potenziert sich so. Zudem verschmiert die Erdatmosphäre das Bild. Mit adaptiver Optik kann man das reduzieren, aber nur für jeweils einen Spiegel nicht für die ganze Länge des Interferometers. Bisher gab es nur ein Teleskop, das Interferometrie erprobt, das Very Large Teleskope der ESO, bei dem die vier 8,2 m Spiegel zu einem 200-m-Teleskop zusammengefasst werden. Die technischen Herausforderungen sind jedoch so groß, dass diese Technik nur selten und nur bei punktförmigen Quellen eingesetzt wurde. Immerhin hat man so Aufnahmen mit einer Auflösung von 4 Millibogensekunden erreicht, das entspricht einem Teleskop von 30 m Durchmesser. Theoretisch sollte die Auflösung bei der Basislänge von 200 m sieben Mal besser sein, doch zeigt dies schon, das die Atmosphäre einen Strich durch die Rechnung macht. Das VLT-Interferometer kann auch keine ausgedehnten Quellen untersuchen, sondern nur das Licht einzelner Sterne. Ein Bild kann man gewinnen, wenn man viele dieser Beobachtungen zusammensetzt. Das ist jedoch zeitintensiv und wird selten gemacht, weil jeder interferometrische Test alle vier Teleskope blockiert.

Im Weltraum sollte die Erdatmosphäre wegfallen, damit die wichtigste Störgroße. Es gab daher schon Vorschläge für interferometrische Missionen wie den Terrestial Planet Finder (TPF). Aber neben Budgetproblemen gab es immer auch das Argument, dass man die Technik vielleicht erst mal im kleinen Maßstab erproben sollte.

Die UA-Forscher nahmen den Vorschlag auf und entwickelten einen Versuchsaufbau für einen Test. Die Zeit für den Test kam, als 2013 als eine Woche lang der SLAC zur Verfügung stand. Sie brauchten eigentlich keinen Teilchenbeschleuniger, aber sie brauchten einen evakuierbaren Raum, der mindestens so lang ist, dass ein Teleskop ein scharfes Bild erzeugt. Das ist aber selbst bei einem kleinen Teleskop (die UA setzte 10“-Spiegelteleskope mit 30,48 cm Durchmesser ein) erst bei einigen Hundert Metern Entfernung der Fall und einen so langen Raum, den man evakuieren kann, um den Weltraum zu simulieren, gibt es nicht so oft. Von der Woche, die man den SLAC nutzen konnte, brauchte man 5 Tage alleine für das Abdichten aller Zugänge und Luftschächte und das Abpumpen der Luft. Dafür gab es die Pumpen schon im SLAC. Dort halten sie die Rohre in den Beschleunigern frei. Den ganzen Raum konnten sie nur auf 10-12 Pa evakuieren, doch das reichte für ein Experiment aus. Mit zwei 30 cm Teleskopen die 2 m voneinander aufgestellt waren fotografierte man eine 1 m große geätzte Platte in 3 km Entfernung. Sie enthielt fotochemisch immer kleiner werdende Gravuren in einer Aluminiumplatte. Nach einer Nacht hatten die Laborrechner das Bild rekonstruiert. Es zeigte sich, dass man Gravuren erkennen konnten, die einer Auflösung von 0,08 Bogensekunden entsprachen, das entspricht der Öffnung eines 1,5 m großen Teleskops, also 75% der Basislänge oder zwei Strichen die 1,2 mm (1/20 Zoll) voneinander entfernt waren.

Nun plädierte die UA für eine Erprobungsmission im Weltraum. Der erste Teststart der SLS ohne Nutzlast, nur um die Rakete zu erproben, offerierte hier eine Möglichkeit. Die UA schlug vor, zwei Teleskope von 60 bis 100 cm Durchmesser in den Weltraum zu bringen. Sie sollten durch zwei Gitterrohrmasten 20-24 m voneinander entfernt werden. Um Kosten zu begrenzen, nutzt man die große Nutzlastverkleidung der SLS aus und montiert die Gitterohrradapter auf der Erde zusammen und klappt sie nur im Orbit auseinander, anstatt eine entfaltbare, teure und leichtere Konstruktion wie den entfaltbaren Mast wie bei NUSTAR einzusetzen. Als Bus wurde ein kommerzieller Bus wie der Geostar-2 Bus von Orbital vorgeschlagen. Die Daten würden zur Erde übertragen werden und mit einem Rechnercluster ausgewertet werden. Eine spätere operationelle Mission sollte sie an Bord auswerten, wofür man entweder GPU-Cluster oder maskenprogrammierte ASIC mit hardwareverdrahteten Algorithmen einsetzen würde. Die UA meinte eine solche Testmission wäre mit 200 Millionen Dollar zu machen und würde nicht nur Ergebnisse liefern, die eine Entscheidung über die Technik vereinfachen, sondern auch nutzbringend eingesetzt werden können. Man würde ein Teleskop von mindestens 15 m Äquivalentdurchmesser im Weltraum haben, und wenn auch die kleinen Teleskope nicht so lichtstark sind, gäbe es genügend Quellen, die man untersuchen könnte.

Das NASA Headquarter lehnte ab, die Budgetlage wäre zu angespannt. Damit sich die UA nicht zufrieden. Sie konnte Fremdmittel vorweisen und durch Kooperationen vor allem mit Frankreich wären die Instrumente auch billiger. Nun musste man bei der NASA Farbe bekennen und es zeigte sich, dass es gar keine Finanzierungsfrage war. Vielmehr hatten zwei der NASA-Zentren massiv gegen das Projekt Einwände vorgebracht: das STSCi und das JPL. Beim STSCi wurde darauf verwiesen, dass man gerade Mühe habe die Finanzierung des JWST vom Kongress zu bekommen. Wenn nun eine neue Technik ein Teleskop mit viel größerem Durchmesser zu einem Bruchteil der Kosten ermöglicht. Politiker würden nicht den Unterschied erkennen, dass das JWST z.B. im infraroten Spektralbereich arbeitet und der 6,5 m große Spiegel es erlaubt, viel schwächere Objekte zu untersuchen. Man wäre aber bereit nach einem Start des JWST das Projekt zu unterstützen.

Viel mehr Gegenwind gab es vom JPL. Das JPL argumentierte, dass der Einsatz dieser Technologie der Tod für die meisten Raumsondeprogramme wäre. Alle Missionen leben von Bildern. Neue Bilder, höher aufgelöste, spektakuläre Bilder. Ein Interferometer im Orbit würde in einer ersten Version schon Bilder liefern, die bei den Planeten einer Auflösung von einigen Kilometern entsprechen. Das ist das, was Cassini oder Galileo von Saturn und Jupiter als Ergebnis liefern. Technisch möglich wären nach internen Untersuchungen aber auch getrennte Teleskope auf eigenen Satelliten, die mit Laserentfernungsmessung erheblich größere Abstände zueinander einnehmen können, einige Kilometer wären denkbar. Dann wären aber praktisch alle geplanten Raumsondenprogramme mit Ausnahme von Landern überflüssig. Es gäbe zwar genug weitere In Situ Messungen und auch die großen Datenmengen könnte man so nicht gewinnen, man sehe aber große Probleme auch nur mittelgroße Missionen, geschweige den Großmissionen wie Europa Clipper dann noch finanziert zu bekommen.

So wird die SLS nur Cubesats transportieren. Frankreich, das an den Planungen beteiligt war, denkt inzwischen aber über eine eigene Mission nach: LIBO (Large Interferometric BinOkular) soll der ESA als neue Mission beim nächsten Ministerratstreffen vorgeschlagen werden.

4.4.2016: Neue Nachrichten, Alte Nachrichten

Diesmal scheint niemand auf meinen diesjährigen Aprilscherz reingefallen. Schade eigentlich. Vielleicht habe ich auch nur die falsche Story gebracht. Ich hatte mir einige überlegt, die ich vielleicht noch mal veröffentliche. Heute will ich mich nur kurz melden, weil ich noch ein Projekt abschließen will, an dem ich seit 2 Monaten arbeite und das denke ich klappt noch bis morgen Abend. Dazu dann später etwas mehr.

Der Grund meines heutigen kurzen Beitrags ergab sich von selbst. Gestern Abend war ich etwas müde, aber noch nicht so richtig und suchte im Fernsehen nach etwas zur Ablenkung, dass man noch etwas müder wird. Ich landete bei der Tagesschau vor 25 Jahren also vom 3.4.1991. Bald hatte ich ein Deja Vu Erlebnis, denn die Nachrichtenlage war genau die gleiche wie heute. Das waren die wichtigsten Themen von diesem Tag:

Kampf gegen den Terrorismus: Rohwedder wurde erschossen. Wie bei den Anschlägen in Brüssel und Paris heute weiß man hinterher sofort wer es war. (die RAF, damals gab's sogar noch Bekennerschreiben) und das man es hätte verhindern können: es gab einen Brandanschlag kurz vorher auf ein Büro der Treuhand Anstalt, mit Drohungen gegen Rohwedder, doch die Sicherheitsstufe wurde nicht erhöht.

Flüchtlingsdrama: 2-3 Millionen kurdische  Flüchtlinge sind nach einer Offensive des irakischen Militärs auf der Flucht in die Bergregionen des Nordirak. Türkisches Militär hält sie mit Waffengewalt vom Grenzübertritt ab.

Brüssel in den Schlagzeilen: 5 Kurden haben die irakische Botschaft einen Tag lang besetzt um gegen den Irak und Hussein zu demonstrieren. Anders als heute war die Aktion friedlich und nachdem sie in den Medien erschienen ergaben sie die 5 Kurden der Polizei. Mehr als Sachschaden entstand nicht.

Sanktionen gegen Schurkenstaaten: Frankreich hat den Vorschlag eines Embargo gegen den Irak wegen dem Vorgehens gegen die Kurden in den Sicherheitsrat eingebracht.

Es gab aber auch ein Indiz, dass die Zeiten doch irgendwie anders waren, denn folgende Schlagzeile gäbe es heute nicht:

Tarifverhandlungen: Die IG Metall fordert 10 % (in Worten: Zehn) mehr Lohn, mindestens jedoch 270 Mark in der neuen Tarifrunde.

Das ist nicht das einzige Mal. Ab und an, wenn ich die Nachrichten von früher mal sehe, habe ich das Gefühl, man müsste nur das Datum und ein paar Politikernamen austauschen und könnte das heute wieder senden. Wie die Weihnachtsbotschaft von kohl die man mal in den Achtzigern im nächsten Jahr nochmal ausstrahlte und erst einige Tage später hat man es gemerkt....

5.4.2016: OOps, i did it again

Nun möchte ich euch doch einweihen, warum ich mich in den letzten Wochen doch etwas rar bei den Blogs gemacht habe, ich wollte etwas fertigstellen und zwar ein neues Buch. Ich hatte es ja schon mal als Frage in den Blog geworfen, ob sich auch jemand für ein Buch interessiert, das nicht wie die bisherigen einen technischen Fokus, sondern mehr einen visuellen Fokus hat.

Daran habe ich die letzten zwei Monate neben Verbesserungen an einem Programm gearbeitet, zuletzt relativ intensiv, weil ich es einfach fertig bekommen wollte. Seit langem hatte ich mal vor, ein anderes Buch zu schreiben, na ja anders in Grenzen, denn meinen Schreibstil werde ich wohl nicht wegbekommen. Bei meinem bisherigen Büchern stehen ja technische Fakten im Vordergrund, Bilder sollen die nur unterstreichen oder ergänzen. Nachdem nun die Druckpreise bei BOD deutlich gesunken sind, sehe ich auch Bücher mit vielen Farbaufnahmen in Reichweite. Ich habe schon bemerkt, vor allem bei meinem ISS Buch, das Leser Abbildungen und Fotos weitaus wichtiger finden als ich.

Herauskam die "Fotosafari durchs Sonnensystem". Ein Zwitter aus Bildband und Einführung in unser Sonnensystem. Einen reinen Bildband wollte ich nicht machen, obwohl das technisch das einfachste wäre, - man muss nur die Bildunterschriften schreiben und das geht schnell. Von einem populärwissenschaftlichen Buch über unser Sonnensystem unterscheidet sicher Band in einer gewissen Demokratisierung: Ein Buch über das Planetensystem setzt Schwerpunkte je nach Forschungswissen oder "Interessantheit" des Themas. So kann man damit rechnen das über en Mars darin mehr steht als über den Merkur und über den Erdmond mehr als über Dione. Ich nehme das Bild zum Anlass um zu beschrieben was man sieht, aber auch Wissen über den Himmelskörper zu vermitteln, und da es von 9 Saturnmonde detaillierte Aufnahmen gibt, hat jeder ein Bild und einen Text von zumindest einer Seite Umfang. Ein populärwissenschaftliches Buch hätte sie wohl auf 1-2 Seiten abgehandelt. Zudem erkläre ich eben anhand der Bilder bzw. vermittele grundlegende Erkenntnisse über den Himmelskörper. Da fehlt dann der Platz für ein wesentliches Element solcher populärwissenschaftlichen Büchern, dem Vermitteln von Grundlagen.

Das die Aufnahmen wichtig sind, sieht man auch an der Ausstattung: ich habe mich für 200 g dickes Papier und Ringheftung entschieden, das erlaubt ein Blättern ohne den Rücken zu beschädigen, man kann wenn man will auch die Bilder rausnehmen und einrahmen, na ja das ist eher scherzhaft gemeint. Ideal wäre Hardcover gewesen, doch das kam nochmals teuer. Schon jetzt kostet das Buch mit 61 Farbseiten, 156 Seiten stark (dazu noch etliche S/W Aufnahmen, es gibt nicht von allen Körpern gute Farbaufnahmen) 24,99 Euro und das bei nur 40% meiner normalen Marge (berücksichtigt natürlich auch die geringere Arbeit an dem Buch).

Ich sehe es primär als Luftballon, wie 2008 das Gemini Buch. Damals wurde ich überrascht, das es sich doch verkaufte und wenn das Buch sich auch verkauft, dann kann ich mir vorstellen noch mehr zu machen, so eine Fotosafari durchs Universum oder spezielle Bände für einzelne Planeten. Zumindest bei Erde, Mars, Jupiter und Saturn gibt es genügend gute Fotos für ein eigenes Buch. Ich bin mir nicht sicher wie es wird. Die normalen Käufer meiner Bücher spricht es wohl nicht an, außer die suchen was zu verschenken oder beschenkt werden. Aber potenziell ist der Markt viel größer als bei meinen technischen Büchern. Ich bin wirklich gespannt, was draus wird. Wenn's nicht klappt, dann waren 2 Monate Arbeit umsonst - verschmerzbar wenn man weiß das ich an den US-Trägerraketen über ein Jahr gearbeitet habe.

.

Mehr drüber wenn es in ein paar Tagen erscheint.

Eine Idee für den Jungfernflug der SLS

Nachdem ich ja schon eine mögliche Nutzlast beim Aprilscherz skizziert habe, hier mal eine ernsthafte Idee. Sie Trägt der Tatsache Rechnung das zum einen zwar der Jungfernflug kostenlos ist, zum anderen die NASA nun nicht die Gelder hat was zu entwickeln das auch die Nutzlast ausfüllt, wie vielleicht einen Titan Orbiter. Europa Clipper könnte ja auf der SLS starten, doch sicher nicht bald und er ist auch ziemlich teuer.

Meine Idee ist nicht neu, die Grundidee ist auch nicht von mir. Sie nutzt auch nicht die hohe Nutzlast der SLS aus, sondern eher ihre Größe: Seit zwei Jahrzehnten gibt es die Idee eines Mars-Wetternetzwerks. Anders als heutige Raumsonden sollten dabei nicht komplexe Lander zum Einsatz kommen, sondern relativ einfache Geräte, die nur wenige Sensoren tragen. Dafür gibt es nicht einen sondern viele, und man erhält so eine Art Netz von Wetterstationen. Durchgedacht wurde das Konzept bei dem Mars Meteorological Lander, MML, von dem ein Prototyp bei Phobos Grunt mitgeführt wurde.

Anders als bisherige Lander ist dieser ein Mitteldung zwischen Penetrator und Lander, mit einer aerodynamischen Verkleidung die ihn auf etwa 200 km/h abbremst. Sie endet in einem Sporn der sich dann in die erde bohrt. Der Lander ist sehr klein, zusammengefaltet nur 54 cm im Durchmesser und 59 cm lang bei einem Gewicht von 22,3 kg. Auf dem Marsboden ´kommen noch 14,5 kg ab, davon 4,88 kg Experimente. Das sind Wettersensoren für Luftfeuchtigkeit, Staub, Temperatur. Sensoren für Magnetfeld und Helligkeit und der solaren Lichtintensität. Dazu kommt eine Panoramakamera die aber in niedriger Höhe nicht viel sieht.

Die instrumentelle Ausrüstung muss robust sein, sie muss schließlich einem Crash wiederstehen. So wird es keinen ausfahrbaren Mast geben, Solarzellen nur auf der Oberfläche, mit entsprechend kleiner Fläche.

Das zweite an was ich eher denke ist ein Minilander. Auch hier gibt es ein Vorbild: Beagle 2. Der Piggy Back Lander von Mars Express wiegt 73,7 kg, hat einen maximalen Durchmesser von 92,4 cm und transportiert 11,5 kg Instrumente. Deren Ausstattung ist deutlich besser. Neben den einfachen Wettersensoren gibt es einen Gaschromatograph, Sensoren zur direkten Bodenuntersuchung wie ein Mösslbauer-Spektrometer und ein Mikroskop, Einen Bohrer ein Röntgenspektrometer und Stereokameras. Insgesamt 11,5 kg. Nachdem man vor zwei Jahren Beagle 2 endlich auf HiRISE Aufnahmen fand weiß man auch, die Landung selbst glückte, es aber dann Probleme beim Entfalten der Solarpaneele gab welche die Sendeantenne abdeckten.

Beagle 2 war als Projekt mit der heißen Nadel gestrickt und mit etwas mehr Sorgfalt vielleicht auch erfolgreich gewesen.

Wenn ich an ein robustes Design denke, dann eines ohne einen beweglichen Arm wie bei den derzeitigen Landern. Der ist zum einen teuer und zum andern anfällig. Das bedeutet, ein Lander wäre ein Mittelding zwischen dem MML und Beagle 2. Man könnte an fest montierte Sensoren auf dem Lander und einem Mast denken. Auf dem Lander z.B. für Beleuchtungsstärke, Staub, Durck, Temperatur. Auf dem Mast für Temperatur, Magnetfeld, ein fest eingebautes Kamerasystem aus 6 Einzelkameras mit Normalwinkelobjektiven. Das letzte wäre wohl für die Öffentlichkeit die wichtigste Nutzlast. Bei kleinen CCD-Sensoren wie sie heute üblich sind kann man auch in einem kleinen Volumen eine leistungsfähige Kamera unterbringen. Ein 24 MP Sensor im APS-C Format wäre so klein, das eine Weitwinkelkamera nicht größer als eine normale Kompaktkamera wäre. Bei 60 x 90 Grad Bildgröße (Horizontal/Vertikal) entspricht das einer Auflösung von 0,9 Bogenminuten, etwas besser als das menschliche Auge. Sechs Kameras decken auch ohne Schwenkarm die Umgebung ab. Wiegt eine Kamera 500 g kann man ohne Problem 6-7 anbringen die dann auch das gesamte Gesichtsfeld um den Lander abbilden. Kameras sind natürlich was wichtiges, vor allem für die Öffentlichkeit. Wünschenswert wäre eine Zoomkamera, doch die Mechanik dieser macht sie auch anfällig. Besser wäre wohl nur eine Kamera und ein robuster, einfacher Schrittmotor der sie dreht und neigt. Solche Motoren sind einfach, nicht anfällig und man kann dann eine Kamera mit einem leichten Zoom nehmen, mit einem Spegelreflexstandardobjektiv von 200 mm Brennweite kommt man z.B. auf ein Gesichtsfeld von 5,2 x 7,8 Grad, das entspricht einem 12-fach Zoom. Durch den Schrittmotor kann man zudem koaxial ein IR-Spektrometer anbringen. Mit einem 256 x 256 Pxiel Hg-Cd-Te Chip mit 40 µm Pixelgröße erreicht das eine räumliche Auflösung von 0,7 Bogenminuten. Über Tage hinweg könnte man so nach und nach ein Spektrum des Landeorts erstellen und die Mineralien charakterisieren.  Zeit genug hat man ja, denn der Lander bewegt sich ja nicht.

Landen würde man zum einen aus Kostengründen, zum anderen wegen der Robustheit die Lander mit Airbags. Die haben den Vorteil dass sie den Luftwidderstand vor der Landung nochmal erhöhen und so etwas unabhängiger vom Fallschirm machen. Bisher mussten alle Landesonden tief landen, damit der Fallschirm die Geschwindigkeit deutlich reduziert. So sind Hochebenen als Landeort bisher tabu gewesen. Mit Airbags könnte man die Elysium und Tharsis Ebene angehen. Eventuell sogar die Caldera von Olympus Mons (Am hang würde der Lander wohl mit Airabgs bis ins Tal rollen).

Nimmt man 1 m Durchmesser mit Sicherheitsabstand an, so könnte man in der SLS-Verkleidung von 8,38 m Durchmesser wenn die Lander in einer ebene sind vier konzentrische Kreise unterbringen mit 1,6, 9, 12 Kapseln sitzen, zusammen also 28 Stück. Jeder würde um die 100 kg wiegen, dazu kommt dann noch die Platte auf der die Lander möbliert sind, sowie eine Kommunikationsplattform welche für den Weg verantwortlich ist. Bei 8 m Durchmesser wäre auch noch genügend Platz um den im Start verschobenen Mars Scout mitzuführen. Das spart für ihn eine Trägerrakete ein. Das Problem ist also nicht die Nutzlastkapazität sondern der Platz den man in der SLS hat (sicher wären mit Doppelstartvorrichtungen auch mehrere dieser Marsflottensatelliten startbar, aber soweit will ich gar nicht gehen, dann wird es auch wieder teurer. Bei 60 cm großen Landern, wie dem MML wären es übrigens dann 61 Stück die man mitführen könnte.

Beim Mars angekommen würden die Lander individuelle abgetrennt werden, wobei sich nach jeder Abtrennung der Bus neu ausrichtet. Danach könnte noch den Mars Scout absetzen. So spart man bei diesem eine interplanetare Cruise Stage, was auch Kosten spart. Die Platte wird abgetrennt und der Bus selbst schwenkt in eine Umlaufbahn ein - da die Lander sehr klein sind haben sie keine Richtfunkantenne und sind auf den Transfer der Signale angewiesen. Das können die aktuellen US-Orbiter mit übernehmen, doch besser wäre ein eigener Orbiter und das Gewicht für genügend Treibstoff spielt bei der SLS keine große Rolle. Anzustreben wäre eine geostationäre Umlaufbahn, von der aus kann er die Daten aller Lander empfangen die jeder ein Sendefenster zugeordnet bekommen. Aus dem Abstand wäre der Orbiter immerhin für globale Untersuchungen nützlich wie eine globale Aufnahme des Wetters oder andere Parameter die nicht auf einen Punkt bezogen werden müssen. Mit einem kleinen Teleskop könnte man auch gute Deimos Aufnahmen erhalten, der bis zu 3000 km an den geostationären Orbit herankommt. Ein Teleskop mit 1 Bogensekunde Auflösung würde dann etwa Aufnahmen mit 15 m Auflösung ermöglichen, die besten HiRise Bilder haben heute 20 m Auflösung - nicht viel mehr, aber immerhin.

Nun ja dazu wird es nicht kommen, aber nur einige Cubesats mit einer 500 Millionen Dollar teuren Rakete zu starten, das kann es doch auch nicht sein oder?

Bei 28 Stück könnte man zumindest eine Hemisphäre gut mit Landern abdecken. Darunter auch riskantere Landeplätze wie Gräben wie das Valles Marineris, chaotisches Terrain, zumindest eine Polkappe (bei der gerade Sommer ist wegen der solaren Stromversorgung). Vielleicht, sogar wahrscheinlich, gehen einige verloren, aber selbst wenn nur die Hälfte landet, dann hat man doch Übersichten und einige Daten von 14 Ladenplätzen - doppelt so viel wie bisher-

Die Kosten wären überschaubar. Beagle 2 kostete 80 Millionen Euro. Normalerweise kotet das Zweitexemplar bei einem wissenschaftlichen Satelliten ein Drittel des ersten, also Nummer 2: 26,7 Millionen Euro. Ab dem dritten greift das Massenherstellungsgesetz. Setzt man eine Lernkurve mit dem Faktor 0,7 an, so kosten 27^0,7 10,1 fache eines Exemplars. Zusammen also 272 Millionen Euro, dazu das erste Exemplar von 80 Millionen Euro und eine Kommunikationsplattform für die man einen normalen Satellitenbus nehmen könnte. Insgesamt könnte man in die Nähe der Preisgrenze für eine Discovery Mission von 450 Millionen Dollar ohne Start kommen. Das Preisschild ist nicht unrealistisch. Galileo Satelliten kosten bei Abnahme von 8 Stück auch nur 40 Millionen Euro pro Stück.

12.4.2016: Es lebe Digital

Wie leben ja im Digitalzeitalter, bedingt dadurch dass Computer Daten verarbeiten. Analog gilt als veraltet, schlecht. Analoge Signale haben rauschen, Analoge Vinylplatten zerkratzen. Digitaler Sound ist satter ohne Rauschen, digitales Video höher aufgelöst. Ganz zu schweigen von den Möglichkeiten bei der Datenverarbeitung: Dokumente sind schneller gefunden, können miteinander verknüpft werden und ausgewertet werden und sie brauchen viel weniger Platz auf einer Festplatte als die Aktenordner im Schrank.

Jahrtausende kam die Menschheit mit Analogen Signalen aus. Vielleicht sind die nicht ganz so schlecht. Fangen wir mal mit den Grundsätzen an. ein digitales Signal hat nur zwei Zustände 0 oder 1. Ton an oder aus, Schwarz oder weiß. Das ist ideal wenn man Informationen verarbeitet, wenn man nicht gerade Schwarz-Weißzeichnungen digital abspeichert brauchen wir für Dinge die wir sensorisch verarbeiten (bisher nur Töne und visuelle Signale) eine Kodierung und Geräte die das wieder in analoge Signale umwandeln. Bei Tönen kann man das Frequenzspektrum erfassen und die Intensität jedes Tones speichern, da der Mensch Töne bis etwa 20 kHz hören kann, braucht man um die Wellenform des höchsten Tones zu erfassen mindestens die doppelte Abtastfrequenz das sind 40 KHZ, mit etwas Puffer werden heute 44 oder 48 KHZ genommen und man nimmt 16 Bit für die Intensität, das erlaubt es einen Lautstärkebereich von 48 db abzulegen. Bei visuellen Signalen gibt es einige Systeme. Man kann die Intensität jedes Bildpunktes in den Grundfarben Rot, Grün und Blau angeben. Bei 8 Bits pro Farbwert kommt man so auf theoretisch 16,7 Millionen Farben. Man kann aber auch Helligkeit, Sättigung und Luminanz als Maßstab nehmen. Ein Bild entsteht dann aus mehreren bis Millionen einzelner Bildpunkte.

An und für sich scheinen digitale Signale besser zu sein. Sie scheinen auch effektiver zu sein. Als ich ins Internet ging, setzte man noch Voicemodems ein, also Modems die Töne über die Telefonleitung schickten, meist am Anfang noch hörbar durch einige Töne die dann in ein Rauschen übergingen bis der Verbindungsaufbau stand. Das alte analoge Telefonnetz nutzte nur das Frequenzspektrum von 0,3 bis 3,4 KHz. Mit einem Modem konnte man theoretisch 56 kbit übertragen, bei guten Verbindungen in der Realität 42 bis 45 kbit/s. Ebenso erlaubte der Übergang vom analogen TV auf DVB-T das man anstatt 1 etwa 3-4 Kanäle pro Frequenzband übertragen konnte. Digitale Medien erlauben es heute Daten viel dichter zu speichern als analoge. Man muss nur den Informationsgehalt einer Schallplatte mit dem einer Festplatte von gleicher Größe vergleichen.

So scheint es, als wäre Digital nicht nur für Informationen das bessere Medium, sondern auch für Dinge die wir eigentlich analog wahrnehmen. Man braucht eben dann immer noch ein Gerät um die digitalen Signale in analoge umzusetzen. Auf einer SD-Karte kann man keine Bilder anschauen, auf einem Diafilm schon, aber das ist nicht verallgemeinbar. eine Musikkassette oder Schallplatte ist analog, aber ohne Abspieler auch nicht zu gebrauchen. Bei Musikinstrumenten stimmt es aber wieder: ein Keyboard ohne Strom und Verstärker funktioniert nicht, ein Klavier durchaus.

Es gibt aber auch Gefahren. Verschlüsselungstrojaner wie Locky haben in diesen Monaten Millionen von Benutzer um ihre gesammelten Bilder und Dokumente gebracht. Daneben gibt es die Gefahr das Speichermedien nicht mehr gelesen werden können. Der berühmte Festplattencrash oder einfach das es keine Lesegeräte mehr gibt oder die nicht mehr angeschlossen werden können. (man versuche mal eine Diskette vom C64 mit 1541 Floppy-Diskstation auf einem PC einzulesen). Um früher einen Aktienbestand zu Schreddern braucht man Stunden, heute reicht ein Knopfdruck oder ein Schlag mit dem Hammer auf die Speicherkarte/Festplatte.

Sowohl analoge wie digitale Medien altern. Tinte bleicht aus, Papier zerfällt, Inschriften verwittern. Bei digitalen Medien nimmt die Magnetisierung ab, flash-Speicher verlieren Elektronen. Dazu kommt bei beiden Arten von Speichermöglichkeiten die Möglichkeit der Beschädigung durch äußere Einflüsse. Bei Analogen Medien kann man vieles rekonstruieren. Selbst wenn das Signal-Rauschverhältnis abnimmt kann man bei analogen Medien noch viel entziffern, z. B. bei verbleichten Papieren. Man benötigt bei einem Buchstaben nicht die volle Information sondern es reicht die Umrisse mit höherem Kontrast zu rekonstruieren, bei beschädigten Papieren kann man manche Buchstaben noch anhand eines Teils rekonstruieren. Bei digitalen Medien sieht es anders aus. Auch hier gibt es nur zwei Zustände: Man kann die Information noch lesen oder man kann sie nicht lesen. Wenn das letztere eintritt, dann ist sie meist vollständig verloren. Es gibt nur selten die Möglichkeit nur Teile wiederherzustellen. erst recht nicht kann man größere Datenbestände aus Bruchstücken zusammensetzen, wie dies bei den geschredderten Dokumenten der STASI der Fall ist.

Das schlimme bei digitalen Medien ist das die Bits nicht gleichberechtigt sind. Wenn bei einer Zahl das höchstwertige Bit nicht lesbar ist, so ist der Einfluss auf den wert größer als beim niedrigwertigsten Bit. Bei Farben ist es genauso. Bei Buchstabencodes kann ein völlig anderer Buchstabe herauskommen. Noch schlimmer: heute wir die Information komprimiert. Ist in einem Zip-Archiv ein Bist falsch so kann das je nach Position einen größeren Bereich oder das ganze Archiv unbrauchbar machen. Bei DCT-Komprimierung, der Grundlage für die meisten komprimierten Audio- und Videosignale ist immer ein ganzer Block unbrauchbar, wenn ein Bit verfälscht ist.

Nicht umsonst werden heute Kulturgüter heute immer noch auf Mikrofilm abgelichtet und so in Stollen "langzeitarchiviert". Alternativ erprobt man die Lithografie oder das Gravuren von Metalloberflächen bzw. bei Lithographie von Siliziumplatten. Dieses Verfahren soll eine noch höhere Datendichte ermöglichen und die Metallplatten sind robuster als Film auf de Basis von Nitrozellulose.

Doch ewig kann dies auch nicht gehen. Solange die Medien noch lesbar sind, gibt es ja eine Möglichkeit: die Daten auslesen und auf ein neues Medium kopieren. Man muss es nur tun. 1985 stellet die NASA fest, dass sie 1,2 Millionen Magnetbänder, darunter auch welche mit Ergebnissen der Viking Mission nicht mehr lesen konnte. 1994 kam das wieder vor. Diesmal waren die Daten der Pionier 11 Sonde betroffen, die Saturn passierte. Sie waren auf 4 verschiedenen Medien gespeichert worden, doch für keines gab es mehr Abspielgeräte.

Dass physikalische Lesen ist eine Sache. Das zweite ist es auch das Dokumenten Format zu entschlüsseln. Das Probleme sehe ich bei den heute standardisierten Grafik- Bild und Dokumentformaten nicht, zumindest gibt es oft die Möglichkeit auch in einem Standardformat zu speichern. Es betrifft aber Formate die von Programmen genutzt wurden die nicht mehr weiter entwickelt wurden oder deren hardwareplattform ausstarb.

Die Langzeitarchivierung funktioniert aber auch nur richtig, wenn die Bedingungen auch gegeben sind. Eine Naturkatastrophe kann auch ein Archiv zerstören, Krieg oder andere Ereignisse können dazu führen, dass man andere Prioritäten hat und die Archivierung vergisst oder der neue Eigentümer (nach einem Krieg) interessiert sich nicht für die Daten. Das wurde schon analogen Medien zum Verhängnis. Die Bibliothek von Alexandria wurde schon zu Cäsars Zeiten ein raub der Flammen. Die ältesten Fragmente des alten Testamentes stammen aus Qumran und wurden dort versteckt, nicht archiviert. Alles was archiviert wurde, ging verloren als die Römer den jüdischen Aufstand 68/69 niederschlugen..

Mein persönliches Resümee ist: digital ist gut und schön, aber einige analogen Kopien sind nicht schlecht. Fotos finde ich besser als ein Tablett, zudem robuster und man kann sie verschenken nicht nur zeigen. Bücher kann man auch auf der Liege lesen und sie sind länger haltbar als eine Datei. Auch ein Grund warum ich Bücher schreibe.

 

9.4.2016: Meine Erfahrungen mit Mediatheken

Wie bei vielem Anderen hat sich auch bei mir in den letzten Jahren mein Fernsehkonsumverhalten geändert. Schon 2006 fing ich an, den Dienst OnlineTVRecorder zu nutzen. Vor allem um die ungeliebten Werbepausen bei den privaten, die in den letzten Jahren immer länger wurden zu überspringen. Der eigentliche Hauptwerbeblock ist ja nicht mal so viel länger geworden, aber es gibt meistens noch vor dem einen Sponsor-Spot, zum Ende hin einen Spot mit Countdown und dann auch noch einige Mininuten Senderwerbung für andere Sendungen. Inzwischen nutze ich den OTR kaum noch, das liegt daran dass ich von den Privaten nur Spielfilme angeschaut habe, die machen am Computer auf dem zweiten Monitor angesehen aber wenig Sinn, weil sie viel Aufmerksamkeit erfordern.

In den letzten zwei Jahren nutze ich dagegen die Mediatheken und heute will ich meine Erfahrungen mit denen wiedergeben. Es gibt mehrere Möglichkeiten die Mediatheken zu nutzen:

Es gibt noch mehr Möglichkeiten insbesondere mobile Geräte, die ich nicht nutze.

Am PC gibt es zwei Möglichkeiten. Das eine ist es die Mediatheken der Sender in einem Webbrowser aufzurufen und dort zu navigieren. Diese Möglichkeit nutze ich nur bei den Privaten. Für alle Öffentlich-Rechtlichen gibt es eine bessere Möglichkeit: Das OpenSource Programm Mediathekviewer erlaubt es neben dem Streamen von Sendungen auch diese in verschiedenen Auflösungen herunterzuladen, Abos anzulegen, sodass die Lieblingsserie immer im Downloadbereich landet (herunterladen muss man noch selbst anstoßen). Der PC hat auch den großen Vorteil, dass man mit einer Tastatur leicht stöbern kann, indem man Suchbegriffe angibt. Vor allem gibt es beim Mediathekviewer ein Programm für alle öffentlich rechtlichen (ARD, ZDF, Arte, Dritte, Phoenix...).

Den Browser nutze ich nur bei den Privaten und da sieht man schon, wie unterschiedlich die Ansätze sind. RTL scheint kein System zu haben. Einige Fernsehserien findet man auf einer zentralen Seite, bei anderen wird man auf eine andere umgeleitet, so ist es mir z. B. bei "Der Lehrer" gegangen. Was mich immer nervt ist, dass die Seiten in der Regel ganze Folgen mischen mit einer Folge in mehreren Teilen oder Trailern. Dann muss man suchen, bis man das findet, was man haben will. Wenn ich die RTL-Mediathek über den Fernseher nutze, bekomme ich z. B. bei "dem Lehrer" zig Einzelspots präsentiert, deren Beschriftung nur unvollständig ist. Bis ich die ganze Folge gefunden hatte, vergingen Minuten und ich habe das genau einmal gemacht. Die Ganze Folge entsprach den Einzelfolgen, die folgendes System hatten: 1 Werbespot 3-5 Minuten Serie. So wird aus einer 45 Minuten Folge ohne Problem 12 Einzelfolgen.

Überrascht hat mich Pro 7: Dort gab es zumindest bei dem was ich über den HBBTV-fähigen Fernseher angesehen habe keine Werbung bei einer ganzen Folge. Dasselbe Format im Browser angesehen, dagegen mit Werbung Was mir dabei auffiel ist das zumindest Pro 7 sehr dumm schneidet. Längere Sendungen werden in Stücke geschnitten und die erfolgen ohne Rücksicht auf den Inhalt. Normalerweise schneidet man ja am Ende einer Szene. Hier wurde mitten in der Szene geschnitten und dann die letzten 20-30 Sekunden bei der nächsten Folge nach der Werbung wiederholt. Ebenso geben sich die Sender keine Mühe, das rauszuschneiden, was ohne Werbeblöcke unnötig ist. Meist ist es ja so, das bevor ein Werbeblock kommt, noch eine Vorschau, was kommt, wenn die Werbepause vorbei ist am Beginn eine Zusammenfassung des letzten Teils, wenn es keine Serie oder Spielfilm ist. Das ist nun mitten in einer Folge drin und macht gar keinen Sinn.

Die Werbung ist ein anderer Fall. Bei öffentlich-rechtlichen gibt es sie in den Medientheken nicht. Bei den privaten ist sie deutlich weniger, als im sonstigen Programm. 5-10 Minuten Werbung am Stück würde keiner ertragen, um etwas im Web anzusehen. Es sind in der Regel 2-3 Spots, also ein bis eineinhalb Minuten. Doch frage ich mich über den Sinn. Zum einen gibt es Werbung in einem extrem grobpixeligen Format so z. B. von Hornbach. Dann wird die Lautstärke nicht normalisiert. Ikea hatte einen Spot, der extrem laut war, und mich am PC jedes Mal zum Stumm-Schlater bewegte. Noch nerviger ist die Werbung, wenn man nicht genügend verschiedene Spots hatte. Ich habe mehrmals ungelogen dreimal hintereinander den gleichen Spot für die neue E-Klasse von Daimler gesehen. Die Werbung, die ich da ich sonst private nicht mehr anschaue, sonst nicht mitbekomme hat zumindest als ich mal sehen wollte ob sich GNTM noch anzusehen lohnt, hat in mir den Gedanken hervorgebracht, ob ich in der falschen Welt lebe: Die Sponsorwerbung von Madeleine suggeriert, im ernst man braucht ein eigenes Make-up für Brillen bei Weitsicht und Kurzsicht und für Selfies. Schlimmer noch. Lena Meyer-Landruth ist sich nicht so schade für solche Nonsenswerbung. Wie viel übriges Geld und Freizeit muss man haben, um sich für Selfies zu schminken zu schminken? Wann immer ich denke, die Menschheit kann nicht noch einfältiger und eindimensionaler werden, zeigen mir solche Spots, dass man jedes Niveau noch deutlich unterbieten kann.

Den PC nutze ich vorwiegend für das Ansehen von Videos, oder ich kopiere sie auf einen USB-Stick und schaue sie am Fernsehen an. Den HBBTV Fernseher vor allem, wenn ich schnell an den Inhalt komme. Das ist der Fall, wenn die Sendung erst vor Kurzem lief, dann kommt sie in der Seitenleiste. Das ist regelmäßig dienstags der Fall, wenn ich abends schwimmen gehe. Wann immer man anfangen muss, in diesen zu stöbern, hat man meist ein Problem das dauert je nach Senderkonzept unterschiedlich lange, auch weil die Fernbedienung nicht das ideale Instrument ist. Dazu kommt der Aufbau der Seite. Wenn ich die Sendungen von A-Z nur als Seitenleiste oben habe wie bei der ARD muss ich erst dorthin navigieren und dann zum Buchstaben wechseln.

Seit den HBBTV-fähigen Fernseher habe nutze ich meinen "Medien-PC" seltener. Der Begriff ist in Anführungszeichen, weil das ein Raspberry Pi 2 ist. Er reicht aber mit Openelec betrieben vollkommen aus. Er kann neben Musik und Videos von angeschlossenen Medien abzuspielen. Mit Plug-ins auch auf die Medientheken der öffentlich-rechtlichen und der Pro-7-Sat-1 Gruppe zugreifen. Leider fehlt die RTL-Gruppe. Mit einer drahtlosen Tastatur/Maus navigiert man flott, die Beschriftung ist groß und selbst für mich mit schlechtem Sehvermögen gut lesbar und vor allem haben nun die Mediatheken ein einheitliches Format - bis man zu einzelnen Folgen kommt in Textlisten, so muss man weniger scrollen als bei den Mediatheken auf dem Fernseher mit Vorschaubildern und erst dann auf Bilderebene. Dafür dauert es ab und an mal lange, die Informationen aufzubereiten. Ich vermute dass muss der PC aus den normalen Seiten erst extrahieren. Derzeit nutze ich ihn wegen des HBBTV Fernsehers eher weniger. Er kann eine Alternative werden, wenn mein Kabel-TV Vertrag ausläuft, da alle Mediatheken beim Fernseher nur über das Programm des Senders erreichbar sind (Ausnahme ZDF und ARD die auch die Programme aller ihrer Spartensender und Dritten in der Mediathek haben). Die privaten werden aber terrestrisch nicht ausgestrahlt.

Was mich bei dem neuen und mit 700 Euro nicht sehr billigen Fernseher von LG allerdings enttäuscht hat, das war die Möglichkeit aufzuzeichnen. Es gibt zwei Mängel. Das eine ist, dass man nur das ansehen kann, was aufgezeichnet ist. Also ein Programm ansehen, das zweite Programm aufzeichnen geht nicht. Dabei gibt es mehrere Tuner im Gerät, doch eben spezialisiert auf Kabel/Antenne/Satellit - nur einen pro Medium. Immerhin geht es bei ausgeschaltetem Fernseher Das zweite ist die Speicherung: Der Fernseher von LG braucht für HD-Fernsehen 10 GB/Stunde. Die Dateien von den Mediatheken sind und den Faktor 10 kleiner. Noch schlimmer: er legt kein anspielbares Format ab, sondern rund 100 MB große Stücke ohne Erweiterung und kryptischen Dateinamen - nur am Fernseher anzusehen. Die Aufzeichnenfunktion braucht man aber: den in den Mediatheken finden sich nur Eigenproduktionen der Sender, keine Spielfilme aus den USA, auch nicht alle ausländischen Serien. So sehe ich z. B. nun jeden Mittwoch "Doktor who" auf Einsfestival. In der Mediathek findet man die Serie nicht.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99