Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 208: 6.1.2011 - 10.1.2011

6.1.2011: Was eine gute Programmiersprache auszeichnet

Es gibt natürlich eine Reihe von Kriterien. Sicherlich wird der eine oder andere die Codegeschwindigkeit und Größe hervorheben - bald kommt man dann aber auf hersteller- bzw. Plattformspezifische Implementierungen. Man muss dazu nur mal ein einfaches "Hello World" mit einem C-Compiler erzeugen und hat ein Programm das um ein vielfaches größer ist als dasselbe vor 20 Jahren unter DOS.

 Natürlich gibt es noch die Eignung der Sprache - es gibt Scriptsprachen für die Kommandoshell, Sprachen die im Browser ablaufen und Sprachen mit denen man EXE Dateien oder andere Binarys erzeugt. Aber gehen wir mal von der technischen Seite weg, auf die Sprachdefinition. Für mich ist an einer Sprache folgendes wichtig:

Eine gute Sprache ist logisch durchdacht. Nun sind das wird der eine oder andere sagen alle Sprachen nach der BNF oder für die es eine exakte Grammatik gibt. Das muss aber nicht logisch durchdacht sein. logisch durchdacht ist z.B. das Schlüsselworte oder verwendete Zeichen eine gleiche (oder wenn mehrfach verwendet) ähnliche Bedeutung haben.

Meine Negativbeispiele kann ich hier leicht aus der Sprache "C" ziehen. Da ist mal das Komma ein Separator von Werten und mal ein Operator, was wirklich tolle Ergebnisse und viele Stunden mit einer spannenden Fehlersuche verursachte. z.B. ist:

a = feld [i,j];

a = feld [i][j];

nicht das gleiche.... dasselbe kann man über das Multiplikationszeichen sagen, das mal eine Multiplikation durchführt und mal eine Referentierung.

Auf der anderen Seite wird je nachdem ob man es mit einem Zeiger oder einer Variablen zu tun hat auf die Elemente eines Records mal mit "." und mal mit "->" zugegriffen. Ist echt logisch.

In diesem Zusammenhang halte ich überhaupt nichts von Sprachen ohne Typisierung, weil Typen ja nicht nur Konstrukt einer Sprache sind sondern sich auch im täglichen Leben wiederfinden. Wir nennen sie dort Kategorien. Da gibt es Zahlen oder Texte, Autos oder Häuser. Zahlen kann man addieren, Texte verknüpfen. Autos haben die Eigenschaft PS, Fabrikat, Häuser die Eigenschaften Quadratmeter, Bewohner u.a.

Eine Sprache die keine Typisierung kennt, lässt es zu einer Stringvariablen eine Zahl zuzuweisen und umgekehrt. Besonders tolle Sprachen lassen so was zu:

a="ab"

a= a+1

Ratet mal was raus kommt....

Kriterium 2: Eine Sprache soll so umfangreich sein, dass man alles damit erledigen kann, aber so klein, dass man sie möglichst schnell verstehen kann.

Was ich damit meine ist, das ein Sprache zum einen so mächtig sein soll, dass alle Sprachelemente zur Verfügung stehen die man braucht, zum anderen aber auch sie nicht unnötig kompliziert ist. Der Mittelweg zu finden ist schwierig und was nötig ist, ändert sich auch im Laufe der Zeit. So haben ältere prozedurale Sprachen noch nicht als Datentyp die Map, oder das assoziative Array. Das ist in vielen Dingen wo man auf Daten nicht mit Indexen zugreifen kann sehr nützlich. Dagegen finde ich die auch in diesen Sprachen nicht vorhandene for-each Schleife nicht so nützlich, dass sie unbedingt dazu gehören müsste.

Pascal (im Wirth Standard) mangelt es sicher an einigen nützlichen Dingen wie vernünftigen Strings. Auf der der anderen Seite hat C so viele Features die Abkürzungen sind aber nicht unbedingt notwendig für eine Sprache wie die Möglichkeit der Zuweisung in der If Anweisung, die Inkrement und Dekrement Operatoren oder die Kombination Operator mit Zuweisung. Alle diese sind durch etwas mehr Schreibarbeit ersetzbar.

Ein sehr interessanter psychologischer Aspekt ist ja das viele Programmierer glauben, dass kurzer Code, am besten noch etwas kryptisch geschrieben, schneller wäre. Siehe Alexanders Beispiel. Wie das Programm von mir beweist, das deutlich länger ist muss das nicht der Fall sein. Vieles hängt davon ab wie ein Compiler den Quelltext übersetzt, aber auch wie effizient eine Programmiersprache implementiert werden kann. Im C-Beispiel ist es per Definition so, dass das Stringende  gesucht werden muss da es durch die binäre Null markiert ist. Egal wie man nun im beispiel daran einen neuen String anhängt - die Suche dauert immer länger je länger der String ist.

Ich habe schon während des Studiums und dann während der Diplomarbeit Sprachen verglichen. Bei der Diplomarbeit C#, Java und Delphi. Es zeigte sich dass bei dem elementaren Operationen ohne Ausgabe es praktisch keine Unterschiede in den Laufzeiten gab. Diese kamen erst auf als es auf die grafische Ausgabe ging, wobei die beiden interpretierten Sprachen deutlich langsamer waren, und das trotz C# Mogeltrick mit der Garbage-Collection.

Kriterium 3: Eine Sprache ist syntaktisch so aufgebaut dass man sie ohne viel Nachdenken lesen kann.

Ich muss sagen das Kriterium 3 mich bis heute abgehalten hat viele Sprachen zu lernen. Ich denke es ist möglich eine Programmiersprache so grammatikalisch auszulegen, dass der Quelltext auch für nicht Programmierer verständlich ist. Ich denke das ist bei Pascal oder Modula, aber auch andere Sprachen gegeben. Das kann geschehen durch geschickte Wahl der Schlüsselwörter und vermeiden von zu vielen Operatoren  die man erklären muss. Auf der anderen Seite gibt es das Gegenbeispiel einer Sprache die zu schwafelig ist. Ich rede von COBOL: Wenn man selbst +, *, - und / durch Worte ersetzt verzichtet man auf die Grundkrenntnisse der Mathematik die jeder hat und macht den Quelltext schwer lesbar.

Doch das ist die Ausnahme. Der Trend geht heute eher dazu dass Sprachen eher wenige Schlüsselwörter haben und vieles mit Operatoren definiert wird. Perl ist so ein Beispiel. Aber auch Smalltalk hat nicht sehr viele Schlüsselwörter. Dann gehört viel Wissen dazu um einen Quelltext zu verstehen. Man kann aber auch für Profis das Lesen erschweren, z.B. so:

#include <stdio.h>

main(t,_,a)

char *a;

{return!0<t?t<3?main(-79,-13,a+main(-87,1-_,

main(-86, 0, a+1 )+a)):1,t<_?main(t+1, _, a ):3,main ( -94, -27+t, a

)&&t == 2 ?_<13 ?main ( 2, _+1, "%s %d %d\n" ):9:16:t<0?t<-72?main(_,

t,"@n'+,#'/*{}w+/w#cdnr/+,{}r/*de}+,/*{*+,/w{%+,/w#q#n+,/#{l,+,/n{n+\

,/+#n+,/#;#q#n+,/+k#;*+,/'r :'d*'3,}{w+K w'K:'+}e#';dq#'l q#'+d'K#!/\

+k#;q#'r}eKK#}w'r}eKK{nl]'/#;#q#n'){)#}w'){){nl]'/+#n';d}rw' i;# ){n\

l]!/n{n#'; r{#w'r nc{nl]'/#{l,+'K {rw' iK{;[{nl]'/w#q#\

n'wk nw' iwk{KK{nl]!/w{%'l##w#' i; :{nl]'/*{q#'ld;r'}{nlwb!/*de}'c \

;;{nl'-{}rw]'/+,}##'*}#nc,',#nw]'/+kd'+e}+;\

#'rdq#w! nr'/ ') }+}{rl#'{n' ')# }'+}##(!!/")

:t<-50?_==*a ?putchar(a[31]):main(-65,_,a+1):main((*a == '/')+t,_,a\

+1 ):0<t?main ( 2, 2 , "%s"):*a=='/'||main(0,main(-61,*a, "!ek;dc \

i@bK'(q)-[w]*%n+r3#l,{}:\nuwloca-O;m .vpbks,fxntdCeghiry"),a+1);}

Hier das Programm zum Runterladen. Es drückt meine gesamte Begeisterung für C aus....

Ich konnte mich weder mit Smalltalk noch mit Pearl anfreunden und auch einen Artikel über Haskell in der ct fand ich interessant, aber der Einstiegsaufwand ist zu hoch. Es geht darum eine komplett neue Syntax zu erlenen und bisherige Sprachkonzepte kann man vergessen. Vor allem ist aber ein Listing nicht für einen nicht mit der Sprache vertrauten kaum verständlich, während ich behaupten würde das dies bei Pascal nicht so ist.

8.1.2011: Bildungsgutschein / Jugendschutz / Müllmafia

Heute mal einkKurzweilliger Blog über einige Dinge die mich bewegen. Das erste ist das Konzept des "Bildungsgutscheins", dass nun ja bei den Diskussionen um die Anpassung des Harz-IV Satzes aufkam. Ich hätte gerne einen! Ich würde auch dafür bezahlen. Denn Bildung ist ein hohes, immaterielles Gut. Bildung ist mühsam zu erwerben, vor allem Allgemeinbildung. Dazu braucht man Jahre des Lesens, Studierens, Schreibens oder der Suche mit Computern. Wenn man das einfach erwerben kann, indem man einen Gutschein einlöst dann ist das toll, das ist viel besser als ein gekaufter Doktortitel.

Mal abgesehen davon dass die Politik wieder Schindluder mit positiv besetzten Begriffen wie Bildung und Gutschein betreibt, wenn es nur um Zuschüsse für den normalen Bedarf von Schülern für Unterrichtsmaterialen und Bücher geht, zeigt das wie Politiker meinen Probleme zu lösen: Einfach einen Zuschuss geben und das PISA Problem löst sich von selbst auf. Das ist ja nichts neues. Auch die Wirtschaft jammert immer über Fachkräftemangel, bildet aber selber keine aus und bei Stellungsgesuchen suchen sie nicht jemanden der sich in die gerade benötigten Programme einarbeiten kann, sondern einen der alles beherrscht, am besten von der Konkurrenz. Auch hier: Nur nicht selber aktiv werden!

Dann ist eine Reform der Jugendschutzregeln fürs Web gescheitert. Ich wusste nicht mal das es welche gibt. Also im Prinzip müsste man bei jeder Webseite, bei jedem Foto oder Video sich Gedanken machen, wer es anschauen kann, wobei die üblichen Jugendschutzregeln und Altersgrenzen angewandt werden (FSK 12, 16, 18 ...) also so wie bei DVD oder Computerspielen. Doch nun fordert Beck die bisherigen Regeln anzuwenden und Verstöße zu ahnden. Bald werde ich mir wohl Gedanken machen müssen, für welche Altersgruppe die Website geeignet wird. Ich denke wohl ich werde sie erst ab 18 freigeben können - nicht wegen erotischem Inhalt. Aber nicht das sich jemand geistig überfordert fühlt...

Zuletzt noch was zum Müll. Wir Deutsche sind ja Weltmeister im Mülltrennen - Biomüll, Flaschen, Altpapier, gelbe Tonne, Restmüll. Das ganze ist aus vielerlei Weise verrückt. Zum einen ist das System nur bedingt an den Wertstoffen ausgerichtet. Die Gelbe Tonne soll nur Verpackungsmüll aufnehmen. Anderes Plastik das wiederverwertet werden kann nicht. Auf der anderen Seiten könnten reine Papierverpackungen auch zum Altpapier und Metall (Aluminiumfolie), oder nicht recycelbare Verpackungen gehören da auch nicht rein. Aber da der Abtransport und Entsorgung mit der Verpackung bezahlt wird dürfen eben nur Verpackungen rein. Das ist so ein Wirtschaftsfaktor dass große Kommunen das selbst entsorgen anstatt das Duale System zu bemühen und dafür die Gebühren kassieren.

Das verrückte ist, das zumindest Restmüll und Verpackungsmüll nicht getrennt werden muss. In Trier hat man 4 Wochen lang beide Müllsorten gemischt und testweise mit einer modernen Anlage welche den Müll automatisch trennt wieder zerlegt - das Ergebnis war genauso gut wie bei separater Trennung und händischer Nachsortierung. Bei einigen Kunststoffen konnten diese soweit sortenrein zurückgewonnen werden, dass man sie recyceln könnte anstatt wie bisher zu verbrennen. Doch da das Duale System seine Pfründe nicht abtreten will und das staatlich sanktioniert ist, wird das nur ein Versuch sein.

Überhaupt sind die Deutschen so effizient im Mülltrennen und inzwischen auch Müllvermeidung, dass die Müllverbrennungsanlagen nicht mehr voll ausgelastet sind und wie Hochöfen müssen sie dauernd betrieben werden oder das Anlassen wird teuer. Bisher wurde das recht gut kompensiert durch den Mülltourismus - Müll kommt bis aus Italien zu uns. Nun reicht das auch nicht mehr und Kommunen fangen an alte Mülldeponien wieder zu öffnen - nicht zum Lagern, sondern um den Müll auszubuddeln und zu verbrennen.

Die Welt ist verrückt, vor allem wenn ich dran denke welche Probleme man beim Sperrmüll hat wenn man Metall dabei hat. Also z.B. Fahrräder oder Drehstühle mit Metallgestell. Obwohl es bei der Aufschmelzung völlig wurst wäre, wird das bei uns nur mitgenommen wenn man das Metall vollständig vom Nichtmetall getrennt hat. Also beim Fahrrad alle Schläuche und Gummigriffe entfernt hat, beim Drehstuhl das Futter abgetrennt. Bei der Elektronik ist es das gleiche: Als das Gesetz rauskam, jeder der Elektronik verkauft muss auch Altelektronik zurücknehmen (was ich eigentlich die beste Lösung finde) beschwerte sich sofort der Handel und nun muss man sie bei den Kommunen abgeben. Echt toll, wenn man kein Auto hat und daher vorwiegend über Versand bestellt....

Es wäre vielleicht Zeit für eine andere Trennung von Müll - Müll der aufgearbeitet werden kann und automatisch getrennt werden kann wie Plastik, Papier und Flaschen unabhängig von der Herkunft, Müll der verbrannt werden kann wie Holz, andere brennbare Materialen, nicht trennbare Verbundmaterialen wie Tetrapacks, Metalle die recycelt werden können und eben noch den Biomüll und den Restmüll der nicht in obige Kategorien fällt. Allerdings denke ich werden es dann eher noch mehr Mülltonnen oder Bringsysteme werden....

9.1.2011: Delphi - so geht's nicht

Wie sich sicher im Blog herumgesprochen hat programmiere ich in Delphi. Daher will ich mich auch heute mal damit beschäftigen, vor allem mit der Produktpolitik. Für die die nicht ganz informiert sind: Delphi ist der Nachfolger von Turbo Pascal. Es ist ein System zur Erstellung von visuellen Anwendungen und war in Sachen Bequemlichkeit und Einfachheit lange Zeit führend, bzw., die Trennung von Aussehen der Oberfläche und Code zur Bearbeitung finde ich auch heute noch sinnvoller als dies in den Code einzubetten wie dies bei Java und C# geschieht.

Was mich stört ist die Produktpolitik in etwa im letzten Jahrzehnt. Es gibt hier zwei Tendenzen:

Preistendenz: Delphi wird teurer. Für Delphi 1 habe ich noch 199 Mark gezahlt, für Delphi 4 waren es schon 299 DM, Delphi 8 hat mich als Studentenversion 299 Euro gekostet (regulär 599) und so hoch ist auch seitdem der Preis für Updates, auch beim jetzigen (Delphi XE). Es gibt die Möglichkeit für Arbeitslose, Rentner, Schüler und Dozenten eine Schulversion für den nichtkommerziellen Einsatz für 99 Euro zu kaufen, doch was machen die Hobbyentwickler, die nicht arbeitslos sind?

Also für jemanden der nicht beruflich sein Geld damit verdient sind 599 Euro (Update) / 899 Euro (Neu) zu viel. so beschneidet man sich künstlich den Kundenkreis, zumal ich (dazu später mehr) nicht den großen Mehrwert gegenüber älteren Versionen sehe.

Besonders schlimm, weil ich es jetzt auch im Unterricht spüre, ist das es keine kostenlosen Versionen mehr gibt. Von Delphi 6 und 2005 gab es in der ct "Personal" Versionen die für Hobbyentwickler reichten (größte Einschränkung war dass auch einige Debugger Features fehlten). Später die Turbo Versionen die schon gravierende Einschnitte hatten (es waren die Vollversionen, sie waren jedoch nicht um Frendkomponenten erweiterbar). Für beide hat Embarcadero den Support eingestellt. Das bedeutet nicht nur, dass man sich die Versionen nicht mehr herunterladen kann, ich kann auch jemanden nicht die schon existierende mal kostenlose CD in die Hand drücken, damit sich ein Schüler zumindest die alte Version zum Üben installieren kann, weil er das Produkt nicht mehr registrieren kann.

In Zeiten wo Microsoft sein Visual Studio mit der Einschränkung auf eine Sprache verschenkt, ist das schwer zu verstehen. Okay, Microsoft kann sich das leisten, aber vielleicht denkt mal bei Embarcadero mal darüber nach, die 99 Euro Variante für alle verfügbar zu machen die nicht kommerziell arbeiten wollen und dafür einige professionelle Features wie z.B. UML Unterstützung rauszuschmeißen. Alternativ wäre es vielleicht möglich eine nicht so taufrische Version billiger anzubieten. Okay, der Gedanke ist verwegen, weil soweit ich weiss man bei Software immer nur die aktuelle Version kaufen kann, aber vielleicht macht ja mal einer den Anfang....

Das nächste ist die Produktweiterentwicklung. Okay, da gibt es viele Meinungen. Für den einen ist die IDE Weiterentwicklung wichtig, für den anderen ist es der allgemeine Sprachstandard (Generics, Operatoren überladen, Mehrfachzuweisung etc) für den anderen sind es Komponenten oder Datenbankunterstützung anderer wünscht sich Lifecycle Tools wie UML Modellierung oder Unit Tests.

Für mich sind folgende Dinge bedeutsam:

Moderne IDE - hier gab es einige Verbesserung, die aber auch wirklich nötig waren. Bei 400 Komponenten ist die Möglichkeit der Suche (mit 2009 eingezogen) überfällig gewesen und dass man Code formatieren kann (ab 2010) auch. Das habe ich bisher immer extern mit einem eigenen Programm erledigt.

Fast an jeder Version wurde an den Komponenten gebastelt - manche fielen weg, neue kamen dazu, vor allem was den Datenbankbereich der ja mal Hauptzweck von Delphi war, angeht. Ich muss sagen, dass ich das als nicht so wichtig ansehe, weil ich bestimmte Komponenten immer wieder verwende und viele stammen nicht von Delphi sondern aus dem Internet. Das hat auch den Vorteil, dass ich mal eine ältere Version einsetzen kann, die schnell installiert ist um einen Fehler zu suchen. Wenn ich immer die neuesten Komponenten einsetze, die mitgeliefert werden, dann geht das nicht, vor allem ändere ich ja nicht bestehende Anwendungen nur weil es nun schickere Buttons gibt. Vielleicht wäre das eine Möglichkeit den Preis zu staffeln indem man einfach ein paar weniger Komponenten mitliefert. (Es gibt ja auch gute extrerne Komponentensammlungen wie z.B. die JCL).

Die Life Cycle Versionen sind dagegen für mich überhaupt nicht relevant, da ich reiner Entwickler bin. Wer gerne UML Diagramme malt, findet die vielleicht toll, aber ich kann drauf verzichten.

Was ich mir wünsche ist, das der Compiler auf dem neuesten Stand ist: er sollte 64 Bit Code erzeugen. Mich würde überhaupt mal interessieren in wei weit Delphi überhaupt Code erzeugt der über den 386 er Standard rausgeht also MMX, 3DNOW, SSE, SSE2,3...). Ich habe nichts gefunden, was darüber Auskunft gibt. Das zweite wäre die Sache mit .NET. Seit Jahren kündigt man an, dass dies irgendwann mal zusammenfließen soll, seit genauso vielen Jahren gibt es Warnings in den Programmen dieses und jenes wird unter .NET nicht mehr funktionieren - aber geschehen ist nichts. Im Gegenteil: Den .NET Compiler der lange Zeit mit enthalten war, ist nun eigenständiges Produkt geworden.

Der Hauptgrund eine neue Version zu kaufen, ist es heute, glaube ich, dass die alten nicht mehr laufen. Bei der Installation von Delphi 2006 bekam ich erst eine Warnung von Windows 7. Nachdem mir das hantieren mit einer virtuellen Maschine zu dumm wurde (ich habe eine Komponente nur als DLL und die kommt nicht mit der 2009 eingeführten Umstellung der Laufzweitbibliothek auf Unicode nicht zurecht, sodass ich für ein Programm immer noch die 2006 er Version zum Compilieren brauche) brachte ich sie doch noch zum Laufen, auch wenn ich das gesamte .NET Kit ab Version 1 nochmals von Microsoft runterladen musste. Delphi 7 läuft aber nach Aussagen der Studenten nicht mehr.

Anstatt jedes Jahr eine neue Version rauszubringen und dauernd den Eigentümer zu wechseln (von Borland über Codegear zu Embarcadero) wäre es sinnvoll, mal alles zu konsolidieren und echte neue Features einzubringen und wie schon gesagt eine Preispolitik zu verfolgen die auch an die Leute denkt die nicht mit Programmen ihr Geld verdienen.

Es ist natürlich schwer wenn man ein gutes Produkt hat neue revolutionäre Ansätze zu bringen. In der Turbo-Pascal -Delphi Geschichte sehe ich nur wenige richtige Revolutionen:

... und seitdem? viel Detailverbesserung, vieles sieht schicker aus, aber es fehlt der große Wurf in der Weiterentwicklung der Sprache.

Sehr schade. Klar ist das Delphi einen schweren Stand hat - Borland war seit Ende der achtziger Jahre die einzige Firma die Pascal weiter entwickelt hat, während es eben einige Anbieter für Compiler für C, Java oder Werkzeige für PHP, Ruby oder Phyton gibt. Und anders als bei Visual BASIC kann sie nicht auf Synergien zählen, indem sie die Sprache noch in ein populäres Offficepaket einbaut. Aber man kann sich um seine Kunden schon etwas mehr bemühen, als die Firma das in der Vergangenheit tat. Nach dem TIOBE Index ist Delphi immer die 12-populärste Programmiersprache (zählt man Pascal dazu käme sie auch auf Platz 10), doch ich frage mich was so groß in Python und Ruby programmiert wird die ja noch höher gewertet sind, geschweige den Objective-C.... Die TIOBE Grafiken sind übrigens ganz interessant. Programmiersprachen die ich absolut grausam finde (C++, Perl) sind auf dem absteigenden Ast, da geht es Delphi noch relativ gut - es hält sich mit Sprüngen nach oben oder unten im Mittelfeld.

10.1.2011: Die verpasste Chance

Wenn im August die Jupitersonde Juno startet, dann ist diese aus vielerlei Hinsicht etwas besonderes. Das für viele außergewöhnlichste ist es, dass sie die erste Sonde ist, die bei Jupiter noch mit Solarzellen auskommt - dort kommt im Mittel nur ein 27-stel des Lichtes an das im Erdabstand Solarzellen antreibet. Rosetta erreicht zwar auch fast diese Distanz, doch ist sie dann nur im Schlafmodus, während Juno aktiv sein wird.

Für mich außergewöhnlich ist, dass es die erste Raumsonde in dieser Preisklasse ohne leistungsfähiges Kamerasystem seitens der USA ist. Es gab schon vorher Raumsonden der NASA ohne Kamera, doch waren diese welche, die entweder den interplanetaren Raum erforschten (wie die Pioneers), oder es waren preiswerte Raumsonden und technische Gründe verhinderten die Verwendung leistungsfähiger Kameras wie bei Lunar Prospektor durch die Rotation und das kleine Budget.

Das eine 700 Millionen Dollar Mission nur eine recht einfache Kamera (Auflösung aus 4.300 km Entfernung rund 15 km - entwickelt aus MARDI, der Abstiegskamera einiger Mars Raumsonden (übrigens hat sie noch nie dort Bilder, geliefert - bei Phoenix wurde sie wegen eines Defektes nicht aktiviert) mitführt ist allerdings eine Novität. Ich verstehe auch nicht warum.

Sicher Juno soll vor allem die Magnetosphäre erforschen, weniger den Planeten selbst und überhaupt nicht die Monde. Aber es ist die einzige Mission im Jupitersystem seit zwei Jahrzehnten und kommende Missionen sind erst im "Proposalstadium" - wenn sie mal kommen. Auch die beiden letzten Sonden die Jupiter als Sprungbrett nutzten - Cassini und New Horizons kamen dem Planeten nicht wirklich nahe (2 bzw. 9 Millionen km) und lieferten eben nur einen kurzfristige Einblick. Die Raumsonde wird sich 32 mal maximal bis zur Distanz von Callisto von Jupiter entfernen und sich bis auf 4.300 km an die Wolkenobergrenze nähern - selbst ohne gezielte Vorbeiflüge gibt es da etliche Begegnungen mit den Monden in einer Distanz die für die Voyager Vorbeiflüge typisch war. Da durch die niedrige Datenrate von Gallileo hier viele globale Untersuchungen wegfielen und Io sich ja auch laufend verändert wäre dies die Gelgenehit die Monde weitergehend zu untersuchen und auch den Planeten selbst - denn die Junocam kann nur aus nächster Nähe den ganzen Planeten abbilden. Am Apopunkt der Bahn ist Jupiter gerade mal 40 Pixel groß...

Mehr noch: Io war für Galileo ein riskantes und seltenes Teil. Die inneren drei Asteroidenmonde wurden nie genauer untersucht (bzw., kurz vorher fiel die Raumsonde in einen Safe Mode, wie dies auch bei den meisten Io Vorbeiflügen der Fall war). Hier würde die Raumsonde wissenschaftliches Neuland betreten, wobei ich natürlich Io für das spannendste Ziel ansehe.

Wenn man sparen muss, warum verwendet man nicht schon ein erprobtes Instrument? Das müsste dann preiswert zu haben sein. Ich denke da an die LORRI Kamera von New Horizons - sie macht zwar keine Farbaufnahmen, aber sie hat eine Auflösung von 5 µrad, also 1 km aus 200.000 km Entfernung - das ist fast doppelt so gut wie die Voyager Telekamera. Selbst aus einer Entfernung von 100.000 km zu einem Mond wird sie Aufnahmen liefern wie sie von Voyager und Galileo nur von wenigen Gebieten vorliegen.  Und sie hat keine beweglichen Teile die ausfallen können, braucht wenig Strom (5.8 Watt)  und wiegt nur 8,8 kg.

Okay, für die Fotografie von Jupiter wäre sie zu stark vergrößernd (aus der Distanz von Callisto bildet ein Bild nur 10.000 x 10. 000 km ab, aber man kann ja noch eine mittelauflösende Kamera oder diese Junocam hinzunehmen. Eigentlich kenne ich das nur von der ESA wo man auf publicityträchtige gute Kameras verzichtet. Der letzte Fall war die VMC an Bord von Venus Express - sie wurde aus einer Ingenieurskamera von Mars Express entwickelt und durch einen Strahlenteiler landen 4 Bilder auf dem 1 MPixel Chip, sodass jedes maximal 400 x 400 Pixel nutzbare Fläche hat... Akatsuki hätte zeigen können, das man das besser hinbekommt, dafür hat die Raumsonde andere Probleme.

Ich bin mal gespannt wie das mit Juno weitergeht. Bisher ist mein Eindruck, auch was die Informationen auf der Website angeht kein besonders guter. Ich vermute mal die Mission wird weitgehend von der Öffentlichkeit ignoriert werden.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99