Erste Überraschung: Die Bilder werden gar nicht für uns gemacht! Sie werden für die Wissenschaftler gemacht, und die beeidruckensten davon werden an die Presse weitergegeben. Wissenschaftler wollen in erster Linie keine schönen Bilder haben, sondern Bilder auf denen sie möglichst viel entdecken können. Deswegen werden in der Raumfahrt auch sehr viele Bilder in Falschfarben gemacht, aber dazu kommen wir noch.
Zweite Überraschung (für jüngere Leute): Bei alten Aufnahmen wurden keine Computer zur Bildbearbeitung benutzt, sondern Schere und Klebstoff. So leistungsfähige Computer gab es damals noch nicht, man hat mehrere Einzelaufnahmen zu einem Mosaik zusammengeschnitten, Emely Lakdawalla wählt als Beispiel dafür ein Bild des Merkurs von Mariner 10 dessen Einzelbilder man hier finden kann. (Von wegen, die NASA verheimlicht alles)
Ein noch deutlicheres Beispiel als das im Video. Mosaik von Mariner-10-Aufnahmen. Quelle: NASA-NSSDC
Dieses Bild wurde 1979 veröffentlicht, zu Zeiten, als ein Apple-Computer noch so und Computergrafiken noch so aussahen. Und die bei den Youtube-Filmern beliebten Bilder von Mars und Mond sind meistens noch älter. Wenn man aus solchen Bildern einen Ausschnitt nimmt und vergrößert und mit heutigen Bildbearbeitungsprogrammen auch noch versucht, da "versteckte Details" herauszukitzeln, dann finden sich an den Schnittstellen natürlich immer etwas, woraus man Gebäude oder Raumschiffe machen kann. Ein Beispiel habe ich hier schonmal erklärt.
Dritte Überraschung: Viele Bilder werden einfach so gemacht, z.B. um eine Kurskorrektur zu kontrollieren. Da ist das Beispiel der Sonde Cassini gut gewählt, denn sie kreist um Saturn und photographiert dort diesen Gasriesen, seinen Ring und seine zahlreichen Monde. Nun ist Saturn aber so weit weg, das ein per Funk übertragener Befehl über 70 Minuten braucht und die Rückantwort der Sonde ebenfalls.
Man kann sie nicht fernsteuern wie ein funkgesteuertes Modellauto, man kann nicht wie bei einer normalen Kamera am Bildschirm schauen "oh, es ist zu dunkel, verändern wir mal die Helligkeit, damit das Bild gut wird". Man kann ihr nur im voraus befehlen "mach von heute 18 Uhr bis morgen 2 Uhr die Bilder mit dieser Helligkeit und dieser Belichtungszeit". Die Sonde macht dann ihre Bilder selbst ohne das man sie beinflussen kann. Dementsprechend sind viele ihrer Bilder misslungen, zu hell, zu dunkel und manchmal macht sie sogar Bilder, während sie sich in eine andere Richtung dreht.
Und manchmal müssen die Leute im Kontrollzentrum die exakte Lage kontrollieren, dann geben sie der Sonde den Befehl, die nächsten Bilder etwas heller zu machen damit man anhand der Sterne die Position kontrollieren, was erstmal dauert bis sie diesen Befehl enthält, dann macht sie ne weile diese absichtlich überhellen Bilder, bis das gewünschte Bild auf der erde angekommen ist, dauert es wieder eine weile. währenddessen die Sonde vielleicht einen Mond in den Blickfeld bekommt, den sie dann viel zu hell aufnimmt etc.
Dementsprechend kann man in der Übersicht der sog. RAW-Bilder mehr misslungene als gelunge Bilder finden. In den Video "Ringmakers of Saturn" wird sich genau auf diese misslungene Bilder gestürzt. Das Zylinderraumschiff dort ist z.B. nur ein Mond, der aufgenommen wurde als die Sonde sich bewegte und dementsprechend wurde aus den Mond ein Zylinder.
Hier ein Beispiel für so ein "misslungenes" Bild. Die Sonde wollte den Mond Tethys aufnehmen, im Hintergrund überstrahlt der Saturn das Bild aber gnadenlos:
Screenshot aus der Cassini-Raw-Image-Datenbank
Merkt Ihr´s? Die NASA sagt sogar, wann das "gefälschte/retuschierte" Bild kommen wird! :-D
... das bringt mich wieder zurück auf Emely Lakdawalla, denn die ist auf Youtube von jemanden doch tatsächlich beim wegretuchieren von Schiffen oder Städten "erwischt" worden. Bei ihrer Erklärung dazu lernt man sehr viel über die Probleme im Umgang mit diesen Bildern - unbedingt ansehen!
... es ist so einfach zu verstehen, wenn man es nur weiss.
Die Sonde bewegt sich, der Saturn dreht sich und der Mond bewegt sich. Wie man oben am RAW-Beispiel sieht, sind alle Bilder eigentlich schwarz-weiss. Und unter den Bild steht auch, das die Filter CL1 und CL2 verwendet wurden, das sind Farbfilter, die vor der Linse in einer Scheibe angeordnet sind. Welcher Filter welcher Farbe entspricht, kann man in der FAQ zu den Raw-bildern nachlesen. Und da sehen wir, das CL steht für "clear", also gar kein Filter. Dieses Bild nimmt also alle Wellenlängenbereiche auf, die die Kamera verkraften kann.
Um ein Farbbild in "natürlichen Farben" zu erhalten, muss man erstmal ein Bild mit den roten Filter, dann eins mit den blauen und eins mit den grünen aufnehmen. aber Wissenschaftler sind ja eigentlich gar nicht an schönen Bildern interessiert, sondern an neuen Entdeckungen, deshalb gibt es auch Filter für Farben, die wir Menschen gar nicht sehen können, mit denen man aber bestimmte Stoffe voneinander unterscheiden kann. die verwenden Wissenschaftler viel lieber und deswegen sind die meisten Bilder in der Raumfahrt Falschfarbenbilder.
In den Video von Emely Lakdawalla wird auch die Zusammenstellung einer Farbaufnahme eines Marsrovers gezeigt. Da ist ein kleines aber wichtiges Detail zu sehen:
(Screenshot aus obigen Video)
Das ist ein "Farbkallibrierungs-Ziel" (Calibration Target) das an den Rover angebracht wurde und immer wieder mal versehentlich oder absichtlich von den Kameras des Rovers mitphotgraphiert wird. an den Ecken sieht man farbige Plätchen mit Mischfarben, an deren Darstellung man erkennt, welcher Filter vor der Linse gerade benutzt wurde.
Übersicht, wie sich durch das Calibration-Target die verwendeten Filter identifizieren lassen - aus den PDF "Color Calibration of Spirit and Opportunity Rover Images" by Ron L. Levin
Die Marsrover Spirit & Opportunity haben jeweils eine Stereo-Kamera, also eigentlich zwei Kameras. Und vor jeder dieser beiden Einzelkameras können durch 8 verschiedene Filter Bilder gemacht werden. Weil die Wissenschaftler so scharf auf möglichst differizierte Daten sind, sind auf diesen beiden Kameras größtenteils auch unterschiedliche Filter montiert, so ergeben sich aus der Kombination bis zu 13 "Grundfarben", in denen diese Rover "sehen" können. Wir Menschen können nur in 3 Farben sehen. Das macht man, um Gesteinsarten besser voneinander unterscheiden zu können.
Und das machte man auch schon bei der ersten gelandete Marssonde Viking 1 so. Das mit den Falschfarbenbildern ignorieren solche Leute wie Richard Hoagland und behaupten stattdessen, der Mars sei voller blauer Ozeane und grünen Wäldern.
Deswegen ist es bei Bildern von Raumsonden sehr wichtig, immer darauf zu achten, mit welchen Filtern die Aufnahmen gemacht wurden. Und seriöse Quellen werden diese Informationen immer angeben oder zumindest auf die Quelle verlinken, wo diese Informationen zu finden sind.
Eure Seite ist eine tolle Ergänzung zu Florian Freistetters Astronomie Blog.
AntwortenLöschenDieser Beitrag ist für mich als Fotomenschen natürlich extrem spannend. Mir war nämlich auch nicht so klar, wie die ihre raw Fotos machen. Ich dachte immer, dass ist 'ne "normale" Digicam, die man für den All-Einsatz modifiziert hat.
Vielen Dank für die verständliche Aufklärung!
Danke für das Lob, aber das war diesbezüglich ja praktisch gar nichts.
AntwortenLöschenDie Kamerasysteme diverser Raumsonden sind jahrelange Spezialentwicklungen, da ist Deutschland übrigens bei allen Raumfahrtagenturen stark vertreten, einfach mal bei den gängigsten Sonden sich in die tieferen Links verirren, und man kommt aus den Staunen nicht mehr raus, die NASA-Sonde Dawn, die zur Zeit den Asteroiden vesta erkundet, hat zum Beispiel ein Kamerasystem des Max-Planck-Institutes
Was herauskommt, wenn man tatsächlich eher normale Kameras benutzt, sieht man derzeit an der Grail-Sonden die das Gravitationsfeld des Mondes erkunden sollen. Die haben nur nebenbei eher "normale Kameras", bei denen Schulklassen aber bestimmen dürfen, was sie photografieren sollen