Wie man mit diesen Bildern weiter arbeitet
Auch hier hilft die Dokumentation weiter. Wichtig sind für uns die verwendete Kamera (nircam; denn wir wollen Daten aus dem nahen Infrarotbereich), die Bildvariante (i2d; also ein fertiges Mosaik-Bild) und der verwendete Filter (f090w, f200w ...; sie ermöglichen uns später, Farbe ins Bild zu bringen).
Diese Daten finden sich im Dateinamen. Das Dateiformat ist FITS und enthält nicht nur die eigentlichen Bilddaten, sondern noch jede Menge Metainformationen.
Das JWST nimmt Licht nur im infraroten Teil des Spektrums auf und damit Licht, das für das menschliche Auge nicht sichtbar ist. Um unterschiedliche Teile des Spektrums unterscheiden zu können, werden verschiedene Filter eingesetzt, die bei der Aufnahme vor dem Sensor platziert werden.
Information dazu, welche Filter es gibt und welche Eigenschaften sie haben, finden sich hier. Man unterscheidet Extra-Wide-Filter (f...w2), Wide-Filter (f...w), Medium-Filter (f...m) und Narrow-Filter (f...n) - je nachdem, wie breit der Teil des Spektrums ist, den der Filter durchlässt. Etwas plastischer gibt das diese Liste wieder.
Da alle Bilder im Infrarotbereich liegen, gibt es keine Farben im eigentlichen Sinn. Um ein farbiges Bild zu bekommen, müssen daher einzelne Bilddaten den Farbkanälen eines Bildes zugeordnet werden. Dazu später mehr.
Und was mache ich jetzt mit den Bilddaten?
Zunächst brauchen wir ein Programm, das die Daten lesen kann. Ich verwende das kostenpflichtige Programm Pixinsight, mit dem ich auch meine eigenen Astroaufnahmen bearbeite. Wer das nicht gerade günstige Programm testen möchte, kann das mit einer uneingeschränkten Testversion für 45 Tage machen. Interessanterweise sieht man in einem Nasa-Youtube-Video zur JWST-Bildbearbeitung, dass auch die Science Visual Developers der Nasa (also die Menschen, die diese grandiosen Bilder aus den Daten produzieren) mit Pixinsight arbeiten. Es gehen aber auch freie Tools wie zum Beispiel Siril.
Eine der bis zu 5 GB großen FITS-Dateien enthält nicht nur ein Bild, sondern auch weitere Bilddaten, darunter Kalibrierungsbilder, die für mich aber erst einmal uninteressant sind. Weiterhin haben die Rohbilder eine Auflösung von über 14.000 x 12.000 Pixeln, beziehungsweise über 7.000 x 6.000 Pixel für einen Teil der Filter.
Nach einigen frustrierenden Versuchen, die Bilder in der originalen Auflösung zu bearbeiten - mein Computer ist damit offensichtlich überfordert -, beschließe ich, die Auflösung auf ein Viertel beziehungsweise die Hälfte zu verringern.
Meine ersten Arbeitsschritte sehen so aus:
- ein Bild laden
- alle unnötigen Zusatzbilder wieder schließen
- Das Rohdatenbild auf 25 beziehungsweise 50 Prozent verkleinern und als eigenständiges Bild wieder speichern.
Wie sich herausstellt, passen die Bildausschnitte der einzelnen Bilder nicht zu 100 Prozent übereinander. Das ist aber eine zwingende Voraussetzung für alle weiteren Verarbeitungsschritte. Hier hilft das Tool StarAlignment von Pixinsight. Ich wähle eines der Bilder als Referenzbild, an dem alle weiteren ausgerichtet werden sollen. Es wird zusätzlich an den Rändern beschnitten.
Beim Ausrichten der Bilder werden die im Bild erkannten Sterne analysiert. Das Programm versucht nun, durch Strecken, Stauchen, Drehen und Verschieben die einzelnen Bilder deckungsgleich zum Referenzbild zu bekommen. Nachdem das geschafft ist, habe ich nun sechs Bilder, die ausgerichtet und zugeschnitten sind und perfekt übereinander passen.
Allerdings sind die Bilddaten in meinen Bildern noch linear und damit so dunkel, dass man gerade mal die hellsten Sterne sehen kann. Durch einen Vorgang namens Stretching wird der Anteil der Bilddaten verstärkt, der die meisten Bildinformationen enthält (siehe auch den Wikipedia-Eintrag zur Gammakorrektur). Pixinsight hat eine Funktion, die das automatisch zumindest für die Anzeige der Bilder macht (STF - Screen Transfer Funktion), damit man sehen kann, womit man arbeitet.
Allerdings ist das erstmal nur die Anzeige, die Bilddaten selbst sind noch linear. Über eine HistogramTransformation kann ich die Bilddaten permanent entsprechend anpassen. Ich speichere die so entstandenen Bilder zusätzlich als 16-Bit-TIFF-Dateien ab, um sie auch mit einem Grafikprogramm bearbeiten zu können.
Aber: Wo kommt jetzt die Farbe her?