Eigene Bilder vom James-Webb-Teleskop: Von den Rohdaten zu farbigen Bildern

Für eigene Astrofotos ist gerade keine gute Jahreszeit: Die Nächte sind viel zu kurz und richtig dunkel wird es im Sommer auch nicht. Umso interessanter ist es, sich die Bilder des James Webb Space Telescope (JWST) anzusehen. Sie liegen als Rohdaten vor, die jeder herunterladen und selbst bearbeiten kann. Schauen wir mal, wie weit wir damit kommen.
Zunächst muss ich herausfinden, wo die Daten liegen und vor allem, welche Daten ich überhaupt brauche. Ein guter Start ist dafür die JWST-Dokumentation(öffnet im neuen Fenster) . Dort findet sich ein Link auf das MAST(öffnet im neuen Fenster) , ein Archiv mit Daten von verschiedenen Nasa-Missionen und -Instrumenten, nicht nur dem JWST. Allerdings ist die Suchfunktion sehr komplex.
Über die Advanced Search mit "JWST" als Mission Parameter , "image" als Product Type und "NIRCAM" als Instrument für die Suchparameter, kann ich die Daten schon einmal ganz gut eingrenzen. In der angezeigten Ergebnisliste kann ich weiter filtern.
Alle Bilder, die vom Teleskop kommen, durchlaufen mehrere Stufen der Vorverarbeitung. Mich interessiert die Stufe 3(öffnet im neuen Fenster) , das sind die aufbereiteten Rohdaten.
Weiterhin schränke ich die Suche auf öffentlich zugängliche Daten ein. Denn nicht alle Daten sind sofort öffentlich zugänglich. Wissenschaftler, die bestimmte Untersuchungen über das JWST angefragt und durchgeführt haben, bekommen für eine bestimmte Zeit exklusiven Zugriff auf diese Daten für ihre Arbeiten und die Veröffentlichung.
Durch die Sucheinschränkung bleiben 1.357 Bilder von über 17.000 übrig. Sortiert man nun noch nach dem Release Date , findet man recht schnell über die Detailansicht die Bilder von NGC 7320 und damit eines der Bilder, das die Nasa am 12. Juli veröffentlicht hat.
Klickt man auf eines der Bilder in der Ergebnisliste, bekommt man eine Vorschau des Bildes angezeigt und eine Proposal ID (2732). Diese nutze ich als weiteren Suchparameter und bekomme alle Einzelbilder, die zu dieser Aufnahme gehören. Ich könnte sie mir jetzt als Bundle herunterladen, wenn ich die Bilder in den Warenkorb lege.
Ein weiterer Download-Weg geht über diesen Link(öffnet im neuen Fenster) . Hier werden Shell-Skripte zur Verfügung gestellt, die alle notwendigen Daten einer Aufnahmesession herunterladen. Allerdings sind das viel mehr Daten, als ich eigentlich benötige. Statt 340 GB für das gesamte Paket reichen auch circa 20 GB für die Daten der NIRCAM (nahes Infrarot) und die davon bereits vorgearbeiteten Bilder.
Das Bildfeld des Teleskops ist so klein, dass nur ein winziger Teil des Himmels auf einem Einzelbild abgebildet wird. Daher wird das Teleskop immer wieder neu ausgerichtet. So werden hunderte oder gar tausende Einzelaufnahmen erzeugt, die zu einem Mosaik als Gesamtbild zusammengesetzt werden. Diese Gesamtbilder sind die Bilder, mit denen wir arbeiten wollen.
Die folgenden Zeilen laden nur die für uns relevanten Bilder herunter.
```bash # Download Images for NGC 7320 curl --globoff --progress-bar --create-dirs -C - --output ./jw02732/L3/t/jw02732-o001_t001_nircam_clear-f150w_i2d.fits '[https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f150w_i2d.fits](https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f150w_i2d.fits)' curl --globoff --progress-bar --create-dirs -C - --output ./jw02732/L3/t/jw02732-o001_t001_nircam_clear-f356w_i2d.fits '[https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f356w_i2d.fits](https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f356w_i2d.fits)' curl --globoff --progress-bar --create-dirs -C - --output ./jw02732/L3/t/jw02732-o001_t001_nircam_clear-f090w_i2d.fits '[https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f090w_i2d.fits](https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f090w_i2d.fits)' curl --globoff --progress-bar --create-dirs -C - --output ./jw02732/L3/t/jw02732-o001_t001_nircam_clear-f200w_i2d.fits '[https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f200w_i2d.fits](https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f200w_i2d.fits)' curl --globoff --progress-bar --create-dirs -C - --output ./jw02732/L3/t/jw02732-o001_t001_nircam_clear-f444w_i2d.fits '[https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f444w_i2d.fits](https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f444w_i2d.fits)' curl --globoff --progress-bar --create-dirs -C - --output ./jw02732/L3/t/jw02732-o001_t001_nircam_clear-f277w_i2d.fits '[https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f277w_i2d.fits](https://stpubdata-jwst.stsci.edu/ero/jw02732/L3/t/jw02732-o001_t001_nircam_clear-f277w_i2d.fits)' ```
Wer alle relevanten Dateien von allen Skripten und damit aller bisher veröffentlichten Bilder herunterladen will, kann im Download-Verzeichnis der Skripte einfach folgenden Befehl ausführen:
```bash grep -h curl *.sh | grep nircam | grep i2d.fits | sh ```
Doch was für Daten hat man da jetzt eigentlich heruntergeladen?
Wie man mit diesen Bildern weiter arbeitet
Auch hier hilft die Dokumentation(öffnet im neuen Fenster) weiter. Wichtig sind für uns die verwendete Kamera (nircam; denn wir wollen Daten aus dem nahen Infrarotbereich), die Bildvariante (i2d; also ein fertiges Mosaik-Bild) und der verwendete Filter (f090w, f200w ...; sie ermöglichen uns später, Farbe ins Bild zu bringen).
Diese Daten finden sich im Dateinamen. Das Dateiformat ist FITS(öffnet im neuen Fenster) und enthält nicht nur die eigentlichen Bilddaten, sondern noch jede Menge Metainformationen.
Das JWST nimmt Licht nur im infraroten Teil des Spektrums auf und damit Licht, das für das menschliche Auge nicht sichtbar ist. Um unterschiedliche Teile des Spektrums unterscheiden zu können, werden verschiedene Filter eingesetzt, die bei der Aufnahme vor dem Sensor platziert werden.
Information dazu, welche Filter es gibt und welche Eigenschaften sie haben, finden sich hier(öffnet im neuen Fenster) . Man unterscheidet Extra-Wide-Filter (f...w2), Wide-Filter (f...w), Medium-Filter (f...m) und Narrow-Filter (f...n) - je nachdem, wie breit der Teil des Spektrums ist, den der Filter durchlässt. Etwas plastischer gibt das diese Liste(öffnet im neuen Fenster) wieder.
Da alle Bilder im Infrarotbereich liegen, gibt es keine Farben im eigentlichen Sinn. Um ein farbiges Bild zu bekommen, müssen daher einzelne Bilddaten den Farbkanälen eines Bildes zugeordnet werden. Dazu später mehr.
Und was mache ich jetzt mit den Bilddaten?
Zunächst brauchen wir ein Programm, das die Daten lesen kann. Ich verwende das kostenpflichtige Programm Pixinsight(öffnet im neuen Fenster) , mit dem ich auch meine eigenen Astroaufnahmen bearbeite. Wer das nicht gerade günstige Programm testen möchte, kann das mit einer uneingeschränkten Testversion für 45 Tage machen. Interessanterweise sieht man in einem Nasa-Youtube-Video zur JWST-Bildbearbeitung, dass auch die Science Visual Developers der Nasa (also die Menschen, die diese grandiosen Bilder aus den Daten produzieren) mit Pixinsight arbeiten. Es gehen aber auch freie Tools wie zum Beispiel Siril(öffnet im neuen Fenster) .
Eine der bis zu 5 GB großen FITS-Dateien enthält nicht nur ein Bild, sondern auch weitere Bilddaten, darunter Kalibrierungsbilder, die für mich aber erst einmal uninteressant sind. Weiterhin haben die Rohbilder eine Auflösung von über 14.000 x 12.000 Pixeln, beziehungsweise über 7.000 x 6.000 Pixel für einen Teil der Filter.










Nach einigen frustrierenden Versuchen, die Bilder in der originalen Auflösung zu bearbeiten - mein Computer ist damit offensichtlich überfordert -, beschließe ich, die Auflösung auf ein Viertel beziehungsweise die Hälfte zu verringern.
Meine ersten Arbeitsschritte sehen so aus:
- ein Bild laden
- alle unnötigen Zusatzbilder wieder schließen
- Das Rohdatenbild auf 25 beziehungsweise 50 Prozent verkleinern und als eigenständiges Bild wieder speichern.
Wie sich herausstellt, passen die Bildausschnitte der einzelnen Bilder nicht zu 100 Prozent übereinander. Das ist aber eine zwingende Voraussetzung für alle weiteren Verarbeitungsschritte. Hier hilft das Tool StarAlignment von Pixinsight. Ich wähle eines der Bilder als Referenzbild, an dem alle weiteren ausgerichtet werden sollen. Es wird zusätzlich an den Rändern beschnitten.










Beim Ausrichten der Bilder werden die im Bild erkannten Sterne analysiert. Das Programm versucht nun, durch Strecken, Stauchen, Drehen und Verschieben die einzelnen Bilder deckungsgleich zum Referenzbild zu bekommen. Nachdem das geschafft ist, habe ich nun sechs Bilder, die ausgerichtet und zugeschnitten sind und perfekt übereinander passen.










Allerdings sind die Bilddaten in meinen Bildern noch linear und damit so dunkel, dass man gerade mal die hellsten Sterne sehen kann. Durch einen Vorgang namens Stretching wird der Anteil der Bilddaten verstärkt, der die meisten Bildinformationen enthält (siehe auch den Wikipedia-Eintrag zur Gammakorrektur(öffnet im neuen Fenster) ). Pixinsight hat eine Funktion, die das automatisch zumindest für die Anzeige der Bilder macht (STF - Screen Transfer Funktion), damit man sehen kann, womit man arbeitet.
Allerdings ist das erstmal nur die Anzeige, die Bilddaten selbst sind noch linear. Über eine HistogramTransformation kann ich die Bilddaten permanent entsprechend anpassen. Ich speichere die so entstandenen Bilder zusätzlich als 16-Bit-TIFF-Dateien ab, um sie auch mit einem Grafikprogramm bearbeiten zu können.
Aber: Wo kommt jetzt die Farbe her?
Von Graustufen zum Farbbild
Die Bilder, die ich habe, sind zunächst noch Graustufenbilder. Um ein farbiges Bild zu bekommen, muss ich den einzelnen Filtern einen Farbwert zuweisen und dann die Einzelbilder kombinieren.
Da die Bilddaten alle aus dem Infrarotbereich stammen, wird es keine "natürliche" Farbgebung geben. Es geht somit darum, eine Zuordnung zu finden, die für uns natürlich aussieht und die einen Bezug zu den Daten zulässt. Im Lichtspektrum, das wir Menschen sehen können, sind die kürzesten Wellenlängen(öffnet im neuen Fenster) Violett und gehen dann über Blau und Grün zu Gelb, Orange und am Ende Rot, der größten Wellenlänge.
Sieht man sich das Bild unten an, findet sich auch dort eine entsprechende Zuordnung der Filter zu den Farben. Das ist schon ein recht guter Ansatz. Dadurch bekommt man auch nicht nur ein farbiges Bild, auch zusätzliche Informationen können daraus abgelesen werden. Durch die Zuordnung von Rot zu den größten Wellenlängen kann man zum Beispiel erkennen, was weiter weg ist.










Ich versuche es zunächst mit den Mitteln von Pixinsight. Das Tool der Wahl heißt Pixelmath und trägt seinen Namen zu Recht. Für die einzelnen Farbkanäle meines zukünftigen RGB-Farbbildes definiere ich Formeln, die idealerweise die einzelnen Farben der Filter abbilden. Das Ergebnis ist ziemlich grün (oberer Bildteil). Mit ein wenig Nachbearbeitung komme ich langsam in eine Richtung, die mir gefällt (unterer Bildteil).










Allerdings ist das recht umständlich, denn ich muss für jede Anpassung der Filterfarben die Pixelmath-Formeln ändern, das Bild neu berechnen und dann erneut bearbeiten. Praktischer wäre es, wenn ich jede Filterfarbe dynamisch anpassen könnte. Vermutlich geht das auch, aber dazu fehlt mir noch die Erfahrung mit dieser sehr komplexen Software.
Zeit für Plan B - Affinity Photo. Möglich wären auch viele andere Programme wie Gimp, Photoshop oder Ähnliches, ich nutze Affinity, weil ich es am besten kenne.
Typische Bildbearbeitungsprogramme arbeiten mit Ebenen, die übereinander gestapelt sind. Was oben liegt, ist sichtbar. Ist diese Ebene transparent, sieht man, was darunter ist. Über Filter, Masken und Anpassungen kann man beeinflussen, was, wie, wo und wie stark zu sehen ist. Das ist sehr vereinfacht ausgedrückt, beschreibt aber recht gut den Bearbeitungsansatz.
Ich lade mir also meine sechs Graustufenbilder als Ebenen in meine Bildbearbeitung, wie in Bild 06 zu sehen. Dabei sortiere ich die Bilder nach den Wellenlängen der NIRCAM-Filter aufsteigend. Danach muss das Gesamtbild noch von 16-Bit-Graustufen zu 16-Bit-RGB konvertiert werden, damit überhaupt ein farbiges Bild entsteht.










Jede Ebene bekommt eine Farbanpassung. In Affinity Photo heißen sie zum Beispiel Recolour Adjustment, in Photoshop Hue/Saturation Adjustment. Ziel ist es, die jeweilige Bildebene mit einem bestimmten Farbton einzufärben. Jede der Ebenen (außer der untersten) wird dabei auf 50 Prozent Transparenz gesetzt, um die darunterliegenden Farbschichten sichtbar zu machen.
Den Blend Modus setze man auf Screen(öffnet im neuen Fenster) . Jetzt kann ich für jeden Filter die Farbe so setzen und auch immer wieder anpassen, bis ich mit dem Ergebnis zufrieden bin.
Das Bild wirkt aber noch recht flach und farblos. Daher kommen weitere Bearbeitungsschritte wie das Anpassen des Weißabgleichs, das Verstärken von Kontrast, Farbsättigung und diverse andere Tricks zum Einsatz, die ich mir im Laufe der Zeit angeeignet habe.
Hier also das Ergebnis nach insgesamt zwei bis drei Stunden Bearbeitung - angefangen von den FITS Bildern. Es ist nicht perfekt, aber ich bin zufrieden.










Sieht man sich nun den Vergleich an wird deutlich, dass es meinem Bild an Details, Kontrast und Farbe im Vergleich zu dem Nasa-Bild fehlt. Aber ich habe es geschafft, zumindest ein ähnliches Ergebnis zu bekommen wie die Profis bei der Nasa.










Und warum das alles?
Diese Frage stellen sich vermutlich viele Menschen - und es gibt wohl keine allgemeingültige Antwort. Viele Amateur-Astronomen und Astrofotografen weltweit bearbeiten diese Daten und schauen, zu welchen Ergebnissen sie kommen. Alleine die Möglichkeit zu haben, mit den aktuellen Daten eines der fortschrittlichsten und komplexesten Instrumente zu arbeiten, das die Menschheit bisher ins All geschossen hat und das Bilder in einer bisher nicht erreichten Auflösung und Qualität liefert, hat einen unglaublichen Reiz.
Diese Bilder mit eigenen Mitteln zu bearbeiten, daran zu lernen und damit einen ganz eigenen Blick auf unser Universum zu werfen, bringt die sonst so ferne und komplexe Wissenschaft der Astronomie viel näher und macht sie irgendwie begreifbarer.



