Zum Hauptinhalt Zur Navigation

Adobe MAX: Nano Banana in Photoshop

Wie sich die externen Bildgeneratoren in Photoshop schlagen, haben wir im Hands-on ausprobiert.
/ Martin Wolf
1 Kommentare News folgen (öffnet im neuen Fenster)
KI-generiert: Hemd, Perücke, Brille und Schriftzug (Bild: In Teilen KI-generiert mit Photoshop.)
KI-generiert: Hemd, Perücke, Brille und Schriftzug Bild: In Teilen KI-generiert mit Photoshop.

Adobe hat im Oktober 2025 eine Reihe von externen KI-Bildgeneratoren in seine Programme integriert. Damit entfallen Anmeldung und Abonnement für Dienste wie OpenAI, Flux, oder Googles Nano Banana. Sogar Video- und Audiogeneratoren von Anbietern wie Runway, Luma und Elevenlabs für Sprache sind nun mit einem Klick verfügbar.

Auch wenn Adobes Modell Firefly Image Model 5 Fortschritte hinsichtlich Qualität und Konsistenz gemacht hat, kann es nicht gegen Googles Nano Banana bestehen, das aus verschiedensten Bildern per Prompt neue Situationen generiert.

Gerade diese Stärken spielt es im Compositing in Photoshop aus. So kann mit einem einfachen Prompt die Farbe eines Kleidungsstückes geändert werden. Dazu wählt man den Bildausschnitt mit dem Shirt grob aus und gibt die Anweisung ein. Die Prompt-Eingabe ist auf Deutsch möglich. Allerdings wird so lediglich eine neue Bildebene in Form der Auswahl generiert und über der alten Ebene eingefügt. An den Rändern ist bei genauerem Hinsehen zu erkennen, dass es eine Schnittkante gibt.

Wählt man hingegen das komplette Bild aus, bleiben die nicht generierten Inhalte erstaunlich konsistent, aber ein paar Details gehen verloren oder werden geändert. Um dem entgegenzuwirken, kann beispielsweise per Hand die Ebenenmaske selektiv editiert werden, um große Teile davon auszublenden und nur die wichtigen generierten Anteile mit einer weichen Maskenkante im Bild zu belassen.

Damit ist es leichter denn je, einstmals sehr aufwendige Änderungen an Fotos vorzunehmen.

Dabei kann man sehr granular vorgehen: Beispielsweise lässt sich eine Farbänderung per Hexcode oder Pantone-Code exakt angeben. Dank der vielfältigen Optionen der Weiterbearbeitung in Photoshop kann so die Grundlage für ein komplexes Bild gelegt werden und später an Details gefeilt werden.

Die Mischung macht's

Der Grund dafür, dass Nano Banana am besten mit kompletten Bildern funktioniert, liegt in seinen Trainingsdaten. Google hat das Modell so gestaltet, dass es den Bildkontext stark berücksichtigt. Wenn man also in einer Photoshop-Ebene nur ein kleines Detail auswählt und die Generation startet, fehlt dieser Kontext und die Ergebnisse werden schlechter.

Ein weiterer Nachteil gegenüber dem Adobe-eigenen Firefly-Modell ist der Fakt, dass Nano Banana wie die meisten externen Modelle sehr spezifische – und damit lange – Prompts bevorzugt. Ein solcher Prompt kann beispielsweise so lauten: "Die Person soll unverändert bleiben, aber ihr Gesichtsausdruck soll überrascht wirken. Pose, Körperproportionen, Frisur und das gesamte Erscheinungsbild sollen beibehalten werden. Realistische Beleuchtung, Schatten und fotorealistische Details sind ebenfalls wichtig."

Nur eingeschränkt nutzbar

Auch wenn Nano Banana im Gegensatz zu Firefly nicht für kommerzielle Verwendung freigegeben ist, kann es für interne Entwürfe extrem hilfreich sein. Ein Beispiel hierfür: Alles, was es für ein erstes Mock-up braucht, ist ein Logo. In dem Dokument mit dem Logo auf weißem Hintergrund tippt man etwa "Platziere dieses Logo auf einem grauen T-Shirt, das von einem Programmierer getragen wird, der vor seinem Laptop im Büro sitzt" .

Wenige Sekunden später ist das Ergebnis da und kann bei Entscheidungen zu Farben, Typ des Kleidungsstücks oder anderen Aspekten helfen.

Wofür sich Nano Banana nicht eignet, ist reine Textgenerierung. Ein Versuch, das Hollywood-Schild in Los Angeles zu "Golem.de" zu verändern, schlug fehl und erbrachte "Gollywooe". Hier kommen weitere, nun in Photoshop vorhandene Modelle besser zurecht. So generierte Flux Kontext Pro auf Anhieb ein überzeugendes Resultat.

Adobe hat mit der Integration von Partnermodellen geschafft, hochqualitative Bildgeneration in einen professionellen Kontext zu überführen. Die derzeitigen Nachteile sind, dass Bilder oft komplett im Kontext generiert werden müssen und natürlich der Fakt, dass die außerhalb von Firefly erstellten Designs nicht für die kommerzielle Verwendung freigegeben sind. Als Ideenwerkzeug eignet sich der neue Workflow innerhalb von Photoshop jedoch hervorragend.

Offenlegung: Golem hat auf Einladung von Adobe an der Veranstaltung in Los Angeles teilgenommen. Die Reisekosten wurden vom Konzern komplett übernommen. Unsere Berichterstattung ist davon nicht beeinflusst und bleibt gewohnt neutral und kritisch. Der Artikel ist, wie alle anderen auf unserem Portal, unabhängig verfasst und unterliegt keinerlei Vorgaben seitens Dritter.


Relevante Themen