Original-URL des Artikels: https://www.golem.de/news/neuer-portraetmodus-das-iphone-7-plus-entdeckt-die-hintergrundunschaerfe-1609-123423.html    Veröffentlicht: 23.09.2016 15:51    Kurz-URL: https://glm.io/123423

Neuer Porträtmodus

Das iPhone 7 Plus entdeckt die Hintergrundunschärfe

Mit der neuen Beta von iOS 10.1 liefert Apple eine erste Version seines Porträtmodus für das iPhone 7 Plus aus. Golem.de hat sich auf Fototour begeben und die Funktion getestet - der erste Eindruck ist trotz Betastatus ziemlich gut.

Bei der Vorstellung des neuen iPhone 7 und iPhone 7 Plus erwähnte Apple-Chef Tim Cook ausführlich den neuen Porträtmodus des Plus-Modells, mit dem sich - nach eigenen Angaben - DSLR-ähnliche Aufnahmen mit hoher Hintergrundunschärfe machen lassen sollen. Diese wird je nach Entfernung sequenziell angepasst, weshalb das Ergebnis realistisch wirken soll. Mit der jüngst veröffentlichten neuen Betaversion von iOS 10.1 stellt Apple die Funktion erstmals seinen Nutzern zur Verfügung.


Bei Spiegelreflexkameras ist die Einbindung einer höheren Tiefenunschärfe ein bewährtes Mittel, um unruhige Hintergründe verschwimmen zu lassen - das Objekt im Vordergrund ist dadurch besser zu erkennen, die Bildwirkung ist eindeutiger. Mit kleinen Kamerasensoren, wie sie beispielsweise in Smartphones eingebaut werden, ist nur eine begrenzte Unschärfe möglich, die meistens nicht ausreicht, um einen DSLR-Effekt zu erreichen.

Tiefenerkennung dank Dual-Kamera

Beim iPhone 7 Plus macht sich Apple die Dual-Kamera zunutze, um einen unscharfen Hintergrund errechnen zu können. Im neuen Porträtmodus, der peinlicherweise aktuell noch in der deutschen Übersetzung in der Foto-App als "Portät" bezeichnet wird, nimmt das 56-mm-Objektiv das eigentliche Foto auf, die kürzere Linse hingegen dient der Berechnung der Unschärfe.

Anhand des Abstands beider Objektive zueinander lassen sich Entfernungen feststellen - wie es Menschen mit ihren beiden Augen intuitiv auch machen. Dadurch kann das iPhone 7 Plus erkennen, wie weit bestimmte Objekte vom Smartphone entfernt sind. Anhand dieser Tiefenstaffelung werden dann bei der Aufnahme unterschiedlich starke Unschärfeebenen über den Hintergrund gelegt; dabei soll ein natürlicher Tiefenunschärfeeindruck entstehen.

Das funktioniert in der Praxis bereits ganz gut - Apple betont dennoch bei der ersten Nutzung der Funktion, dass es sich um eine Betaversion handelt. Der Porträtmodus findet sich nach dem Update direkt in der Kamera-App des iPhone 7 Plus und lässt sich wie die anderen Bildmodi auswählen.

Unschärfe wird im Sucher angezeigt

Wir bekommen die Hintergrundunschärfe bereits in der Vorschau vor der eigentlichen Aufnahme angezeigt, weshalb sich der spätere Effekt gut abschätzen lässt. Die Intensität lässt sich nicht einstellen. Während der Aufnahme gibt die App dem Nutzer Hinweise, ob er korrekt positioniert ist: Nicht in jeder Situation können Bilder mit künstlicher Hintergrundunschärfe gemacht werden. Das Objekt muss weit genug vom Smartphone entfernt sein, darf aber auch nicht zu weit weg sein. Auch die Lichtsituation spielt bei der Aufnahme eine Rolle.

Gesichter und Hintergründe werden gut unterschieden

Nach einigen Testfotos haben wir herausgefunden, wo die Stärken und Schwächen von Apples Porträtmodus liegen. Generell funktioniert die Unterscheidung zwischen Gesichtern und Hintergründen bereits sehr gut: In unseren Versuchen war das Gesicht immer scharf. Allerdings beobachten wir, dass der Schärfebereich für den Vordergrund sehr knapp bemessen ist, als ob wir mit einem Objektiv mit sehr weit geöffneter Blende arbeiten würden.


Das führt beispielsweise dazu, dass auf den Porträtfotos des Autors dieses Textes das Gesicht immer scharf, der Pullover oder eine angehobene Hand aber bereits leicht unscharf sind. Unrealistisch ist das nicht, es führt zu einer starken Fixierung auf das Gesicht der fotografierten Person. Man muss diesen Effekt aber mögen - schade finden wir, dass wir keinerlei Einstellungsmöglichkeiten haben.

Porträtmodus auch für andere Objekte nutzbar

Die Porträtfunktion eignet sich generell für das Freistellen von Motiven im Vordergrund, nicht nur für Personen. Der neue Modus verwendet den schmalen Schärfebereich offenbar nur bei Bildern, in denen Menschen zu sehen sind. Sobald wir etwa den Redaktionshund oder eine Blume fotografieren, ist der Schärfebereich nicht mehr so knapp bemessen.

Die künstlich errechnete Unschärfe ist natürlich nicht perfekt: Bei porträtierten Menschen werden mitunter abstehende Haare geschluckt, ebenso erschienen Teile des Hintergrundes nicht immer so unscharf, wie sie sein sollten. Hier kommt es sehr auf die Aufnahmesituation und das fotografierte Objekt an. Generell gilt bei unseren Versuchen: Bilder mit Menschen sind weniger fehleranfällig als Fotos von anderen Objekten.

Bei Objekten ist die Fehlerquote höher

So kommt das iPhone 7 Plus etwa mit einer Figur auf unserem Monitor überhaupt nicht klar. Teile in der Mitte der Figur erscheinen unscharf, auch die Ränder wirken sehr unsauber. Bei unserem Hund hingegen schneidet die Porträtfunktion überraschend gut ab: Die Unschärfeübergänge am Fell sind gelungen, nur bei stärkerer Vergrößerung sehen wir hier Unsauberkeiten. Allerdings kommt es beim Hund auch wieder auf die Aufnahmesituation an: Bei einer Gegenlichtaufnahme hat der Porträtmodus bestimmte Partien der Schnauze nicht korrekt erkennen können und sie weichgezeichnet.

Bei einem Blumenbild konnte der Porträtmodus nicht alle Blüten dem Vordergrund zuordnen. Entsprechend wurden Teile des Bildes dem Hintergrund zugeordnet, obwohl sie eigentlich noch im Vordergrund liegen. Das sieht unnatürlich aus. Apple gelingt die Entfernungsstaffelung insgesamt aber ziemlich gut: Anstelle den Hintergrund einfach komplett gleich unscharf zu machen, erscheinen näher an der Kamera liegende Hintergrundobjekte weniger unscharf als diejenigen, die ganz weit hinten liegen.

Fazit

Verglichen mit den Unschärfemodi anderer Smartphone-Hersteller empfinden wir den des iPhone 7 Plus bereits in der jetzigen Betaversion als natürlicher. Das liegt vor allem an der guten Kantenglättung und der schrittweisen Unschärfe, die je nach Entfernung stärker wird.

Die Übergänge an den Kanten finden wir bei Porträts von Menschen weitgehend gelungen, bei unruhigen, nahen Hintergründen kann es jedoch zu Bildstörungen kommen. Bei anderen Motiven als Menschen liegt Apples Porträtmodus häufiger daneben. Es wäre schön, wenn Apple hier die Fehlerquote verringern kann, um die Unschärfefunktion auch für andere Objekte als Menschen verwenden zu können.  (tk)


Verwandte Artikel:
Corephotonics: Israelisches Unternehmen verklagt Apple wegen Dual-Kameras   
(08.11.2017, https://glm.io/131026 )
Drei: Netzanbieter warnt vor Upgrade auf iOS 11   
(20.09.2017, https://glm.io/130156 )
iPhone X: Zwei Argumente halten Apple-Kunden vom Kauf ab   
(07.03.2018, https://glm.io/133202 )
Siri: Apple wird wegen Patentverletzung verklagt   
(11.03.2018, https://glm.io/133268 )
Fortnite: Battle Royale auf der Playstation 4 gegen das iPhone   
(09.03.2018, https://glm.io/133246 )

© 1997–2019 Golem.de, https://www.golem.de/