Gesichter und Hintergründe werden gut unterschieden
Nach einigen Testfotos haben wir herausgefunden, wo die Stärken und Schwächen von Apples Porträtmodus liegen. Generell funktioniert die Unterscheidung zwischen Gesichtern und Hintergründen bereits sehr gut: In unseren Versuchen war das Gesicht immer scharf. Allerdings beobachten wir, dass der Schärfebereich für den Vordergrund sehr knapp bemessen ist, als ob wir mit einem Objektiv mit sehr weit geöffneter Blende arbeiten würden.
Das führt beispielsweise dazu, dass auf den Porträtfotos des Autors dieses Textes das Gesicht immer scharf, der Pullover oder eine angehobene Hand aber bereits leicht unscharf sind. Unrealistisch ist das nicht, es führt zu einer starken Fixierung auf das Gesicht der fotografierten Person. Man muss diesen Effekt aber mögen - schade finden wir, dass wir keinerlei Einstellungsmöglichkeiten haben.
Porträtmodus auch für andere Objekte nutzbar
Die Porträtfunktion eignet sich generell für das Freistellen von Motiven im Vordergrund, nicht nur für Personen. Der neue Modus verwendet den schmalen Schärfebereich offenbar nur bei Bildern, in denen Menschen zu sehen sind. Sobald wir etwa den Redaktionshund oder eine Blume fotografieren, ist der Schärfebereich nicht mehr so knapp bemessen.
Die künstlich errechnete Unschärfe ist natürlich nicht perfekt: Bei porträtierten Menschen werden mitunter abstehende Haare geschluckt, ebenso erschienen Teile des Hintergrundes nicht immer so unscharf, wie sie sein sollten. Hier kommt es sehr auf die Aufnahmesituation und das fotografierte Objekt an. Generell gilt bei unseren Versuchen: Bilder mit Menschen sind weniger fehleranfällig als Fotos von anderen Objekten.
Bei Objekten ist die Fehlerquote höher
So kommt das iPhone 7 Plus etwa mit einer Figur auf unserem Monitor überhaupt nicht klar. Teile in der Mitte der Figur erscheinen unscharf, auch die Ränder wirken sehr unsauber. Bei unserem Hund hingegen schneidet die Porträtfunktion überraschend gut ab: Die Unschärfeübergänge am Fell sind gelungen, nur bei stärkerer Vergrößerung sehen wir hier Unsauberkeiten. Allerdings kommt es beim Hund auch wieder auf die Aufnahmesituation an: Bei einer Gegenlichtaufnahme hat der Porträtmodus bestimmte Partien der Schnauze nicht korrekt erkennen können und sie weichgezeichnet.
Bei einem Blumenbild konnte der Porträtmodus nicht alle Blüten dem Vordergrund zuordnen. Entsprechend wurden Teile des Bildes dem Hintergrund zugeordnet, obwohl sie eigentlich noch im Vordergrund liegen. Das sieht unnatürlich aus. Apple gelingt die Entfernungsstaffelung insgesamt aber ziemlich gut: Anstelle den Hintergrund einfach komplett gleich unscharf zu machen, erscheinen näher an der Kamera liegende Hintergrundobjekte weniger unscharf als diejenigen, die ganz weit hinten liegen.
Fazit
Verglichen mit den Unschärfemodi anderer Smartphone-Hersteller empfinden wir den des iPhone 7 Plus bereits in der jetzigen Betaversion als natürlicher. Das liegt vor allem an der guten Kantenglättung und der schrittweisen Unschärfe, die je nach Entfernung stärker wird.
Die Übergänge an den Kanten finden wir bei Porträts von Menschen weitgehend gelungen, bei unruhigen, nahen Hintergründen kann es jedoch zu Bildstörungen kommen. Bei anderen Motiven als Menschen liegt Apples Porträtmodus häufiger daneben. Es wäre schön, wenn Apple hier die Fehlerquote verringern kann, um die Unschärfefunktion auch für andere Objekte als Menschen verwenden zu können.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Neuer Porträtmodus: Das iPhone 7 Plus entdeckt die Hintergrundunschärfe |
- 1
- 2
*facepalm* auf Android schon seit Jahren vorhanden. Von Huawei auch schon mit zwei...
So ziemlich jedes Gerät, auf dem man die Google Kamera installieren kann, kann das. Zwar...
Die großen Würfe sind fürs Erste getan, es geht aktuell nur in klein(st)en Schritten...
Danke... +1