Zum Hauptinhalt Zur Navigation

Augenverfolgung: Ohne Brille TV in 3D gucken

Forscher des Heinrich-Hertz-Instituts aus Berlin haben eine Technik entwickelt, mit der Fernsehen in 3D ohne Brille genossen werden kann. Im Gegensatz zu bisherigen Verfahren kann sich der Anwender vor dem TV bewegen, der berechnet, wo sich der Nutzer befindet.
/ Andreas Donath
18 Kommentare News folgen (öffnet im neuen Fenster)
Ein neues Bildverarbeitungsverfahren rechnet automatisch aus, wo man sich vor dem Fernsehgerät befindet. (Bild: Fraunhofer Heinrich-Hertz-Institut)
Ein neues Bildverarbeitungsverfahren rechnet automatisch aus, wo man sich vor dem Fernsehgerät befindet. Bild: Fraunhofer Heinrich-Hertz-Institut

Am Fraunhofer-Institut für Nachrichtentechnik, dem Berliner Heinrich-Hertz-Institut, HHI, wurde ein Bildverarbeitungsverfahren entwickelt, das ausrechnet, wo sich der Zuschauer vor dem Fernsehgerät befindet. Der Nutzer kann so 3D-Inhalte ohne Brille nutzen, auch wenn er sich im Raum bewegt.

Damit das funktioniert, muss der Fernseher beziehungsweise die Software die Position der Augen des Zuschauers kennen. Die Augen des Fernsehzuschauers werden bei diesem Fernseher mit Kameras verfolgt. Daraufhin wird das jeweilige Bild entsprechend berechnet, das vom linken und rechten Auge erkannt wird. Der autostereoskopische Effekt entsteht dann im Gehirn.

Schon jetzt gibt es Fernseher auf dem Markt, die 3D ohne Brille ermöglichen, doch hier sind recht penibel Betrachtungsabstände einzuhalten, damit sich der Effekt einstellt und keine Sprünge oder Zerrbilder entstehen. Die Fraunhofer-Forscher wollen das ändern.

Ihr Bild-Algorithmus(öffnet im neuen Fenster) ermöglicht es bis zu fünf Personen, in einem Abstand von 30 Zentimetern bis zu 6 Metern 3D-Filme zu betrachten - ohne Brillen. Die Forscher teilten mit, dass die Softwarelösung die entstehenden Zerrbilder bei "ungünstiger" Positionierung zwar nicht eliminieren kann, sie jedoch so verschiebt, dass der Betrachter immer ein ordentliches 3D-Bild vor Augen hat. Dabei sollen Bilder entstehen, die nicht eindeutig dem linken oder rechten Auge zugeordnet werden, sondern als zusätzliche Ansichten zur Verfügung stehen, falls sich der Zuschauer bewegt. Der Betrachter kann sich so nicht nur vor- und zurück-, sondern auch zu den Seiten hinbewegen, ohne dass Fehldarstellungen entstehen.

Das System setzt auf ein Linsenraster, das die Trennung der Bilder für die beiden Augen des Zuschauers ermöglicht. Diese zylinderförmigen Linsen, die in den Bildschirm eingebaut sind, lenken die Bildpunkte in bestimmte Richtungen. Anstelle von mechanischen Verschiebungen wird bei der Lösung des HHI auf eine softwarebasierte Distanzadaption gesetzt. Dabei werden einzelne Sub-Pixel angesteuert. So soll eine exakte 3D-Wiedergabe für verschiedene Positionen vor dem Display möglich sein. Näheres zur Technik wurde bislang nicht bekannt.

"Bisher war dies nur sehr aufwendig auf mechanischem Weg möglich. Das neue digitale Verfahren arbeitet schneller und robuster. Bei der Entwicklung der elektronischen Variante kam uns der technologische Fortschritt bei Bildauflösung und Software zugute" , sagte Klaus Hopf, Gruppenleiter "Mensch-Maschine-Interaktion" am HHI.

Die Forscher wollen das neue Verfahren auf der Ifa am Stand der Fraunhofer-Gesellschaft (Ifa Tecwatch, Halle 11.1, Stand 21) zeigen. Die Ifa findet in Berlin vom 6. bis zum 11. September 2013 statt.


Relevante Themen