Facetten-Auge: Kamera mit über 12.000 Objektiven
Ein Baustein zur Gigapixel-Kamera
Kameras bestehen normalerweise aus einem Objektiv und erstellen ein zweidimensionales Bild auf einem Film oder Sensor. Für räumliche Aufnahmen wurden zudem spezielle Stereokameras entwickelt, die zwei Fotos gleichzeitig aufnehmen können, doch ist deren Betrachtung aufwendig. Nun haben Forscher der US-Universität Stanford einen Fotoapparat entwickelt, der gleich 12.616 winzige Öffnungen mit individuell steuerbaren Blenden beherbergt und für die Aufnahme dreidimensionaler Bilder konzipiert wurde.
Professor Abbas El Gamal von der Uni Stanford entwickelt mit seinem Team einen Kamera-Chip, auf dem winzige Linsenöffnungen (Blenden) aufgebracht sind, die das auftreffende Licht auf jeweils 256 Pixel bündelt. So entsteht wie bei einem Insekt ein Facetten-Auge. Die hinter den einzelnen Blenden liegenden Pixelstrukturen sind ungleich feiner als bei handelsüblichen Digitalkameras - ein Pixel ist nur noch 0,7 Mikrometer groß.

Einzelblenden vs. Mehrblenden-Konstruktion
Die Kamerasensoren befinden sich noch im Prototypenstadium. Es ist den Forschern bislang nicht gelungen, alle Blenden korrekt über den Pixeln aufzubringen. Der bisherige Chip erreicht eine Auflösung von 3 Megapixeln - würden alle Blenden arbeiten, hätte man eine Kamera mit 12.616 Einzelobjektiven in der Hand.
Bei der Aufnahme entstehen sich überlappende Einzelbilder, die jeweils aus einem leicht anderen Blickwinkel aufgenommen wurden - die ähnlich wie das linke und rechte Auge zusammenspielen. Auf dieser Basis lässt sich ein dreidimensionales Bild der Umgebung erstellen.
Die Wissenschaftler sehen die Möglichkeit, die Chips so preiswert zu produzieren, dass sich eines Tages sogar in Handy-Kameras Facetten-Augen finden könnten. Sie würden die Fotografie revolutionieren: Es wäre erstmals möglich, mit Computerhilfe nachträglich auf einzelne Objekte scharf zu stellen. Die erforderlichen Informationen sind durch die Facettenaufnahme mit unterschiedlichen Blendenöffnungen bereits vorhanden.
Zudem ist durch die extreme Nähe der Blenden zum Sensor auch ein Problem lösbar, das derzeit Digitalkamerahersteller und ihre Kunden quält. Der Markt verlangt nach immer höher auflösenden Bildern - die Kameras und damit die Sensoren sollen aber weiterhin so schön kompakt bleiben, wie sie es derzeit sind.
Die optische Qualität der Objektive lässt sich aber nicht unendlich steigern - so kommt es, dass die Bilder von 12-Megapixel-Kameras heute kaum noch mehr Details zeigen als 8-Megapixel-Chips. Wird den Pixeln das Licht durch einzelne Blenden, die direkt vor ihnen sitzen, mundgerecht zugefüttert, entstehen diese Probleme nicht. Durch die überlappenden Bilder könnten auch die Fehler, die durch tote Pixel entstehen, ausgemerzt werden.
Durch die Pixelverkleinerung könnten auch mehr Bildpunkte auf gleicher Sensorfläche untergebracht - und erheblich höhere Auflösungen erzielt werden. Insofern ist die Erwartung von Professor Abbas El Gamal vielleicht nicht einmal zu hoch gegriffen, wenn er seine Entwicklung als einen Baustein zur Gigapixel-Kamera sieht.
vermutlich weniger, da CPUs mit kleinerer Fertigungsgröße auch weniger Wärme erzeugen?
Wieso, die Einstellungen kann man doch dann nachträglich machen - also weniger Foto...
Das Fraunhofer IOF in Jena hat vor etwas mehr als nem Jahr das hier veröffentlicht...
hmm echt? Also mich hats nu nich umgehaun. Alle "refocus-ten" Bilder sahen billich...
die hier vorgestellte kamera müsste aber die selben probleme haben, oder?