Lichtfelder

Was wird uns die Zukunft der Fotografie eigentlich bringen? Keine Ahnung? Doch, wissen wir!

Heute möchte ich euch mal ein spannendes Konzept vorstellen, das meiner Meinung nach eine wesentliche Rolle in der Fotografie der nächsten Jahrzehnte spielen wird: plenoptische Kameras.

Grenzen

hands-on_nikon-df_024_onlinePraktisch jede digitale Kamera, an die ihr jetzt denken könnt, funktioniert gleich. Egal, ob es sich um die digitale Kompakte handelt, um die Smartphone-Kamera, eine DSLR oder eine Minikamera, die man für medizinische Untersuchungen schluckt. Herzstück dieser Geräte ist ein Bildsensor, auf dem Photodioden angebracht sind, die … ja, was machen und können die eigentlich? Prinzipiell nicht viel, denn es handelt sich im Grunde nur um Sensoren, die Hell und Dunkel unterscheiden können. Also die Intensität von Licht. Das wars eigentlich auch schon. Sie können nicht mal Farbe erkennen, dafür ist zum Beispiel ein Bayer-Array davor nötig. Außerdem fangen sie natürlich auch nur Licht ein, das sie „sehen“ können – also frontal drauf fällt. Und sie können auch „nur“ zweidimensionale Bilder generieren. Aber das ist nicht ungewöhnlich, das sind wir ja seit über 100 Jahren aus der Fotografie so gewohnt.

Mehrere physikalische Eigenschaften und Gesetze bringen es mit sich, dass Fotos unter anderem eine gewisse Schärfentiefe besitzen. Wir fokussieren ein Objekt an, es wird scharf dargestellt. In der Tiefe des Bilds nimmt diese Schärfe allerdings ab. Das vermittelt uns eine gewisse Dreidimensionalität, da wir Vorder- und Hintergrund voneinander unterscheiden können. Ist aber faktisch nur zweidimensional, denn das scharfgestellte Ohr deines Models befindet sich auf der zweidimensionalen Ebene des Fotos genau neben den unscharfen Hintergrund. Also ein optischer Trick, echte Tiefeninformationen gibt es gar nicht.

Bild: adobe light-field-camera "magic lens"
Bild: adobe light-field-camera „magic lens“

Aber was wäre, wenn wir ein Foto machen könnten, das tatsächlich echte Tiefeninformationen enthält? Man könnte unter anderem die Schärfe erst später festlegen und sich aussuchen, was fokussiert werden soll, nachdem das Foto gemacht wurde.

Du musst vierdimensional denken!

Jeder von euch weiß: Die Welt, die ihr seht, ist subjektiv und wird von euch interpretiert. Der Mensch neben euch sieht denselben Gegenstand immer ein bisschen anders. Das führt unter anderem in der Welt der Computertechnik zu Problemen. Eine Maschine kann keine Orange erkennen, wenn jemand ihr sagt „sieht ein bisschen aus wie ein Apfel“ und der andere sagt „Sieht ein bisschen aus wie eine Mandarine“. Sie weiß dann immer noch nicht, wie eine Orange aussieht, denn sie hat nur subjektive Wahrnehmungsbeschreibungen von ihr.

Bild: gl.ict.usc.edu
Bild: gl.ict.usc.edu

Dasselbe passiert, wenn ihr eine Orange fotografiert. Sowohl ihr als auch die Kamera interpretiert das abgelichtete. Selbst wenn die Kamera verdammt nah an der Wahrheit ist, es ist niemals tatsächlich die Wahrheit. Ihr versteht das Problem? Um es zu umgehen, nutzt man die sogenannte „Plenoptische Funktion„. Sie wird dazu benutzt,  um ein Bild zu einem bestimmten Zeitpunkt aus jeder beliebigen Position aus jedem Blickwinkel zu beschreiben, also unabhängig von der Position des Betrachters und Kameraparametern wie Blende und Entfernungseinstellung. Eine Kamera, die das umsetzen könnte, würde die Orange tatsächlich gemäß ihren physikalischen Eigenschaften, unabhängig von interpretierenden Elementen erfassen. Damit sie allerdings die Position und den Blickwinkel erfassen kann, müsste sie Informationen über den dreidimensionalen Raum haben, an dem sich die Orange befindet.

Dazu reichen natürlich nicht die zwei Dimensionen, die eine Digitalkamera aufnehmen kann. Sie kann lediglich einen Lichtpunkt erkennen, weiß aber nicht, woher er kommt und wie nah er ist. Mehr Infos sind nötig – es reicht nicht nur ein Punkt irgendwo, sondern es braucht mehrere, die in einem Raum verteilt sind. So etwas nennt man Lichtfeld. In der Literatur wird es sogar oft 4D-Lichtfeld genannt, wobei Dimensionen wie Zeit, Wellenlänge und Polarisationswinkel hinzu kommen können und damit bei Bedarf auch mehr als vier Dimensionen beschrieben werden können. Aber wie bringt man einer Kamera bei, ein Feld aus Licht aufzuzeichnen?

Vom Lichtpunkt zum Lichtstrahl

Das geht – wenn man es mal herunterbricht – erstaunlich einfach. Denkt nochmal an die einzelnen Pixel auf einem Bildsensor. Sie sind das gleiche, wie euer Auge, wenn es flach wäre. Ist es aber nicht – es ist gekrümmt. Und diese Form ermöglicht es, dass Lichtstrahlen auch seitlich einfallen können und ihr in der Nacht ein Auto heranrasen seht, auch wenn ihr es nicht direkt anschaut. Das kann man dem Sensorpixel auch beibringen. Nämlich, indem man eine gekrümmte Linse davor schraubt.

Bild: electrosome.com
Bild: electrosome.com

Genau das ist es, was der derzeit bekannteste Hersteller plenoptischer Kameras, Lytro gemacht hat. Vor jeden Pixel eines Bildsensors haben sie eine Mikrolinse gesetzt. Damit fällt Licht nicht mehr nur aus einer Richtung, sondern aus vielen verschiedenen auf den Pixel. Er „sieht“ nicht mehr nur ein Lichtpunkt, sondern weiß dank des Einfallwinkels und der Berechnungen des Prozessors auch, woher der kam. Und dank des Pixels neben ihm weiß er auch, wie schnell der bei ihm war, denn der andere Lichtpunkt hat länger gebraucht. Der Bildsensor bekommt nun also auch Richtungsinformationen. Der Lichtpunkt ist nicht länger ein Punkt, sondern ein Strahl.

Ein Bild so zu erfassen, ändert eine ganze Menge an Dingen im Rahmen der Fotografie. Die Technik bringt es unter anderem mit sich, dass mit extrem hoher Schärfentiefe aufgenommen wird; von vorn bis hinten ist alles scharf. Da die Lichtstrahlen nicht alle frontal, sondern auch schräg auf den Sensor treffen, kann der Prozessor die Ausgangspunkte berechnen. Außerdem ist der Sensor bis zu einem gewissen Grad in der Lage, um die Ecke zu sehen: lichtet er ein Stillleben ab, bei dem eine kleine Box direkt vor der Kamera steht, dann erfassen die äußersten Randpixel auch Lichtstrahlen, die von den Seiten der Box ausgehen.

Grenzen sprengen

Doch was bedeutet das für die Fotografie? Ich habe mich mal in einem Interview mit einem der Entwickler aus dem Hause Lytro unterhalten: Ariel Braunstein. Lytro Inc. sitzt in Mountain View, Kalifornien und hat die Technik, die ich oben beschrieben habe, in eine Consumer-Kamera verfrachtet. Braunstein erklärte mir, dass man mithilfe der Lichtfeldtechnik über die Fotografie neu nachdenken müsse – bzw. gar nicht, denn damit kann man alles machen, wann man will.

Bild: Lytro
Bild: Lytro
Bild: Raytrix GmbH, via lightfield-forum.com
Bild: Raytrix GmbH, via lightfield-forum.com

Die Fähigkeit, „um die Ecke zu sehen“ ist gegeben, wird jedoch momentan nur experimentell genutzt – die Firma Raytrix GmbH aus Kiel ist dabei schon weiter. Auch das Vermessen eines Raums ist kein Problem, für Fotografen aber eher nebensächlich. Worauf sich Lytro größtenteils stützt, bzw. es vermarktet, ist das nachträgliche Festlegen der Bildschärfe eines Fotos. Denn wie ich oben schrieb: da ich mit extrem hoher Schärfentiefe aufnehme, kann ich später entscheiden, was davon unscharf sein soll. Genau das geht mit Lytro-Bildern und offenbart einen wichtigen Zug an der Fotografie von morgen: das Bild entsteht so, wie wir es uns wünschen, erst im Nachhinein.

Bild: worldofarts.eu
Bild: worldofarts.eu

Ariel Braunstein machte mich auf etwas aufmerksam, das man sich tatsächlich erst verinnerlichen muss. Eine Digitalkamera sammelt Informationen, verarbeitet und interpretiert diese und setzt sie sofort in ein JPG-Bild um. Der Fotograf hat kaum eine Chance auf nachträgliche Änderungen. Professionellere Modelle sammeln Informationen, verarbeiten und speichern sie in einem RAW-Container. Der Fotograf hat später die Chance, gewisse nachträgliche Änderungen zu machen. Nach diesem Prinzip arbeitet auch die (Lichtfeld-)Kamera der Zukunft. Zwischen dem Aufnehmen von Informationen und dem Entstehen des Bilds kann der Fotograf eingreifen und seine Vorstellungen einfließen lassen. Allerdings nicht in dem begrenzten Rahmen, den etwa ein RAW-Bild heutzutage bietet.

Lichtfeldkameras können in der Zukunft eine Szene so erfassen, wie sie tatsächlich stattfindet. Den Eindruck, den der Fotograf davon hatte – das Licht, die Atmosphäre, die Aufnahmeperspektive, die Farben – all das kann er auf Wunsch nachträglich anpassen und ändern. Sogar der Fokus der Kamera kann neu eingestellt werden, ohne, dass irgendetwas an den Aufnahmedaten verloren geht.

Bild: Lytro Inc., via darwinbiler.com
Bild: Lytro Inc., via darwinbiler.com

Laut Braunstein von Lytro sind die Fähigkeiten einer Kamera in der Zukunft nur noch von Rechen- und Speicherkapazität sowie ihrer Energieversorgung begrenzt. Je mehr davon zur Verfügung steht, desto mehr können sie leisten. Ist auch ganz logisch, denn ein Lytro-Sensor macht kein Bild – er sammelt nur Informationen. Das Bild macht der Prozessor erst, damit man sich anschauen kann, was man fotografiert hat. Das Ganze funktioniert bereits seit Jahren und mit der Illum-Kamera steht erstmals ein brauchbares Modell für Endkunden in den Startlöchern.

Mit dieser beginnt jedoch alles erst, denn anders wie bei einer digitalen Kamera wird eine extrem hohe „Auflösung“ benötigt. Lytro zum Beispiel nennt das nicht Megapixel, sondern Megarays. Die Illum verfügt über eine Auflösung von 40 Megarays, die nötig sind, um ein zweidimensionales Bild mit einer Auflösung von etwa 4 Megapixel zu generieren. Das Unternehmen will diese Auflösung alle paar Jahre vervierfachen.

Wir können also sehr gespannt sein, was die Fotografie der Zukunft für uns alles bereit hält. Ob diese Technik sinnvoll ist oder nur Spielerei? Was meint ihr?

Mehr!

  • Weitere, ausführliche Artikel rund um das Thema „Fotografie lernen“ findet ihr hier.
  • Schnelle Tipps und Hinweise habe ich hier zusammmengetragen.
Advertisements

2 Gedanken zu “Lichtfelder

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s