Filmproduktion Freiburg Logo JohannPictures


Die meisten Digitalkameras aus den 2000er und 2010er Jahren sind mit einem optischen Ingredient ausgestattet, das als optischer Tiefpassfilter (OLPF) bezeichnet wird, auch bekannt als Anti-Aliasing (AA) oder Unschärfefilter. Wie der Identify „Filter“ schon sagt, filtert dieses optische Ingredient einige Informationen aus der abgebildeten Szene heraus.

Im Gegensatz zu einem Infrarotfilter arbeitet ein Tiefpassfilter mit hochfrequenten räumlichen Informationen, während ein Infrarotfilter spektrale Informationen entfernt. Vereinfacht gesagt verwischt der optische Tiefpassfilter das Bild leicht, bevor es den Siliziumsensor erreicht. In einer Zeit, in der es bei Kamerabewertungen nur um Bildauflösung und Megapixelzahlen geht, magazine dies paradox erscheinen.

In diesem Artikel erklären wir, warum das Entfernen höherer Ortsfrequenzen für einen Fotografen interessant sein könnte, wie der optische Tiefpassfilter dies tut und warum die meisten modernen Kameras sie nicht mehr verwenden.

Inhaltsverzeichnis

Tiefpassfilter in Digitalkameras

Wenn Sie jemals eine Szene oder ein Objekt mit bestimmten Stoffen und/oder einem gitterartigen Muster fotografiert haben, ist Ihnen vielleicht aufgefallen, dass das resultierende Foto in diesen Bereichen einen unerwünschten (möglicherweise regenbogenfarbenen) Effekt enthält.

Moiré-Muster auf einem Herrenhemd. Foto von Dave Dugdale und lizenziert unter CC BY-SA 2.0.

Der farbenfrohe Effekt kann oft beim Fotografieren bestimmter Arten von Kleidung und/oder Stoffen entstehen.

Farbenfrohe Moiré-Muster auf Denims. Foto von theilr und lizenziert unter CC BY-SA 2.0.

Dieser Effekt ist auf Moiré-Muster und Falschfarben zurückzuführen und tritt auf, wenn sich wiederholende Linien oder Muster die Auflösung des Bildsensors überschreiten.

Moiré-Muster, das in zwei Sätzen konzentrischer Ringe zu sehen ist, wenn sie übereinander gleiten und unterschiedliche Versätze verursachen.

Um unerwünschte Moiré-Muster und Falschfarben in Fotos zu bekämpfen, haben Kamerahersteller optische Tiefpassfilter entwickelt und sie über Bildsensoren platziert. Diese Kamerafunktion kann die auf Fotos sichtbaren Moiré-Interferenzen erheblich reduzieren oder eliminieren.

Die Funktionen eines Tiefpassfilters wie bei dem Filter der Nikon D800. Illustration von Nikon.

Durch das ganz leichte Verwischen der ultrafeinen Particulars einer Szene wurden Tiefpassfilter als Lösung für Moiré in Digitalkameras allgegenwärtig.

Diese Taktik tut mit einem Kompromiss: Der Preis für weniger Moiré ist etwas weniger Schärfe. Für die überwiegende Mehrheit der Fotografen, insbesondere diejenigen, die ihre Kamera für alltägliche Schnappschüsse verwenden, ist der Unterschied in der Schärfe nicht wahrnehmbar, sodass die Einbeziehung eines Tiefpassfilters ein Kinderspiel ist.

Allerdings für einige Fotografen, die tun die ultimative Schärfe in ihren Fotos benötigen – beispielsweise Landschaftsfotografen und Astrofotografen – kann die durch einen Tiefpassfilter verursachte Unschärfe unerwünscht sein. Moiré-Muster sind quick immer in künstlichen Dingen zu finden, sodass diejenigen, die die Natur am Boden oder am Himmel fotografieren, normalerweise keinen Tiefpassfilter benötigen. Diese Fotografen können sich dafür entscheiden, eine Kamera zu kaufen, die den Tiefpassfilter weglässt, oder sie können ihre Kamera so modifizieren, dass der Filter vor dem Sensor entfernt wird.

Auch viele der neuesten Digitalkameras der Branche lassen den Tiefpassfilter zugunsten einer erhöhten Schärfe weg, aber dazu später mehr.

Räumliche Frequenzen 101

Nachdem Sie nun die allgemeinen Grundlagen von Tiefpassfiltern und Moiré-Mustern verstanden haben, tauchen wir tiefer in die Wissenschaft hinter der Funktionsweise ein.

Bevor wir verstehen können, warum wir irgendeinen räumlichen Auflösungsfilter auf dem Kamerasensor verwenden sollten, lassen Sie uns zunächst einige grundlegende Konzepte zur Signalverarbeitung erläutern. Grundsätzlich kann ein 2D-Bild in eine Summe von Sinuswellen mit unterschiedlichen Amplituden und Frequenzen zerlegt werden.

Obwohl ein mathematischer Beweis den Rahmen dieses Artikels sprengen würde, wird diese Eigenschaft in vielen Bildverarbeitungsalgorithmen oder Bildkomprimierungsformaten verwendet. Um ein Gefühl für den Frequenzinhalt eines Bildes zu bekommen, kann man eine Fourier-Transformation davon berechnen, indem man den 2D-FFT-Algorithmus verwendet.

Es ist möglich zu Probieren Sie diesen Algorithmus on-line mit Ihren eigenen Bildern aus. Das Zentrum jeder 2D-Fourier-Transformation umfasst die niedrigen Ortsfrequenzen des Bildes, während die Ränder die hohen Ortsfrequenzen enthalten, nämlich die feinen Particulars des Bildes.

Bilder (obere Reihe) und ihre jeweiligen Fourier-Transformation (untere Reihe). Von hyperlinks nach rechts — Bild 1: Originalbild, Bild 2: Die Zunahme der Amplitude der Fourier-Transformationskanten ist mit einer Zunahme der Schärfe und des feinen Detailkontrasts verbunden, Bild 3: Die Kanten der Fourier-Transformation wurden gelöscht, was dazu führte ein weicheres Bild mit niedriger Auflösung, Bild 4: Das Zentrum der Fourier-Transformation wird gelöscht, was zu einem Bild führt, das nur die Ränder in Weiß auf schwarzem Hintergrund zeigt.

Aus mathematischer Sicht erfordert die Aufnahme eines perfekten Bildes eine korrekte Schätzung aller Raumfrequenzen aus der Objektszene. In der Praxis kann dem Bildinhalt im schlimmsten Fall passieren, dass durch den Bildgebungsprozess einige Ortsfrequenzen verloren gehen oder mit falschen Informationen aufgenommen werden.

Da die Bildauflösung endlich ist, gibt es definitionsgemäß eine maximal aufnehmbare Ortsfrequenz, die sensorbedingt ist. Dies ist als „Nyquist-Frequenz“ des Sensors bekannt. Jede Raumfrequenz oberhalb dieser Maximalfrequenz kann einfach nicht aufgezeichnet werden, genauso wie man mit nur 10 Fingern nicht 30 zählen kann. Die Schätzung dieser höchsten aufgezeichneten Ortsfrequenz hängt von ab Abtasttheorem von Nyquist-Shannon. Dieses Theorem besagt, dass man für eine gegebene Frequenz f (in Zyklen/mm) mindestens die doppelte Anzahl von Punkten professional Zyklus erfassen muss. Eine direkte Formel sollte so aussehen:

Wenn verfügbar, wird diese Formel weiter mit Informationen über die Pixelform und die Anzeige durch die angereichert Kell-Faktor. Die Nyquist-Ortsfrequenz der meisten Sensoren liegt normalerweise bei etwa 100 Zyklen/mm.

Herausfiltern der Moiré-Artefakte

Nachdem wir nun die theoretische maximale Ortsfrequenz eines Bildsensors ermittelt haben, stellt sich eine neue Frage: Was passiert mit all den höheren Ortsfrequenzen?

Falsche Schätzung einer Hochfrequenz.

Diese höheren Ortsfrequenzen verschwinden nicht einfach durch den Bildgebungsprozess, sie werden aufgrund der geringen Anzahl an verfügbaren Samples falsch aufgezeichnet. Da sie nicht mit der korrekten hohen Frequenz aufgenommen werden können, werden sie fälschlicherweise mit einer viel niedrigeren Ortsfrequenz aufgenommen. Dieser Effekt ist als Aliasing oder Moiré-Muster bekannt.

Es könnte interessant sein, hervorzuheben, dass diese Eigenschaft von Moiré-Mustern auf Testcharts (z. B. Imatest-Charts) zu sehen ist. Auf solchen Testcharts führt jede räumliche Frequenz über der Spitzenauflösung des Methods entweder zu einer einfachen grauen Unschärfe oder zu Moiré-Mustern (normalerweise diagonale Linien).

Muster eines Testcharts für optische Systeme. Einige Moiré-Muster sind in der Skala unten in der Mitte (von 1 bis 10) und in der oberen Hälfte der zentralen Schwarz-Weiß-Scheibe deutlich sichtbar.

Unnötig zu erwähnen, dass Moiré-Muster unvorhersehbar und alles andere als optisch ansprechend sind. Sie neigen auch dazu, recht schwierig algorithmisch zu korrigieren. Eben modernste Algorithmen mit neuronalen Netzen versagen oft bei realen Bildern, da Moiré-Muster ebenfalls zu Farbartefakten neigen. Diese Farbartefakte treten auf, da das Moiré-Muster für die von der Kamera aufgezeichneten Rot-, Grün- und Blaukanäle unterschiedlich sein kann.

Moiré-Muster auf einem Bildschirm in Paris. Foto von Jim und lizenziert unter CC BY 2.0.

Wie werden optische Tiefpassfilter hergestellt?

Um die verschiedenen oben aufgeführten Moiré-Artefakte und -Muster zu vermeiden, haben Ingenieure versucht, die optische Auflösung des Methods an den Sensor anzupassen. Wenn das optische System anstelle des Sensors die Auflösung begrenzt, werden höhere Frequenzen unscharf und erzeugen keine Artefakte auf dem endgültigen Bild.

Ein sehr praktisches Downside ergibt sich aus dieser Idee eines Objektivs mit freiwillig begrenzter Auflösung. Technisch bedeutet dies, dass jedes Objektiv auf eine bestimmte Sensorauflösung zugeschnitten werden muss. Bei Festobjektivsystemen wie Smartphone-Kameras ist dies problemlos möglich. Bei DSLRs oder spiegellosen Systemen müssen Objektive jedoch mit mehreren Generationen von Sensoren kompatibel sein. Optische Tiefpassfilter lösen das Downside elegant. Mit einem dünnen optischen Filter, der direkt auf dem Sensor platziert wird, kann man praktisch jedes Objektiv an die Auflösung des Sensors anpassen.

Dennoch ist es eine technische Herausforderung, das Bild mit der gewünschten Unschärfe zu verwischen. Idealerweise möchte man, dass der Filter über den Sensor hinweg einheitlich ist (feldinvariant), unabhängig von der Brennweite einheitlich ist (invariant des Hauptstrahlwinkels) und für alle Farben einheitlich ist (farbinvariant).

Beachten Sie, wie der Textual content in mehrere Bilder dupliziert wird, wenn er durch das doppelbrechende Calcit-Materials geht.

Die gebräuchlichste Technologie, die zum Bau von Low-Ass-Filtern verwendet wird, beruht auf Doppelbrechung, am häufigsten unter Verwendung von doppelbrechendem Quarz. Zu Wikipedia zitieren: „Doppelbrechung ist die optische Eigenschaft eines Supplies mit einem Brechungsindex, der von der Polarisation und der Ausbreitungsrichtung des Lichts abhängt“. Zur weiteren Vereinfachung unterscheidet sich bei solchen Materialien der Lichtweg je nach Lichtpolarisation.

Da sichtbares Licht aus zumindest vertikal und horizontal polarisiertem Licht besteht, werden nach dem Eintreten in ein doppelbrechendes Materials zwei leicht verschobene Bilder erzeugt. Der Vorgang wird dann Schicht für Schicht aus doppelbrechendem Materials wiederholt, um zusätzliche verschobene Bilder zu erzeugen. Ein typischer DSLR-Filter enthält zwei Schichten aus doppelbrechendem Materials.

Warum Tiefpassfilter aus Kameras verschwinden

Seit den 2010er Jahren wurden optische Tiefpassfilter aus DSLRs entfernt. Der Entfernungstrend begann mit der 2012 erschienenen Nikon D800. Dieses Flaggschiff der Nikon-Kamera wurde sowohl mit als auch ohne optischen Tiefpassfilter (als Nikon D800- und Nikon D800E-Varianten) verkauft, vorausgesetzt, Fotografen würden die am besten geeignete Kamera für ihre Bedürfnisse auswählen. Im wirklichen Leben fanden Rezensenten den Unterschied in den meisten Situationen subtil.

Das Entfernen des Tiefpassfilters hat laut Hersteller drei Hauptgründe. Erstens hat sich die Sensorauflösung seit den ersten Digitalkameras, die es ermöglichten, Informationen mit höheren Frequenzen aufzuzeichnen, dramatisch erhöht.

Zweitens sind, wie bereits erwähnt, sehr hochfrequente Informationen in der Natur ziemlich selten, was bedeutet, dass das Risiko, Moiré in einem Bild zu haben, tendenziell abnimmt, wenn die Bildauflösung zunimmt.

Drittens hat sich die digitale Bildverarbeitung verbessert und kann Bilder bei Bedarf korrigieren.

Vielleicht erklärt eine noch größere Verschiebung das Fehlen von Tiefpassfiltern. Anders als in den 2000er Jahren sind Objektive immer mehr der limitierende Faktor in Sachen Auflösung, im Gegensatz zu Sensoren. Selbst mit einem unbegrenzten Funds ist es ziemlich schwierig, ein Objektiv zu finden, das einen 50-MPx-Sensor übertrifft. In der Praxis bedeutet dies, dass die meisten Objektive selbst als optische Tiefpassfilter wirken.

Es gibt immer noch eine große Group, die Tiefpassfilter benötigt: die Video-Group. Obwohl die Videoauflösung in den letzten zehn Jahren von 720p auf 4K gestiegen ist, sind Moiré-Artefakte immer noch ziemlich häufig und Tiefpassfilter spielen eine Rolle. Immerhin hat 4K immer noch rund 8 Megapixel, was nahe an der Standbildauflösung der späten 2000er Jahre liegt. RED-Kameras bieten zum Beispiel einige an physischer OLPF oder eine digitale Korrektur. Bis 8K-Video zur Norm wird, sind optische Tiefpassfilter oder zumindest die „Blütenfilter“, sollte für Videografen nützlich bleiben.


Über den Autor: Timothee Cognard ist Optiker und Fotograf in Paris, Frankreich.


Bildnachweis: Kopfzeilendarstellung erstellt mit Foto von Phiarc und lizenziert unter CC BY-SA 4.0

tags :

Latest Blog