Außerdem sei
… die Helligkeit eines Pixels
an der Stelle i
D sei die 9 x 9-Matrix mit (1, 2, 1, 2, 4, 2, 1, 2, 1) in der Hauptdiagonalen, sonst
Schreibt man die Hauptdiagonale als Quadrat, so erhält man
oder in ein Bild mit Helligkeitsinterpretation der Zahlen ein Mosaik (Abb. 5).
Abb. 5: D in Helligkeiten ausgedrückt.
… sei die Norm eines Vektors x.
… sei der Mittelwert eines Vektors x.
Dann wird x in y transformiert mit:
Diese Transformation “eicht” die Helligkeitsinformation. wird „gerundet“ und im Diagramm (Abb. 7, 9, …, 15) in 11 Helligkeitsstufen ausgegeben.
Aus dem Ausschnitt im Vollformatbild wird durch die Mittelwertbildung des Algorithmus ein kontrastärmeres Bild erzeugt:
Abb. 6: Transformiertes Bild aus Abb. 4.
Vermutlich erleichtert im Ursprungsartikel diese Eingrenzung des Dynamikumfangs durch Weichzeichnung die Klassifikation. Aus fotografischer Sicht wäre das Gegenteil – eine Kontrastanhebung mit einem Hochpassfilter – sinnvoller, um Unterschiede deutlicher zu machen. Natürlich brauchen wir dann auch mehr Helligkeitsstufen, um die Unterschiede darzustellen.
4.1 Ein Spezialfall
Wenn große Flächen dieselbe Helligkeit haben, wird der Mittelwert
sein, und
das heißt, die Information ist verloren. Es interessiert auch nicht, wie groß solche Flächen sind, oder welche „Gestalt“ sie annehmen, es zählt bei diesem Verfahren nur der Rand. Also ist eine unserer Fragen schon beantwortet, dieser Algorithmus enthält nicht die volle Information des Bildes. Er untersucht nur die „Feinstruktur“ von Rändern zusammenhängender Flächen. Ein anderer Algorithmus der Bildverarbeitung – die 2-dimensionale Fouriertransformation – erhält dagegen die gesamte Bildinformation. Er hat jedoch ganz andere Anwendungen.
5. Vollformat-Sensoren
Mit dem Landschaftsfoto aus Abb. 2 und der Aufnahme mit 50 mm Brennweite entsteht kaum Unschärfe, doch die Blätter haben verschiedene Helligkeiten und deren Ränder können gut aufgelöst werden. So haben wir an solchen Stellen ein abwechslungsreiches Diagramm von 6 Ausschnitten.
Abb. 7: Typische lokale Eigenschaften im Vollformatfoto. Der oberste 3 x 3 px- Ausschnitt ist gerade der aus Abb. 6
6. Mittelformat mit Tiefenunschärfe
Aufgrund größerer Sensoren oder Digitalscans vom Film (hier 90 x 60 mm) und einem 150mm-Objektiv können wir jetzt eine Tiefenunschärfe erzeugen. In diesem Unschärfebereich wurden die Ausschnitte gewählt. Nach der Transformation ergeben sich weniger kontrastreiche, aber sehr vielfältige 3 x 3 px-Ausschnitte.
Abb. 8: Mittelformatbild 90 x 60mm, 150mm, f/3,5
Abb. 9: Auswertung von Ausschnitten für das MF-Bild.
7. Mittelformat im Schnee
Nehmen wir mal ein etwas atypisches Landschaftsfoto, was aber immer noch ein Landschaftsfoto ist, denn auch Wetter gehört zur Landschaft, siehe Landscape. Hier haben wir Schnee vor dunklerem Hintergrund. Der Schnee hat eine starke Richtung, aber Bäume im Bild besitzen Kanten mit entgegengesetzter Richtung. Spiegelt sich das in der Analyse von lokalen Eigenschaften wieder? Ja, den dunklen Hintergrund findet man wieder und die hellen Schneeflocken haben eine bevorzugte Richtung.
Abb. 10: Mittelformat-Bild mit Schnee
Abb. 11: Auswertung von typischen Ausschnitten für das MF-Schnee-Bild.
8. Großformat im Schnee
Im Vergleich dazu haben wir ein Großformatfoto gerendert (120 x 100 mm, 600 mm Brennweite). Das Wetter und das Licht sind etwas anders, der Hintergrund ist heller, der Schnee feiner. Löst sich das im Algorithmus auf?
Ja, die transformierten Ausschnitte sind weniger kontrastreich, aber vielfältiger.
Kommentare (2)