Ist optische Schärfe besser als mit intelligenter Software erzeugte? Ich teste das mal für mich durch.

Wer jetzt hier eine Antwort in einem Satz erwartet, der darf gerne weiterlesen. Gibt es in der Fotografie eine Definition für das was man allgemein als scharf bezeichnet? Letztlich ist ein Bild dann als scharf zu bezeichnen wenn es in der gegebenen Situation von den meisten menschlichen Augen als scharf empfunden wird. Ein Adler würde darüber lächeln. Das gleiche Bild wird in einer anderen Situation als völlig ungenügend scharf bezeichnet werden. Während zum Beispiel Bilder auf dem Handy als scharf empfunden werden, sind die meisten Bilder in gedruckter Form schlicht unbrauchbar. Woran liegt das?

Wer über Schärfe diskutieren will muss also immer das gesamte abbildende System betrachten. Vom Objekt bis zum effektiven Endprodukt. Kein Abbildungssystem ist perfekt. Aber es gibt solche, die perfekter sind als ander. In den meisten Fällen sind diese auch teurer.

Planung der Schärfe

Mit der Vergrösserung eines Bildes wird auch die Unschärfe vergrössert. Irgendwann kommt der Punkt, wo ein scharfes Bild nicht mehr als scharf empfunden wird. Das hat letztlich mit der Abbildungsleistung unseres biologischen Abbildungssystem zu tun. Zum Glück ist unser optisches System nicht gerade state of the art und ist recht schnell zufrieden. Das Gehirn korrigiert noch viele Abbildungsfehler, so dass wir in den meisten Fällen (mit oder ohne optische Korrktur) zufrieden sind, mit dem was wir sehen. Entscheidend sind die Anzahl Linien, welche unser Auge auflösen kann bzw. unser Sehwinkel. Wenn wir ein scharfes Bild vergrössern, so bleibt dieses  immer scharf, wenn wir dieses aus grösserer Distanz bzw. unter dem gleichen Sehwinkel betrachten. Bleibt die Distanz jedoch gleich, so wird ein Bild sehr schnell unscharf.

In der Abbildung unten wird Folgendes gezeigt: In einem perfekten System würde jeder unendlich kleine Punkt aus der Objektebene als unendlich kleiner Punkt auf der Sensor- bzw. Filmebene abgebildet (Mitte). Dies ist nie möglich weil jedes optische System Fehler hat und weil ein Film oder ein Sensor unendlich kleine Punkte gar nicht auflösen kann. Alle Punkte werden immer als kleine Unschärfekreise abgebildet. Wer viel Schärfe will, muss also diese Unschärfekreise möglichst klein kriegen.

 


Quelle Wikipedia

Wie die meisten Fotografen wissen, kann man mit kleiner Blende die Schärfe verbessern bzw. den Schärfebereicht vergrössern. Stell dir die obige Grafik mit kleiner Blende vor und erkennst sofort, dass auch die unscharfen blauen Punkte automatisch kleiner werden. Mit veränderter Tiefenschärfe verändert sich aber auch der gesamte Bildeindruck. Bilder werden unter Umständen langweiliger oder im Hintergrund werden störende Objekte plötzlich noch viel störender.

Wer also nicht die Tiefenschärfe (oder Schärfentiefe) verändern will um ein Bild vergrössern zu können. Der muss auf eine grössere Filmebene bzw. heute auf einen grösseren Sensor ausweichen. Alle Software Tricks helfen nicht um aus einem Handybild mehr als ein Handybild zu machen. Früher sprach man von Kleinbild, Mittelformat und Grossformat. Die grosse Masse hat mit Kleinbild fotografiert, Mittelformat war den Profis vorbehalten und die Grossformatkameras waren state of the art was Auflösung und Schärfe (aber auch Gewicht und Sperrigkeit) anbelangte. Ich habe mich mit allen Formaten herumgeschlagen.

Schön früher gab es spezielle Kleinstformate, welche gerade knapp die Schärfe (bzw. den Bildwinkel) für ein 9x13chm grosses Foto geliefert haben. Grossformate und Mittelformate sind im Prinzip heute ähnlich geblieben. Die Bildsensoren sind grösser und bieten grössere Farb- bzw. Kontrastumfänge bzw. wesentlich mehr Auflösung. Grossformat bietet z.B. der Schweizer Top-Anbieter Sinar an. Die Bilder einer Grossformatkamera sind auch heute noch unerreicht. Mittelformatanbieter gibt es bereits  einige im Markt (z.B. Phase One, Hasselblad)

Kosten – Nutzen Abwägung

In den meisten Kosten-Nutzen Abwägungen gehen heute die Kleinbildkameras als Sieger hervor. Lange Zeit waren das die Spiegelreflexkameras. Heute werden diese gerade von den Spiegellosen abgelöst. Aber auch da gibt es unterschiedliche Sensorgrössen. Vollvormat oder APS-C.  Immer wieder kommen Leute auf mich zu mit günstigen Kleinbild-Kameras und günstigen Objektiven. Diese sind sich meistens nicht bewusst, dass ihr System einen APS-C Sensor nutzt. Um auf ein gleichgrosses Bild wie mit einem Vollformat Sensor zu kommen, muss das Bild also immer doppelt vergrössert werden. Somit ist der Qualitätsverlust eigentlich immer erkennbar. Also mein Tipp: Wer sich fotografisch entwickeln will sollte unbedingt auf einen Vollformatsensor setzen.

Schärfe mit Software Unterstützung?

Die chemische Fotografie ist vorbei. Heute wird digital fotografiert und mit der geeigneten Software kann man Bilder schärfen bzw. unscharf maskieren. Damit kann man in der Tat über das ganze Bild oder in einzelnen Bereichen einen gewissen Schärfeeindruck erzeugen. Verbreitet sind Lightroom und Photoshop, aber auch Topaz. Dank künstliger Intelligenz werden solche Tools immer besser und erzielen heute erstaunliche Effekte. Aber das hat mit Fotografie im eigentlichen Sinn nicht mehr viel zu tun. Deshalb gehe ich darauf hier nicht weiter ein – eventuell später.

20 Stackingbilder mit der D800 und Helicon aufgenommmen (unbearbeitet)

Die Beispiele links zeigen unterschiedliche, “scharfe” Bilder. Im Detail betrachtet sieht es jedoch etwas anders aus. Fotostacking ist eine beliebte Möglichkeit um in der Makro-Fotografie die Tiefenschärfe künstlich zu erhöhen.  Eine Anzahl Einzelaufnahmen mit unterschiedlichen Objektebenen wird durch eine Software so zusammengesetzt, dass nur die scharfen Elemente übernommen werden. Es gibt Kameras, welche diese Funktion direkt anbieten. In den meisten Fällen braucht es dazu eine Software (z.B. Helicon oder Photoshop).

Vorteil Fotostacking: extrem scharfe Bilder über alle Bereiche sind problemlos möglich, idea in Makro-Fotografie
Nachteil: Mehrere Aufnahmen nötig, Datenmenge, Arbeitsaufwand, Kosten, Software, Probleme bei bewegten Objekten, Bilder werden u.U. verzogen

Vorteil Einzelaufnahme: Einzelaufnahme, bewegte Objekte, wenig Aufwand bei Nachbearbeitung
Nachteil: Limitation durch Tiefenschärfe

Das ganze Spiel habe ich auch mit der D500 durchgezogen. Die D500 ist eine APS-C Kamera und wird aktuell von Nikon gerade vom Markt genommen und nicht mehr produziert. Für die Fans der Handy Fotografie habe ich mit meinem Huawei P40 den Test auch gemacht – wissend, dass es wohl nur peinlich werden wird. Oder gibts etwa eine Überraschung? Als erstes der Vergleich 1 Bild ohne Stacking mit der D800 und der D500:

1 Bild mit der D800 und Blende 16 aufgenommen, unbearbeitet

Vergleich D500 – D800

1 Bild mit der D500 APS-C Sensor

Vergleich D500 – Huawei P40

Ein Bild mit dem Huawei P40 aufgenommen.
l

Dieser Vergleich zeigt klar. Die D800 schneidet top ab. Das Handy – wen wunderts – unbrauchbar. (Und dies obwohl das Handy mehr MP hat als die D500)  Der APS-C Sensor schneidet erstaunlich gut ab. Nun stell sich die Frage wie schneiden die Bilder mit einer Stackingsoftware ab? Ich zeige hier den Vergleich D800 singel shot versus D800 20 shots mit Stacking. Bei der D500 ist das Ergebnis das gleiche. Und der Vergleich APS-C versus Vollformat erübrigt sich.

1 Bild mit der D800 und Blende 16 aufgenommen, unbearbeitet

 

Links D800 single; rechts 20 kombinierte Einzelaufnahmen

Und hier jetzt das grosse  Erstaunen. Der single shot dauerte genau 1/25 Sekunde und war fertig. Mit dem Stacking dauerte es doch eine ganze Weile. 20 Bilder und zum Schluss ein rund 180Mb grosses Tif. Trotzdem hat der single shot klar die bessere Schärfe und klar den besseren Kontrast. Aber ich muss gestehen, ich hätte mit der Stacking Software ein schlechteres Ergebnis erwartet. Woran liegt es wohl? Mit der Stackingmethode werden mehrere Bilder mit scharfen und unscharfen Bereichen übereinandergelegt. Es ist jetzt also  entscheidend, was die Software noch als scharf toleriert und letztlich hängt das auch mit der Anzahl der Aufahmen bzw. mit der Schrittweite  zusammen. Ich habe hier nur mit  den Standardeinstellungen gearbeitet. Es kann also gut möglich sein, dass eine bessere Qualität möglich ist.

Ist der Test wissenschaftlich?

Nein. Ich habe hier bei keiner Einstellung die optimale Blende/Belichtungszeit ermittelt. Der Abbildungsmassstab ist hier weit weg von 1:1. Das heisst ich bewege mich hier in einem Abbildungsberieich weit weg von Macro-Aufnahmen. Dort wird Fotostacking zur Heilsbringermethode.  Denn dort stösst man an optische Grenzen bzw. an Grenzen mit der Tiefenschärfe.

Kann man den Schärfebereich berechnen? Ja:

{\displaystyle g^{\prime }={\frac {f^{2}\cdot g}{f^{2}\pm k\cdot Z\cdot (g-f)}}}

g = Objektentfernung (Schärfeebene)
g’= Nah-/ bzw. Fernpunkt
k = Blende (Apertur)
f= Brennweite in mm
Z= gewünschter Unschärfekreis

(nicht berücksichtigt ist hier Bewegungsungschärfe)

Diese Formel findet oft indirekt Verwendung in der 500er,400er oder 600er Regel.  (z.B. 500 / (f*Crop-Faktor) = längstmögliche Belichtungszeit). Es handelt sich hierbei um eine sehr ungenaue Näherung.

Fazit aus meiner Sicht: Fotostacking im Makro-Bereich ist eine feine Sache. Wenn eine Aufnahe ohne Stacking rein optisch gemacht werden kann und der Schärfebereich ausreicht, dann braucht es kein Stacking. Im Macro-Bereich richtig eingesetzt führt Fotostacking zu genialen Resultaten. Voraussetzung generell sind aber:

  • grosser Sensor (nicht zwingend viele Megapixel!)
  • viel Licht
  • Alle Objektpunkte müsse sich einmal im Tiefenschärfenbereich befinden

Wie siehts im Makro Bereich aus?

Je näher wir uns einem Abbildungsmassstab von 1:1 annähern, desto schneller nimmt der Schärfenbereich ab. Mit kleiner Blende ( Grosser Blendenzahl) kann man noch einiges herausholen. Aber trotzdem bewegt sich der Schärfenbereich in wenigen Milimetern. Makro Objektive stellen deshalb oft einen grösseren Blendenbereich zur Verfügung. Mein 60mm Nikkor bietet eine Blende 32 an und ermöglicht Aufnahmen bis zum Massstab 1:1. Mit der Blende 32 treten bereits wieder andere Effekte in Erscheinung – die Beugung. Licht lässt sich sowohl als Teilchenmodell (Quanten) aber auch als Wellenmodell erläutern. Die sichtbaren Wellenlängen liegen zwischen 400nm und 780nm. Auch wenn es sich hierbei um sehr kurze Wellenlängen handelt, so werden diese gestört, wenn man sie duch eine enge Öffnung quetscht. Maximales Abblenden fürhrt also nicht immer zur besten Schärfe!

Hier stösst die one shot Aufnahme definitiv an ihre Grenzen. Die Fotostacking Aufnahme unten gewinnt überlegen:

Nikkor 60mm Blende 32 (single shot), D800 45 Mp
Nikkor 60mm Blende 16 (30 shot), D800 45 Mp, Stacking mit Helicon

Kommentare sind geschlossen.