Warum ist Vollformat dermassen teuer? (Teil 2)
An die Herstellung des Sensors sind wesentlich höhere Anforderugen gestellt, je grösser dieser wird. Ein besonders grosser Kostentreiber sind aber die Objektive. Jedes Objektiv bildet das Objekt kreisrund auf den Sensor ab. Das bedeutet, der Kreis muss mindesstens den gleichen Durchmesser haben, wie die Diagonale des Sensors. Ein grösserer Sensor bedingt somit einen grösseren Abbildungskreis und je grösser dieser Kreis sein muss, desto höher sind die Anforderungen an ein Vollformat Objektiv. Zum Rand hin bzw. vorallem in die Ecken nimmt die Lichtstärke leicht ab. Bei

billigen Objektiven sieht man dies sehr stark. Dies hängt einfach gesagt damit zusammen, dass der Weg für die Lichtrahlenn am Rande etwas länger ist, als durch die Mitte. Dazu kommen unterschiedliche Brechungsindexe für unterschiedliche Farben. Dies und noch vieles mehr muss in einem Objektiv korrigiert werden, damit hinten ein scharfes Bild heraus kommt.
Während eine Linse für ein Handy im Bereicht CHF 50.- liegen kann, ist es bei einem DX Objektiv schnell CHF 400.- und bei einem Vollvormat ist es dann CHF 2000.-
Ein Vollformat-Objektiv muss eine Bilddiagonale von 43,27mm abdecken während es bei einem DX-Sensor nur 28,4mm sind.
Spezialobjektive wie Shift-Objketive müssen darüber hinaus noch einen wesentlich grösseren Bildkreis abdecken. Denn nur so kann man die Bildachse auch noch verschieben.
Können DX Objektive auch an Vollformaten sinnvoll eingesetzte werden? Sie können – aber sinnvoll sicherlich nicht. Denn ein Drittel des Sensors wird nicht genutzt.
Mehr Megapixel heisst mehr Qualität?
Nicht zwingend. Je kleiner der Sensor, desto unsinniger wird der Megapixelwettbewerb. Megapixel bedeutet nichts anderes als die Bezeichnung, wieviele Bildpunkte auf seiner Fläche auflösen kann. Bei den Fotokameras hat sich in vielen Bereichen die Anzahl von 24Mp als ausreichend erwiesen für die meisten Anwendungsbereiche. Mehr Megapixel machen meiner Meinung nach nur dann Sinn, wenn der Mensch hinter der Kamera auch wirklich damit etwas anzufangen weiss. Problematisch kann es dann werden, wenn immer mehr Megapixel auf immer kleinere Sensoren gepackt werden. Damit stösst die Technologie an physikalische Grenzen. Das heisst der fotografische Effekt, der durch Lichtquanten ausgelöst wird kann auf dem Sensor zu springenden Elektronen führen. Das heisst auf Grund der dichtbepackten Sensoren können Elektronen fehlgeleitet werden, was zu einer Verschlechterung der Bildqualität führen kann. Mich persönlich interessieren Megapixel auf den Handy nicht im geringsten. Ich muss leider festhalten, dass ich noch nie ein Handybild für irgend einen beruflichen Zweck nutzen konnte – die Qualität genügt nicht.
Ich selber fotografiere auch mit der D800 (36Mp) und wenn ich mehr brauche, dann gibt es technische Tricks umd die Mp-Zahl zu erhöhen oder ich miete mir einfach ein entsprechendes Equipment.
Neben den Megapixeln ist auch die Bit-Tiefe pro Pixel (Samplingtiefe) fast noch wichtiger. Was bezeichnen die Anzahl Bit pro Pixel? Die Anzahl Pixel beschreibt nun, in wieviele Punkte mein Motiv digital zerlegt (gerastert) wird. Je mehr, desto mehr strukturelle Details können sichtbar gemacht werden. Wenn aber jeder Pixel nur 1 Bit Farbtiefe erkennen kann, also schwarz oder weiss, so sind die Bilder trotz grosser Megapixel Zahl unbrauchbar. Es ist somit entscheident, wieviele Bits jeder Pixel differenzieren kann bzw. wieviele unterschiedliche Farbtöne / Grautöne ein Pixel erkennen kann. Die Entwicklung hat auch hier grosse Fortschritte gemacht. Während zu Beginn der Computerisierung 8 Bit (also 256 unterschiedliche Farbtöne pro Kanal) als ausreichen bezeichnet wurden, wäre das heute absolut ungenügend. Pro Bit erhöht sich natürlich auch die Datenmenge. Aber heutige Rechner haben damit kaum mehr Mühe.


Mit 8bit pro Farbkanal lassen sich 256x256x256 Farb-/Grautöne erzeugen. Das entspricht 16’777’216 Farbtönen. Wer seine Bilder in jpg speichert erhält genau diese Anzahl. Da unser Auge ein miserables Abbildungssytem ist, welches nur 50-100 Stufen unterscheiden kann, sollte dies doch ausreichen. Absolut. Aber der Kontrast- oder Farbumfang in der Realität ist meistens viel höher. Hätten wir nur 8bit zur Verfügung, dann müssten wir uns immer entscheiden ob wir die dunklen Töne differenzieren wollen oder die hellen Lichter. Wer also seine Bilder in jpg abspeichert, erhält irgend einen Mittelwert der Kamera und kann nichts mehr korrigieren. Wolken sind ausgefressene weisse Kleckse oder dunkle Stellen sind einfach nur schwarz. Wer mit jpg fotografiert ist selber schuld.
Heutige Digitalkameras fotografieren in 12bit. Das heisst, es gibt etwas Luft nach unten und nach oben. Auch hier kann man mit jpg fotografieren. Die Kamera entscheidet und komprimiert die vorhandenen Inforamtionen auf 8bit. Der Rest ist verloren. Nun gibt es gar Kameras die in 14 oder gar 16bit fotografieren. Wer mit solchen Kameras arbeitet und nur jpg abspreichert, der hat ziemlich viel Geld aus dem Fenster geworfen. Denn diese Kameras sind durchaus in der Lage die 14-oder 16bit auch abzuspeichern in Anbieter spezifischen Dateien (Nikon: nef; Canon: crw) Um diese Dateien zu öffnen braucht es (kostenlose) Spezialsoftware. Nun kann man diese Bilder bearbeiten und hat einen viel grösseren Ton-Umfang zur Verfügung. Man kann die Lichter und die dunklen Stellen getrennt bearbeiten, kann Farbnuancen sichtbar machen und erhält so wesentlich bessere Bilder.
Alternativ lassen sich Bilder auch in Tif-Formaten abspeichern. Tif kann bis zu 32 bit abdecken. Aber Tif-Dateien sind oft riesig, was die Datenmenge betrift. Auf die unterschiedlichen Komprimierugsverfahren gehe ich hier noch nicht ein.
Fazit: Auch mit idealer Sensorgrösse, riesigen Megapixel und professioneller Bit-Tiefe hat ein Fotograf genügend Möglichkeiten sich zu disqualifizieren. Wer Originaldaten in jpg abspeichert tut dies nach meiner Meinung auf jeden Fall.
Fortsetzung folgt