Recht einfach wäre es wohl, wenn die Gesetze des Kontinuums und nicht die Pixel-Mathematik gelten würde.
Durch die Pixelierung aber überlagern sich unterschiedliche Darstellungsfehler.
Wandler:
1. Digitalisierungsfehler.
Ein Pixel integriert die Lichtmenge, die auf es fällt. Damit unterscheidet es sich zum Beispiel von ganzen Zahlen auf der Zahlengeraden, sie stellen jeweils punktförmige Gebilde dar.
Ein Pixel kann also maximal seine eigene Dimension auflösen.
2. Unschärfefehler:
Durch die Gesetze der Optik entstehen natürlich die aus der Analogtechnik bekannten Unschärfen, entsprechend Brennweite, Blendenöffnung und Eigenschaften des Objektivs. Dazu kommt, dass der Sensor nicht unendlich flach ist, sondern selbst eine gewisse Tiefe hat.
3. Abtastfehler
Prinzipiell kann eine Information nach einer Digitalisierung nur übertragen werden, wenn die Abtastfrequenz größer ist, als die doppelte Grenzfrequenz. Das bedeutet, dass scharfe Kanten, feine Muster und Ähnliches nicht aufgelöst werden können. Wenn aber ihre Frequenz (im räumlichen Sinne, das heißt, Linienzahl pro Einheit) größer ist, so kann das zu speziellen Fehlern führen, wie Moire. Ähnliche Effekte sind von der Musik bekannt, wo bei einer CD auch die Abtastfrequenz größer ist, als das doppelte der maximal auftretenden Nutzfrequenz. Das wird durch einen Tiefpassfilter erreicht. Die Unschärfe des Objektivs wirkt in gewissen Maße als Tiefpass.
---
4. Lineare Verzerrungen
5. Nichtlineare Verzerrungen
6. Entsprechende Farbfehler durch Abtastung und Objektiv.
7. Durch die unterschiedliche Anordnung von Rot-, Grün-, Blau- und gegebenenfalls anderen Sensoren können ebenfalls Fehler entstehen.
Hieraus folgt, dass Abbildungsfehler nicht vermeidbar sind.
7. Zufällige Fehler (Rauschen)
Wie verringere ich Fehler?
1. Ich erhöhe die Redundanz:
- Maximum an Auflösung beim Fotografieren.
- Vermeidung von sehr detailreichen feinstrukturierten Aufnahmen
- Ausreichende Belichtung erhält Vorzug vor maximaler (Tiefen-)Schärfe.
2. Vermeidung von regelmäßigen feinen Strukturen, das heißt von Frequenzen, die höher sind, als 1/2 der durch die Pixel vorgegebenen.
(Das Prinzip wird auch bei Fernsehübertragungen angewendet. Kleinkarierte Hemden sind tabu.)
3. Wenn ich ein Bild verkleinere oder vergrößere, wähle ich angemessene intelligente Algorithmen. Dazu zählt: Vorzug von optischem gegenüber Digitalzoom - vom Prinzip her.
Aber: Wenn beim optischen Zoom die Unschärfe (wesentlich) stärker wächst, als der Verlust beim Digitalzoom, dann kann man den Digitalzoom vorziehen.
---
Aus den Eigenschaften des Digitalisierens folgt:
Im Prinzip ist die tatsächliche Auflösung in Megapixeln kleiner als ein Viertel der Nennauflösung (in jeder Richtung < 1/2).
Wenn ich Bilder verkleinere, sollte ich Algorithmen nehmen, die nicht einfach Punkte weglassen, sondern die vorhandenen Nachbarpunkte mit zur Berechnung heranziehen.
---
Bei Nichtbeachtung entstehen:
1. Treppenstufen
2. Moire
3. Farbsäume oder -muster (gegebenenfalls)
---
Für mich entsteht hier die praktische Schlussfolgerung:
1. Ich wähle zunächst eine möglichst große Auflösung für das Original.
2. Später kann ich sie entsprechend des Bedarfs verringern.
3. RAW ist vorzuziehen, wenn die Kamera erlaubt. Wenn nicht, dann den besten Kompromiss zwischen Speicherplatz und Auflösung.
TIF oder JPG - das ist hier die Frage. JPG verstärkt Probleme bei feinen Strukturen. Andererseits ist es ein guter kompromiss und beachtet die Gesetze der Auflösung. Ich wählte dann doch JPG fein bei maximaler Auflösung und 512 MByte Flashspeicher bei der Coolpix 4300, die bekanntlich nicht RAW beherrscht. Das ist auch der beste Kompromiss zu meinem Geldbeutel.
Welche Auflösung wählen?
Moderator: pilfi
Welche Auflösung wählen?
Zuletzt geändert von Hutschi am Mi 10. Dez 2003, 15:54, insgesamt 2-mal geändert.