Posts mit dem Label Grundlagen/basics werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Grundlagen/basics werden angezeigt. Alle Posts anzeigen

Mittwoch, 9. Dezember 2009

Fotografenporno oder Wie scharf ist Scharf?

Was dem Handwerker sein "Handwerkerporno", das ist dem Fotografen die "Schärfe".

Wer mit dem Händen arbeitet ist scharf auf gutes Werkzeug, wer fotografiert ist geil auf richtig scharfe Bilder.
Denn, scharfe Linse x präziser Autofokus : Süperkamera = scharfes Foto = geiles Foto.
So ist das!

Zum Thema "Schärfe" habe ich schon vor einiger Zeit ein paar Aufsätzchen (hier, hier, hier und hier) geschrieben.
Die könnte man heute zwar etwas knackiger zusammenfassen, aber die Fakten sind immer noch die gleichen.

Nun gibt es schon einige Zeit Kameras, die die Möglichkeit bieten, die Autofokusfunktion in Heimarbeit selbst zu justieren.
Ha! Endlich wirklich süperscharfe Fotos!

Und ein findiger Amerikaner - wer auch sonst - liefert dazu gegen gute Taler auch ein ganz pfiffiges Werkzeug: LensAlign.

Allerdings, der Gebrauch diesen Hilfsmittels gegen nachlassende Schärfe in der Mensch-Kamera-Beziehung, führt schnell zu einer gewissen Ernüchterung.
Man stellt fest: Schärfe ist nicht absolut, Schärfe ist sehr relativ.

Und Canon schreibt zu diesem Thema:
"Normally, adjusting the focus this way is not required. Set up AF Microadjustment only if necessary. One special scenario where this function may be useful is when there is always a specific distance, more or less, between the position of a subject (an athlete’s chest, for example) for capture with AF points and the position of desired focus (the athlete’s face, for example)."
Nun denn …

Wer eine Kamera mit LiveView-Funktion besitzt, hat alles, was es braucht um von statischen Motiven scharfe Bilder zu erzeugen.
Das Monitorbild wird direkt vom Sensor abgegriffen. Ist es scharf, muss auch der Sensor exakt im Fokus sein.
Wenn das Ergebnis trotzdem nicht befriedigt, liegt es mit Sicherheit nicht an schlechter Justage von Suchermattscheiben, Fokushilfsspiegeln und Sensoren, sondern an einer kontrastarmen Optik, die, womöglich kombiniert mit geringer Detailauflösung alle Struktur, woran sich unser Auge festhalten möchte, weich und verschwurbelt wiedergibt.

Und schon sind wir mitten drin in der Problematik des Linsentestens.

Wir montieren also unsere Kamera aufs Stativ, Einstellung JPG Fine, 100 ISO, Monochrom, Kontrast und Schärfe am Anschlag, Spiegelvorauslösung.
Die Kamera wird (mit dem künstlichen Horizont) gerade ausgerichtet, z. B. auf das schöne BIOS-Pixel-Test-Plakat.
Blende wird geöffnet, Belichtungszeit wird eingestellt, Optik auf kürzeste Entfernung eingestellt, danach fokussiert und ausgelöst.

Halt, halt, Abstand zum Plakat 25x die Brennweite (wie z. B. Canon misst) oder gar 50x wie andere vorschlagen?
Oder sollen wir das Portraitobjektiv so wie wir es häufig einsetzen mit 1,5 bis 2m Abstand vom Objekt testen? Aber was ist dann mit 5 m oder gar Unendlich?
Und wie halte ich es bei einem Zoom? Was tun wenn sich Schärfe bei kurzer und langer Brennweite unterscheiden?

Wir sehen, es tauche Fragen auf, für die wir keine befriedigenden Lösung finden.

Es gibt Optiken (wie z. B. EF 70-200/f2.8 L, EF 28-70/f2.8 L, EF 24-105/f4 L IS, EF 16-35/f2.8 L, Festbrennweiten wie das EF 100/f2, aber auch das EF 28-105/f 3.5-4.5, natürlich auch entsprechende Optiken anderer Hersteller), die zeigen bereits bei offener Blende so hervorragende Schärfe/Auflösung, dass man durch verstellen des Fokuspunktes in der Kamerasoftware nach zwei, drei Versuchen schon sagen kann, ob alles OK ist, oder ob tatsächlich ein auffälliger back- oder frontfocus vorliegt.

Schwer, fast unmöglich wird es mit Objektiven, die bei offener Blende so weich abbilden (wie z. B. das EF 28/f1.8), dass keine ausreichende Kantenschärfe zur Beurteilung vorhanden ist.
Durch Abblenden wird das zwar behoben, dafür wird aber die Tiefenschärfe so groß, dass ebenfalls kein eindeutiger Schärfepunkt mehr erkennbar ist.
Problematisch sind auch lichtschwächere Linsen mit extrem kurzer Brennweite (EF-S 10-22/f3.5-4.5), die von Natur aus schon bei offener Blende eine große Tiefenschärfe haben.

Meine Schlussfolgerung:
die meisten Kamera/Optikkombinationen entsprechen mit Sicherheit dem Industrie-Standard für "Schärfe":
"… ist die Grundlage der Schärfebeurteilung ein Print von 6x9 inch resp. 15x22 cm bei einem Betrachtungsabstand von 25 cm. Dies entspricht am Bildschirm ungefähr einer 25%-Darstellung eines Fotos einer Vollformatkamera wie z.B. der Canon 5D. Bei kleineren Senoren wäre dann eine entsprechend größere Darstellung nötig, z.B. 50%."

Sind Fotos nicht so scharf wie wir sie uns wünschen, so können die Gründe dafür vielfältig sein - die Umstände spielen ein Rolle, auch subjektive Faktoren (siehe die oben genannte Artikelserie) - selten aber tatsächlich falsch justierte AF-Funktionen.

Vergessen wir doch einfach die "technische Schärfe" und nehmen wir die "inhaltliche Schärfe" in unseren Fokus!
The proof of the pudding is - in diesem Fall - in the printing!


Wer tiefer in das Thema eintauchen will, sollte die oben genannten Artikel lesen.









Montag, 22. Juni 2009

Mehr Licht …!

Goethe in der Campagna, Johann Heinrich Wilhelm Tischbein


Mehr Licht …! das waren angeblich die letzten Worte unseres großen Dichterfürsten Johann Wolfgang von Goethe.

Dass der große Hesse sich in dem ihm eigenen Dialekt in Wahrheit über die Qualität der Matratze seines Sterbebettes beschweren wollte - "Mer liecht … [ so schlecht]!" lässt sich nicht wirklich ausschließen.

Aber große Männer (und Frauen!) sollten sich auch noch im Tode durch das Streben nach Erkenntnis ihrer Bedeutung würdig erweisen.

Lassen wir es deshalb dabei: "Mehr Licht!"

Mehr Licht könnte man sich auch in diesen Tagen wünschen.
Und weil ich die kürzeste Nacht des Jahres an einem gottverlassenen Ort, wenig gewärmt durch eine dünne Decke und mehr schlecht (sic!) als recht auf einem Autositz verbringen musste, hatte ich alle Zeit, um mir Gedanken über einen kleinen Blogeintrag zu machen.

Ausgerechnet der längste Tag des Jahres, zugleich auch angeblich der Beginn des kalendarischen Sommers, zeigt sich kühl und regenverhangen.

Dem zum Trotz möchte ich, auch weil ich selbst in den letzten Wochen sehr häufig und mit guten Ergebnissen so verfahren bin, auf eine goldene Fotografenfaustregel hinweisen, die nirgends besser hinpasst, als in den Sommer: wenn die Sonne lacht, ist die korrekte Belichtungszeit 1/ISO bei Blende 16.
Bei 100 ISO wären das also 1/100 (1/125) sec. bei Blende 16 (bzw. folgerichtig 1/400 (1/500) bei f 8 oder 1/800 (1/1000) bei f 5.6).

Nach dem Belichten zeigt ein kurzer Blick auf das Histogramm in der Regel - stimmt genau!
Wichtig bei Kameras mit kleinem Sensor ist ein kritischer Blick auf die Lichter. Oft ist das Histogramm klein oder ungenau (ein Luminanzhistogramm zeigt in der Regel nur die Werte des Grünkanals an, aber gerade Rot und Blau neigen sehr schnell zum clippen).
Wer sich in der Rückschau ausgefressene Lichter durch ein blinkendes Zebra-Muster im Bild anzeigen lassen kann, ist auf der sicheren Seite.
Kleine blinkende Stellen in Wolken, Reflexe auf Wasser oder sehr hellen Gegenständen sind als Spitzlichter tolerierbar.

Bleiben die Lichtverhältnisse gleich, erzielt man mit fest eingestellten Werten und einem ebenfalls fest auf Tageslicht eingestellten Weißabgleich sehr konstante Ergebnisse, die sich rasch und ohne Aufwand aufs Versandfertigste weiterverarbeiten lassen.

Jetzt warten wir nur noch auf die Sonne.
Mehr Licht! - aber subito!

Mittwoch, 25. Februar 2009

Objektiv-Vermessung mit dem Siemensstern

Abb.1: Siemensstern


Dieser Siemensstern hat 90 weiße und 90 schwarze Kreissektoren. Zur Mitte hin gerät die Auflösung irgendwann an eine Grenze und aus dem Schwarzweiß-Kontrast wird ein Grau, der so genannte Graukern. Ein Siemensstern muss nicht unendlich fein sein, es reicht, wenn er in der Mitte feiner ist als das zu vermessende System. Das kann man z.B. auch dadurch erreichen, dass man die Entfernung vergrößert, mehr dazu weiter unten..)

Mit dem Siemensstern kann die Auflöseleistung einer Beleuchtung-Objektiv-Sensor-Kombination bestimmt werden. Man benötigt z.B. etwa 15 Minuten, um für eine Optik zu bestimmen, wie scharf sie über ihren Blendenbereich abbildet:

Abb.2: Schärfe über Blendenwerten für 8 Optik-Sensor-Kombinationen

Die Beleuchtung ist in der Regel nicht von Interesse und sollte daher standardisiert sein (z.B. bei 200 ASA f5.6 und 1/30 bei +/-0 Belichtung auf den Stern)

Die Aufnahmeentfernung des Sterns ist nicht von Bedeutung!! (Beurteilt wird
nicht die Auflösung am Objekt, sondern auf dem Sensor. Der Stern sollte in vielleicht 2-5 Metern Entfernung fotografiert werden, man kann aber z.B. 1m- und 5m-Aufnahmen unmittelbar miteinander vergleichen, dazu Abbildung 3:

Abb.3: Unterschiedliche Aufnahmeentfernung, gleicher Graukern!

Die drei Aufnahmen sind aus unterschiedlichen Entfernungen aufgenommen, der Siemensstern selbst ist somit jeweils unterschiedlich groß, die Graukerne sind aber - in Pixeln gemessen - (auf dem Sensor) alle gleich groß!

Aus dem Durchmesser des Graukerns kann man die Auflösung der Objektiv-Sensor-Kombination in LP/Bh (Linienpaare auf der Bildhöhe) errechnen (siehe unten). Man kann aber auch bereits diesen Durchmesser (in Pixeln) als Schärfemaß verwenden (solange man nur Optiken testet und nicht unterschiedliche Kameras mit unterschiedlicher Sensorgröße verwendet).

Ein Problem stellt die Größenbestimmung des Graukerns dar. Hier habe ich keine objektive Lösung gefunden, es geht bislang nur ‚mit Augenmaß‘. Zunächst korrigiere ich die Tonwerte der Stern-Fotografie (als jpg fotografiert), indem ich Weißpunkt und Schwarzpunkt auf die Sektoren setze. Dann messe ich (mit dem Photoshop-Auswahlrechteck bei 400%-Ansicht und eben mit Augenmaß) die Breite und die Höhe des Graukerns - aber nur für die horizontalen und vertikalen Strahlen! (die diagonalen werden nicht benötigt). Die Mittelwertbildung von dem horizontalen und dem vertikalen Wert sorgt dann für einen gewissen Ausgleich bei Messfehler. Wenn Reihen (z.B. mehrere Blenden) gemessen werden, stellt das einen weiteren Ausgleich dar (Ausreißer werden erkannt).

Diese Werte sind bereits ein brauchbares Maß für die Schärfe, je kleiner der Durchmesser des Graukerns, umso schärfer das Bild auf dem Sensor. Man kann die Werte z.B. in eine Excel-Tabelle übertragen und ein Diagramm erstellen (siehe oben).

Abb.4: Auslesen d. Graukerns: 68 Pixel (quer) und
70 Pixel (hoch) = 69 Pixel (mittl. Durchmesser)

Neben dem Schärfeverlauf über die Blenden ist natürlich der Vergleich zwischen Bildmitte und Rand interessant oder auch die Frage, welchen Einfluss die kamerainterne Schärfung hat bzw. wo diese ein Optimum findet.

Am interessantesten ist dann aber sicher der Vergleich zwischen verschiedenen Optiken, z.B. um den Bestand zu bewerten, quer zu vergleichen oder bei einer anstehenden Kaufentscheidung.

Will man aber verschiedene Kameras vergleichen, ist die Pixelgröße des Sensors noch wesentlich. Dazu folgende Zusatz-Rechenschritte: Ein Graukerndurchmesser von 68 Pixeln (Beispiel) bedeutet einen Radius von 34 Pixeln: Nach 34 Pixeln - von der Mitte gezählt - wird aus Grau also ein annehmbarer Schwarzweiß-Kontrast, also 2 erkennbare Kreissektoren, also 4° (1 Sektor hat bei diesem Siemensstern 2°). Der Sinussatz gibt für 4° einen Faktor von 7%, was bedeutet, dass die Höhe dieser zwei gerade erkennbaren Linien 7% von 34 Pixeln mißt, also 2,38 Pixel: 2,38 Pixel sind also erforderlich, um eine Schwarzweiß-Kontrast abzubilden (theoretisches Optimum wären genau 2 Pixel: ein schwarzes und eine weißes).

Jetzt kommt die Sensorgröße ins Spiel, üblich ist die Orientierung an der Bildhöhe: Die Nikon D3 hat z.B. 2832 Pixel Bildhöhe, diese geteilt durch die gemessenen 2,38 Pixel je Linienpaar ergibt eine Auflösung von 1190LP/Bh. Mit dieser Kennzahl können jetzt auch verschiedene Kameras/Sensortypen verglichen werden.

Diese Berechnung kann (für den Stern mit 90 Linienpaaren) in folgender Formel zusammengefasst werden:

Auflösung [LP/Bh] = 28,6 * BH/D
mit BH: Sensor-Bildhöhe [Pixel] und D: Graukern-Durchmesser [Pixel]



Die Beschreibungen - Stand 15.02.2009 - sind autodidaktisch erarbeitet und müssen sich nicht mit der sonst üblichen Nutzungsart des Siemenssterns decken. Verbesserungsvorschläge sind willkommen an: a.kleuker(AT)berlin.de

Viel Spaß!
Achim Kleuker




Achim Kleuker, Jahrgang 1968, arbeitet als Fotograf.
Zuvor war der studierte Diplom-Wirtschaftsingenieur als Projektentwickler in Unternehmen der freien Wirtschaft tätig.
Auftragsarbeit verbindet sich mit freier Fotografie: Kleuker arbeitete für die Staatlichen Museen zu Berlin, für die Volkswagen AG, die Kaufhof Warenhaus AG, das Architekturbüro Kleihues & Kleihues und für I. M. Pei.
In die praxisbezogene Arbeit fließt eine spezifische künstlerische Sichtweise ein; jedes Mal gelingt es dem Fotografen, in dem Arbeitsergebnis die eigene Handschrift deutlich zu machen.

Mittwoch, 29. Oktober 2008

Does Size Really Matter?



Die Frage "Was geht?" stellt sich nicht so häufig.

Aber immerhin, gelegentlich passiert doch unvorhergesehenes, und plötzlich erkennt man sein eigenes Foto nicht mehr, so riesengroß präsentiert.


Für Interessierte die Daten zu dem Foto auf dem Transparent:
fotografiert - Gegenlicht mit Aufhellblitz - mit einer Canon 1D MKII (8MP-Sensor) und EF 2.8/16-35 L, ISO 160 als RAW-Datei.
Für den Abdruck in einem Infoblatt geliefert ein 6MP-JPG, 3000x2000px, das entspricht ungefähr einer Größe von 25x17cm bei 300 dpi Auflösung.

Diese JPG-Datei wurde nun - obwohl ein Rückgriff auf die RAW-Datei möglich gewesen wäre - interpoliert und gedruckt auf eine Fläche von 6x5,5m (entspricht 33qm) auf einen textilen Träger in 7 Farbendruck mit einer Auflösung von 100dpi.

Bereits ab einem Betrachtungsabstand von 4m sieht das Transparent gut aus, ab Bühnenrand einwandfrei.

Mittwoch, 9. Juli 2008

Alles Einstellungssache?


Ich fotografiere nur JPEG's und will die Bilder nicht bearbeiten:

in diesem Fall bieten sich die Voreinstellungen der Kamera an.
  • "Landschaft" hebt blau und grün an, kräftigt Kontrast und Detailzeichnung
  • "Portrait" schmeichelt den Hauttönen bei etwas reduzierter (schmeichelnder) Schärfe
  • "Standard" meint sich in der Regel eine Einstellung mit lebhafter, gesättigter Wiedergabe
  • "Neutral" heißt, keine Farbpräferenzen, moderater Kontrast und Schärfe
Auch wenn die Weißabgleichautomatik (AWB) verlockend ist,gleichmäßigere Ergebnisse erhält man mit Voreinstellungen wie Sonne=Tag=5200K, Wolke=6000K, Schatten=7000K, Glühbirne=2800K.
Achtung: Blitz meint Blitzanlage und nicht eingebaute oder aufgesteckte Blitze, da besser AWB benutzen.

Im Zweifelsfall auf "Tageslicht" stellen, die Ergebnisse sind dann denen eines normalen Farbfilms ähnlich, warmgelb am Morgen, warmrot am Abend, blauer Grundton im Schatten, orange übergossen bei Kunstlicht, senfgelb bei Leuchtstoffröhren - warum eigentlich nicht?

Alle Kameraeinstellungen einschließlich des Weißabgleichs sind unlösbar mit der JPEG-Datei verbacken.
Kleine Korrekturen sind zwar möglich, bleiben unvollkommen und mindern die Dateiqualität.

JPEG's erfahren eine Bildbearbeitung durch die Kamerasoftware, werden auf 8-Bit Datentiefe verringert und komprimiert, indem eine "Bildbeschreibung" abgelegt wird, die bei Wiederherstellung "interpretiert" und rekonstruiert werden muss.
Ursprung und Ergebnis sind nicht mehr identisch. Veränderungen durch diese Einwirkung nennt man Artefakte.

JPEG's sind "digitale Dias".


Ich fotografiere JPEG's, die ich in einem Bildbearbeitungsprogramm nachbearbeite:

Schärfe und Kontrast auf den niedrigsten Wert einstellen, Farbsättigung ebenfalls, oder wenigstens reduzieren. So bleiben Reserven für notwendige Korrekturen wie Tonwert-, Gradationssteuerung und Kontrastanhebung (local contrast enhancement).

Immer mit einem Auge beim Histogramm bleiben: tritt ein Kamm-Effekt nach Tonwertspreizung auf (weiße Zahnzwischenräume) haben wir im Bild Tonwerwertabrisse, d. h. abrupte, stufige Übergänge zwischen den Tonwerten. Ganz hässlich z. B. bei Portraits.

Beim Nachschärfen (Thema Schärfe hier) mit Unscharf Maskieren (USM) mit kritischem Auge auf Natürlichkeit achten (z. B. Stärke 150 bis 300, Radius 0,3, Schwellwert 0)
Weißabgleich, wie oben.

Alle Kameraeinstellungen einschließlich des Weißabgleichs sind unlösbar mit der JPEG-Datei verbunden.
Kleine Korrekturen sind möglich, bleiben aber unvollkommen und mindern die Datenqualität.

JPEG's erfahren eine Bildbearbeitung durch die Kamerasoftware, werden auf 8-Bit Datentiefe (256 Abstufungen pro Farbkanal) verringert und komprimiert.

JPEG's sind "digitale Dias".



Ich fotografiere in RAW (bzw. RAW+JPEG):


Kamera, wenn vorhanden auf "Standard" einstellen, als Farbraum sRGB wählen!
Warum?
Einzig wegen der Darstellung des Histogramms auf dem Kameradisplay.
Nicht das RAW wird dort angezeigt, sondern ein extrahiertes JPEG-Vorschaubild.

Das Histogramm wird auf Grundlage dieses JPEG's erstellt und wir können beruhigt davon ausgehen, dass unser RAW auch dort noch etwas Reserven hat, wo im JPEG die Tonwerte schon abreißen.

Auch der Weißabgleich hat ausschließlich eine Funktion für ein Histogramm, das die RGB-Farbkanäle darstellen kann.
In diesem Fall ruhig die Vorgaben - siehe oben - einstellen.

Luminanzhistogramme beruhen auf dem Grünkanal.
Vorsicht: ein Luminanzhistogramm kann noch ganz passabel aussehen, wenn im Rot- oder Blaukanal bereits erste Übersättigungen auftreten.

Letztendlich sind die Kameraeinstellungen (incl. Farbraum!) für die RAW-Verarbeitung nicht verbindlich. Sie stehen nur auf einem an die Datei gehefteten "Post-It"-Zettel.
Der lässt sich durch die Bearbeitung einfach "abreisen".
Die Einstellungen werden durch neue ersetzt, ohne dass die Qualität des Bildes beeinträchtigt wird.

Bei RAW-Dateien bleibt die Farbtiefe des Sensors - 12 oder 14-Bit (4.096 bis 16.384 Tonwerte pro Farbkanal) - erhalten.
Die Datenmengen sind erheblich größer. Bildlich gesprochen ist mehr "Spielmaterial" vorhanden.

RAW-Daten werden "eins zu eins" aus dem Sensor ausgelesen, (fast) ohne Veränderungen durch die Kamerasoftware.

RAW's bzw. DNG's sind "digitale Negative".

Montag, 21. April 2008

Vorstadt

Ricoh GRD II, Bl. 5.6, 1/400 sec., 80 ISO


Neben anderen bekannten Schwächen, ist der geringe Dynamikumfang ein kritischer Punkt bei Kameras mit kleinen Sensoren.

Wie man an dieser Gegenlichtaufnahme sieht, muss man aber deshalb die Flinte nicht ins Korn werfen.

Bei der Umsetzung in S/W sind lebhafte Tonwerte wichtig. Einige Spitzlichter bzw. Tiefen ohne Zeichnung sind mit Sicherheit kein Schaden.

Dienstag, 1. April 2008

CF-Karten - ein Sicherheitsrisiko?

Wie die französische "Forschungsgruppe Bilddatenverarbeitung" PréMieraVril (PMV) jetzt bekanntgegeben hat, ist der unsachgemäße Umgang mit Compact-Flash-Karten (CF-Karten) mitveranwortlich für mindestens zwei Phänomene, deren Ursachen man bisher bei den Kameras gesehen hat:
  1. streifenförmiger Lichteinfall (banding) und den
  2. sog. spots oder blotches, teiltransparenten Erscheinungen in unterschiedlichen Formen auf Fotos.
Beispielfoto von PMV: unbelichtete Karte wurde extremem Staub- und Lichteintrag ausgesetzt


Die Forschungsgruppe empfiehlt zur Vorbeugung dieser Bildfehler, die Karten nicht in der Hosentasche, sondern nur in dafür vorgesehenen Boxen zu transportieren, um Feinstaubeintrag in die kleinen Steckerkanäle zu verhindern.

Außerdem wird empfohlen die Karten nur bei Dunkelheit, bzw. in CF-Karten-Wechselsäcken aus der Kamera zu nehmen und zum Transport möglichst lichtdichte Karten-Boxen zu benutzen.

Wer aber ganz sicher gehen will, sollte die Karten nur zu ca. 3/4 mit Daten füllen, da besonders die vorderen Speicherplätze von unerwünschtem Licht- und Staubeintrag durch die Steckerkanäle betroffen sein können.

Übrigens spielte bei der Entwicklung der SD-Karten wohl bereits frühere Erkenntnisse der Speicherindustrie eine große Rolle: die Anschlüsse wurden nach außen verlegt, so dass weder Staub noch Licht in die Karten eindringen können.
Sicherlich auch mit ein Grund, warum Canon mit seiner neuen EOS 450D nur noch auf SD-Karten setzt.

Ich habe die Ratschläge mit einer CF-Karte befolgt und tatsächlich völlig saubere, unverschleierte und extrem brillante Bilder erhalten.

Mittwoch, 12. März 2008

Farbige Geräusche

Andrew Masur hat auf Luminous-Landscape ein interessantes Tutorial mit dem Titel: "Global Chroma Noise Reduction in Photoshop" veröffentlicht.


Rauschen entsteht vor allem, wenn dicht gepackten Sensorpixel und hohe Verstärkung des Bildsignals zusammenkommen.

Wir kennen das Phänomen vor allem von Point&Shoot-Kameras, bei denen es oft bereits ab 200 ISO prägnant auftritt.

Auch DSLR-Kameras sind davon betroffen, meisten aber erst weit jenseits von 800 ISO.

Wenn wir von Rauschen reden, meinen wir zum einen einen sehr hässlichen Effekt, der vergrößert wie ein verschwurbelter Haufen kleiner Würmer aussieht - das Farb- oder Chroma-Rauschen.

Ein zweiter Effekt, das Luminanz-Rauschen, kann durchaus eine erwünschte Wirkung haben. Es verleiht Bildern eine Kornstruktur, wie wir sie von hochempfindlichen Filmen kennen.

Ich habe die Methode von
Andrew Masur, das ungeliebte Chroma-Rauschen zu reduzieren, ausprobiert und finde die Ergebnisse sehr passabel.


Das Beispielfoto ist mit einer Ricoh GRD II bei 800 ISO aufgenommen.
Das Foto ist ca. 1,5 Blende unterbelichtet fotografiert und in ACR mit entsprechender Blichtungskorrektur entwickelt.
Das Rauschen in dunkleren Partien wird dadurch noch einmal verstärkt,



Hier ein 100% Ausschnitt: das starke Chrom-Rauschen ist vor allem in den dunklen, eigentlich neutralen Partien gut zu sehen.


Und so geht's:

Am Ausgangsbild werden die grundlegenden Korrekturen, Tonwert, Farbe etc. vorgenommen, dann wird das Bild dupliziert (Bild→Bild duplizieren…).
Das Duplikat wird in ein Graustufenbild umgewandelt (Bild→Modus→Graustufen), dann wird es wie gewünscht geschärft.
Wer ein Photoshop-plugin wie "NoiseNinja" benutzen will, kann das, wenn gewünscht, auf das Graustufenbild anwenden.
Nun erzeugen wir eine neue Datei (Datei→Neu…), die automatisch die gleiche Größe wie unser Bild haben sollte. Wichtig ist, der Farbmodus muss RGB sein!
Das Graustufenbild wird ausgewählt, per "copy und paste" in die neue Datei eingesetzt und dann auf eine Ebene reduziert.

Nun zurück zu unserem Originalbild.
Wir öffnen "Filter→Störungsfilter→Staub und Kratzer…" und wenden den Filter mit Radius 5 und Schwellenwert 0 an.
Dann öffnen wir den "Filter→Weichzeichner→Gausscher Weichzeichner…" und wenden den Filter mit dem Radius 3,4 an.

Nun wird das so behandelte "weiche" Farbbild per "copy und paste" in die S/W-Variante eingesetzt
Ganz wichtig:Überlagerungsmodus "Farbe" (im Aufklappmenü rechts oben in der Ebenenpalette).


Das Chroma-Rauschen ist deutlich reduziert, das Luminanz-Rauschen sichtbar aber fein.

Das Ergebnis kann sich sehen lassen!

Donnerstag, 28. Februar 2008

Straight photography?

Canon 1D MK II, EF 1.8/28mm, Bl. 8, 1/500 sec., 320 ISO, JPG small
Einstellung an der Kamera: JPG small, Schärfe 0, Kontrast -2



Es sollte nur ein Test mit der Unendlichkeitseinstellung der Optik werden.

Dann wollte ich aber doch sehen, wie sehr das Bild optimierbar ist, ohne die Datei zu beschädigen, Tonwertabrisse oder sichtbare Artefakte zu produzieren.

Man sieht sogar noch in der Web-Auflösung (die Bilder haben 800 px an der langen Kante), was für ein erstaunliches Potenzial in einem kleinen JPG steckt.

Das Bild wurde mit "CaptureSharpener" nachgeschärft, eine Tonwertkorrektur vorgenommen, der "lokale Kontrast" angehoben.

An der optimierten Bilddatei sind gegenüber der Originaldatei keine destruktiven Veränderungen zu erkennen.

Farbkorrekturen (JPG!) habe ich keine vorgenommen.
Das Histogramm bleibt "im Rahmen".




Aber wahrscheinlich liegt die Wahrheit - wie so oft - aber eher in der Mitte?

Dienstag, 19. Februar 2008

Lokale Tonsteuerung - neu gedacht

Die Anregung für diese interessante Technik zur lokalen Tonwertsteuerung kommt von Charles Cramer, dem wir zu danken haben.
Ich habe seine Anregung schon mehrfach mit Erfolg angewandt.
Wer Nachfragen hat, bekommt eine Antwort - versprochen.
Hier ein Beispiel:


Es ist ohne weiteres zu sehen, dass der Tonwertumfang des Bildes zu flach abgestuft ist, das Bild wirkt flau und zweidimensional.


Das Histogramm bestätigt diesen Eindruck. Die Anzahl der Pixel nimmt bereits ab den Mitteltönen und zu den Lichtern hin drastisch ab.

In einer neuen Einstellungsebene "Tonwertkorrektur"(Luminanz) legen wir den Weißpunkt von 255 auf 220 und erzeugen so in den helleren Tönen kräftigere Tonwertstufen.
(Wird während des Verschieben des Weiß-Reglers die "alt"-Taste gedrückt, kann man exakt erkennen, wann die ersten Spitzlichter aufreißen. Dasselbe gilt auch für den Schwarz-Regler.)

Allerdings wirkt die Korrektur global, also auf das ganze Bild und lässt sich so nicht auf ausgewählte Bereiche anwenden.

Es gibt immer noch Raum für Verbesserungen.
Schön wäre eine deutlichere Trennung des Lampions von den dunklen Brauntönen des Wassers.
Dafür brauchen wir eine Technik, die nicht alle Tonwerte des Bildes gleichmäßig anhebt, sondern in unserem Fall die dunklen Töne auch dunkel erhält.

Wir treffen mit dem Lassowerkzeug (L) eine grobe Auswahl des Objekts (Lampion), das wir bearbeiten wollen. Wir wählen eine weiche Auswahlkante von z. B. 15 Pixeln und beziehen ausdrücklich auch Tonwerte in die Auswahl mit ein, die wir nicht(!) verändern wollen.

Hier ist die Auwahllinie zu sehen

Dann öffnen wir eine neue Einstellungsebene "Gradationskurven" (Luminanz).

Wir bewegen die Maus in den dunklen Bereichen des Bildes, die nicht verändert werden sollen. Mit "Befehlstaste + Mausklick" nageln wir die Tonwerte in der Kurve fest, die unverändert bleiben sollen (in unserm Fall ergibt das die unteren vier Punkte).

Nun können wir in dem noch beweglichen Bereich die Kurve verändern und so schieben, dass die reinweißen Partien des Lampions gerade noch zu Spitzlichtern werden.

Die dunklen Bereiche bleiben - wie gewünscht - unverändert.


Zu guter Letzt kann durch "Unscharf maskieren" (in diesem Fall: Stärke 20, Radius 50, Schwellwert 0) noch der "lokale Kontrast" im Bild verstärkt werden.
Das bringt zusätzlich einiges an Leben und Dreidimensionalität ins Bild.

An Histogramm sieht man, dass es nun in den Schatten einige Tonwerte 0 und in den Lichtern einige mit Tonwert 255 gibt.
Das ist so tolerierbar, mehr wäre sicherlich schlecht.
(Grundsätzlich empfiehlt es sich, vor Beginn der Bearbeitung die Sättigung des Bildes (Neue Einstellungsebene "Farbton/Sättigung") etwas (z. B. -10) zu reduzieren.
Dadurch wird verhindert, dass die Lichter vorschnell aufreißen.
Und, wenn alles gut ist, nicht vergessen: mit "shift+Befehl+E" die erzeugten Ebenen wieder zusammenzubacken.)


Hier noch mal Ergebnis (oben) und Ursprung (unten) im Vergleich.



"Alle Wege führen nach Rom".
Für Photoshop, das mächtige Bildbearbeitungsprogramm, gilt: es führen oft mehrere Wege zum selben Ziel.

Diese Technik zur lokalen Tonsteuerung lässt sich überall dort hervorragend einsetzen, wo es nicht, oder nur mit großem Aufwand möglich wäre, die zu verändernden Bildpartien exakt auszuwählen bzw. zu maskieren.

Charles Cramer hat in seiner Beschreibung der Technik noch weitere augenfällige Beispiele parat.

Mit etwas Phantasie und Kombinationsgabe lassen sich sicher auch noch andere Wege zum selben Ziel finden.



Uff!

Mittwoch, 13. Februar 2008

A propos… Hauttöne

Glücklich wer - wie Jim Rakete - überwiegend in Schwarz/Weiß fotografiert.
Der freut sich über einen großen Tonwertumfang und kann, wenn nötig, Grauwerte durch Filter steuern.

Wer dagegen in Farbe fotografiert, fotografieren muss…

Ich sitze im Gras und schweige.
Der Himmel ist blau wie das Meer.
sagt Georg Bydlinski in seinem Gedicht “Garten” und benennt - unbeabsichtigt - drei wichtige Bezugspunkte der Farbfotografie.

Mit dem Grasgrün und dem Himmelsblau haben wir es eigentlich nicht so schwer.
Falsche Grün- oder Blautöne von Gras und Himmel werden von unseren Augen via Gehirn nicht so einfach "richtig" gestellt.
Wir merken, wenn ein Himmel zu violett, ein Grün zu unnatürlich wirkt.

Aber der Mensch der im Gras sitzt, wie sieht denn der aus?
Bleiche Bläue, Bluthochdruck oder grünliche Gesichtsfarbe?

Auch ein noch so guter Weißabgleich garantiert uns keinen natürlichen Hautton!

Mit einem einfachen Mittel lässt sich prüfen, ob wir in etwa einen angenehmen (mitteleuropäischer) Hautton haben:
man wählt (in Photoshop!) das Pipetten-Werkzeug (I), Aufnahmebereich 3x3 Pixel und inspiziert damit Hautpartien.
Wir schauen dazu im Info-Fenster ausnahmsweise mal in die CMYK-Werte.

Ein "schöner" Hautton hat ca. 10% mehr Gelb als Magenta und einen deutlich unter dem Magenta-Wert liegenden Cyan-Wert.
Beispiel: Magenta 39%, Yellow 43% (+10% von 39 Magenta!).

zumindest die Hauttöne sind hier halbwegs OK, mussten aber stark korrigiert werden.


Korrekturen lassen sich via "Neue Einstellungsebene-Selektive Farbkorrektur-Rottöne" einstellen. Man fängt sehr fein an, z. B. -5 Cyan, -5 Magenta, +10 Gelb und misst die Veränderung nach.

Wer keine globale Änderung im Bild will, geht in den Maskierungsmodus (Q) und überpinselt (B) die zu korrigiernden Stellen (z. B. Gesicht, Hände).
Nach Verlassen des Maskierungsmodus (Q) sieht man die Auswahllinien (müssen nicht präzise sein).

Danach verfährt man wie oben beschrieben.

Die Buchstaben in Klammern beziehen sich auf die entsprechenden Tastaturbefehle in Photoshop!

Freitag, 8. Februar 2008

Foveon vs. Bayer - ist dreilagig wirklich besser?

Weil Dietmar Wüller ein vielbeschäftigter Mensch ist, habe mich damit abfinden müssen, doch selbst ein populär-wissenschaftliches Werk zum Thema Bayer-Sensor versus Foveon-Sensor zu schreiben.

Ich werde mein Bestes geben - aber wie immer ohne Gewähr! Trotzdem, wenn es sachliche Fehler gibt, bitte ich herzlich um korrigierende Kommentare. Auch Anmerkungen, Ergänzungen oder gar Erfahrungen sind willkommen!


Der Aufbau des Foveon-Senors ist auf den ersten Blick verständlich: ähnlich wie bei Farbfilmen wird die unterschiedliche Eindringtiefe des einfallenden Lichts ausgenutzt und auf drei Schichten des Senors verteilt.
In Kombination mit einem IR-Sperrfilter ergibt sich damit ein “Farbsehen” nicht unähnlich dem des menschlichen Auges.

Allerdings gelingt die Farbtrennung nicht optimal. Die Bilder mussten bisher - bis zur Sigma SD14/DP1 - als RAW-Daten ausgelesen und mit externer Software optimiert werden.
Aktuelle Kameras können jetzt auch kameraintern JPG's erstellen, allerdings bisher mit nicht so gutem Ergebnis.

Der Vorteil der Foveon-Technologie ist, dass jeder Sensorpixel alle Farbinformationen direkt aufnimmt.
Die Farbinformationen müssen nicht wie beim Bayer-Sensor interpoliert (nachträgliches Einfügen von errechneten Inhalten) werden.
Es entstehen deshalb Bilder mit großer Farbgenauigkeit und, weil kein Anti-Aliasing-Filter zur Verhinderung von Moiré notwendig ist, auch mit hoher Schärfe.

Ein Nachteil ist allerdings das hohe Bildrauschen.
Der Grund dafür ist eine geringe Farbtrennung und daraus resultierend die Notwendigkeit einer hohen Rückverstärkung der Farbsättigung.

Die Auflösung des Foveon-Sensors wird üblicherweise “schöngerechnet”, indem die Pixelzahl des Sensors einfach mit 3 (Farblayern) multipliziert wird.
Tatsächlich (ich erspare mir die Rechenformel) dürfte die realistische Auflösung einer SD14/DP1 eher bei 8 bis 10MP, als den angegebenen 14MP liegen.

Dafür sprechen auch Vergleiche zwischen Canon 5D und Sigma SD14, wobei die kleineren Sigma-Dateien (4,xMP) auf die 12MP der Canon interpoliert zeigen, dass die Bildqualität der SD14 annähernd der der 5D enspricht, die Canon trotzdem aber einen Vorsprung bei der Auflösung verbuchen kann.

Entsprechende Erfahrungen habe ich mit verfügbaren JPG-Dateien der DP1: sie lassen sich ohne wesentlichen Qualitätsverlust auf 10MP interpolieren und durch leichtes Nachschärfen und anheben des lokalen Kontrasts optimieren.

Ohne diese “Hochrechnen”, also in der Originalausgabe, ist der Datensatz aber - da beißt die Maus kein' Faden ab - bei 300dpi mit 14,9 x 22,35cm nicht viel größer als ein 13/18-Print!


Im Gegensatz zum Foveon- ist der Bayer-Sensor farbenblind und liest nur Helligkeitswerte (Luminanz) aus.
Erst mit Hilfe der Bayer-Matrix, einem vorgesetzten schachbrettartigen Farbfilter, kann er Farbinformationen interpolieren.

Die Farbverteilung auf der Matrix ist entsprechend dem des menschlichen Sehens verteilt: 50% Grün, je 25% Blau und Rot.

Weil nun jeder Pixel nur eine Farbinformation erhält, müssen Informationen aus benachbarten Pixeln mit zur "Farbherstellung" herangezogen werden.

Bei diesem als Interpolation bezeichneten Verfahren werden Farbdaten eingefügt, die mit wahrscheinlicher Ähnlichkeit bzw. statistischen Verfahren erzeugt wurden.
Artefakte, Moiré, Farbstörungen oder sogar Falschfarben bei sehr kleinen Objekten an der Auflösungsgrenze (kleine Äste vor hellem Hintergrund, siehe Beitrag von Carl Weese) sind die Folge.

Bei Grün müssen folgerichtig 50% einer Farbfläche, bei den anderen Farben sogar 75% durch Interpolation dazugerechnet werden.

Es ergibt sich daraus, dass für einen Pixel des Bildes ein Pixel des Sensors (wie bei Foveon) allein nicht ausreicht.
Das heißt, die tatsächliche Auflösung ist geringer, als uns die Pixelzahl des Sensors vorgaugelt.

Trotzdem: eine Datei aus der Canon D5 hat bei 300dpi eine Größe von ca. 25x37cm, also annähernd A3.

Zusammengefasst:
wir haben es mit zwei unterschiedlichen Ansätzen zur Bilderzeugung zu tun.
Mit beiden Lösungen können wir heute Bilder auf allerhöchstem technischen Niveau erzeugen.
Der Foveon-Sensor ist trotz seiner Leistung aus welchen Gründen auch immer ein Exot geblieben.
Entscheiden werden wir uns aber eher für oder gegen ein Kamerasystem, als für oder gegen eine bestimmte Sensortechnologie.

Freitag, 18. Januar 2008

Auflösung und Schärfe - ein Versuch

Ein Berliner Fotograf hat sich mit einem Mythos der Digitalen Fotografie auseinandergesetzt: dem Mega-Pixel-Wahn.
Hier eine Zusammenfassung seiner Versuche.

Er schreibt:


Ich habe gerade ein sehr beeindruckendes Experiment durchgeführt:

Habe ein knackenschafes 12 MP-Foto genommen, es kopiert,die Kopie dann auf 70,71 % Kantenlänge verkleinert (das sind 50% der Fläche: 6 MP) und dann wieder auf Originalmaß vergrößert, so bleiben es aber nur 6 Mio Pixel Information).

Dann eine weitere Kopie auf 50% verkleinert (25% der Fläche: 3 MPix) und wieder auf das Originalmaß hochgerechnet.

Die beiden Kopien habe ich dann als Ebenen über das Original gelegt

Es ist sehr beeindruckend, wie scharf ein scharfes Bild auch bei 3 MP noch ist !!!



Dann habe ich ein minimal unscharfes Bild genauso behandelt: Hier ist die Reduzierung von 12 auf 6 Mio Pixel gar nicht und auf 3 Mio Pixel kaum zu erkennen, d.h.:
Leichte Unschärfe bei der Aufnahme reduziert die tatsächlichen Pixel schnell auf weniger als 6 Mio!




mein Fazit: Pixel sind nicht die Lösung!


Bei imatest ist zu lesen:
You should not expect the "ideal megapixel" count to equal the total megapixel count of the camera. In the real world, performance is excellent if it is half the actual megapixels.
Und anhängen möchte ich noch ein Zitat von Michael Reichmann, entnommen einem Artikel, in dem er sich mit der neuen Canon 1Ds Mark III auseinandersetzt.
Er fragt sich, ob Auflösungen von 16 oder gar 21 MP mit den aktuellen Objektiven überhaupt realisierbar sind:
"My main concern is that the 16MP 1Ds MKII was in many cases lens limited. Only the best lenses, and these mostly "L" lenses in the telephoto range, were up to the task. Though the jump from 16MP to 21MP is modest, and certainly worthwhile, it concerns me that the new MKIIIs is going to be even more lens-limited than the previous generation."



Sonntag, 11. November 2007

Show!Fenster!

Zwei Städte, Berlin und Stuttgart, zwei Fotografen, ein Motiv: Show!Fenster!


© Detlev Schilke






Weitere Bilder zu dem Thema sind schwer erwünscht!
Fotos an: thepubliceyeblogATgmail.com





Ursprünglich wollte ich aus der Ausbeute meines sonntäglichen Flanierens auch ein kleines Tutorial "Bildoptimierung" machen.

Jetzt ist alles etwas anders geworden.

Trotzdem ein paar kurze Erklärungen.

Das ursprüngliche Foto, aufgenommen mit einer Canon Powershot S3 IS mit folgenden Einstellungen:
Belichtungskorrektur -1/3 oder -2/3
WB: wolkig Custom
Farbe: Kontrast -2, Schärfe -2, Farbsättigung -1, Hautton -1
ISO: 400
fotgrafiert mit Programmautomatik



Man sieht am Histogramm, hier ist (fast) alles möglich.

Das Bild wurde beim importieren in Photoshop mit Capture Sharpener geschärft.
Danach in verschiedenen Schritten den lokale Kontrast angehoben und der dreidimensionale Eindruck verstärkt.
Leichte Vignette (weiche Auswahlkante 222px) zur Abrundung.

Hier das Histogramm des endgültigen Fotos (ganz oben).
Es gibt jetzt im Bereich Kellerfenster ein paar Pixel mit Tonwert 0. Stört aber nicht weiter.

Lichter sind OK, und auch in den (oft kritischen) Farbkanälen gibt es kein clippen.

Danach
Output Sharpener für web, sichern für web, fertig.

Donnerstag, 4. Oktober 2007

3 Farben + Luminanz = Histogramm?

Die LCD-Monitore der Kameras werden immer größer (und immer bruchgefährdeter)!

Worin liegt der Nutzen? Ist größer auch informativer?

Nicht unbedingt.
Für eine vernünftige Prüfung der Bilder ist das Mäusekino nicht geeignet.

Ist das Bild, das wir darauf sehen auch tatsächlich das, was wir später auf unserem (kalibrierten) Monitor vor uns haben?

Ich meine nein!

Aber eine wichtige Information finden wir doch, egal wie klein unser Mäusekino auch ist - das Histogramm.

"Expose to the Right": wo soviel Spielraum im Dynamikumfang der Kamera vorhanden ist …


Eine Rückschauzeit von 4 Sekunden sollte genügen, um gelegentlich einen kurzen Blick auf das Histogramm zu werfen.

… kann man ruhig "nach rechts" belichten. Den Schatten tut's gut, die Lichter sind nicht in Gefahr.
Aber Achtung: wie sieht das RGB-Histogramm aus?


Wenn auch die Regel "Expose (to the) Right" ihre Berechtigung hat - sie kann helfen, das digitale Rauschen in den Schatten zu reduzieren - so muss man doch bei ihrer Anwendung größte Vorsicht walten lassen.

Bei vielen Kameras bekommen wir nämlich leider nur ein Luminanz-Histogramm zu sehen, und das basiert ausschließlich auf dem Grün-Kanal.


Bild wurde durch Bearbeitung "verschlimmbessert".


Motive am Morgen, am Abend, im offenen Schatten, also Motive mit hoher Farbdominanz, können ein ganz vernünftiges Luminanz-Histogramm darstellen.

Und wie man sieht, Luminanz- und Grünkanal sind praktisch identisch.


Aber sobald man in die einzelnen Farbkanäle blickt, sieht man den Salat.


Die Übersättigung im Rot (Abendsonne!) ist noch nicht so tragisch.


Die Übersättigung im Blau (Himmel wirkt wie ein offener Schatten!) ist aber schon heftiger


Hier das gleiche Bild mit noch akzeptablem Histogramm.

So kam das Bild aus der Kamera, Blichtung nahe am Ideal.


Wer in RAW fotografiert, hat damit keine Probleme.
Belichtung und Farbtemperatur können bei der Konvertierung perfekt eingestellt werden.

Wer mit JPEG' s arbeitet muss besondere Vorsicht walten lassen.
RGB-Histogramm, soweit vorhanden, genau anschauen.

Beim Luminanz-Histogramm bei auffallenden Farbdominanzen "rechts" lieber etwas Sicherheitsreserve lassen.

Und möglichst mit dem Weißabgleich arbeiten (Tag 5400K, Kunstlicht 3400K), den man nachher im Bild auch sehen will.
Er wird in das JPEG eingewirkt, und ist nicht mehr vernünftig zu korrigieren.

Und immer bedenken: Werte von 255 (rechte Begrenzung des Histogramms) enthalten keine! reproduzierbaren Daten mehr!

© Foto: Volker Türck - Danke für den Informationsaustausch!


Für Anregungen oder Wünsche zum Thema "Grundlagen der digitalen Fotografie" bin ich immer offen.
Wer (Problem-)Bilder schicken möchte, bitte möglichst direkt aus der Kamera.

Montag, 22. Januar 2007

Vom Pixel zum Bild - ein "Arbeitsfluß"/Teil 1 --- From the pixel to the picture - a workfow/Part 1

Selbst habe ich immer mit großem Interesse nachgelesen, wenn Kollegen ihren Arbeitsablauf - vom Fotografieren bis zum endgültigen Bild - beschrieben haben.

Nach einigen Jahren digitaler Praxis will ich selbst mal meinen workflow vorstellen. Wobei ich mir durchaus im Klaren bin, dass die Vielzahl der eingesetzten Helferlein (es werden am Ende mindestens fünf sein!) nicht unbedingt den Eindruck erwecken wird, dass da ein ausgewiesener Experte am Werk ist.

Oder gerade deshalb? Ich weiß es selbst nicht.

Programme wie Lightroom oder Aperture versuchen sich als stand-alone zu profilieren, d. h., dass sich Import, Bearbeitung, Beschriftung und Verwaltung der Fotos in einem Programm realisieren lässt.

Geht man dabei Kompromisse ein?

Nicht nur, dass ich in der Zwischenzeit einige für mich unverzichtbare Plug-Ins (NoiseNinja, Photokit Sharpener, Kodak Digital GEM, ConvertToBW, GenuineFractals) in Photoshop habe, ich fürchte mich geradezu davor, Gefangener eines proprietären Systems zu werden, dem ich dann auf Gedeih und Verderb ausgeliefert bin.

Außerdem entdeckt man immer wieder spannende Programme, die Nischen besetzen, in denen andere überhaupt nicht präsent sind.
Siehe DXO mit speziellen Kamera/Optik-Modulen, die bei der RAW-Entwicklung erstaunliche Qualitätsverbesserung erzielen.
Siehe LightZone, das eine ganz neue (alte) Herangehensweise an die Bildbearbeitung hat, dabei weniger auf Massenverarbeitung, als auf das Einzelbild orientiert ist.

Also vielleicht doch ein paar Programme mehr, die dafür eher mal austauschbar, ersetzbar sind, wenn sich was besseres findet, bzw. wenn ein Programm nicht mehr weiterentwickelt wird?





As I always red with large interest, when colleagues described their workflow from photographing to the final picture.

After some years of digital practice, I like to present my own workflow. Whereby I realize myself that the multiplicity of the assigned programs (at the end this will be five!) will not necessarily arouse the impression that there's a proven expert at work.

Or even therefore? I do not know.

Programs such as Lightroom or Aperture try to profile themselfs as stand-alone programms. That is to say, that import, treatment, caption and administration of photos are realized in one program.

Do we risk some compromises thereby?

Not only, that in the meantime, I got some for me indispensable Plug-In's (like NoiseNinja, Photokit Sharpener, Kodak Digital GEM, ConvertToBW, GenuineFractals) in Photoshop, I am almost afraid becoming prisoner of a proprietary system, of which I am at the mercy.

In addition one discovers again and again exciting programs, which occupy niches, in which others are not at all present.
See DXO with special camera/optics modules, which obtains amazing optical quality improvement with the RAW development.
See LightZone, which has a completely new (old) approach to the treatment of pictures, less on bulk processing, than is oriented on the single frame.

Thus perhaps better a couple programs, which are exchangeable, replaceable, if I find a better one, or if a program is going out of date?

Dienstag, 16. Januar 2007

AWB oder WB, das ist die Frage/AWB or WB, thats the question

Wie war das noch mal …?

Wer einen Film in die Kamera einlegt, hat sich bereits für einen Weißabgleich entschieden: entweder Tageslicht oder Kunstlicht.
Gut, es gab noch Portraitfilm für sanftere Hauttöne, Film der mit Blitzanlagen eine korrekte Farbwiedergabe garantieren sollte, aber dann war bald schon das Ende der Fahnenstange erreicht.

Diafilm zeigte uns die Welt "wie sie ist": warmgelb am morgen, tagsüber je nach Wetter mit satten Farben, aber tiefblauen Schatten, grünlich-kranke Hauttöne unter dem Blätterdach der Bäume, Innenräume von Neonlicht senfgelb überzogen. Abends wurde es rötlich-warm, und vor allem bei Glühlampenlicht in der Kneipe, heiß wie im Hochofen.



… und heute?

Heute haben wir "Automatic White Balance" AWB und plötzlich sieht alles (fast) gleich aus: der Morgen ist vom Abend nicht mehr zu unterscheiden, Neonlicht sieht aus wie eine Normlichtquelle, Sonnenuntergänge verlieren ihre Dramatik. Einzig dem Glühlampenlicht wird manchmal noch etwas von seiner warmen Stimmung gelassen.

Wir können bestimmte Lichtquellen gezielt farblich neutralisieren, indem wir WB für Neonlicht, Glühlampen, Schatten etc. wählen. Oder mit einem Weißabgleich auf ein geeignetes Medium fast aufs Kelvin genau dem Licht jede Möglichkeit nehmen, seine Umwelt nach eigenem Belieben einzufärben.



AWB oder WB?

Aber was soll's eigentlich? Was ist der Grund für unseren Neutralisierungswahn?
Natürlich, unsere Augen sind bei jeder Lichtfarbe in der Lage, weiß als weiß zu sehen. Die Erfahrungsbibliothek unseres Gehirns macht es möglich. Sogar Mischlichtsituationen gleichen wir auf perfekte Weise aus.

Einzig der Blick aus unserem erleuchteten Wohnzimmerfenster hinaus in die Dämmerung, erlaubt uns, die Blaue Stunde zu sehen, oder von draußen in warm erleuchtete Wohnungen zu schauen.

Aber schon kurz nachdem wir den Reinraum einer wafer-produzierenden Firma betreten haben, sehen wir nichts mehr von der intensiv-gelben Beleuchtung, die dort herrscht.

Was machen wir nun? Stellen wir das Gelblicht neutral? Lassen wir die Beschäftigten weiße oder gelbe Arbeitskleidung tragen? Wird aus der Blauen Stunde eine Graue Stunde?


Mut zur Stimmung!

Seit einiger Zeit mache ich ein Experiment: fotografiere ich draußen bei Tageslicht, stelle ich die Kamera auf 5400 Kelvin, bei Kunstlicht auf 3400 Kelvin.
Und tatsächlich, im Licht schwingen wieder Stimmungen mit, mal kalt, mal warm, mal blau mal grün.

Ausnahmen mache ich bei Blitzaufnahmen und Mischlicht, weil meine Erfahrung ist, dass in diesen Situationen der AWB der Kamera plausiblere Ergebnisse liefert. Vielleicht, weil die Elektronik einfach mehr faule Kompromisse eingeht, als ich gewillt wäre.

Seien wir ehrlich, wenn wir ein Foto sehen, bei dem die natürliche Lichtstimmung erhalten ist, empfinden wir das nicht als einen vermeidbaren technischen Mangel. Ganz im Gegenteil! Wenn ich oft bei eigenen Fotos neutrale Farben als ein handwerkliches Muss betrachtet habe, konnte ich die Bilder von Kolleginnen und Kollegen viel entspannter betrachten und feststellen, dass nicht nur Licht und Schatten, sondern auch "Stimmung" Akzente setzt.

P. S.: dass in der Farbfotografie oft eine Diskrepanz zwischen Bildaussage und (nichtkontrollierbarer) Farbe besteht, steht auf einem anderen Blatt.
Oder einem anderen Post?
Beiträge dazu - auch zu anderen Themen - sind sehr erwünscht!





In former times…


Who inserted a film into the camera, had already decided for a white balance: either daylight or artificial light.

Well, there was also the portrait-film for gentle skin tones and a film for color reproduction under controlled light conditions, but then the end of the flag bar was already reached.

Slide-film showed us the world “as it is”: warm-yellow in the morning, during the day - depending on weather - with deep colors, but deep-blue shade, greenish-ill skin tones under the sheet roof of the trees, interiors of neon light mustard-yellow covered. In the evening it became reddish, and particularly with lamp light in the tavern, hot as in the blast furnace.


… and today?

Today we have “Automatic White Balance”, AWB, and suddenly everything looks (nearly) the same: the morning is not to be differentiated from the evening, neon light looks like a standard source of light, sunsets loses its dramatic. Only sometimes the warm ambience is left to the lamp light.

We can neutralize certain sources of light by selecting the WB for neon light, lamps, shade etc. Or with a white balance on a suitable medium exactly on Kelvin, we can prevent the light dyeing its environment after own liking.


AWB or WB?

But what the heck with it? What is the reason for our neutralization illusion?
Naturally, our eyes have the ability to see white as white in each color of light. The experience library of our brain makes it possible. Even mixed light situations we adjust on a perfect way.

Only the view from our illuminated living room window outside into the dawn, permits us, to see the blue hour, or to look from outside into warmly illuminated dwellings.

But already briefly after we entered the pure area of a wafer-producing company we see nothing more from the intensive-yellow lighting, which prevails there.

What do we make now? Do we place the yellow light neutrally? Do we let the employees carry white or yellow work clothes? Does a the Blue Hour become a Grey Hour?


Courage for ambience!

I make an experiment for some time: if I photograph outside with daylight, I set the camera on 5400 Kelvin, in artificial light to 3400 Kelvin. And actually, in the light ambiance swings again, sometimes coldly, sometimes warm, sometimes blue, sometimes green.

I make exceptions with flash photographs and mixed light. Because my experience is, that in these situations the AWB of the camera supplies more plausible results. Perhaps, because electronics makes better of a shady business than I could do.

Honestly, if we see a photo, in which the natural lighting effect is conserved, we do not offend as an avoidable technical lack.
On contrary! If I often regarded neutral colors within my own photos as a relating to crafts, I could regard the pictures of colleagues more relaxed and notice, that not only light and shade, but also “ambience” set accents.

P.S.: the fact that in color photography often exists a discrepancy between picture statement and (not-controllable) color, that's another story.
Or another post?
Contributions in addition - also to other topics - are desired!