Bilderrätsel - wie kommt der Balken auf das Bild....
Oft sieht man auf Fotos Monitore mit einem schwarzen Balken mitten im Bild. Die meisten werden sich vielleicht gar nicht wundern. Denn früher sah man im Fernsehen oft komische Effekte, wenn Röhrenmonitore im Bild waren. Die Frage ist aber berechtigt: "Wieso sehe ich manchmal auf Fotos dunkle Streifen auf Monitoren"?
Kursiv geschriebene Bereich enthalten Inhalt für die harten Freaks, die wirklich jedes Detail wissen möchten).
Bei einem Röhrenmonitor wird das Bild von oben nach unten von einem Elektronenstrahl "gezeichnet". Im Detail erklärt dies das folgende Video:
Dieser Schreibvorgang wird in Deutschland (bei einem alten 50Hz Fernseher) alle 20ms durchgeführt. Machen wir in Gedanken ein Foto: Wir wählen als Belichtungszeit 1/50s (=20ms) und haben Glück und drücken ab, wenn der Strahl genau oben anfängt, dann haben wir genau ein Bild aufgenommen.
Eigentlich wird bei PAL alle 20ms jeweils ein Halbbild geschrieben. Erst mit geraden, dann ungeraden Zeilen. "100 Hz" Fernseher verdoppeln diese Halbbilder, um das Flimmern zu bekämpfen.
Soweit so gut, drücken wir etwas später ab, kann es sein, dass die oberen Zeilen schon wieder dunkel sind, da der Strahl weitergelaufen ist. Wir haben also oben einen dunklen Bereich.
Auch das stimmt nicht exakt, da der Strahl wieder zurückkommt. Allerdings befindet er sich eine gewisse Zeit in der "Austastlücke", die man aufgrund des "Overscan" (Bild wird etwas vergrössert dargestellt) nicht sieht.
Seid Ihr noch bei mir? Ich muss kurz abschweifen...
Schauen wir uns jetzt einmal an, wie der Verschluss einer modernen Spiegelreflexkamera funktioniert: Der Verschluss ist das Teil, das mechanisch den Bildsensor freigibt (warum das mechanisch gemacht wird, führt jetzt zu weit).
Wir sehen eine Ultra Zeitlupe. Erst beobachten wir einen Shutter mit 1/100s und dann mit 1/1000s. Hierauf müsst Ihr achten: Der Shutter besteht aus zwei "Vorhängen".
Bei 1/100s passiert folgendes:
- Der erste schwarze "Vorhang" saust nach unten, gibt den Sensor frei.
- Der zweite "Vorhang" folgt dem ersten und verschließt den Sensor wieder
Bei 1/1000s sieht es anders aus. Hier wandert quasi ein Schlitz über den Sensor.
Jetzt schaut Euch das Video an:
Bei kurzen Belichtungszeiten tastet also der Sensor rasend schnell einen Streifen ab, der von oben nach unten läuft.
Auf die Schnelle haben wir jetzt auch verstanden, was "Blitzsynchronzeit" bedeutet: Bis zu dieser Belichtungszeit schafft es die Mechanik, dass einmal der ganze Sensor "am Stück" frei ist. Jetzt muss der Blitz auslösen! Der Blitz selbst stellt nur einen kurzen Impuls dar. Wenn der Shutter im "Schlitzmodus" arbeitet, sieht man folglich auch nur einen schmalen belichteten Streifen.
Schauen wir uns kurz das "Problembild" an (der Bildschirm sollte eigentlich vollkommen blau sein).
Das Bild stammt von meinem Laptopbildschirm. Die meisten modernen Bildschirme bestehen aus LCDs (und abgeleiteten Technologien). Das LCD kann man als eine Filterschicht verstehen, die vor einer weissen Fläche angebracht wurde. Jeder Bildpunkt kann einzeln geschaltet werden. Dieser Zustand bleibt konstant bis zum nächsten Bildwechsel (siehe "Hold-type" Display in der Wikipedia).
Moment!
"Bei der Röhre hat ein Strahl sich von oben nach unten "gefressen" - da ist es klar, dass ich schwarze Balken bekommen kann - aber beim LCD bleibt das Bild bis zum nächsten Wechsel bestehen" - dann müssten meine Bilder vom Monitor immer perfekt sein - oder?"
Nein.
Ich schweife wieder ab:
Die Hintergrundbeleuchtung meines Laptops besteht aus LEDs. Um die Helligkeit zu steuern, verwendet man Pulsweitenmodulation - nicht erschrecken! Das bedeutet einfach:
Wenn wir 50% Helligkeit haben wollen, schalten wir die LED 50% der Zeit "ein" und 50% aus - und das sehr sehr schnell. Das Auge erfasst dies dann als "halbdunkel".
Hier ein Video zur Erklärung (keine Angst - ich komme bald aufs Thema).
Also das passiert, wenn Ihr die Hintergrundbeleuchtung runterschaltet.
Ich habe jetzt eine Solarzelle, mein Oszi und die Kamera geschnappt. Der Effekt sollte sich nachmessen lassen. Die Solarzelle dient mir als Helligkeitssensor.
Im ersten Versuch steht der Monitor auf geringer Helligkeit. Die Kamera nimmt mit 1/1000s auf (der Verschluss arbeitet also im ganz oben beschriebenen "Schlitzmodus") und das Oszi steht auf 1ms/cm:
Schauen wir erstmal auf die rechte Seite: Die "Hoppel" auf dem grünen Schirm repräsentieren die Zeit, in der die Hintergrundbeleuchtung aktiv ist. Ein Kästchen auf dem Bildschirm des Oszis entspricht 1ms. Die Hintergrundbeleuchtung (HGL) ist etwa 0,6ms aktiv und etwa 3,9ms inaktiv und das über 200 mal in der Sekunde (wir sprechen von einem "Duty Cylce" von etwa 13% bei etwa 220 Hz). Das zeigt das rechte Bild.
Links erscheint ein beleuchteter "Balken". Der Shutter-Schlitz ist von oben nach unten gerast. am Anfang war die HGL "aus". Dann hat sie eingeschaltet. Man sieht den Desktop-Ausschnitt. Jetzt schaltet die HGL wieder ab (der Shutter ist weitergelaufen) und weiter unten wird der Schirm wieder schwarz.
Ich schalte die Hintergrundbeleuchtung auf "Maximum". Der Dutycycle ändert sich auf etwa 80% und wir sehen diesmal einen schwarzen Balken. Das leuchtet ein, denn nun bleibt die HGL die meiste Zeit im "aktiven" Modus.
Für Freaks und alle, die jetzt schon den Finger heben: "ich hab da mal ne Frage":
Nicht alle LED HGLs werden mit PWM betrieben. Einige teure Modelle verwenden Stromquellen zur Ansteuerung (deutlich mehr Aufwand und schlechter Wirkungsgrad!). In vielen Foren wird diskutiert, ob das Flimmern der Beleuchtung als störend empfunden wird.
Ich hatte erst auch den Denkfehler und dachte, der Schlitz würde in 1ms (bei 1/1000s) von oben nach unten durchrutschen. Wie man im Zeitlupenvideo aber sieht, stimmt das nicht. Vielmehr stellt er sicher, dass jeder Bildbereich nur 1/1000s belichtet wird.
Das ist nicht das gleiche.
Achso: die unbelastete Solarzelle ist natürlich kein guter Sensor für diese Messung (aber sie lag gerade herum). Sie hat eine gewisse Trägheit, deswegen darf man die Messung des Duty Cycle nicht auf die Goldwaage legen. Die Frequenz an sich dürfte aber hinreichend genau nachweisbar sein.
Jetzt sind wie alle reif für den Wikipedia Artikel zum "Rolling Shutter Effekt" - tief durchatmen: alles oben Beschriebene kann man auch ohne mechanischen Shutter erleben. Denn Kamera Sensoren in CMOS Technik werden zeilenweise ausgelesen. Dies erzeugt einen ähnlichen Effekt.
Addendum: Flimmern bei CCFL beleuchteten TFTs.
CCFLs oder "Kaltkathodenröhren" kann man am ehesten mit aufgewickelten Leuchtstoffröhren vergleichen (mehr zu den Typen der Hintergrundbeleuchtung auf Wikipedia). Auch diese werden gepulst betrieben und finden in älteren Flachbildschirmen Verwendung. Schauen wir uns mal einen alten Monitor an (Einstellungen an der Kamera und Oszi s.o.)
Das Display wird mit einer Frequenz von etwa 800Hz betrieben. Die Frequenz liegt also in diesem Fall höher als die des LED getriebenen Panels. Innerhalb der Shutterlaufzeit können zwei Minima beobachtet werden.
Diese Balken wirken aber nicht dunkel (wie bei der LED), sondern gelblich. Grund: die blau leuchtende Beschichtung der Röhre leuchtet am kürzesten nach. Folglich erscheint am Ende des Leucht-Zyklusses das licht gelblich (sehr schön im Detail hier erklärt).
Mit Hilfe eines Fotos kann so in einigen Fällen unterschieden werden, mit welchem Leuchtmittel (LED oder CCFL) ein Monitor betrieben wird. Dies funktioniert leider nicht immer und zwar dann, wenn eine deutlich höhere Frequenz fürs "Zerhacken" gewählt wurde. Ich habe hier einen HP 2475w stehen, der auch bis 1/2000s keine Balken auf Fotos zeigt.