Diskussion:Bayer-Sensor

aus Wikipedia, der freien Enzyklopädie

Im Text nur auf CCD einzugehen entspricht nicht mehr dem Stand der Dinge, hab daher entsprechen einfach Bildsensoren eingesetzt. (nicht signierter Beitrag von 129.187.33.1 (Diskussion) 14:16, 24. Feb. 2016 (CET))

Hallo zusammen,

Ohne hier jemandem zu Nahe treten zu wollen, aber die hier erhobenen Behauptungen betreffs der Auflösung von Farb-CCDs mit Bayer-Pattern sind schlicht nicht zutreffend. Tatsache ist, dass für jede Bildkoordinate nur ein Sensorelement zur Verfügung steht. Dieses ist dem Bayer-Pattern entsprechend rot, grün oder blau. Um nun für ein Pixel einen Farbwert aus allen drei Farben zu erhalten, werden die jeweils fehlenden zwei Farben aus den umgebenden Pixeln interpoliert. Damit erhält man ein dreikanaliges Farbbild mit je einem Farbtripel je Pixel in der Originalauflösung des Chips, also in der gleichen Auflösung, die der Chip als Scharz-Weiß-Sensor hätte. Das Bayer-Pattern wird ja gerade deshalb verwendet, damit man keine Auflösung verliert. So kann ein Chip für ein dreikanaliges Bild verwendet werden. Die Farbinterpolation kann Probleme verursachen, besonders an starken Hell-Dunkel-Kanten. Hier können ungewollte Farbsäume und andere Farbartefakte entstehen. Um dies zu vermeiden, werden verschieden aufwendige Filter verwendet.

Im Gegensatz zu Ein-Chip-Kameras mit Bayer Pattern werden hauptsächlich im professionellen Bereich Drei-Chip-Kameras verwendet, die mittels Strahlteiler das Bild in rot, grün und blau trennt und an drei Chips aufgeteilt. Hier sind für jedes Bild-Pixel also je drei Sensorelemente vorhanden. Näheres dazu kurz hier: http://www.ccd-sensor.de/html/farbe.html

Dem stimme ich zu. Die reale Auflösung des Bayer-Sensors ist wesentlich höher als nur ein Drittel der Anzahl der CCD-Elemente. Ein geschickter Interpolationsalgorithmus kann durch die Ausnutzung der Ortsinformation der einzelnen Elemente sehr gute Ergebnisse erzielen. Das sieht man auch, wenn man sich Fotos guter Digitalkameras genauer ansieht. Anders ist wohl auch kaum zu erklären, dass z.B. 6 Megapixel-DSLRs dieselbe Detailauflösung liefern als eine Sigma SD10 mit 3MPixel Foveon-Sensor. Der Artikel wirkt SEHR dilettantisch und auf Halbwissen basierend. Der Autor war wohl etwas sehr begeistert vom X3-Sensor. --Afrank99 19:51, 28. Jan 2006 (CET)


Abmessungen

Der Satz: "Die hohen Abmessungen, die technisch über den Leistungswerten des Chips liegen, werden ebenfalls durch Interpolation erzielt und sind im Prinzip überflüssig,..." ist unverständlich. Was ist mit Abmessungen gemeint? Dass ein größerer Chip keine Vorteile bringen soll?


Anpassung ans Auge

"...das meist zu 50% aus Grün, und je 25% aus Rot und Blau besteht. Dabei wird berücksichtigt, dass das menschliche Auge auf Grün empfindlicher reagiert als auf andere Farben."

Die spektrale Empfindlichkeit bei Silizium ist nicht direkt mit der spektralen Empfindlichkeit des menschlichen Auges zu vergleichen. Man braucht auf dem Sensor eine etwas größere Fläche für Grün. Wegen der strengen Matrixstruktur werden 2 Pixel für Grün genommen. Die genaue Anpassung auf das menschliche Auge erfolgt dann durch den Weißabgleich, also einer farbspezifischen Gewichtung. Bei nur einem grünen Element pro Bayermatrix (was nicht in die Matrixstruktur passt) wäre das Originalbild magenta-stichig, Blau und Rot müssten abgeschwächt werden, ...was ärgerlich wäre. Beim Foveon-Sensor wird dies so gemacht, da alle Flächen, bedingt durch die Bauart, gleich groß sind. --Vektorfeld 23:03, 5. Feb. 2010 (CET)

Wenn das menschl. Auge auf Grün empfindlicher reagiert, warum ist dann MEHR Fläche Grün und nicht WENIGER? Ist das menschl. Auge evtl. auf Grün weniger empfindlich? 134.155.64.109 12:10, 2. Apr. 2008 (CEST)

Weil mit doppelter SubPixelanzahl pro Pixel die Genauigkeit steigt. Die Farbe wird genauer erkannt, also sieht das Auge den "Fehler" oder Unterschied zum Original schwächer, das Bild wirkt realistischer. Denn aus den beiden Subpixeln wird ein Mittelwert errechnet (somit sinkt das Rauschen) und auf einen Pixel, wie bei Monitoren, gerechnet und auch nur mit einem Subpixel angezeigt.
Kurz: Genauigkeit steigt. --Overclocker 13:50, 2. Apr. 2008 (CEST)
Cool, vielen Dank für diese Erklärung, hat geholfen! (: 134.155.64.109 15:38, 14. Apr. 2008 (CEST)
Und wieso reagiert das Auge mehr auf grün? Icon wink.gif -- Gohnarch░░░░ 11:31, 15. Aug. 2008 (CEST)
Gute Frage! Das hat mit der Absorbtion zu tun und der Prozessierung im Gehirn. Recherchiere mal nach Ganglien-Zellen, oder wie die hiessen ... Die Verhaltensforscher interpretieren das so, dass Grün "wichtig" gewesen sein muss, wegen Grass-Bäumen oder was auch immer . Hardwareonkel 22:49, 28. Sep. 2011 (CEST)

Pixelzählung

In einem Forum wurde behauptet, dass jede einzelne sensoreinheit für sich als pixel gezählt wird bei der angabe auf dem photoapparat. ich habe jedoch das gefühl, dass es eher ein 2*2 block ist aus dem das pixel berechnet wird. kann das jemand bitte aufklären? Elvis untot 10:10, 28. Mai 2008 (CEST)

Das stimmt auch so. Eine Kamera mit Bayer-Matrix gibt die Anzahl der monochromen Sensorelemente an. Jede Bayermatrix besteht aus 2x2 Elementen und jede Bayermatrix liefert die gesamte Farbinformation für ein RGB-Pixel. Die beiden Messungen für Grün werden zusammengefasst und liefern einen Wert. Anschließend werden die Daten interpoliert, dass heißt, es werden Zwischenwerte hinzu rechnet. Damit erhöht sich die (RGB) Pixelzahl des Ausgabebildes auf den gleichen Wert, wie sie auch auf der Kamera steht. Aus 12MP (monochrom) sind nun 12PM (RGB) geworden. Diese einmalige Interpolation fällt aber nicht unangenehm auf, auch wenn 3/4 des Bildes aus errechneten Werten besteht und nur 1/3 aus gemessenen. --Vektorfeld 23:18, 5. Feb. 2010 (CET)


Also ich verwende die ColorView I von Olympus für meine Arbeiten und bei dieser ist explizit angegeben, daß sie 3.2 MPx an Auflösung haben soll. Ich kann eindeutig sagen, daß in diesem Fall der Wert die Anzahl der einzelnen CCD-Elemente beschreibt. Daß heißt jedes einzelne rote, grüne oder blaue Element wird gezählt.--P. S. Laplace 16:46, 11. Jun. 2008 (CEST)

Auflösung des Bayer-Sensors

Die Aussage, daß die Auflösung des Bayer-Sensors nur ein Drittel so hoch ist wie die Anzahl der CCD-Elemente, ist vielleicht etwas unglücklich ausgedrückt. Der Autor wollte damit einfach nur sagen, daß der vom Bayer-Sensor gelieferte Informationsgehalt auf ein Drittel zusammengeschrumpft wird: Im Rot- und Blau-Kanal liegen jeweils nur 25% an Daten vor. Im Grün-Kanal sind es noch 50% an echten Daten. Zusammen ergeben sie 1/3(25%+25%+50%) = 33.33%. Das Drittel kommt daher, daß jeder Kanal 1/3 der Gesamtmenge an Daten enthält. Und eine Interpolation bringt auch keinen Informationsgewinn, denn sie errechnet aus den 33,33% bestehenden Daten Werte aus, die wieder von den 33,33% abhängig sind. Darum kann eine Sigma SD10 mit 3MPixel Foveon-Sensor auf keinen Fall dieselbe Detailtiefe besitzen wie eine 6MPx Kamera!--P. S. Laplace 16:46, 11. Jun. 2008 (CEST)

Der Begriff Auflösung ist messtechnisch genau definiert. Man geht davon aus, dass eine Doppellinie eindeutig so erfasst wird, wie sie dem Original entspricht.
Nehmen wir als Beispiel einen 12MP (Bayer) Sensor mit 4000 Spalten und 3000 Zeilen. Jetzt sollen mit einer Sensorzeile Doppellinien erfasst werden. Eine solche Sensorzeile hat entweder 2000 Sensoren für Blau und 2000 Sensoren für Grün, oder die Kombination von Rot und Grün.
Mit einer einzigen Zeile könnte man also 1000 Doppellinien erfassen, allerdings nur als Cyan/ Schwarz oder Gelb/ Schwarz, je nach verwendeter Zeile. Auf keinen Fall erhielte man ein Schwarz-Weißes Muster, entsprechend der Vorgabe. Dazu sind beide Zeilen gleichzeitig zu verwenden, erst dann erhielte man exakt 1000 schwarzweiße Doppellinien.
Für die Spalten des Sensors gilt dann das Gleiche, man kommt also auf 750 Doppellinien.
Eine Interpolation aus einem Hell- und einem Dunkelwert würde nur einen Zwischenwert liefert. Das Ergebnis entspräche auf keinen Fall der Vorgabe. Die Auflösung dieses Sensors liegt also bei 1000x750 Doppellinien.
Ein Foveon-Sensor mit 2000 Spalten und 1500 Zeilen hat ebenfalls die gleiche Auflösung von 1000x750 Doppellinien. Sein Bild hätte also 3MP, die Kamera würde als 9MP-Kamera gelten. --Vektorfeld 16:21, 22. Mai 2010 (CEST)

wie wird's gemacht?

Wie kommt die Farbe auf die Pixel? Sind ja teilweise nur 1,xx Mikrometer (mü funktioniert grad nicht) für eine RGB PixelInformation

Siebdruck wird da schon schwierieg ;) (nicht signierter Beitrag von 88.133.177.202 (Diskussion) 20:32, 17. Jan. 2015 (CET))

Hardware/Software-Aspekte trennen

Die Hardware nimmt einfach die Farben in der Anordnung, die im Artikel im Bild rechts oben angezeigt wird, auf. Wie daraus softwaremäßig die einzelnen Pixel berechnet werden ist eine andere Frage, die damit nicht direkt was zu tun hat. Das bei Digitalkameras übliche Verfahren ist die Interpolation, man kann jedoch auch aus jeder Vierergruppe direkt ohne Interpolation ein einziges Pixel berechnen. Daher bin ich dafür, dass zuerst nur die ardware beschrieben wird und das ganze, wie man darauf die einzelnen Pixel berechnet, danach in einem eigenen abschnitt mit dem Titel Software oder Interpolation behandelt wird. --MrBurns (Diskussion) 13:03, 19. Jan. 2016 (CET) PS: es gibt zwar schon einen abschnitt mit dem Titel Interpolation, aber die Interpolation wird auch schon im vorherigen Abschnitt Funktionsweise und Aufbau erwähnt, mMn sollte sie da raus und dieser erste Abschnitt nur die Hardware behandeln, die Datenverarbeitung sollte ausschließlich im Abschnitt Interpolation stehen. --MrBurns (Diskussion) 13:12, 19. Jan. 2016 (CET)

Umbennenung des lemmas zur korrekten Bezeichnung -> Bayer-Filter

Es gibt CCD und CMOS-Sensoren. Welcher Filter darüber gelegt wird (Bayer, Foveon oder filterlos für S/W) ist unabhängig von der Sensortechnik.
Dementsprechend sollte das Lemma wie in den anderen Sprachvarianten ebenfalls umgesetzt korrekt benannt werden. Gibt es dagegen Argumente oder Einwände? --Angerdan (Diskussion) 00:43, 10. Apr. 2021 (CEST)