Diskussion:Kellfaktor (Technik)

aus Wikipedia, der freien Enzyklopädie
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Kellfaktor (Technik)“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen, und unterschreibe deinen Beitrag bitte mit Icondarstellung des Buttons zur Erzeugung einer Signatur oder --~~~~.

Die Rechnungen zum Nachvollziehen:

  • 576 * (4 / 3) = 768
  • (13,5 MHz / 2) * (768 / 720) = 7,2 MHz
  • 576 * (2 / 3) = 384
  • 384 * (4 / 3) = 512

-- Sloyment 05:58, 4. Sep 2005 (CEST)

Die Rechnung ist schon deswegen problematisch, weil der Fernsehstandard eine Geschichte hat. Der Kellfaktor wurde schon zu Schwarz-Weiß-Zeiten eingeführt, als die Austastlücke nur 12,5 Zeilen lang war und die aktive Zeilendauer in Prozent angegeben wurde. Die rechnerischen Abweichungen sind jedoch zu vernachlässigen, weil der Kellfaktor in zeitnahen Quellen mit einem Bereich angegeben wird, der zwischen 0,5 und 1 liegt.
Ein weiteres Problem wird bei spektraler Betrachtung deutlich, denn eine (Testbild-) Vorlage mit der höchsten denkbaren Ortsfrequenz, also mit Streifen von Zeilenhöhe, führt wegen des Zeilensprungverfahrens zu einer Signalkomponente von nur 25 Hz, selbstverständlich mit Oberschwingungen. -- Wefo 08:48, 4. Okt. 2007 (CEST)

Die grundlegende Idee

Man stellte sich vor, dass das Bild aus quadratischen Bildpunkten besteht. Diese Vorstellung wurde im Englischen zu Pixel, was in unmittelbarer Übersetzung Bildelement bedeutet. Zu Zeiten des Analogfernsehens gab es die Bildpunkte aber nur in der Vorstellung, die wirklichen Bildelemente waren kontinuierlich abgetastete Zeilen.

Der Kern des Problems ist noch wesentlich älter. In den Büchern "Die gesamten Naturwissenschaften in drei Bänden" aus dem Jahr 1873 wird bereits ein Fax-Gerät aus dem Jahr 1865 beschrieben, bei dem das Bild ebenfalls in vertikaler Richtung diskret und in horizontaler Richtung kontinuierlich abgetastet wird. Es stellte sich also die grundsätzliche Frage nach einer Beziehung zwischen der diskreten und der kontinuierlichen Abtastung.

Mit der für das Fernsehen erforderlichen Abtastgeschwindigkeit ergab sich die Notwendigkeit, die erforderliche Bandbreite sinnvoll festzulegen. Eine primitive Vorstellung basiert auf einem Pepitamuster aus quadratischen Bildpunkten mit der Höhe einer Zeile. Diesen Bildpunkten ordnet man in horizontaler Richtung jeweils eine analoge Halbwelle zu und kann so einen Basiswert der Bandbreite berechnen.

Nun wurde aber beobachtet, dass durchschnittliche Bilder mit dieser Bandbreite in horizontaler Richtung schärfer bzw. besser aufgelöst wirkten. Der Betrachtungsabstand soll aber definitionsgemäß so groß sein, dass das Auge die einzelnen Zeilen nicht unterscheidet. Von diesen Voraussetzungen ausgehend kann die Bandbreite solange reduziert werden, bis bei normalem Betrachtungsabstand gerade noch keine sichtbare Verschlechterung der Bildqualität eintritt.

Eine weitere primitive Überlegung ergibt, dass quadratische Bildpunkte eines Pepitamusters, die zwei Zeilen hoch sind, stets so abgetastet werden, dass in einer der Zeilen die maximale Helligkeit erreicht wird. Mit der Zuordnung Halbwelle - Bildpunkt ergibt sich die Hälfte des Basiswertes der Bandbreite.

Diese Überlegungen wurden durch Experimente untermauert. Die experimentiellen Ergebnisse sind stark davon abhängig, mit welchen technischen Anordnungen und mit welchen Vorlagen in welcher Mischung die Versuche durchgeführt werden. Dabei spielt unter anderem die Linearität der Übertragungskennlinie eine Rolle. Große Abweichungen bei den praktischen Ergebnissen sind also erklärlich.

Im Zusammenhang mit der Transcodierung von Farbfernsehsignalen stellte sich die Frage, ob für das Leuchtdichtesignal eine Bandbreite von 3 MHz hinreichend sein kann. Entsprechende Versuche mit einer Betrachtergruppe ergaben, dass (PAL-) Bilder mit nur 3 MHz und mit Flankenversteilerung im Vergleich zu echten (SECAM-) Farbbildern mit nominell 5 MHz besser bewertet wurden. Die etwas extreme Schlussfolgerung besteht darin, dass eine scharfe Kante im Bild genügt, um einen scharfen Eindruck zu vermitteln. -- Wefo 08:48, 4. Okt. 2007 (CEST)

English version

This article is completely different from the English version. I believe the English version is correct - the Kell factor is not related to interlacing, but rather applies to any scanning system. A native German speaker should correct it. --84.9.129.185 00:39, 28. Sep 2005 (CEST)

Dem pflichte ich zu 100% bei. Bin leider kein Spezialist, aber der deutsche Artikel scheint wirklich sehr falsch zu sein. Ich füg einen Disclaimer hinzu. Fred K 15:50, 18. Nov 2005 (CET)

progressive

Der frühere Fehler, daß es einen Unterschied bezüglich Kellfaktor zwischen progressive und interlaced gäbe wurde jetzt wieder eingefügt. Die Veröffentlichungen von Kell, Mertz, Baldwin u.a. beweisen das Gegenteil - bitte einfach besser recherchieren. Interlaced hat gegenüber progressive andere Qualitätsnachteile (aber auch Vorteile), die haben aber nichts mit dem Kellfaktor zu tun und gehören nicht hierher. usefred (nicht signierter Beitrag von Usefred (Diskussion | Beiträge) 13:56, 8. Mär. 2006)

Hallo usefred, leider bist Du für mich nicht erreichbar. Mich würde Dein Zugriff auf die Veröffentlichungen sehr interessieren, weil die genaue Kenntnis der Versuchsaufbauten für die Schlussfolgerungen (siehe Bedeutung) wesentlich ist. Ich hoffe sehr, dass Du Dich meldest. Gruß -- Wefo 17:49, 2. Nov. 2007 (CET)

Die Bedeutung des Kellfaktors

Im Grunde genommen haben die praktischen Versuche das Abtasttheorem widerlegt, noch bevor es mehr als ein Jahrzehnt später veröffentlicht wurde.

Aus dem Kellfaktor kann die 1/3-Regel abgeleitet werden, die besagt, dass die Bandbreite des abgetasteten Signals etwa ein Drittel der Abtastfrequenz nicht wesentlich überschreiten sollte.

Mit dem Übergang zum Digitalfernsehen entstanden echte Bildpunkte. Deshalb musste der Kellfaktor entfallen und die Abtastfrequenz wurde auf 13,5 MHz festgelegt (das Dreifache des Farbträgers für die so genannte geschlossene Codierung, womit die Abtastung eines FBAS-Signals bezeichnet wurde). -- Wefo 14:27, 4. Okt. 2007 (CEST)

Abbildungen

Die Abbildungen gehen offenbar von einem Monitor mit Gammawert 1,0 aus. Sollten die auf Gamma 2,2 umgerechnet werden? -- Sloyment (Diskussion) 14:50, 3. Feb. 2013 (CET)

Zwischen dem Kell-Faktor und dem Gammawert besteht kein Zusammenhang. Ich würde mir auch nicht zutrauen, den Gammawert der genannten Bilder ohne Hilfsmittel zu bewerten. In der Photographie und beim Fernsehen wird über die gesamte Übertragung ein Gammawert von 1 angestrebt (Quelle: Handbuch für Hochfrequenz- und Elektrotechniker. Wenn ich fleißiger wäre, würde ich diese Quelle ordnungsgemäß zitieren.)
Der Kell-Faktor beweist, dass eine "fehlerfreie" Wiederherstellung des Signals nicht möglich ist; das Abtasttheorem ist irreführend aber gegen die allgemein anerkannten Kapazitäten leider nicht auszurotten.
Die Farbfernsehsysteme sind von den Entwicklern (NTSC) so ausgelegt, dass die Bandbreite der übertragenen Farbdifferenzsignale ca. 1/3 der Farbträgerfrequenz beträgt. Dies gilt auch für SECAM.
Der Artikel Kellfaktor ist insoweit irreführend, als es um die Vergleichbarkeit von horizontaler und vertikaler Auflösung geht. In der oben genannten Quelle heißt es: „Kell-Faktor m (FS) Setzt man die Zahl der Bildpunkte je Zeile gleich der Zeilenzahl des Bildes mal dem Bildseitenverhältnis, so ergibt sich aus ihr und der Zeilenfrequenz die Bildpunktzahl/s und damit die erforderliche Bandbreite. Die Auflösung ist aber in vertikaler Richtung nicht genau definiert. Nimmt man an, daß sie geringer ist als in horizontaler Richtung, so muß die errechnete Bandbreite im Interesse gleicher horizontaler und vertikaler Auflösung mit einem Faktor zwischen 0,5 und 1, dem K. multipliziert werden.“ -- wefo (Diskussion) 03:19, 2. Jan. 2014 (CET)

Problem

"Zur Ermittlung des Kellfaktors vergleichen Testpersonen Testbilder am Bildschirm mit der ungerasterten Vorlage und bestimmen"

Und hier liegt schon das Problem. Es wird also, damit man Bandbreite einspart, eine physikalische Größe verringert, um ein vordefiniertes Niveau eines rein subjektiven Werts aufrecht zu erhalten.

Zu Zeiten Kells mag das nicht anders gegangen sein. Aber subjektive Bewertung von Wiedergabe ist fehlerbehaftet. Ähnliches kennt man aus der Problematik des Einscannens von Bildern. Zur Feststellung der Übertragungsqualität würde man heute ein weißes Rauschen digitalisieren, und sich anschließend mit Spektralanalyse die Frequenzverteilung des Scans ansehen, um die obere Grenzfrequenz der Wiedergabe zu ermitteln. So erschlägt man alle Einflussfaktoren zusammen.134.247.251.245 10:47, 8. Sep. 2014 (CEST)