Diskussion:Interpolation (Fotografie)
Bitte um Mithilfe
Es gibt verschiedenen Interpolationsalgorithmen. Kann jemand eine kurze Auflistung und Erläuterung derselben beisteuern? Mir fehlt leider etwas die Zeit dazu. Danke. -- Friedrich Graf 18:09, 11. Jun. 2009 (CEST)
- Spline#Allgemeines-- Friedrich Graf 13:56, 13. Jun. 2009 (CEST)
- Ich habe erstmal eingefügt was ich in Wikipedia gefunden habe ... vielleicht hat einer noch eine bessere Idee ...-- Friedrich Graf 17:26, 24. Jun. 2009 (CEST)
Farbinterpolation
Woher kommt die Verwendung des Begriffes Farbinterpolation wie hier im Artikel? Ich kenne es eigentlich nur als Synonym für die CFA-Interpolation (eine sehr kurze Einführung gibt es im Artikel Bayer-Sensor); Google scheint da ähnlicher Meinung zu sein. -- Matthias.Kirchner 10:05, 5. Aug. 2009 (CEST)
Und wie kann man bitte innerhalb eines einzelnen Pixel Farbe interpolieren? Da ein Pixel eben genau ein (singulärer) Punkt ist mit Farbinformationen und damit per definitionem keine verschiedenen "Zustände" an seinen "Rändern" besitzt, kann auch innerhalb des Pixels nichts interpoliert werden. Was ich mir durchaus -bildlich, als auch mathematisch- vorstellen kann, ist Farbverläufe beim Skalieren/Vergrößern zu interpolieren. Also dass beispielsweise bei einer 2fachen Vergrößerung für jedes Pixel das Mittel der Differenz zu seinen jeweiligen Nachbarn ermittelt wird und an den Diagonalen entsprechend ähnlich. Aber innerhalb einzelner Pixel .... ? -- Warui 22:52, 23. Feb. 2010 (CET)
- Was ist nach deinem Verständnis dann ein Pixel? Kann er verschiedenen "Zustände" an seinen "Rändern" besitzt? --Friedrich Graf 08:58, 24. Feb. 2010 (CET) Werde Kommissar
- die kleinste Einheit einer digitalen Rastergrafik, somit also nicht weiter "teilbar", ähnlich einem Atom (dem ursprünglichen Gedanken). Ein Pixel ist für mich ein singulärer Punkt mit Farbinformationen, ergo gibt es keine "halben Pixel" (oder kleiner), ergo kann ich innerhalb eines Pixels nichts interpolieren. -- Warui 09:27, 24. Feb. 2010 (CET)
- Ich sehe das mit der Teilbarkeit genauso. Warum spricht man beim Pixel dann von Interpolation?...
... weil die umliegenden Werte (der umliegenden Pixel) in die Neuberechnung eingezogen werden. Diese umliegenden Pixel sind natürlich auch "singuläre Punkte".
Das ist mit den "umliegenden Farbinformationen" auch nicht anders. Es sind ebenso (für sich genommen) singuläre Werte.
... und nichts anderes sagt das Wort "Interpolation": Zwischenrechen - im Sinne von Zwischenwerte ermitteln (in unserem Fall aus den "umliegenden" singulären Informationen. --Friedrich Graf 09:51, 24. Feb. 2010 (CET) Werde Kommissar- Man spricht nicht beim einzelnen Pixel von Interpolation, weil es da nichts zu interpolieren gibt, sondern bei mehreren Bildpunkten. Ich habe ja auch nichts anderes als die Definition im Artikel angezweifelt, dass Farbinterpolation "innerhalb einzelner Pixel" stattfindet und es sich so von der Dichteinterpolation ("zwischen verschiedenen Pixeln eines Bildes") absetzt. -- Warui 11:51, 24. Feb. 2010 (CET) P.s: Im Übrigen habe ich deine Diskussionsbeiträge in eine Baumstruktur mit eingeordnet, um auch Neu-Hinzukommenden die Verfolgung der Diskussion zu erleichtern.
- Man spricht nicht beim einzelnen Pixel von Interpolation, weil es da nichts zu interpolieren gibt, sondern bei mehreren Bildpunkten. - per signaltechnischer Korrektheit hast du Recht. Das Problem ist das Man spricht - es ist ein solches Durcheinander üblich (Beispiel: meine Fotografenlehrlinge haben in der Schule verschiedene Lehrer mit verschiedenen Eigenheiten, was die Verwendung solcher Begriffe betrifft (das nennt sich wohl "umgangssprachlich").
- Ich vermute aber, du zielst auf eine neue Definition: bitte mache einen Vorschlag! --Friedrich Graf 13:47, 24. Feb. 2010 (CET) Werde Kommissar
- Da es vordergründig um Farben geht, ist Farbinterpolation der richtige Begriff (schonmal gut). Die Interpolation oder "Zwischenberechnung" findet also zwischen den Farbinformationen in den verschiedenen Punkten (ergo auch "zwischen den Punkten") statt. Da auch die "Dichteinterpolation" zwischen den Punkten stattfindet, kann dies nicht das Unterscheidungsmerkmal sein. Ich sehe den Unterschied vllt. eher beim Ziel: Das, was im Artikel als Dichteinterpolation beschrieben wird, kenne ich als Anti-Aliasing (siehe dieser Abschnitt im Artikel dazu). Zwar ist auch dies eine Art der Interpolation, aber eher als Folge des Grundproblems der Rasterung und nicht, weil man explizit Bildinformationen dazurechnen möchte. Vielleicht kann man die Dichteinterpolation auch sinnvoll als Spezialfall der Farbinterpolation beschreiben (Interpolation der Grauwerte zwischen Schwarz und Weiß). -- Warui 15:23, 24. Feb. 2010 (CET)
- Man spricht nicht beim einzelnen Pixel von Interpolation, weil es da nichts zu interpolieren gibt, sondern bei mehreren Bildpunkten. Ich habe ja auch nichts anderes als die Definition im Artikel angezweifelt, dass Farbinterpolation "innerhalb einzelner Pixel" stattfindet und es sich so von der Dichteinterpolation ("zwischen verschiedenen Pixeln eines Bildes") absetzt. -- Warui 11:51, 24. Feb. 2010 (CET) P.s: Im Übrigen habe ich deine Diskussionsbeiträge in eine Baumstruktur mit eingeordnet, um auch Neu-Hinzukommenden die Verfolgung der Diskussion zu erleichtern.
- Ich sehe das mit der Teilbarkeit genauso. Warum spricht man beim Pixel dann von Interpolation?...
- die kleinste Einheit einer digitalen Rastergrafik, somit also nicht weiter "teilbar", ähnlich einem Atom (dem ursprünglichen Gedanken). Ein Pixel ist für mich ein singulärer Punkt mit Farbinformationen, ergo gibt es keine "halben Pixel" (oder kleiner), ergo kann ich innerhalb eines Pixels nichts interpolieren. -- Warui 09:27, 24. Feb. 2010 (CET)
Vielleicht kann man die Dichteinterpolation auch sinnvoll als SPEZIALFALL der Farbinterpolation beschreiben (Interpolation der Grauwerte zwischen Schwarz und Weiß). - du gehst ja ran ... damit würdest du einigen Dogmatikern sehr auf die Füße treten. Ich denke das dürfen wir nicht als Spezialfall beschreiben. Ich könnte mir als ersten Schritt bezüglich einer Artikeländerung vorstellen, das man den ZUSAMMENHANG zwischen Dichte und Farbe mehr herausstellt. Und danach sinngerecht mit den entsprechenden Kapiteln weitermacht. Was hälst du davon? --Friedrich Graf 17:48, 24. Feb. 2010 (CET) Werde Kommissar
P.S. laß uns nach der Entscheidung über den Löschantrag weitermachen ...
Diskussion
Der Artikel behandelt zwei Dinge, die wenig miteinander zu tun haben. Ich schlage vor, die Abschnitte zur Änderung der Bildauflösung in den Artikel Bildauflösung einzubauen - da kann dann auch ein Link auf Rekonstruktionsfilter hinein - und den Rest nach Tonwertspreizung zu verschieben. --Phrood 18:47, 12. Feb. 2010 (CET)
Leider habe ich nicht ganz verstanden, was du meinst:
- welche 2 Dinge?
- Änderung der Bildauflösung: wo steht das?
- ...
--Friedrich Graf 19:48, 12. Feb. 2010 (CET) Werde Kommissar
- 1) Änderung der Bildauflösung (Abschnitte "Grundlagen" und "Dichteinterpolation"), 2) Interpolation im Farbraum ohne Änderung der Bildauflösung (Abschnitt "Farbinterpolation") --Phrood 20:00, 12. Feb. 2010 (CET)
Interpolation ist untrennbar mit der Änderung der Bildauflösung (+Dichte) verbunden. Eins kann ohne das andere nicht "existieren". Dazu kommt, das Wikipedia ein Universallexikon ist und damit unter dem Lemma "Interpolation" zwingend auf beide Arten hinweisen muß.
Aber du scheinst etwas anderes zu meinen... (zwei Dinge, die wenig miteinander zu tun haben... Abschnitte zur Änderung der Bildauflösung in den Artikel Bildauflösung einzubauen ... und den Rest nach Tonwertspreizung zu verschieben.). Wozu willst du diese Änderungen machen - welchen Vorteil soll das bringen? --Friedrich Graf 21:07, 12. Feb. 2010 (CET) Werde Kommissar
- Du hast mich nicht verstanden. Dieser Artikel beschreibt im ersten Teil die Änderung der Bildauflösung, im zweiten Tonwertspreizung. Richtig oder falsch? --Phrood 22:39, 12. Feb. 2010 (CET)
Falsch. Tonwertspreizung ist ein äusserst spezieller Fall dieses Sachverhaltes: "Im Verarbeitungsweg jedes Bildes werden Helligkeit und Farbe verändert."... wenn du in einem Bildbearbeitungsprogramm deiner Wahl die Gradation an einem beliebigen Punkt zwischen 0 und 100% anfässt und sie irgendwie veränderst, änderst du Helligkeit und Kontrast (wie beschrieben). Eine Tonwertspreizung würdest du nur erhalten, wenn du tatsächlich die 0 und/oder 100% anfässt. --Friedrich Graf 23:32, 12. Feb. 2010 (CET) Werde Kommissar
Ich bin immer noch etwas verwirrt. Wie findet die im lezten Teil des Artikels beschriebene Art der Interpolation statt? Wenn ich ein Bild mit mittleren Grautönen habe und dessen Kontrast erhöhe, wie geht ein Bildbearbeitungsprogramm (algorithmisch gesprochen) vor, um Abstufungen zu vermeiden? --Phrood 21:38, 13. Feb. 2010 (CET)
Generell werden, um Abstufungen zu vermeiden, die neuen Werte (zwischen den sonst vorhandenen Abstufungen) auf verschiedenen Wegen errechnet. Diese verschiedenen Algorithmen bewerten die umliegenden Werte auf unterschiedliche Art. Im einfachsten Fall werden Werte wiederholt, im aufwendigsten Fall alle angrenzenden Werte in die Neuberechnung einbezogen.
- War das deine Frage? --Friedrich Graf 16:08, 14. Feb. 2010 (CET) Werde Kommissar
Ich versuche mir nur über den Artikelinhalt klar zu werden. Nehmen wir ein einfaches Beispiel, bei dem Pixel Werte von 0 bis 9 annehmen können:
Die Werte der Bildzeile im Ausgangsbild seien wie folgt:
4 4 5 5 4 4 4 4 4 5 5 5 5
Nach der naiven Kontrasterhöhung sind die Werte wie folgt:
2 2 7 7 2 2 2 2 2 7 7 7 7
Wie sähen die Werte bei einer Kontrasterhöhung "mit Interpolation" aus, bei der "alle angrenzenden Werte in die Neuberechnung einbezogen" werden? Die Lösung erscheint mir nicht trivial, und ohne Literaturnachweise oder Beispielbilder werde ich ehrlich gesagt nicht glauben, dass bestehende Bildbearbeitungssoftware wie z.B. Photoshop eine Interpolation durchführt. --Phrood 17:00, 14. Feb. 2010 (CET)
Ich glaube, langsam verstehe ich deine Frage...
Dein Beispiel hat einen Hacken: es idealisiert an falscher Stelle. Mache dazu ein Gedankenexperiment:
- Stelle dir eine Treppe vor. Der Vereinfachung halber würde ich 100 Stufen vorschlagen. Unten ist Schwarz, oben weiss.
- Nehme ein Gummiseil. Es hat die selbe Länge wie die Treppe. Du legst es auf die Stufen (von weiss bis schwarz).
- Nimm einen Hammer und nagele die Enden (Schwarz und weiss) fest. Sie können bei unserem Gedankenexperiment nicht mehr geändert werden.
- Nimm einen Edding und markiere auf dem Gummiseil alle 100 Stufen.
- Jetzt fasse das Gummiseil an. Beispielsweise bei "50". Ziehe es zu der 60. Stufe. Unsere Bild würde dabei heller werden.
- Auf welchen Stufen sind ALLE anderen Werte gerutscht? Es dürfte kaum einen Wert geben, der exakt ganzzahlige Stufenwerte verändert wurde. Damit entsteht ein Problem: ich habe Nicht-ganzzahlige Wertveränderungen - benötige aber ganzzahlige Werte.
- Das Bildbearbeitungsprogramm interpoliert an dieser Stelle. Durch Wertewiederholung, bikubische Interpolation oder anders ...
--Friedrich Graf 17:31, 14. Feb. 2010 (CET) Werde Kommissar
Wenn ich recht verstehe, sollen die 100 Stufen den möglichen Helligkeitswerten (bei 8-Bit-Bildern wären es 256) entsprechen, und das Problem ist, dass bei der Bildbearbeitung nicht-ganzzahlige Pixelwerte entstehen können, richtig?
Ein solcher Fall wäre, wenn (z.B. durch Gammakorrektur) aus dem Pixelwert x -> x^2.2 wird. Bei folgendem Ausgangsbild (Werte von 0 bis 99):
10 13 20 20 20 34 70 88
wäre das exakte Endergebnis
0.63 1.12 2.89 2.89 2.89 9.32 45.63 75.49
Und, wenn ich richtig verstehe, ist das Problem, dass nicht-ganzzahlige Werte entstehen? Dann wäre der einfachste Weg doch einfach, die Werte zu runden:
1 1 3 3 3 9 46 75
Inwiefern ist hier Interpolation anwendbar? --Phrood 18:00, 14. Feb. 2010 (CET)
Es ist einfach der dafür gültige Begriff. Es ist nicht darauf angewendet, sondern das Verfahren selbst (auch dein Rundungsbeispiel) ist die Interpolation. Diese Begriff und seine Bedeutung hat verschiedene Anwendungsformen (Beispiel: Interpolation_(Mathematik)), deren Kern aber immer die "Zwischenwert-Ermittlung" ist. Im Übrigen kannst du beim oben genannten Beispiel die Lücken nicht nur durch "runden" füllen. Ebenso denkbar ist die Wertewiederholung (... also alles nach dem Komma wird einfach gestrichen) oder die Berücksichtigung von Tendenzen (nicht gleichmäßger Werteanstieg). --Friedrich Graf 18:16, 14. Feb. 2010 (CET) Werde Kommissar
- Jetzt verstehe ich nichts mehr. Interpolation ist die Ermittlung von Zwischenwerten aus zwei oder mehreren Werten. Rundung wird auf einen einzigen Wert angewandt, unabhängig von anderen Werten. Wertewiedeholung ist nicht das gleiche wie Abrundung. Und oben hast du geschrieben, "Das Bildbearbeitungsprogramm interpoliert an dieser Stelle. Durch Wertewiederholung, bikubische Interpolation oder anders". Wie sähe denn die bikubische Interpolation aus (in meinem 1D-Beispiel wäre es kubische Interpolation)? --Phrood 18:24, 14. Feb. 2010 (CET)
Wo ist deine Verwirrung? Beim Beispiel? Oder wechselst du jetzt wieder in die mathematische Ecke? Ich will beides nicht miteinander vermischen, denn jedes Beispiel "hinkt" an irgendeiner Stelle. Ansonsten: "kubisch" bedeutet nichts weiter als die Berechnung in einer Dimension (bikubisch bedeutet also die Berechnung in 2 Dimensionen). --Friedrich Graf 18:34, 14. Feb. 2010 (CET) Werde Kommissar
- Zeige mir bitte ausgehend von meinem Beispiel, wie das Resultat mit kubischer Interpolation aussehen würde. --Phrood 18:39, 14. Feb. 2010 (CET)
- (BK) Ich versuch mich auch mal an einer Erklärung: Helligkeitsraum 0 bis 255, gegebenes (lineares) Bild: 1 1 1 5 5 5 9 9 9. Wir spreizen, Ergebnis zum Beispiel 1 1 1 127 127 127 255 255 255. Das Bild umfasst jetzt fast den ganzen Helligkeitsraum - aber immer noch nur drei Helligkeitswerte. Jetzt erst wird interpoliert. Dabei könnte dann z. B. rauskommen: 1 2 10 117 127 137 245 254 255. (Die Interpolationsfunktion ist hier nur ausgedacht, hab keine Formel genommen.) Macht es das klarer? --Eike 18:39, 14. Feb. 2010 (CET)
- Was du schreibst, ist, was ich auch in meinem ersten Beispiel angenommen hatte. Ich behaupte, dass, wenn du ein solches Bild in Photoshop hast und die Tonwerte spreizt, anders als im Artikel behauptet, keinerlei Berechnung von Zwischenwerten stattfindet. Hast du ein Beispielbild, das das Gegenteil beweist? Laut dieser Seite findet nichts dergleichen statt (man kann höchstens mit einer höheren Farbtiefe arbeiten oder die Abstufungen durch Rauschen versuchen zu kaschieren). --Phrood 18:49, 14. Feb. 2010 (CET)
Okay, Stück-für-Stück.
- Die 1-dimensionale Zwischenwert-Berechnung ist sicher nicht der Streitpunkt. Damit wäre alles bezüglich der Helligkeitswerte innerhalb EINES Pixels erklärt. Nun existiert kein Pixel solitär. Ich kann jetzt also auch die 2. und 3. Dimension berücksichtigen (indem ich die benachbarten Pixel berücksichtige). Sicherlich wirst du dieser Aussage auch zustimmen. All das sagt noch nichts über die exakte Art der Interpolation aus (Pixelwiederholung, Rundung,...). Um das Prinzip zu erklären, wird aber auch nicht mehr benötigt.
- Was Photoshop an dieser Stelle genau macht, wissen nur die Programmierer. Der genaue Algorithmus wird Firmengeheimnis sein und der Name (Beispiel "biskubisch") ist vieldeutig und Bestandteil eines inhomogenen Konglomerates an Begrifflichkeiten, der diesen Bereich durchzieht.
- Die von dir zitierte Seite ist ein Preseartikel und kein Datenblatt.
- Du willst ein Gegenbeispiel - gerne. Ich setzte an dieser Stelle einige Grundkenntnisse voraus - bitte gib Bescheid, wenn etwas Missverständlich ist. Ansonsten mache wieder ein Experiment:
- Nehme ein beliebiges "normales" Bild und kopiere es. Version A wird ausschliesslich in 8 bit verarbeitet, Bild B ausschliesslich in 16 bit.
- Führe bei beiden Bildern exakt die gleiche extreme Helligkeits- oder Kontraständerung durch. Extrem meint beispielsweise eine Tonwertstauchung auf 5 % des ursprünglichen Tonwertumfangs ...
- Speichere beide Bilder.
- Führe bei beiden Bildern exakt die gleiche Korrektur durch, die die vorhin genannte Helligkeits- oder Kontraständerung (annähernd) rückgängig macht.
- Speichere beide Bilder.
- Vergleiche beide Bilder. Sowohl mit dem bloßen Auge, als auch mit den Meßwerkzeugen (Histogramm,..) kannst du deutliche Unterschiede ausmachen. Warum?
- In 8 bit habe ich es mit 256 Abstufungen zu tun - die extreme Änderung wirkt sich sehr negativ aus. In 16 bit habe ich ca. 65.000 Abstufungen - die extreme Änderung wirkt sich deutlich geringer aus. ... Reicht das Beispiel?
--Friedrich Graf 19:23, 14. Feb. 2010 (CET) Werde Kommissar
- Ich denke nicht, dass man für dein Beispiel eine Interpolation annehmen muss. (Eher im Gegenteil: Interpolation könnte den Effekt teilweise ausgleichen.) 5% von 256 sind einfach mal viel weniger an Möglichkeiten als 5% von 64k, deshalb wird bei dem einen Bild viel mehr an Information vernichtet als bei dem anderen. --Eike 19:44, 14. Feb. 2010 (CET)
- Ich weiß, dass mit 16 Bit weniger Abstufungen entstehen als mit 8 Bit, das zeigt dein Experiment ja auch. Was ich immer noch nicht verstehe, ist, was das mit Interpolation, wie sie im Artikel beschrieben ist, zu tun hat. Ich verstehe auch nicht, wieso du Rundung als Spezialfall der Interpolation siehst. Dass der Begriff "bikubisch" vieldeutig sein soll, ist falsch. Er ist exakt definiert. --Phrood 19:47, 14. Feb. 2010 (CET)
Was bedeutet INTERPOLATION für dich? Bitte als Definition, sonst werden wir hier nicht weiterkommen. --Friedrich Graf 19:46, 14. Feb. 2010 (CET) Werde Kommissar
- Berechnung eines Zwischenwertes aus zwei oder mehreren Werten. --Phrood 19:47, 14. Feb. 2010 (CET)
- (BK) Ich stelle fest, dass ich mir da gar nicht so sicher bin. Aber ich denke, eine Kontrastspreizung kann beim besten Willen keine Interpolation (sondern höchstens eine Extrapolation) sein. --Eike 19:53, 14. Feb. 2010 (CET)
- @Eike: Es findet weder Interpolation noch Extrapolation statt, sondern lediglich eine Normalisierung. --Phrood 19:55, 14. Feb. 2010 (CET)
Einverstanden.
Machen wir weiter: Ich denke nicht, dass man für dein Beispiel eine Interpolation annehmen muss. Welche Möglichkeit gebe es noch? --Friedrich Graf 19:51, 14. Feb. 2010 (CET) Werde Kommissar
- Die Änderung jedes Pixelwertes unabhängig von den anderen Pixelwerten. --Phrood 19:53, 14. Feb. 2010 (CET)
- Die Änderung jedes Pixelwertes unabhängig von den anderen Pixelwerten - willkürlich oder nach einem Schema?
- "Bikubisch"-Definition. Das ist die (exakte) mathematische Definition. In der Fotografie gibt es diese Exaktheit in der Begrifflichkeit nicht (Beispiel: Helligkeit interpolieren - meint hier etwas anderes, als wir oben diskutiert haben - mit dem selben Begriff.
- "Normalisierung": auch hier die Frage: nach welchem Schema wird normalisiert? Und ... es entstehen Zwischenwerte. Dies wird Interpolation genannt.
--Friedrich Graf 20:00, 14. Feb. 2010 (CET) Werde Kommissar
- Nur, weil es ein Schema gibt und Zwischenwerte entstehen, ist es IMHO noch keine Interpolation. Vielleicht können wir die Sache abkürzen: Woher stammt denn die Information, dass z. B. eine Kontrastspreizung eine Interpolation wäre? --Eike 20:06, 14. Feb. 2010 (CET)
- "willkürlich oder nach einem Schema?" - was für ein Schema meinst du? Nehmen wir eine Tonwertstauchung auf 5%. Das bedeutet, jeder Pixelwert wird mit 0,05 multipliziert. Für jedes (x,y)-Pixel des Bildes: Bild(x,y) := 0,05 * Bild(x,y). Wo ist da die Interpolation? --Phrood 20:09, 14. Feb. 2010 (CET)
- Woher stammt denn die Information, dass z. B. eine Kontrastspreizung eine Interpolation wäre? - weiss ich auch nicht. Wo steht das im Artikel?
Interpolation meint in allen Anwendungsfällen (Beispiel Mathematik) nur das Errechnen von Zwischenwerten. Nichts weiter. Bei einer Helligkeitsänderung entstehen zwangsläufig nicht-ganzzahlige Werte, die umgerechnet werden müssen. Diese Umrechnung wird in allen mir bekannten Bereichen (Mathe, Fotografie,...) Interpolation genannt. Ich habe noch nie einen Artikel, ein Fachbuch oder anderes mit einem Alternativen Wort dafür gelesen. Beispiele wurden oben zur Genüge gebracht. - Das bedeutet, jeder Pixelwert wird mit 0,05 multipliziert. Was tust du (Beispiel) bei "55"? Es entsteht der Wert 2,75. Was tust du bei 54? Es entsteht der Wert 2,7. Wie werden diese beiden Werte auf die (zwangsläufig) ganzzahlige Skala eines 8-bit-Bildes übertragen? Als 2 unterschiedliche Werte? Geht nicht.
--Friedrich Graf 20:17, 14. Feb. 2010 (CET) Werde Kommissar
- Ich glaube - und ich denke, Eike wird mir da zustimmen - du verwechselst Interpolation mit Rundung. --Phrood 20:19, 14. Feb. 2010 (CET)
Angenommen du hast recht: warum unterscheide ich dann zwischen verschiedenen Interpolationarten (s.o.). Deine Aussage ist schwer nachzuvollziehen - für heute muß ich Schluß machen. ich melde mich morgen wieder.... --Friedrich Graf 20:23, 14. Feb. 2010 (CET) Werde Kommissar
- Also wirklich, du bist in dieser Diskussion glitschig wie ein Aal :-)
- Bei der Programmierung hat man bei der Mutiplikation und Division üblicherweise zwei Möglichkeiten: man rundet ab (2,7 -> 2) oder man rundet zur nächstliegenden Ganzzahl (2,7 -> 3). Gehe ich recht in der Annahme, dass du diese beiden Methoden zwei "Interpolationsarten" nennst? --Phrood 20:43, 14. Feb. 2010 (CET)
Danke für den Aal ;-)
- Deine Frage beinhaltet eine Logikfalle (ACHTUNG: es ist mir wichtig zu betonen, das ich dich nicht als "Störer" empfinde. Ich habe auf Wikipedia nur kein besseres Beispiel gefunden):
- Das eine hat mit dem anderen nicht zwingend etwas zu tun (Mutiplikation und Division..., diese beiden Methoden zwei "Interpolationsarten...)!
- lese bitte diese Beschreibung. Du siehst, "Interpolation" ist einfach nur ein Wort. Ich will mich damit nicht rausreden; denke aber, das du eine sehr eng definierte Vorstellung von "Interpolation" hast. Aber es ist einfach nur ein Wort. Ein Wort, das nichts weiter als "Zwischenrechnen" bedeutet. Damit ist es auf viele Fälle anwendbar. U.a. auch verschiedene mathematische Funktionen. Wie du hier siehst, kann es in "freierer" Wortverwendung auch in der Kunst usw. verwendet werden.
- In der Fotografie wird es für das Errechnen neuer Pixelwerte benutzt. Davon gibt es 2 grundsätzliche Arten: zwischen den Pixeln und innerhalb der Pixel. Wenn als Mittel zum Zweck "Rundung" benutzt wird (s. dein Beispiel), wäre es "Interpolation". Das heißt aber NICHT, das Rundung generell = Interpolation ist.
--Friedrich Graf 09:47, 15. Feb. 2010 (CET) Werde Kommissar
- Nein. Multiplikation, Division und Rundung sind von sich aus definitiv keine Interpolation. (Sie können aber zur Interpolation verwendet werden.) Wenn ich 2,2 auf 2 Runde, fehlt es entschieden am "Dazwischen". --Eike 10:28, 15. Feb. 2010 (CET)
- Warum schreibst du "Nein", wenn deine Aussage mit meiner übereinstimmt (Das heißt aber NICHT, das Rundung generell = Interpolation ist.)?
- Wenn ich 2,2 auf 2 Runde, fehlt es entschieden am "Dazwischen"
- Das runden (oder was auch immer) ist nur Mittel zum Zweck. Daher besitzt das runden auch kein "Dazwischen". Das "Dazwischen" taucht an anderer Stelle auf:
- Um ein Bild irgendwie bearbeiten zu können (kopieren, speichern, drehen,....) braucht jeder Pixel eine genau definierte Menge an Informationen (Beispiel sein Helligkeitswert). Damit ist nicht gemeint, das der Pixel (beispielsweise) 60% hell ist. Damit ist gemeint: (beispielsweise) 8bit an Farbinformationen müssen vorhanden sein. Fehlt ein bit, wird das Bild als fehlerhaft erkannt und kann nichtverarbeitet werden.
- Das o.g. Beispiel mit der Treppe und dem Gummiseil illustriert einen temporären Zwischenzustand im Bildbearbeitungsprogramm. Rein technisch wäre in diesem Augenblick nicht jedem bit ein EINDEUTIGER Wert zugeordnet.
- Zur Errechnung dieser eindeutigen Werte kann das Bildbearbeitungsprogramm verschiedene Parameter berücksichtigen:
- die Helligkeit der Nachbarpixel
- den Helligkeitswert des "ungeraden" Wertes
- in den seltensten Fällen erfolgt eine sture "Rundung". Damit soll ein möglichst harmonischer Helligkeitswert geschaffen werden (ohne zusätzliche Schwellwert-Artefakte usw).
- Das "Dazwischen" ist also ein algoritmisch ermittelter "Mittelwert", der aus verschiedenen Parametern errechnet wird und dem technischen Schema des Pixels (in unserem Beispiel 8bit) entsprechen muß.
- Das gleiche Grundprinzip erfolgt auch bei der Errechnung fehlender Pixel. Auch hier gibt es (fast) nie ein ganzzahliges Verhältnis zwischen Vorher und Nachher (der Pixelmenge). Aus verschiedenen (nichtganzzahligen) Zwischenwerten muß ein neuer Pixelwert errechnet werden. Dieser neue Pixelwert muß auch in das Schema der Bildspeicherung passen und soll möglichst umfassend alle Werte berücksichtigen (Helligkeit, Konturen,....).
- Das runden (oder was auch immer) ist nur Mittel zum Zweck. Daher besitzt das runden auch kein "Dazwischen". Das "Dazwischen" taucht an anderer Stelle auf:
--Friedrich Graf 14:52, 15. Feb. 2010 (CET) Werde Kommissar
- Zu 1: Ich schreibe "Nein", weil "Wenn als Mittel zum Zweck "Rundung" benutzt wird (s. dein Beispiel), wäre es "Interpolation"." IMHO falsch ist. Ich denke, wir können Rundung komplett weglassen. Was ohne Rundung keine Interpolation ist, wird mit Rundung nicht zu einer. Was mit Rundung Interpolation ist, ist es ohne Rundung auch. Würdest du dem zustimmen? --Eike 15:13, 15. Feb. 2010 (CET)
Ja.
Eine wunderbare Begründung :-)
--Friedrich Graf 16:02, 15. Feb. 2010 (CET) Werde Kommissar
- "Zur Errechnung dieser eindeutigen Werte kann das Bildbearbeitungsprogramm verschiedene Parameter berücksichtigen: 1. die Helligkeit der Nachbarpixel" - Ich bestreite das und behaupte, dass bei Tonwertstauchung, Helligkeitsänderung und ähnlichen Operationen die Pixelwerte unabhängig voneinander berechnet werden. Kannst du Belege für deine Behauptung, dass die Helligkeit von Nachbarpixeln berücksichtigt wird, Belege liefern? --Phrood 18:27, 15. Feb. 2010 (CET)
- Was wird das? Kannst du für deine Behauptung Belege liefern? Hast du die o.g. Argumente gelesen? Deine Reaktionen werden etwas seltsam ...
- Hat das diskutieren mal ein Ende? Der Einstiegsgedanke für diese Diskussion war: Der Artikel behandelt zwei Dinge, die wenig miteinander zu tun haben. Ich schlage vor, die Abschnitte zur Änderung der Bildauflösung in den Artikel Bildauflösung einzubauen - da kann dann auch ein Link auf Rekonstruktionsfilter hinein - und den Rest nach Tonwertspreizung zu verschieben. ... wir haben uns davon reichlich entfernt. Es wäre gut, beim Thema zu bleiben. Was also ist mit "Rekonstruktionsfilter" und Co.?
--Friedrich Graf 18:45, 15. Feb. 2010 (CET) Werde Kommissar
- Der Satz "Bildbearbeitungsprogramme versuchen diese Lücken (fehlende Bildinformation) durch Interpolation zu füllen." im Artikel ist falsch. Der Absatz "Farbinterpolation" hat deshalb unter diesem Lemma keine Existenzberechtigung. --Phrood 18:50, 15. Feb. 2010 (CET)
- (WP:BK) Siehe weiter oben: Ich habe die Kontrastspreizung bei Gimp probiert, und zu meiner Überraschung wies das Histogramm klar erkennbare Lücken auf. Es wurden also nur neue Werte errechnet, und die Helligkeit von Nachbarpixeln anscheinend nicht berücksichtigt. --Eike 18:52, 15. Feb. 2010 (CET)
Hallo Eike - ich würde mich gerne auf das Problem von Phrood konzentrieren, sonst zerfasert die Diskussion zu sehr (siehe oben). Ausserdem fange ich der Übersicht halber ein neues Kapitel an. Das ist durch den Wechsel des Themas auch sinnvoll (Phroods erster und letzter Satz des Kapitels sind "2 verschiedene Paar Schuhe"). --Friedrich Graf 18:11, 16. Feb. 2010 (CET) Werde Kommissar
- Ah, hallo?!? Ich habe genau zu dem Stellung genommen, was du geschrieben hast: "Was wird das? Kannst du für deine Behauptung Belege liefern?" Ich habe es ausprobiert. Es passiert nicht das, was im Artikel behauptet wird. Wenn keine Belege dazu kommen, dass die Information "innerhalb eines Pixels" interpoliert wird, sollten wir den kompletten Absatz streichen, der nur aufgrund dieser unbelegten Behauptung überhaupt eine Existenzberechtigung in einem Artikel "Interpolation" hätte. --Eike 11:49, 17. Feb. 2010 (CET)
Das was du in Gimp siehst (oder nicht siehst) ist von vielen Faktoren (nicht nur den diskutierten) abhängig. Da der Kern der Einstiegsaussage geändert wurde, wäre es kontraproduktiv an dieser Stelle weiter zu diskutieren. Schliesslich geht es um das Lemma und nicht um unsere persönlichen Erfahrungen mit Gimp. FG --Friedrich Graf 11:56, 17. Feb. 2010 (CET) Werde Kommissar
- Wenn keine Quelle für die Artikel-Behauptung vorhanden ist, muss sie gestrichen werden. Da gibt's wenig zu deuteln. (Eigentlich hatte ich Phrood diese Quelle liefern wollen, und war überrascht, dass Gimp es nicht so macht.) --Eike 12:17, 17. Feb. 2010 (CET)
Diskussion 2
Wiederholung:
Der Satz "Bildbearbeitungsprogramme versuchen diese Lücken (fehlende Bildinformation) durch Interpolation zu füllen." im Artikel ist falsch. Der Absatz "Farbinterpolation" hat deshalb unter diesem Lemma keine Existenzberechtigung. --Phrood 18:50, 15. Feb. 2010 (CET)
Hallo Phrood.
- Linguistischer Ansatz: Quelle1
- mathematischer Ansatz: Quelle2: Die Interpolation ist eine Art der Approximation (=Näherungswert): die betrachtete Funktion wird durch die Interpolationsfunktion in den Stützstellen exakt wiedergegeben und in den restlichen Punkten immerhin näherungsweise. Die Approximationsgüte hängt vom Ansatz ab. Um sie zu schätzen, werden Zusatzinformationen über die Funktion f benötigt. Diese ergeben sich auch bei Unkenntnis von f meist in natürlicher Weise: Beschränktheit, Stetigkeit oder Differenzierbarkeit lassen sich häufig voraussetzen.
- praktischer Ansatz: Quelle3: Anwendung (der Interpolation) u.a. für Antialiasing_(Computergrafik): Beim Antialiasing werden die Bildinhalte nicht nur ausschließlich am Pixel, sondern auch an anderen Positionen ausgewertet und in die Berechnung der Pixelfarbe mit einbezogen.
- Der gesunde Menschenverstand: Wird ein Bild in der Pixelmenge verändert, werden zusätzliche Pixel interpoliert. Sind diese Pixel generell weiss oder schwarz? Nein. Warum? Weil die Helligkeitswerte der Nachbarpixel in die Berechnung einbezogen werden. Ohne Helligkeitsberücksichtigung keine Interpolation!
- Das Mathebeispiel (identischer Rechenweg, identische Werte)
- Pixel-180 = 1-hell Pixel-181 fehlt Pixel-182 = 3-hell ... nach der Interpolation könnte Pixel-181 = 2-hell sein
- Bit-Nr.-180 = 1-hell Bit-Nr.-181 fehlt Bit-Nr.-182 = 3-hell ... nach der Interpolation könnte Bit-Nr.-181 = 2-hell sein
Fazit:
- Interpolation ist eine Zwischenwertermittlung, die einfach, aber auch aufwendig erfolgen kann. Interpolation ist sowohl im Grafikbereich, wie auch in der Fotografie (beides digitale Bilder) der übliche Fachterminus.
- Interpolation beinhaltet nicht nur die Berechnung am Pixel, sondern auch die Berechnung an der Pixelfarbe.
- Das Lemma Interpolation_(Fotografie) erklärt auf vereinfachende Weise diesen Sachverhalt. Man kann das natürlich mit mehr Fachspezifik tun, das war aber nicht dein Kritikpunkt...
--Friedrich Graf 18:11, 16. Feb. 2010 (CET) Werde Kommissar
- Bei den im Abschnitt "Farbinterpolation" genannten Operationen, wie Farbkorrektur, Helligkeitsänderungen, Tonwertspreizung und ähnlichen Operationen, werden keine Zwischenwerte ermittelt.
- Bei diesen Operationen wird keine Interpolationsfunktion verwendet. Der Wert jedes Pixels des Output-Bildes hängt *ausschließlich* vom Wert desselben Pixels des Input-Bildes ab.
- Beim Anti-aliasing wird nicht interpoliert, sondern es werden Integrale oder Summen berechnet. ("Texturantialiasing" ist im Grunde das gleiche wie die die Änderung der Bildauflösung, um die es aber im Abschnitt "Farbinterpolation" nicht geht.)
- "Wird ein Bild in der Pixelmenge verändert, werden zusätzliche Pixel interpoliert." - Ja, aber wir reden hier nicht von der Änderung der Bildauflösung, die im ersten Abschnitt korrekt beschrieben ist, sondern vom Abschnitt "Farbinterpolation". Bei diesen Operationen werden die Helligkeitswerte der Nachbarpixel *nicht* berücksichtigt.
- Ja, das wäre Interpolation - zum Beispiel bei der Änderung der Bildauflösung. Aber bei den genannten Operationen "fehlen" keine Pixel, und es findet keine Interpolation statt. --Phrood 18:54, 16. Feb. 2010 (CET)
Ich habe den Eindruck, das wir uns nicht gegenseitig überzeugen können. Für mich ist es einfach ein Wort ("zwischenrechnen" ...), das in einem inhomogenen Konglomerat von Begriffen seine alltägliche Anwendung findet. Für dich ist es der Widerspruch zu einer speziellen Definition eines signalverarbeitenden Prozesses. Vermutlich werden wir so nicht weiterkommen. Hast du eine Idee? Vielleicht eine Textänderung (statt der Streichung)? Oder du hast noch andere Gedanken. --Friedrich Graf 20:54, 16. Feb. 2010 (CET) Werde Kommissar
Ich habe die Bezeichnung für Operationen gefunden, bei denen der Ausgabewert jedes Pixels nur aus dem Eingabewert berechnet wird: es handelt sich um Punktoperatoren. --Phrood 14:30, 20. Feb. 2010 (CET)
- Friedrich Graf, du hast doch selber mit dem Mohn-Bild ein Beispiel gebracht, dass im Histogramm keine Interpolation erfolgt - sonst wären doch keine Lücken zu sehen. Da wird nur gerundet. Deine Punkte 4 & 5 machen zwar Sinn, aber nicht in dem Kontext der Kontrastanpassung -wie Phrood schon schrieb- hier werden ja keine Pixel dazugerechnet. Irgendwie machst du nen Denkfehler! --Andy386 14:37, 20. Feb. 2010 (CET)
@Andy386: bitte öffne das Mohnbild in einem Bildbearbeitungsprogramm deiner Wahl und schaue dir das Histogramm an. Du wirst im Wesentlichen keine Lücken mehr sehen. Das rechte Mohnbild zeigt ein Histogramm im Zwischenstadium (nach der Bearbeitung, vor der Speicherung).
@Phrood: Dein Beispiel ist sehr interessant (wirklich - durch deine Anregungen lerne ich neue Sachen kennen ...). Auf der von dir angegeben Seite sind sehr viele Verfahrensnamen beschrieben, die auch auf unsere Diskussion zutreffen. Weiterführende Informationen finden sich dann u.a. im Literaturverzeichnis ("Bildverarbeitung in der Praxis von Rainer Steinbrecher") - ich habe es nur "quergelesen" - in Datei 2 auf Seite 122 folgender Satz:
Der neue Grauwert eines Bildpunktes .. berechnet sich dann als bilineare Interpolation: (im Zusammenhang mit dem Thema "Bildverbesserung" und "Adaptive Histogrammeinebnung".
...verstehe mich nicht falsch... ich will deine Kompetenz nicht anzweifeln ... das ganze Thema ist Teil eines inhomogenen Konglomerat. Der Weg, den du Richtung digitale Bilder eingeschlagen hat, hat eine andere Terminologie benutzt, als andere Wege. Durch die technische Entwicklung der letzten Jahre ist es aber zu einer starken Vermischung gekommen. Trotzdem existieren alle Begriffe noch nebeneinander. Ich finde das nicht schlimm ... es ist liegt einfach in der Natur der Sache. MfG --Friedrich Graf 16:08, 20. Feb. 2010 (CET) Werde Kommissar
- "Das rechte Mohnbild zeigt ein Histogramm im Zwischenstadium (nach der Bearbeitung, vor der Speicherung)" - Willst du allen Ernstes behaupten, nach der Speicherung eines Bildes sieht das Histogramm anders aus als vor der Speicherung? Wenn das der Fall ist, liegt es an der verlustbehafteten Kompression und nicht an der Bildbearbeitung. --Phrood 17:38, 20. Feb. 2010 (CET)
Ich habe es gerade mit Photoshop (als "psd" gespeichert) und mehreren Bildern getestet. Beim Mohnbild hat sich das Histogrammbild verändert, bei disem Bild allerdings überhaupt nicht (es stammt von der Seite "Punktoperatoren"). Offensichtlich reagiert Photoshop auf jedes Bild anders - warum, weiss ich nicht. hast du eine Idee? --Friedrich Graf 17:52, 20. Feb. 2010 (CET) Werde Kommissar
- Ich weiß nicht, aber die von dir angegebene Stelle im Buch von Rainer Steinbrecher beschreibt die Adaptive Histogram Equalization, bei der es sich nicht um einen Punktoperator handelt, und bei dem der Interpolationsbegriff völlig zurecht angewandt wurde. Ich bestreite, dass es im Computergrafik-Bereich zu einer "starken Vermischung" von Begriffen gekommen ist, und dass der Interpolationsbegriff in der von dir beschriebenen Weise verwendet wird. Den Satz "Bildbearbeitungsprogramme versuchen diese Lücken (fehlende Bildinformation) durch Interpolation zu füllen." halte ich im Kontext weiterhin für falsch und den Abschnitt "Farbinterpolation" für überflüssig. Außerdem habe ich jetzt einen Artikel Skalierung (Rastergrafik) geschrieben, der die in den Abschnitten "Grundlagen" und "Dichteinterpolation" beschriebene Skalierung von Bildern ausführlich behandelt. Ich habe deshalb jetzt einen Löschantrag auf diesen Artikel gestellt. --Phrood 22:20, 20. Feb. 2010 (CET)
Immer noch keine Lösung ?
Also, der letzte Satz stimmt nicht. Habs grad mit verschiedenen Dateiformaten im PSP probiert, da wird nix zusammengezogen. Der Effekt wird durch Histogrammbefehle->Angleichen erreicht. --Andy386 09:52, 19. Apr. 2010 (CEST)
Ich grüße dich - nach den zum Teil sehr heftigen Kontroversen der letzten Wochen ist hier etwas Ruhe eingezogen. Auch bei den begleitenden Artikeln (passend zum Thema) herrscht Funkstille. Deine Frage hat mich wieder an dieses Thema erinnert. Um - mit deiner Hilfe - wieder an die letzten Wochen anzuknüpfen, würde ich mich gerne wieder in das Thema reinlesen (schliesslich soll es diesmal eindeutiger laufen). Lass mir daher bitte einige Tage Zeit. BG --Friedrich Graf Werde Kommissar 12:41, 19. Apr. 2010 (CEST)
So Andy, ich habe mich jetzt wieder reingelesen. Vor einigen Wochen (beim Löschantrag) war ich doch sehr schockiert. Ich habe scheinbar harmlose Fragen gestellt bekommen, aus denen - als die Diskussion festgefahren war, ein Löschantrag entstanden ist. Jetzt habe ich aber genug "Abstand" dazu - nur direkt an die alte Diskussion möchte ich aus diesem Grund nicht mehr anschließen.
Ich habe mir mal den sachlichen Kern dieses vergangenen Streites angesehen. Da sich alles um die Frage der Farbinterpolation drehte (wahr?, Verdeutlichung, Schlussfolgerungen,...) und wir nicht primär des diskutieren willens hier sind, habe ich mich zur kompletten Überarbeitung des Artikels entschlossen. Den aktuellen Stand kannst du gerne HIER verfolgen - deine Kommentare sind herzlich willkommen.
Ich habe mir als Vorbereitung dieser Artikelüberarbeitung einen einfach zu wiederholenden Test überlegt (1a, 1b, 2a, 2b) - bei dem auf unterschiedliche Arten Interpoliert wurde. Ausser der Farbe hat sich aber nichts dabei geändert...
Wenn ich das Gefühl habe, fertig zu sein, werde ich die Überarbeitung bei diesem Lemma einfügen. FG --Friedrich Graf Werde Kommissar 16:21, 21. Apr. 2010 (CEST)
Fertig. --Friedrich Graf Werde Kommissar 22:01, 24. Apr. 2010 (CEST)
Die neue Version ist nicht geeignet, prinzipielle Vorbehalte gegenüber dem Artikel zu zerstreuen, wie sie vorher durch den Überarbeiten-Baustein angezeigt wurden. Der Artikel stellt insofern eine bemerkenswerte und interessante Arbeit dar, als er Offensichtlichkeiten, Hors-Sujets und teilweise korrekte Aussagen zu einem erratischen Gesamtbild vereint, das man als Bogdanoff-Stil bezeichnen könnte. Es liegt mir fern, harsche Kritik zu üben, aber es wäre eine Lüge, zu behaupten, dass Links auf diesen Artikel empfehlenswert wären, ohne dass ein Konsens zur Enzyklopädiewürdigkeit von Non Sequiturs besteht. --Phrood 22:59, 24. Apr. 2010 (CEST)
- Hallo Phrood, du bist der Autor des Artikels Skalierung_(Rastergrafik) der seit geraumer Zeit den Wartungsbaustein Dieser Artikel oder Abschnitt ist nicht allgemeinverständlich formuliert. trägt. Genauso ging es mir ebend - beim lesen deiner Zeile. Ich habe mir mal den "Spass" gemacht, und deine Zeilen "frei" übersetzt:
Die jetzige Version des Artikels ist "Scheisse", da sie nicht meinen Vorstellungen entspricht. Der jetzige Artikel ist Ausdruck eines wirren Weltbildes - voller Allgemeinplätze und unpassender Bemerkungen - das man am besten als Märchen bezeichnen kann. Vielleicht ist "Scheisse" das unpassende Wort für diesen Artikel, denn es ist eigentlich nur ein Machwerk - jedenfalls sollte niemand das als Bereicherung von Wikipedia betrachten, da es auf Trugschlüssen basiert. - Hallo Phrood, Beleidigungen bleiben Beleidigungen - auch wenn sie aus geschraubten Sätzen und einer Ansammlung elitärer Codewörten bestehen. Ich kann dich nur dringend auffordern, diesen unpassenden Diskussionsstil zu vermeiden.
- Hallo Phrood, du hast vor ca. 10 Wochen eine Diskussion auf dieser Seite mit mir begonnen, ohne das ein gewisser konstruktiver Lösungsansatz bei dir erkennbar war. Da du keine Zustimmung zu deiner Meinung gekommen hast, stelltest du einen Löschantrag. Dieser wurde abgelehnt. Jetzt entsteht bei mir der Verdacht, das du auf polemischer Ebene den Artikel schlecht machen willst. Du solltest es sein lassen.
--Friedrich Graf Werde Kommissar 09:02, 25. Apr. 2010 (CEST)
- hmm...
- warum muss sowas hier kommen: "Ein digital fotografiertes Bild wird meist mit 3 Farbkanälen in Rot, Grün und Blau gespeichert."? Jpeg (als meist verwendetes) speichert YCrCb.
- unten, beim "einzigste"n (->einzige?), wird der unterschied wohl daher kommen, dass vorher Werte grösser 128 dabei waren -> s. auch Histogramm --Andy386 21:21, 26. Apr. 2010 (CEST)
- sorry, dass ich nur auf Fehler hinweise...
- Beim Bild "Beispiel für die Interpolation der Punktdichte:" hab ich mich zuerst über die leere untere Reihe gewundert, dann gemerkt worum es geht. Nun ja, h, m und r müssen dann auch noch weg.
- "Diese nicht-ganzzahligen Zwischenrechnungen stellen das Kernproblem aller Interpolationen dar und sind die Ursache für verschiedene Interpolationsmethoden" Nein. Eher einen Sonderfall. Man will doch z.B. beim Druck Kanten wegmachen und interpoliert daher bikubisch. Das Verhältnis spielt keine Rolle. Ich würde schon fast das nicht-ganzzahlige als Sonderfall sehen, bei dem noch mehr zu rechnen ist...
- Im Abschnitt Interpolationsmethoden halte ich eine Verlinkung auf Skalierung (Rastergrafik) für sinnvoll.
- --Andy386 08:40, 27. Apr. 2010 (CEST)
Danke für deine Ausbesserungen. Zu deinen Bemerkungen:
- Du hast Recht, mir ging es bei dieser Formulierung nicht vorrangig um JPEG sondern um die "Illustration" anhand "RGB" - das dürfte dem normalen Leser vertrauter sein als etwas anderes. Hast du eine Idee für eine bessere Formulierung? ... ich werde das auch mal in meinem Kopf rumschieben.
- Wert 128... Was schlussfolgerst du daraus dass vorher Werte grösser 128 dabei waren ?
- Bild Punktdichte ... richtig. Das Bild ist unvollständig - müßte mal ausgebessert werden... vielleicht finde ich die Zeit in den nächsten Tagen.
- Sonderfall - nichtganzzahlig. Ich weiss nicht, welche Teile der Bildverarbeitungskette du in den letzten Tagen benutzt hast. Aber vermutlich wird entweder die Ansicht am Monitor oder das drucken dabei gewesen sein. Gehe das doch in Gedanken mal durch und versuche die tatsächlichen Pixelwerte zu ermitteln. Ich habe beispielsweise gerade das Bild eines Kunden vor mir mit 3150x6299 Pixeln. Dieses soll ausgedruckt werden. A4 mit etwas Rand. Egal, was ich probiere, es ergibt sich immer ein nicht-ganzzahliges Verhältnis (teste es mit einem Taschenrechner und einer einfachen Halbierung der Pixelwerte).
- Die Verlinkung zu Skalierung (Rastergrafik) habe ich auch schon überlegt - ich würde dort nur gerne den Baustein "unverständlich geschrieben" wegkriegen, sonst ist diese Verlinkung kontraproduktiv (da sie nichts erklärt, sondern nur neue Fragen aufwirft). Mit der Überarbeitung dieses Artikels - und deiner kritischen Begleitung - habe ich bereits geliebäugelt, allerdings habe ich auch immer noch den (erfolglosen) Löschantrag von Phrood im Hinterkopf. ... wozu also sinnlos Arbeit investieren (es ist Phroods Artikel)?
--Friedrich Graf Werde Kommissar 10:21, 27. Apr. 2010 (CEST)
zu 2.) okay, hab das nur so aus dem Drübergucken gedacht. Näher betrachtet fällt was unter 128 weg,
die Striche, die in 1a "unten" auftauchen sind in 2a weg. Bsp.: nimm ein normales Foto, setz Helligkeit +100, und alles unter ~128 (das war aus dem Kopf, ist wohl unter 100?? -- Kann an der PSP-Einstellung der Helligkeit liegen -- zumindest irgendwas) ist plan. Setz dann Helligkeit -100, und viel, was vormals über 128 war, ist jetzt plan.
zu 4.) naja, in den Dingen, in denen ich mich bewusst mit Skalierung auseinandersetzen musste, brauchte ich x4 oder x8 zu nehmen. Ausgabe war Monitor, aber auch hier gibt es genug Unterschiede in den verschiedenen Algorithmen. --Andy386 14:26, 27. Apr. 2010 (CEST)
Hallo Andy. Schau dir bitte die neue Formulierung zu 1.) an. Besser?
Zu 4.): Von der Masse aller Bildverarbeitungen dürfte das täglich "anfassen" eines digitalen Amateurbildes mit Abstand der häufigste Fall sein. In der Regel wird mit deutlich mehr Pixeln fotografiert, als später benutzt werden (Monitor, Ausdruck 10x15cm). Dadurch kommt es zwangsläufig zu den genannten nicht-ganzzahligen Interpolationen.
Die erste Interpolation erfolgt sogar in der Kamera: zum einen durch die Wahl einer Pixelmenge die anders ist als die Anzahl der Elemente des Sensors (nicht-repräsentativ geschätzt die Einstellung bei 50% aller Amateurkameras), aber hauptsächlich durch den Transfer in das gewünschte Dateiformat (u.a. Parameter), was auch eine Farbinterpolation beinhaltet. Aus diesem Grund finde ich auch deine Ausbesserung "oft" (Abschnitt Interpolationmethoden) nicht korrekt. Ich werde deswegen aber kein Streit anfangen.
zu 5.) warten wir einfach mal Phroods Überarbeitung ab ...
--Friedrich Graf Werde Kommissar 13:19, 28. Apr. 2010 (CEST)
- Hallo F. Graf !
- 1. gefällt mir so.
- Hast du meine Erklärungsversuche zu 2. nachvollziehen können?
- zum 4.) okay. es darf aber nicht so wirken, als würde man den Interpolationsmist nur wegen nicht-ganzzahligen Skalierungen machen. Bei ganzzahligen ist die Rechnerei nicht anders.
- zum "oft": in Kombination mit dem mehrfach finde ich es sonst nicht so gelungen... Okay, wenn man die Farbinterpolation aus dem Bayersensor mit dazunimmt... aber es gibt ja auch noch Foevon's - die müssten nur einmal interpolieren, nähmlich bei der Ausgabe. Ohne die Beschränkung ist es nicht so richtig schön. Kannst auch ein sehr oft draus machen ;) --Andy386 08:05, 29. Apr. 2010 (CEST)
Hey.
Zu 2.) Ich denke, das ich deine Worte verstehe. Letztlich gibt es verschiedene Arten des Heller-stellens. Die beiden Unterschiedlichsten dürften der "klassiche" Hell-Regler und die Gradationskurve sein. Bei ersterem passieren die von dir beschriebenen Dinge ("plan"), bei zweiten kann dieser Effekt verhindert (oder minimiert) werden. Ungeachtet dessen werden immer die Farborte geändert und damit interpoliert.
Zu4.) Interpolationsmist ... Der Hauptsatz lautet: Diese nicht-ganzzahligen Zwischenrechnungen stellen das Kernproblem aller Interpolationen dar .... Würde alles auf ganzzahlige Art realisiert werden können, hätte man deutlich weniger Streß. Jeder Ausgangszahl ließe sich nach einem einfachen Schema eine Endzahl zuordnen - super. Erst die nicht-ganzzahligen Dinge haben alles kompliziert gemacht. Natürlich hast du Recht, das alles auf die selbe Art berechnet wird, aber ohne das genannte Problem wären die teilweise sehr komplexen Rechenwege nicht nötig - einfachere Methoden würden ausreichen.
- Wie ist das Verhältnis Foeveon zu anderen Sensoren (Bayer,...)??? ... ich denke ein "sehr oft" würde den Satzbau auch nicht besser machen.
Ich habe nicht ohne Grund immer von der "Bildverarbeitungskette" gesprochen. Letzlich werden wir immer Elemente in einer Kette finden, wo die genannten Effekte nicht auftreten. Die Betrachtung der gesamten Kette beinhaltet aber immer (mehrfache) Interpolation. U.a. haben Bayer und Foveon eins gemeinsam: die Notwendigkeit der Umwandlung von Rohdaten auf Nutzdaten. Und egal wie das gemacht wird - es beinhaltet eine Farbortänderung und damit eine Interpolation. Nochmal ganz deutlich: es gibt keine Kette ohne Interpolation (im Beispiel Foveon an mindestens 2 Stellen: Rohdaten zu Nutzdaten und Nutzdaten zum Ausgabemedium.
--Friedrich Graf Werde Kommissar 15:42, 29. Apr. 2010 (CEST)
- zum 2.) okay. Wie auch immer, so wie das jetzt drin ist, wurde es zu stark geändert.
- zum 4.) ich glaube, wir reden anneinander vorbei... ich meinte mit Methoden sowas wie Bilineare oder Bikubische Interpolation. Welche einfacherern meinst du jetzt?
- Ich dachte, die Auflösung, in der beim Foevon gespeichert wird, entspricht dem des Sensors... wann wird da von Rohdaten zu Nutzdaten interpoliert? --Andy386 21:23, 29. Apr. 2010 (CEST)
zu 2.) zu einen: okay. - zum anderen Wie auch immer, so wie das jetzt drin ist, wurde es zu stark geändert. - das widerspricht sich etwas. Mach bitte 1 Satz mehr dazu.
zu 4.) wir reden anneinander vorbei. - sehe ich genauso. Sag einfach wo du hinwillst. Was ist dein Anliegen?
zu 5.) "Foveon" diese Kamera produziert natürlich auch Rohdaten - wo ist das Problem?
--Friedrich Graf Werde Kommissar 09:59, 30. Apr. 2010 (CEST)
- 2. das okay bezog sich auf deine Anmerkungen; das es so nicht geht, darauf, wie es jetzt in der Wikipedia steht. Die Änderungen kommen nicht von Interpolationen sondern einfach davon, dass das Bild zu krass bearbeitet wurde (-> einige Linien weg sind). Im Falle eines Interpolationsfehlers dürften die Linien (die im Histogramm meine ich) nur leicht verrückt sein. Wie gesagt, mach das mal mit nem normalen Foto...
- beim 4. ging es mir darum, dass man auch bei x2 und x4 Bikubische Interpolation braucht, z.B. um Treppchen zu minimieren.
- beim "oft" gings mir darum, dass es ggf. auch reicht nur einmal, bei der Ausgabe, zu interpolieren. ohne den Zusatz ist es zu dogmatisch... ergo 5. bei den Rohdaten muss man nix interpolieren, für jeden Pixel ist dann ein RGB-Wert vorhanden--Andy386 16:03, 1. Mai 2010 (CEST)
Zu 2a.) Leicht verrückt wäre es bei einmaliger Anwendung - darin stimmen wir beide überein. Im Bemerkungstext zu den Musterbildern habe ich deutlich gemacht, das es sich um eine wiederholte Änderung handelt - um den Unterschied dem normalen Laien deutlich zu machen. Hier können wir gerne die Bemerkung "mehrfache Änderung" noch deutlicher machen - Beispielsweise "10 fache Änderung".
Zu 2b.) Wie gesagt, mach das mal mit nem normalen Foto... - mache täglich. Ich lebe davon (Bildrestaurierung,...)
zu 4a.) Da du auf Details wert legst, muß ich jetzt mal "Krümmel kacken": du schreibst bei x2 und x4 Bikubische Interpolation braucht, z.B. um Treppchen zu minimieren. - ist nicht zwangsläufig notwendig. Aber vermutlich ging es dir nur um die Illustration eines Beispiels....
zu 4b.)"oft" - wie gesagt: ich werde darum nicht streiten. Wir lassen das drin.
zu 5.) Rohdaten muss man nix interpolieren, für jeden Pixel ist dann ein RGB-Wert vorhanden - richtig. Ich stelle mir die tägliche Arbeit eines Profis vor, der Rohdaten benutzt: zuerst die Fotos als Rohdaten speichern. Da (abgesehen von Spezialfällen), die Rohdaten niemals direkt zu einem Drucker geschickt werden (genaugenommen zu einem Raster_Image_Processor), werden dieselben in Nutzdaten umgewandelt. Im Falle eines Amateures wäre das beispielsweise JPG. Diese Nutzdaten dienen dem unkomplizierten Handling, der Bearbeitungsmöglichkeit usw.
... das bedeutet, das für die Rohdatenerstellung nichts interpoliert werden muß, aber für die Nutzdatenerstellung (s.a. "jede Farbortänderung ist mit Interpolation verbunden").
MfG --Friedrich Graf Werde Kommissar 21:59, 1. Mai 2010 (CEST)
- also, ich wollte mit meinen Aussagen bei 2 auf was anderes hinaus: bei den Histogrammen erkennt ein Laie wie ich, dass es sich um mehr als nur Rundungsfehler dreht.
- echt? das ist nicht nötig? Wie kann man dass noch verhindern?
- 4b=5 - ich hoffe doch, dass die meisten Profis erst eine Auflösungsänderung machen, wenn es um die Ausgabe geht - zu mindest denke ich dass. Sollte nun der Fall eintreten, dass ein Foevon vorhanden ist & Ausgabe auf dem Monitor in Sensorauflösung gewünscht ist & ändert man nix am Bild, braucht man genau NULL Interpolationen. Dass das nicht der Standard ist, ist mir klar. Aber es gibt den Fall. Und es gibt Dinge, die schneller als der Schall sind... ;) --Andy386 00:36, 3. Mai 2010 (CEST)
Hallo Andy - ich würde an dieser Stelle gerne mal sortieren:
- A)_geklärte Sachen:
- Dass das nicht der Standard ist, ist mir klar. (4b und 5) - aus diesem Grund haben wir das Wort "oft" eingefügt.
- erkennt ein Laie wie ich, dass es sich um mehr als nur Rundungsfehler dreht. - das ist seltsam - ich habe täglich mit Laien zu tun. Keiner kann auf Anhieb ein Histogramm bezüglich Rundungsfehler interpretieren. Ich wage sogar zu behaupten, das ein Profi, der diese Histogramme ohne jegliche Zusatzinformation erhält, diese nicht zwangsläufig als Rundungsfehler interpretiert. Hinter den reinen Histogrammen sind mehrere Ursachen möglich, denn Histogramme sind nur stilisierte Anzeigen. Ich denke daher, das wir beide an dieser Stelle nicht noch mehr Zeit in diese Diskussion stecken müssen.
- B)_unbeantwortet Fragen: echt? das ist nicht nötig? Wie kann man dass noch verhindern? - leider kann man Ironie auf Wikipedia nicht erkennen - ich habe mich daher entschlossen, deine Frage "Ernst" zu nehmen: eine 2 oder 4fache Skalierung (was der Anlaß für dein beschriebenes Beispiel ist), dürfte in vielen Fällen im Nicht-Sichtbaren Bereich (für das durchschnittliche deutsche Auge) liegen. Ich bin jeden Tag erstaunt, was für grottige Qualität von Amateuren für scharf und toll gehalten wird. Eine reine Skalierung im genannten Rahmen halte ich im durchschnittlichen Fall für harmlos. Ausnahmen dürften sein:
- Überlagerung mit technischen Problemen (bsp. deutliche Artefakte)
- sehr spezielle Vorlagen (bsp. Pixel-Art)
Sollte ein kritischer Betrachter mit diesen Problemen zu tun haben, hat er aber sowieso (noch andere) Probleme ...
- B)_Würde ich an dieser Stelle ebenso als "FERTIG"-diskutiert betrachten. der Rest hat mit der Arbeit am Lemma nichts zu tun und kann auf einer unserer beider Benutzerseiten weiter diskutiert werden.
MfG --Friedrich Graf Werde Kommissar 09:36, 3. Mai 2010 (CEST)
letzte Fragen
- explodier_smilie* (2) ist noch nicht geklärt. Du hast eine nichtreversible Bildänderung gemacht und schreibst im Artikel, dass die Änderung durch nicht-ganzzahliges kommt. Das ist FALSCH.
- die Frage war durchaus ernst gemeint. Leider hast du mir sie nicht beantworten können.
- Versuch bitte noch mal, meine Kommentare nachzuvollziehen, mach die Änderungen an nem normalen Foto, genau so wie die Vergrösserung um 200% im Gegensatz zu vllt. 122% --Andy386 22:35, 3. Mai 2010 (CEST)
Nun denn.
- Bildänderung, Zitat: Der einzige Unterschied zum Originalbild (links) ist die mehrfache Halbierung und Verdopplung der Helligkeitswerte. Dieses ist eine nicht-ganzzahlige Änderung, die sich als Farbänderung deutlich macht. ... wir hatten 2 verschiedene Szenarien:
- A) Änderung per Gradationskurve: schwarzer und weisser Punkt ändert sich nicht. Die dazwischen liegenden Werte werden verschoben. Angenommen ich ändere den Helligkeitswert von 100 auf 50 (ganzzahlig), würdest du davon ausgehen, das die Mehrheit aller Helligkeitswerte des Bildes ebenso ganzzahlig geändert wird?
- Änderung per "plan machen" mit Helligkeitsregler. Wir halbieren wieder den Wert 100. Würdest du wieder davon ausgehen, das der Rest sich ebenso halbiert (schliesslich wird "plan gemacht" - also generell auf Wert 1 oder 256 gesetzt)?
- Oder geht es dir um die Absolutheit? Dann werde ich den Satz modifizieren. Ich vermute aber, das dir das nicht reicht, denn dafür hätten wir nicht so lange diskutieren müssen - das wäre einfacher gewesen, eine klare Ansage zu machen.
- Deine Frage mit den 200% verstehe ich nicht. --Friedrich Graf Werde Kommissar 08:49, 4. Mai 2010 (CEST)
- (zu 2.) Du bist echt schwer zu überzeugen... ich glaube, ich hab raus, wieso dein Bild 2a anders ist... Du hast die erste Variante (A) genommen, Sonst wären ja schwarzpunkt und weißpunkt verschoben - oder? Also nix plan gemacht, wie ich zuerst vermutet habe?
- scheinbar hast du zuerst eine Gammakorrektur mit x, x<1 gemacht, und dann 1/x genommen. Oder? Deswegen dürften die vorher blassen Farben (oben rechts) danach stärker auftreten. Beim ersten mal mit x>1 dürften bes. die dunklen Farben danach blasser werden. -> Probiers mal aus!
- Ich geh mal so weit, zu behaupten, dass man die genannten Rundungsfehler gar nicht sehen kann!
- --Andy386 15:31, 24. Mai 2010 (CEST)
Ich kann dir versichern, tatsächlich ausschliesslich das in der Bildbeschreibung genannte getan zu haben. Sicherlich führen auch andere Wege zum Ziel, das war aber nicht Sinn der Beschreibung. Da deine Kausalkette darauf aufbaut, hat sich der Rest auch beantwortet. FG --Friedrich Graf Werde Kommissar 10:56, 25. Mai 2010 (CEST)
- ?? Das was in der Wikipedia steht sollte nachvollziehbar bzw. bequellt sein. Welchen der Wege
**A) Änderung per Gradationskurve: schwarzer und weisser Punkt ändert sich nicht. Die dazwischen liegenden Werte werden verschoben. Angenommen ich ändere den Helligkeitswert von 100 auf 50 (ganzzahlig), würdest du davon ausgehen, das die Mehrheit aller Helligkeitswerte des Bildes ebenso ganzzahlig geändert wird? ** Änderung per "plan machen" mit Helligkeitsregler. Wir halbieren wieder den Wert 100. Würdest du wieder davon ausgehen, das der Rest sich ebenso halbiert (schliesslich wird "plan gemacht" - also generell auf Wert 1 oder 256 gesetzt)?
- hast du zur Verdopplung genommen? --Andy386 22:05, 27. Mai 2010 (CEST)
Da ich den Inhalt deiner Frage mißverständlich finde, noch einmal das Zitat der Bildbeschreibung 2a: Der Unterschied zwischen Datei 1a und 2a ist durch die Wiederholung einer einfachen Helligkeitsänderung (und dem zurücksetzten derselben) entstanden. Was ist daran falsch? Warum ist dieses Beispiel nicht anschaulich oder nachvollziehbar. Mir ist nicht klar, was dabei für Fragen entstehen sollten. Wenn ich dieses Experiment wiederhole, entsteht immer das selbe Ergebnis. Keine Tricks, keine Zweideutigkeiten. Oder geht es dir beim Zweifeln um des Zweifeln willens (nach dem Motto berühmter Philosophen "nichts ist so wie es scheint")? Das ist in Wikipedia bei diesem Lemma aber nicht der richtige Ort ... --Friedrich Graf Werde Kommissar 08:57, 28. Mai 2010 (CEST)
- Ich wollte nur wissen, welche Funktion in PS/PSE/PSP/sonstwas du genommen hast. Die zwei genannten wären ja das naheliegenste. --Andy386 10:11, 30. Mai 2010 (CEST)
Sag das doch gleich.
Photoshop/Bild/Anpassung/Helligkeit. Ein "planmachen" könnte an dieser Stelle nur die Veränderung heller und dunkler Teile erklären, aber nicht die mittleren Farbtöne (die sich ja auch geändert haben). Aus diesem Grund fällt das "planmachen" als Möglichkeit aus. Falls du Zweifel hast, messe es bitte bei jeder Veränderung mit geeigneten Werkzeugen nach - du wirst feststellen, das die genannten Farbtöne nicht die Tonwertgrenze "berühren". --Friedrich Graf Werde Kommissar 10:24, 30. Mai 2010 (CEST)
Blaues Quadrat/rotes Rechteck
Wird sowas in der Fotografie wirklich noch Interpolation genannt? Oder ist das nicht schon bereits Morphing?--Plankton314 (Diskussion) 14:11, 5. Dez. 2013 (CET)
- Zur Herstellung wurde sicherlich keine "normale" Fotobearbeitung benutzt ... die Bildbeschriftung ist etwas irreführend. Was die reinen Farbflächen betrifft, ist es aber eine gute Illustration, wie zwischen 2 Farbwerten interpoliert wird. Aber wie gesagt: die Beschriftung ist nicht optimal.
- FG, --Friedrich Graf (Diskussion) 14:32, 5. Dez. 2013 (CET)