Moment (Bildverarbeitung)

aus Wikipedia, der freien Enzyklopädie

Momente, siehe Momente einer Verteilung, sind in der Bildverarbeitung bestimmte gewichtete Mittelwerte aus den Helligkeitswerten der einzelnen Pixel eines Bildes. Sie werden gewöhnlich so gewählt, dass sie gewünschte Eigenschaften des Bildes widerspiegeln oder gewisse geometrische Interpretationen besitzen. Momente sind hilfreich, um einzelne Objekte in einem segmentierten Bild zu beschreiben. Grundlegende Eigenschaften von Bildern, die durch Momente berechnet werden können, sind Fläche (oder Summe der Helligkeitswerte), Schwerpunkt und Ausrichtung.

Nicht zentrierte Momente

Für eine zweidimensionale stetige Funktion ist das Moment -ten Grades definiert als

für

Auf digitale Grauwertbilder mit der Grauwertfunktion angewandt ergeben sich die nicht zentrierten Momente aus

In einigen Fällen können die nicht zentrierten Momente berechnet werden, indem die Grauwertfunktion als Wahrscheinlichkeitsdichtefunktion aufgefasst wird. Dazu teilt man obige Formel durch

Laut dem Eindeutigkeitstheorem von Athanasios Papoulis (1991) existieren Momente jeglichen Grades, wenn stückweise stetig ist und nur in einem endlichen Teil der xy-Ebene ungleich Null wird. In diesem Fall ist die Folge von Momenten durch eindeutig bestimmt. Ebenso bestimmt die Funktion eindeutig. In der Praxis reichen jedoch meist wenige Momente niedrigen Grades aus um ein Bild hinreichend genau zu charakterisieren.

Beispiele

Einfache Bildeigenschaften, die durch nicht zentrierte Momente bestimmt werden können, sind unter anderen:

  • Fläche (für Binärbilder) oder Summe der Grauwerte (für Grauwertbilder):
  • Schwerpunkt:

Zentrale Momente (translationsinvariante Momente)

Zentrale Momente sind invariant bezüglich Translationen, sie sind definiert als

Auf digitale Grauwertbilder mit der Grauwertfunktion g(x,y) angewandt ergeben sich die Zentralen Momente μij aus

Die zentralen Momente bis zum Grad 3 sind:

Es kann gezeigt werden, dass:

Beispiele

Informationen über die Ausrichtung des Bildes können gewonnen werden, indem man zuerst die drei zentralen Momente zweiten Grades verwendet, um eine Kovarianzmatrix zu berechnen.

Die Kovarianzmatrix des Bildes ist dann

.

Die Eigenvektoren dieser Matrix entsprechen der großen und kleinen Halbachse der Helligkeitswerte. Somit kann die Ausrichtung des Bildes aus dem Winkel des Eigenvektors mit dem größten Eigenwert bestimmt werden. Es kann gezeigt werden, dass dieser Winkel Θ durch die folgende Formel berechnet werden kann.

Die Eigenwerte der Kovarianzmatrix sind

Die Exzentrizität des Bildes ist

Skalierungsinvariante Momente

Es können Momente ηi j mit i + j ≥ 2 konstruiert werden, die invariant bezüglich Skalierung und Translation sind, indem man das entsprechende zentrale Moment durch das entsprechend skalierte Moment vom Grad 0 teilt.

Rotationsinvariante Momente

Es ist weiterhin möglich, Momente zu konstruieren, die zusätzlich invariant bezüglich einer Bildrotation sind. Häufig benutzt wird die Hu-Menge invarianter Momente.[1]

Das erste, I1, ist ungefähr gleichzusetzen mit dem Trägheitsmoment um den Schwerpunkt des Bildes, wenn die Helligkeitswerte der Pixel als physikalische Dichte interpretiert werden.

Anwendungsbeispiele

Momente sind für zweierlei Dinge gut geeignet. Zum einen dienen sie zur Klassifikation von Objekten in binarisierten, also Schwarzweiß-Bildern, welche das Ergebnis einer Vorverarbeitung sind, die entscheidet, welche Teile eines Bildes zu einem Objekt gehören (schwarz = 1) und welche nicht (weiß = 0). Auch ein Bild, das außer Schwarz und Weiß auch Grauwerte enthält, weil sich der vorverarbeitende Algorithmus nicht immer sicher war, ob ein Pixel zum Objekt oder zum Hintergrund gehört, ist verwertbar, indem die Graustufen auf den Wertebereich [0, 1] normiert werden.

Am Beispiel der Texterkennung sieht man, dass ein „T“ und ein „I“ zwar links–rechts-symmetrisch sind und sich somit im Schwerpunkt nicht unterscheiden, allerdings sich im Moment durch die unterschiedliche Varianz unterscheiden und außerdem im Moment stark abweichen. Für dieses Moment sollte aufgrund der Oben–Unten-Symmetrie für „I“ ein Wert nahe 0 herauskommen, während ein gescanntes T oben deutlich mehr Pixel aufweist als unten und hier einen stark negativen Wert erhält (für nach unten zunehmende y-Werte).

Zum anderen kann mit Momenten die Anordnung beliebiger extrahierter Features aus Bildern oder ähnlichem zueinander verglichen werden. Hat man beispielsweise mittels eines Eckenfinders einige Ecken extrahiert, lässt sich mithilfe der Momente feststellen, in welchem Teil des Bildes innerhalb einer Bildfolge (=Video) Veränderung stattfindet. Verwendet man hierfür die translationsinvarianten zentralen Momente, so ist die Erkennung stabil gegenüber Wackeln der Kamera.

Weblinks

Quellen

Einzelnachweise

  1. Zhihu Huang, Jinsong Leng: Analysis of Hu's moment invariants on image scaling and rotation. In: 2010 2nd International Conference on Computer Engineering and Technology. Band 7, April 2010, S. V7–476–V7–480, doi:10.1109/iccet.2010.5485542 (ieee.org [abgerufen am 25. November 2017]).