Ausgleichungsrechnung

aus Wikipedia, der freien Enzyklopädie
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 7. November 2021 um 13:33 Uhr durch imported>Aka(568) (→‎Weblinks: Dateigröße angepasst | Fehlerlisten).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Anpassung einer rauschenden Kurve durch ein asymmetrisches Peak-Modell mithilfe des iterativen Gauß-Newton-Verfahrens. Oben: Roh-Daten und Modell; Unten: Entwicklung der normalisierten Residuenquadratsumme

Die Ausgleichungsrechnung (auch Ausgleichsrechnung, Ausgleichung, Parameterschätzung oder Anpassung genannt) ist eine mathematische Optimierungsmethode, mit deren Hilfe für eine Reihe von Messdaten die unbekannten Parameter ihres geometrisch-physikalischen Modells oder die Parameter einer vorgegebenen Funktion bestimmt oder geschätzt werden sollen. In der Regel werden mit ihr überbestimmte Probleme gelöst. Regression und Fit(ting) sind häufig verwendete Verfahren der Ausgleichsrechnung.

Ziel der Ausgleichung ist, dass sich das endgültige Modell bzw. die Funktion den Daten und ihren unvermeidlichen kleinen Widersprüchen bestmöglich anpasst. Im Allgemeinen wird die Berechnung mit der Methode der kleinsten Quadrate durchgeführt. Diese Methodik minimiert die Residuenquadratsumme, d. h. die Summe aus der quadrierten Differenz zwischen Messwerten und Schätzwerten. Die Differenzen zwischen den Mess- und Schätzwerten werden Residuen genannt und machen Aussagen über die Genauigkeit und Zuverlässigkeit des Mess- und Datenmodells.

Ausgleichung und Approximationstheorie

Da kleine Widersprüche in allen redundanten, auf Zuverlässigkeit geprüften Daten auftreten (siehe auch Überbestimmung), ist der Umgang mit diesen meist statistisch verteilten Restabweichungen zur wichtigen Aufgabe in verschiedenen Wissenschaften und der Technik geworden. Neben der glättenden Wirkung auf streuende Daten wird die Ausgleichungsrechnung auch zur Milderung von Diskrepanzen etwa in den Sozialwissenschaften verwendet.

Diese Suche nach den naturnahen, wahrscheinlichsten Werten von Systemen oder Messreihen ist in der Sprache der Approximationstheorie die Schätzung von unbekannten Parametern eines mathematischen Modells. Die mittels der Kleinste-Quadrate-Schätzung gewonnenen Schätzer sind die „besten“ im Sinne des Satzes von Gauß-Markow. Im einfachsten Fall hat eine Ausgleichung zum Ziel, eine größere Anzahl empirischer Mess- oder Erhebungsdaten durch eine Kurve zu beschreiben und die Restabweichungen (Residualkategorie) zu minimieren. Eine solche Kurvenanpassung kann auch erstaunlich genau freiäugig-grafisch durch Betrachten der Datenreihe durchgeführt werden, was die naturnahe Charakteristik der Quadratabweichungsminimierung unterstreicht.

Die Ausgleichungsrechnung wurde um 1800 von Carl Friedrich Gauß für ein Vermessungsnetz der Geodäsie und für die Bahnbestimmung von Planetoiden entwickelt. Seither werden Ausgleichungen in allen Natur- und Ingenieurwissenschaften durchgeführt, bisweilen auch in den Wirtschafts- und Sozialwissenschaften. Die Ausgleichung nach dem Gauß-Markow-Modell liefert das bestmögliche Ergebnis, wenn die Residuen zufällig sind und einer Normalverteilung folgen. Unterschiedlich genaue Messwerte werden durch Gewichtung abgeglichen.

Enthalten die Messungen oder Daten allerdings auch systematische Einflüsse oder grobe Fehler, dann ist das ausgeglichene Ergebnis verfälscht und die Residuen weisen einen Trend hinsichtlich der Störeinflüsse auf. In solchen Fällen sind weitere Analysen erforderlich wie etwa eine Varianzanalyse oder die Wahl eines robusten Schätzverfahrens.

Einführung

Im einfachsten Fall handelt es sich um die Ausgleichung der Messabweichungen (Fehlerterme) nach der Methode der kleinsten Quadrate. Hierbei werden die Unbekannten (die Parameter) des Modells so bestimmt, dass die Quadratsumme der Messabweichungen aller Beobachtungen minimal wird. Die geschätzten Parameter stimmen dann erwartungstreu mit dem theoretischen Modell überein. Alternativ kann die Ausgleichung auch nach einer anderen Residuenbewertungsfunktion erfolgen, z. B. durch Minimierung der Summe oder des Maximums der Beträge der Messabweichungen (Methode der kleinsten absoluten Abweichungen).

Damit handelt es sich um ein Optimierungsproblem. Die Rechenschritte einer Ausgleichung vereinfachen sich wesentlich, wenn die Fehlerterme als normalverteilt und unkorreliert angesehen werden können. Falls ungleiche Genauigkeiten der Messgrößen vorliegen, kann dies durch Gewichtung berücksichtigt werden.

Funktionales und stochastisches Modell

Jeder Ausgleichung geht eine Modellbildung voraus. Hierbei wird im Allgemeinen zwischen funktionalem Modell und stochastischem Modell unterschieden.

  • Ein funktionales Modell beschreibt hierbei die mathematischen Relationen zwischen den bekannten (konstanten), unbekannten und den beobachteten Parametern. Die Beobachtungen stellen dabei stochastische Größen (Zufallsvariable) dar, z. B. mit zufälligen Störungen überlagerte Messungen.
    • Als einfaches Beispiel sei ein Dreieck genannt, in dem überzählige Messungen zu geometrischen Widersprüchen führen (z. B. Winkelsumme ungleich 180°). Das funktionale Modell dazu sind die Formeln der Trigonometrie; die Störungen können z. B. kleine Zielabweichungen bei jeder Winkelmessung sein.
  • Das stochastische Modell beschreibt die Varianzen und Kovarianzen der beobachteten Parameter.

Das Ziel der Ausgleichung ist eine optimale Ableitung der unbekannten Werte (Parameter, z. B. die Koordinaten der Messpunkte) und der Maße für ihre Genauigkeit und Zuverlässigkeit im Sinne einer Zielfunktion. Für letztere wählt man meistens die minimale Summe der Abweichungsquadrate, doch können es für Sonderfälle beispielsweise auch minimale Absolutwerte oder andere Zielfunktionen sein.

Lösungsverfahren

Je nach funktionalem und stochastischem Modell werden verschiedene Ausgleichungsmodelle benutzt.

Das Hauptunterscheidungsmerkmal dabei ist,

  • ob sich alle Beobachtungen als Funktionen von Unbekannten und Konstanten darstellen lassen,
  • ob die Beobachtungen voneinander stochastisch unabhängig oder korreliert sind,
  • ob die Relationen nur Beobachtungen und Konstanten aufweisen, jedoch keinerlei Unbekannte enthalten,
  • ob es unter der Menge der Relationen auch solche gibt, die ausschließlich Beziehungen unter Konstanten und Unbekannten beschreiben und damit Restriktionen zwischen Unbekannten beschreiben.
  • Bei gemischtem Auftreten von sehr verschiedenen Messgrößen – etwa bei geometrischen und physikalischen Messungen – wurden die Methoden der Ausgleichsrechnung von einigen Mathematikern und Geodäten um 1970 zur sogenannten Kollokation erweitert. Sie wird unter anderem für die Geoidbestimmung verwendet, siehe H. Moritz, H. Sünkel und C.C. Tscherning.

Die Ausgleichungsmodelle heißen:

  • Ausgleichung nach vermittelnden Beobachtungen: Die einzelnen Beobachtungen sind Funktionen der unbekannten Parameter.
  • Ausgleichung nach vermittelnden Beobachtungen mit Bedingungen zwischen den Unbekannten: Es bestehen zusätzliche Bedingungen zwischen den unbekannten Parametern.
  • Ausgleichung nach bedingten Beobachtungen (bedingte Ausgleichung): Es werden Bedingungsgleichungen für die Beobachtungen aufgestellt, in denen die unbekannten Parameter nicht vorkommen. Die unbekannten Parameter können dann aus den ausgeglichenen Beobachtungen berechnet werden.
  • Allgemeinfall der Ausgleichung: Es werden funktionale Beziehungen zwischen Beobachtungen und Parametern aufgestellt, in denen die Beobachtungen nicht explizit als Funktion der Parameter vorkommen.

Grafisches Verfahren

Die gleichen Messpunkte mit zwei verschiedenen Ausgleichslinien

Während dem mathematischen Lösungsverfahren ein Modell zugrunde gelegt werden muss, ist das grafische Verfahren ohne solche Annahme möglich. Hier wird eine stetig gekrümmte ausgleichende Linie den Messpunkten angenähert. Je nach Hintergrundwissen (Erwartung an den Verlauf) oder persönlicher Bewertung (einzelne Messpunkte als „Ausreißer“) kann die Linie allerdings durchaus unterschiedlich ausfallen. Die Methode ist grundsätzlich weniger analytisch, bietet aber die Möglichkeit, schwer zu interpretierende Sachverhalte und Randbedingungen auszugleichen, was sich mathematisch oft schlecht formulieren lässt. Zum Zeichnen solcher Linien gibt es Schablonen(sätze), speziell die sog. Burmester-Schablonen sind gängig.

Definition

Allgemeine Ausgleichsrechnung

Gegeben seien die Messpunkte . Die Modellfunktion habe Parameter , wobei gelten soll. Die Modellfunktion hängt dabei von den Messpunkten und den Parametern ab und soll die Messpunkte annähern. Kurz geschrieben als:

Es werden nun Parameter gesucht, welche die Messpunkte „gut“ annähern:

,

wobei die folgenden Definitionen getroffen wurden:

Wie „gut“ die Modellfunktion mit den gewählten Parametern die Messpunkte annähert, hängt von der gewählten Norm ab. Die folgenden Normen sind gebräuchlich:

Lineare Ausgleichsrechnung

Die Abhängigkeit der Modellfunktion von den Parametern kann im Spezialfall als linear angenommen werden:

Das lineare Ausgleichsproblem lautet nun: Für suche , sodass

gilt.

Diese Definition ist äquivalent dazu, dass die Normalengleichungen erfüllt:

Die Existenz einer Lösung ist stets gegeben und die Eindeutigkeit, falls vollen Rang hat: .

Die Beweise zur Äquivalenz der Normalengleichung und Eindeutigkeit können in (Reusken, 2006)[1] nachgelesen werden.

Konditionierung der linearen Ausgleichsrechnung

Die Kondition des linearen Ausgleichsproblem hängt von der Konditionszahl der Matrix ab, wie aber auch von einer geometrischen Eigenschaft des Problems.

Sei im Folgenden mit vollem Rang und die Lösung des Ausgleichsproblems. Aufgrund der Orthogonalität der Anpassung:

gibt es ein eindeutiges mit (nach Pythagoras):

Dies soll die geometrische Eigenschaft des Problems sein.

Gestörte rechte Seite

Seien und die Lösungen des linearen Ausgleichsproblems mit rechter Seite bzw. gestörter rechter Seite , also:

Die Konditionierung dieses Problems lautet nun:

Der Beweis kann in (Reusken, 2006)[2] nachgelesen werden.

Für erhält man somit die Konditionierung des linearen Gleichungssystems und für beliebig große Störempfindlichkeit.

Gestörte Matrix

Seien bzw. die Lösung des linearen Ausgleichsproblems zur Matrix bzw. , also:

Die Konditionierung dieses Problems lautet nun:

Der Beweis kann in (Deuflhard, 2002)[3] nachgelesen werden.

Beispiel: Ebene bester Anpassung

Anfang des 20. Jahrhunderts berechnete Harlow Shapley die Ausdehnung der Milchstraße und die Lage der Galaktischen Ebene im Raum. Dazu benötigte er die (euklidischen) Koordinaten x1, x2, x3 einer repräsentativen Auswahl von N Körpern in Bezug auf ein fest gewähltes Koordinatensystem.

Ist mit die Hessesche Normalform der gesuchten Galaktischen Ebene, so lässt sich von jedem "Objekt" der Abstand von dieser Ebene berechnen. Im Sinne der Methode der kleinsten Quadrate sind dann die Koeffizienten a,b,c und d so zu bestimmen, dass der Mittelwert der quadratischen Abstände der Beobachtungen minimal wird:

(mit der Nebenbedingung ), wobei eine Beobachtung ist.

Der Mittelpunkt der "Objektwolke" P() mit (Mittelwerte) soll von der gesuchten Ebene den Abstand haben.

Damit lässt sich der Koeffizient d eliminieren und man erhält

soll minimal werden (mit der Nebenbedingung )

Übergang auf Vektornotation

Die weitere Rechnung wird erleichtert, wenn man zur Vektor- und Matrizenschreibweise übergeht. Die Rechnung ist dann ohne weiteres auch auf höhere Dimensionen erweiterbar.

sowie . Die Vektorpfeile sind in der Notation unterdrückt; Vektoren werden als 3x1-Matrix (in der Transponierten als 1x3-Matrix) behandelt.

Die Koeffizienten der Ebene werden zu einem Ebenennormalenvektor zusammengefasst.

Damit:

soll minimal werden (mit der Nebenbedingung )

Mit den Rechenregeln für Matrizen, insbesondere und , erhält man

. In der letzten eckigen Klammer () steht eine 1x1-Matrix, so dass das Transponieren weggelassen werden kann. Wir erhalten somit:

In der letzten eckigen Klammer steht die Schätzfunktion der Kovarianzmatrix C :

() =

Also:

soll minimal werden (mit der Nebenbedingung )

Man hat es jetzt mit einer Quadratischen Form zu tun und deren Minimum über der Einheitssphäre.

Das Minimum ist der normierte Eigenvektor zum kleinsten Eigenwert der Kovarianzmatrix[4]. Daher ist der Eigenvektor der Kovarianzmatrix zum kleinsten Eigenwert der Normalenvektor der gesuchten Ebene.

Literatur

  • Wolfgang Niemeier: Ausgleichungsrechnung – Statistische Auswertemethoden. 2. Auflage. de Gruyter, Berlin / New York 2008, ISBN 978-3-11-019055-7.
  • Helmut Wolf: Ausgleichungsrechnung I und II: Formeln zur praktischen Anwendung. Bonn 1994 (2. Auflage)
  • Mathematische Exkurse: Ausgleichung nach vermittelnden Beobachtungen
  • R. Jäger, T. Müller, H. Saler, R. Schwäble: Klassische und robuste Ausgleichungsverfahren – Ein Leitfaden für Ausbildung und Praxis von Geodäten und Geoinformatikern. Wichmann, Heidelberg 2005, ISBN 3-87907-370-8.
  • T. Strutz: Data Fitting and Uncertainty (A practical introduction to weighted least squares and beyond). 2nd edition, Springer Vieweg, 2016, ISBN 978-3-658-11455-8.

Weblinks

Einzelnachweise

  1. Dahmen, Wolfgang; Reusken, Arnold: Numerik für Ingenieure und Naturwissenschaftler. Springer-Verlag, 2006, S. 122ff (Beweis Satz 4.5).
  2. Dahmen, Wolfgang; Reusken, Arnold: Numerik für Ingenieure und Naturwissenschaftler. Springer-Verlag, 2006, S. 125 (Beweis Satz 4.7).
  3. Deuflhard, Peter; Hohmann, Andreas: Numerische Mathematik I. Eine algorithmisch orientierte Einführung. 2002.
  4. QUADRATIC FORMS ON THE UNIT SPHERE. In: Introduction to Stellar Statistics. Elsevier, 1967, ISBN 978-0-08-010119-4, S. 158–161.