Fehlermodell

aus Wikipedia, der freien Enzyklopädie
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 11. August 2020 um 09:48 Uhr durch imported>Acky69(682854) (zus. Links, doppelte s.auch-Links raus (stehen schon im Text), Grammatik, Gliederung, Ausdruck).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Ein Fehlermodell klassifiziert Messfehler, hier die der Metrologie. Die Eigenschaften der Messfehler, die in den Messprozess einfließen, sind durch die physikalische Arbeitsweise der Messapparatur festgelegt.

Bezeichne

  • die von n Wiederholungsmessungen
  • den wahren Wert der Messgröße
  • den unbekannten systematischen Messfehler, der allen n Wiederholungsmessungen gemeinsam ist
  • den zufälligen Messfehler.

Dann liegt der Revision der Gaußschen Fehlerrechnung eine Fehlergleichung folgender Form zugrunde:

Die Messwerte einer stationär arbeitenden Messapparatur streuen also nicht um den wahren Wert der Messgröße, sondern um den seitens des unbekannten systematischen Messfehlers verschobenen Wert . Letzteren bezeichnet die Statistik als belasteten oder nicht erwartungstreuen Erwartungswert – nicht erwartungstreu soll heißen: der wahre Wert wurde verfehlt.

Weder noch sind dem Experimentator bekannt.

Interpretation unbekannter systematischer Fehler

Gegenwärtig werden unbekannte systematische Fehler unterschiedlich interpretiert:

  • Der ISO-Guide weist ihnen formal eine Zufallsvariable zu und dieser, per Postulat, eine Rechteckdichte, definiert über dem Intervall . Implizit wird unterstellt, es sei zulässig, die Realisierungen jener Zufallsvariable im Wesentlichen auf ihre einfache Standardabweichung zu begrenzen, d. h. auf ein Intervall der Länge . Wie zu zeigen ist, bringt diese Interpretation allerdings nichtbehebbare mathematische und physikalische Probleme mit sich; siehe Messunsicherheit.
  • Die zum Guide alternative Revision der Gaußschen Fehlerrechnung betrachtet den unbekannten systematischen Messfehler – physikalisch realistischer – als zeitkonstante, durch eingegrenzte Größe, die im Sinne einer worst-case-Abschätzung zum Tragen zu bringen ist, d. h. in Gestalt der Intervallgrenzen . Diese Vorgehensweise bedingt eine neue Art der Fehlerrechnung, die sich nicht durch Fortschreiben der Gaußschen Fehlerrechnung darstellen lässt. Andererseits führt der neue Formalismus zu sicheren Messunsicherheiten, insbesondere zeigt er sich frei von Inkonsistenzen.

Siehe auch