Diskussion:Fisher-Information

aus Wikipedia, der freien Enzyklopädie

2. ableitung ?

sollte es nicht der erwartungswert der negativen zweiten ableitung der log likelihood funktion sein statt der ersten?? (nicht signierter Beitrag von 192.43.227.18 (Diskussion | Beiträge) 06:45, 1. Jun. 2009 (CEST))

Diese Darstellung gibt es auch, stimmt. Aber beide sind nur unter zusätzlichen Bedingungen äquivalent, wenn ich mich nicht irre. --Scherben 13:26, 1. Jun. 2009 (CEST)
Dabei handelt es sich soweit ich weiß um die beobachtete Fisher-Information, d.h. man nimmt die Informationen, welche man aus den ersten n Stichproben hat und erhält somit die Fisher-Information bis zum Zeitpunkt n. --Angsteh 13:42, 26. Jan. 2010 (CET)

Der Erwartungswert

Wäre es nicht sinnvoll zu erwähnen, dass den Erwartungswert bezeichnet? --A. Ludwig 13:04, 24. Nov. 2011 (CET)

Rezension

Einleitung

Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik und der Informationstheorie, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert. Die Rolle der Fisher-Information in der asymptotischen Theorie der Maximum-Likelihood-Schätzung wurde von dem Statistiker R. A. Fisher betont (nach anfänglichen Ergebnisse von FY Edgeworth). Die Fisher-Information wird auch in die Berechnung der Priorverteilungen, verwendet, welches ein Teil der Bayes-Statistik darstellt. Die Fisher-Information Matrix wird verwendet, um die Kovarianzmatrizen assoziiert mit der Maximum-Likelihood-Schätzungen zu berechnen. Es kann auch bei der Formulierung von Teststatistiken, wie der Wald-Test verwendet werden.

So lautet die Einleitung des Wikipedia Artikels über die Fisher-Information, oder so würde sie lauten, wenn diese vollständig dargestellt worden wäre. Leider gibt die dargestellte Einleitung nur wenig Information über das Thema und beschränkt sich auf einen Satz. Zwar gibt dieser Einleitungssatz eine sehr grobe Idee darüber, was die Fisher-Information ist, jedoch ist das bei weitem nicht genug, denn wenn jemand sich mit diesem Thema befasst, so besteht eine große Wahrscheinlichkeit, dass er schon darüber Bescheid weiß, dass es eine Kenngröße aus der Statistik und Informationstheorie ist und dass es Aussagen über die Qualität von Parameterschätzugen in einem Modell liefert.

Übernommen biggerj1 (Diskussion) 22:40, 17. Okt. 2021 (CEST)

Definition

Falls das zu Grunde liegende Modell aus einer Familie von Wahrscheinlichkeitsdichten mit unbekanntem Parameter besteht, so ist die Fisher-Information für Zufallsvariablen definiert als

,

mit dem Erwartungswert.

Das ist die Allgemeine Definition, die in diesem Artikel gegeben ist und auch die Formel, die die Fisher-Information im ganzen beschreiben kann. Für Leute, die sich schon mit diesem Thema befasst haben, würde diese Formal wahrscheinlich ausreichen, jedoch ist nicht jeder Leser ein begabter Statistiker und aus diesem Grunde muss man sagen, dass diese Definition etwas mager an Worten ist. Sowohl eine Erklärung der Variablen, als auch eine Definition in Worten wäre an dieser Stelle wünschenswert, in etwa Die Fisher-Information ist eine Methode zur Messung der Menge an Informationen, welche eine beobachtbare Zufallsvariable X mit sich führt mit einen unbekannten Parameter θ, von welchem die Wahrscheinlichkeit von X abhängt.

Sonderfälle

Weiterhin wäre es schön, wenn abgewandelte Funktionen und Sonderfälle hier erwähnt wären, wie z.B. die Funktion, wenn zwei mal nach θ ableitbar wäre, welches dann folgende Funktion ergeben würde,

,

oder eine Darstellung als Matrix und das Bernoulli-Experiment.

Anwendungen

Die Anwendungen sind zwar wieder gegeben, aber wieder nur in Zahlen und Formeln. Auch hier wäre eine „einfachere“ Version auch nicht falsch, wie z.B. Anwendungsgebiete wie die Bayessche Statistik, und da die Fisher-Information oft in Experimenten benutzt wird, vielleicht auch einige experimentelle Designs erklären.

Fazit

Was allerdings gut ist, ist dass eine Formel für die Erweiterung auf höhere Dimensionen gegeben ist, wobei auch hier ein bisschen mehr Text als Erklären geholfen hätte. Geschichtliches kann man in diesem Artikel nicht finden. Zwar bin ich damit einverstanden, dass das ein Artikel über die Benutzung der Fisher-Information ist, jedoch gibt es Leute, die diesem Artikel nur lesen, um mehr über diese Methode zu erfahren und nicht, weil sie diese ausgiebig benutzen wollen.

Im Grunde genommen ist die Information, die in diesem Artikel über die Fisher-Information gegeben ist, solide, aber nur aus einem mathematischen Blickwinkel. Viele Formeln können einem geübten Mathematiker helfen, aber ein Leser, der neu in diesem Thema ist, oder einfach mehr über dieses Thema erfahren möchte, wird enttäuscht sein, dass er nur wenig Information mitnehmen kann. Zusammengefasst, ein mathematischer Artikel, der ein bisschen mehr Text vertragen könnte, um allen Lesern das Selbe bieten zu können.

--Spuppe 10:03, 10. Jan. 2012 (CET)