Lemma von Stein

aus Wikipedia, der freien Enzyklopädie
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 2. Mai 2019 um 08:17 Uhr durch imported>MaxBE(263607) (Stil).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Das Lemma von Stein ist in der Testtheorie, einem Teilgebiet der mathematischen Statistik, eine Aussage darüber, wie sich die Wahrscheinlichkeit für einen Fehler 2. Art bei Neyman-Pearson-Tests für größer werdende Stichproben verändert.

Die Aussage ist nach Charles Stein benannt, der sie 1952 bewies.

Rahmenbedingungen

Gegeben sei ein statistisches Modell mit einfacher Nullhypothese und einfacher Alternative , für die beide die Wahrscheinlichkeitsdichtefunktionen und existieren und echt positiv sind. Des Weiteren sei das entsprechende unendliche Produktmodell und die Projektion auf die Komponenten des Produktmodells.

Sei ein Neyman-Pearson-Test zum Niveau , der nur von abhängt. Des Weiteren bezeichne

die Kullback-Leibler-Entropie von und

Aussage

Unter den obigen Bedingungen gilt: Die Trennschärfe von strebt mit exponentieller Geschwindigkeit gegen 1. Genauer gilt

für große .

Interpretation

Nach dem Neyman-Pearson-Lemma sind Neyman-Pearson-Tests gleichmäßig beste Tests, haben also eine größere Trennschärfe als jeder weitere Test zum selben Niveau. Das Lemma von Stein ergänzt diese Aussage noch, indem es angibt, wie groß die Trennschärfe wird. Somit sind Neyman-Pearson-Tests nicht nur gleichmäßig besser als jeder andere Test, sondern auch noch gut in dem Sinne, dass ihre Trennschärfe beliebig nahe an 1 herankommt sowie dass dies sehr schnell mit wachsender Stichprobengröße geschieht.

Bestimmender Faktor bei der Konvergenzgeschwindigkeit ist die Kullback-Leibler-Entropie. Sie liefert ein Maß dafür, wie gut zwei Wahrscheinlichkeitsmaße aufgrund einer Stichprobe auseinandergehalten werden können.

Literatur