Verteilungsfunktion (Maßtheorie)

aus Wikipedia, der freien Enzyklopädie

Die Verteilungsfunktion eines Maßes ist ein Begriff aus der Maßtheorie, einem Teilgebiet der Mathematik, das sich mit verallgemeinerten Längen- und Volumenbegriffen beschäftigt. Jedem endlichen Maß auf den reellen Zahlen kann eine Verteilungsfunktion zugeordnet werden. Verteilungsfunktionen von Wahrscheinlichkeitsmaßen spielen eine wichtige Rolle in der Stochastik. In der Maßtheorie werden Verteilungsfunktionen verwendet, um Konvergenz von Maßen zu überprüfen.

Definition

Gegeben sei der Messraum , wobei die Borelsche σ-Algebra bezeichnet, und ein endliches Maß auf diesem Messraum. Dann heißt

die Verteilungsfunktion des Maßes .

Außerdem nennt man jede monoton wachsende, rechtsseitig stetige und beschränkte reelle Funktion eine Verteilungsfunktion, da sie durch

ein endliches Maß definiert. Ein Spezialfall sind diejenigen Funktionen, für die zusätzlich gilt

,

dies sind genau die Verteilungsfunktionen im Sinne der Wahrscheinlichkeitstheorie.

Beispiele

Betrachtet man das Dirac-Maß auf der 1

Dann lautet die Verteilungsfunktion

.

Eigenschaften

  • Definiert man eine Äquivalenzrelation auf den monoton wachsenden, rechtsseitig stetigen und beschränkten Funktionen durch
und bezeichnet die Äquivalenzklassen mit , so ist eine Bijektion. Dabei wird jedem endlichen Maß auf den reellen Zahlen die Äquivalenzklasse seiner Verteilungsfunktion zugewiesen. Daher unterscheidet man meistens nicht zwischen dem Maß und der Verteilungsfunktion. Für Verteilungsfunktionen im Sinne der Wahrscheinlichkeitstheorie ist diese Äquivalenzklassenbildung nicht nötig, da sie bereits durch und eindeutig festgelegt sind.
  • Setzt man
,
so ist . Dabei bezeichnet die Totalvariationsnorm

Konvergenz

Vage Konvergenz

Eine Folge von Verteilungsfunktionen heißt vage konvergent gegen die Verteilungsfunktion , wenn sie an allen Stetigkeitspunkten von punktweise gegen konvergiert, wenn also

für alle , an denen stetig ist, gilt.

Schwache Konvergenz

Eine Folge von Verteilungsfunktionen heißt schwach konvergent gegen die Verteilungsfunktion , wenn sie vage konvergent ist und

gilt.

Gehören die Verteilungsfunktionen zu Wahrscheinlichkeitsmaßen, so kann auf die zweite Bedingung verzichtet werden, da dann immer gilt. Somit fallen dann schwache und vage Konvergenz zusammen. Für Wahrscheinlichkeitsmaße lässt sich die schwache Konvergenz der Verteilungsfunktionen mit dem Lévy-Abstand metrisieren.

Bemerkung

Die schwache und die vage Konvergenz von Verteilungsfunktionen wird in der Literatur nicht eindeutig verwendet. Teils wird nicht zwischen vager und schwacher Konvergenz differenziert, da diese Begriffe für Wahrscheinlichkeitsmaße zusammenfallen, teils wird auch die punktweise Konvergenz an allen Stetigkeitsstellen als schwache Konvergenz bezeichnet. Dies entspräche der hier beschriebenen vagen Konvergenz. Für Verteilungsfunktionen in Sinne der Wahrscheinlichkeitstheorie, die über reelle Zufallsvariablen definiert werden, findet sich auch die Bezeichnung konvergent in Verteilung oder stochastisch konvergent.[1]

Wichtige Sätze

Satz von Helly-Bray

Nach dem Satz von Helly-Bray gilt:

  • Konvergiert eine Folge von Verteilungsfunktionen vage gegen , so konvergiert vage im Sinne der Maßtheorie gegen .
  • Konvergiert eine Folge von Verteilungsfunktionen schwach gegen , so konvergiert schwach im Sinne der Maßtheorie gegen .

Modifiziert man die Folgen von Verteilungsfunktionen mit einer Folge reeller Zahlen, so lässt sich auch die Rückrichtung zeigen.

Auswahlsatz von Helly

Nach dem Auswahlsatz von Helly besitzt jede gleichmäßig beschränkte Folge von Verteilungsfunktionen eine vage konvergente Teilfolge.

Satz von Prochorow

Der Satz von Prochorow lässt sich speziell für (gleichmäßig beschränkte) Familien von Verteilungsfunktionen formulieren. Er besagt, dass eine Familie von Verteilungsfunktionen genau dann straff ist, wenn jede Folge aus dieser Familie eine schwach konvergente Teilfolge besitzt.

Einzelnachweise

  1. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 287.

Literatur

  • Jürgen Elstrodt: Maß- und Integrationstheorie. 6., korrigierte Auflage. Springer-Verlag, Berlin/ Heidelberg 2009, ISBN 978-3-540-89727-9, doi:10.1007/978-3-540-89728-6.
  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin/ Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.
  • Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin/ Heidelberg 2014, ISBN 978-3-642-45386-1, doi:10.1007/978-3-642-45387-8.
  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg/ Dordrecht/ London/ New York 2011, ISBN 978-3-642-21025-9, doi:10.1007/978-3-642-21026-6.