Benutzer:Stefan-Xp/Mathematik Semester 4

aus Wikipedia, der freien Enzyklopädie

Wahrscheinlichkeit

Grundlagen

Wir betrachten Ereignisse, deren Eintreffen vom Zufall abhängt und deren Wahrscheinlichkeit durch Zahlen ausgedrückt werden können. Wahrscheinlichkeiten können statistisch erfaßt werden, in dem man die Bedingungen, unter denen ein bestimmtes Ereignis eintreffen kann, immer wieder realisiert und feststellt, mit welcher Häufigkeit das Ereignis eintrifft. Ist die Wahrscheinlichkeit p, so heißt das, daß in einer Reihe von n Wiederholungen das Ereignis durchschnittlich pn - mal eintrifft. Wenn A und B sich ausschließen, so gilt P ( A ∪ B ) = P ( A ) + P ( B ).

Zwei Ereignisse A, B heißen unabhängig, wenn P ( A ∩ B ) = P ( A ) P ( B ) gilt, d.h. P ( B | A ) = P ( B ). Das Eintreten von B ist dann vom Eintreten von A unabhängig.

Klassischer Wahrscheinlichkeitsbegriff

Gegeben sei ein Ereignis A mit P ( A ) ≠ 0 . Die bedingte Wahrscheinlichkeit für das Ereignis B unter der Voraussetzung, daß A schon eingetroffen ist, wird durch definiert. Daraus folgt, daß P(A∩B) = P(A) P(B|A) gilt. Wenn die Elementarereignisse eines Zufallsexperiments alle gleich Wahrscheinlich sind, und es k Elementarereignisse gibt, so gilt für jedes Wenn ein Ereignis A durch l Elementarereignisse realisiert werden kann, dann gilt:

Zählregeln / Kombinatorik

Ziehen mit Zurücklegen Ziehen ohne Zurücklegen
mit Beachtung der Reihenfolge Fehler beim Parsen (Konvertierungsfehler. Der Server („https://wikimedia.org/api/rest_“) hat berichtet: „Cannot get mml. Server problem.“): {\displaystyle n! \over (n-k)!}
ohne Beachtung der Reihenfolge

Zufallsvariablen

Es gibt zwei Markante Fälle:

  1. X kann nur enflich viele Werte annehmen
  2. X kann beliebig viele Werte annehmen und ist stetig

Wenn F(t) (Funktion der Zufallsvariable) stetig differenzierbar ist, dann heisst F'(t) = f(t) (Wahrscheinlichkeitsdichte der Zufallsvariablen X)

Erwartungswert

Der Mittelwert oder Erwartungswert E[x] einer zufälligen Größe x, die nur endlich viele Werte t1, t2, ..., tn mit den Wahrscheinlichkeiten P1, P2, ..., Pn annehmen kann, ist definiert durch

Es gelten folgende Rechenregeln:

  1. E ( x + y ) = E x + E y
  2. E (c x ) = c E x

Sind die beiden Größen x, y unabhängig voneinander, so gilt

  • E ( x y ) = ( E x ) ⋅ ( E y )

Varianz

  • in anderer Schreibweise:

Die Streuung der ZV () hat die gleiche Einheit wie t. Wenn X eine stetige Zahl mit W.-Dichte f(t) ist, dann gilt:

Aber Vorsicht:

  • wobei

Die Kovarianz cov(x,y) ist ein Maß für die Abhängigkeit von x zu y. Falls dann sind x und y unabhängig.

Zufallsprozesse

Gauß-Verteilung / Normalverteilung

Gausche Glockenkurve mit Maximum () im Ursprung und in den Wendepunkten.

  • 1. Veränderung: Vertikale Verschiebung

  • 2. Veränderung: Horizontale Dehnung

Tschebyscheffsche Ungleichung

Tschebyscheff'sche Ungleichung


Spezielle Verteilungen

Binomialverteilung

Die Hypergeometrische Verteilung

Die Poisson Verteilung

Die Exponentialverteilung

Abgeleitete Verteilungen

Die Xi Quadrat Verteilung

Die t-Verteilung

(Student-Verteilung) (Gosset)

Die F-Verteilung

< Vertrauensgrenzen (Koinzidenzintervall)

< Die Kegelschnitte

< Die exakte Lösung für Vertrauensgrenzen

< Der Vergleich zweier Wahrscheinlichkeiten

Xi Quadrat Test

Statistik

Parametrische Statistik

Stichprobenfunktion

Stichprobenmittel

Der Zentrale Grenzwertsatz

Parameterschätzung

Konfidenzintervalle