Benutzer:Stefan-Xp/Mathematik Semester 4

aus Wikipedia, der freien Enzyklopädie
< Benutzer:Stefan-Xp
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 19. Mai 2008 um 08:48 Uhr durch imported>Stefan-Xp(48985) (→‎Zufallsprozesse).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Wahrscheinlichkeit

Grundlagen

Wir betrachten Ereignisse, deren Eintreffen vom Zufall abhängt und deren Wahrscheinlichkeit durch Zahlen ausgedrückt werden können. Wahrscheinlichkeiten können statistisch erfaßt werden, in dem man die Bedingungen, unter denen ein bestimmtes Ereignis eintreffen kann, immer wieder realisiert und feststellt, mit welcher Häufigkeit das Ereignis eintrifft. Ist die Wahrscheinlichkeit p, so heißt das, daß in einer Reihe von n Wiederholungen das Ereignis durchschnittlich pn - mal eintrifft. Wenn A und B sich ausschließen, so gilt P ( A ∪ B ) = P ( A ) + P ( B ).

Zwei Ereignisse A, B heißen unabhängig, wenn P ( A ∩ B ) = P ( A ) P ( B ) gilt, d.h. P ( B | A ) = P ( B ). Das Eintreten von B ist dann vom Eintreten von A unabhängig.

Klassischer Wahrscheinlichkeitsbegriff

Gegeben sei ein Ereignis A mit P ( A ) ≠ 0 . Die bedingte Wahrscheinlichkeit für das Ereignis B unter der Voraussetzung, daß A schon eingetroffen ist, wird durch definiert. Daraus folgt, daß P(A∩B) = P(A) P(B|A) gilt. Wenn die Elementarereignisse eines Zufallsexperiments alle gleich Wahrscheinlich sind, und es k Elementarereignisse gibt, so gilt für jedes Wenn ein Ereignis A durch l Elementarereignisse realisiert werden kann, dann gilt:

Zählregeln / Kombinatorik

Ziehen mit Zurücklegen Ziehen ohne Zurücklegen
mit Beachtung der Reihenfolge
ohne Beachtung der Reihenfolge

Zufallsvariablen

Es gibt zwei Markante Fälle:

  1. X kann nur enflich viele Werte annehmen
  2. X kann beliebig viele Werte annehmen und ist stetig

Wenn F(t) (Funktion der Zufallsvariable) stetig differenzierbar ist, dann heisst F'(t) = f(t) (Wahrscheinlichkeitsdichte der Zufallsvariablen X)

Erwartungswert

Der Mittelwert oder Erwartungswert E[x] einer zufälligen Größe x, die nur endlich viele Werte t1, t2, ..., tn mit den Wahrscheinlichkeiten P1, P2, ..., Pn annehmen kann, ist definiert durch

Es gelten folgende Rechenregeln:

  1. E ( x + y ) = E x + E y
  2. E (c x ) = c E x

Sind die beiden Größen x, y unabhängig voneinander, so gilt

  • E ( x y ) = ( E x ) ⋅ ( E y )

Varianz

  • in anderer Schreibweise:

Die Streuung der ZV () hat die gleiche Einheit wie t. Wenn X eine stetige Zahl mit W.-Dichte f(t) ist, dann gilt:

Aber Vorsicht:

  • wobei

Die Kovarianz cov(x,y) ist ein Maß für die Abhängigkeit von x zu y. Falls dann sind x und y unabhängig.

Zufallsprozesse

Gauß-Verteilung / Normalverteilung

Gausche Glockenkurve mit Maximum () im Ursprung und in den Wendepunkten.

  • 1. Veränderung: Vertikale Verschiebung

  • 2. Veränderung: Horizontale Dehnung

Tschebyscheffsche Ungleichung

Tschebyscheff'sche Ungleichung


Spezielle Verteilungen

Binomialverteilung

Die Hypergeometrische Verteilung

Die Poisson Verteilung

Die Exponentialverteilung

Abgeleitete Verteilungen

Die Xi Quadrat Verteilung

Die t-Verteilung

(Student-Verteilung) (Gosset)

Die F-Verteilung

< Vertrauensgrenzen (Koinzidenzintervall)

< Die Kegelschnitte

< Die exakte Lösung für Vertrauensgrenzen

< Der Vergleich zweier Wahrscheinlichkeiten

Xi Quadrat Test

Statistik

Parametrische Statistik

Stichprobenfunktion

Stichprobenmittel

Der Zentrale Grenzwertsatz

Parameterschätzung

Konfidenzintervalle