Wahrscheinlichkeit

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Wahrscheinlich)

Die Wahrscheinlichkeit ist ein allgemeines Maß der Erwartung für ein unsicheres Ereignis.[1] Auf der einen Seite sollen Vorhersagen (Prognosen) über den Ausgang zukünftiger Ereignisse gemacht werden.[2] Auf der anderen Seite soll aber auch bei bereits eingetretenen Ereignissen beurteilt werden, wie gewöhnlich oder ungewöhnlich sie sind.[3] In der Mathematik hat sich mit der Wahrscheinlichkeitstheorie ein eigenes Fachgebiet entwickelt.[4] Es hat mit Versuchen bei Glücksspielen begonnen und ist heute in so gut wie allen Lebensbereichen anzutreffen.[5]

Die klassische Wahrscheinlichkeit nach Laplace dafür, dass bei einem Zufallsexperiment ein bestimmtes Ereignis eintritt, ist das Zahlenverhältnis (Quotient) der Anzahl der günstigen Ergebnisse zur Anzahl der überhaupt möglichen Ergebnisse.[6] Hierin unterscheidet sich die Wahrscheinlichkeit von der Chance, die als Quotient aus der Anzahl der günstigen zur Anzahl der ungünstigen Ergebnisse definiert ist.[7]

Wahrscheinlichkeitsauffassungen

Die verschiedenen Wahrscheinlichkeitsdefinitionen (Auffassungen von Wahrscheinlichkeit) unterscheiden sich darin, wie man den Zahlenwert der Wahrscheinlichkeit erhält.

Symmetrieprinzip – klassische, laplacesche Auffassung

Bei einem idealen, „fairen“ Würfel (das heißt, kein Ergebnis wird durch unsymmetrische Massenverteilung oder Ähnliches bevorzugt) hat wegen der Symmetrie jede der sechs Seiten von vornherein (A-priori-Wahrscheinlichkeit) die gleiche "Chance", nach dem Wurf oben zu liegen. Daher ist beispielsweise die Wahrscheinlichkeit, eine ungerade Zahl zu werfen, 3/6 = 0,5, denn es gibt drei günstige Ergebnisse (1, 3, 5), aber sechs mögliche Ergebnisse.

Dies ist die sogenannte klassische Definition, wie sie von Christiaan Huygens[8] und Jakob I Bernoulli[9] entwickelt und von Laplace formuliert wurde. Sie ist die Grundlage der klassischen Wahrscheinlichkeitstheorie. Die Elementarereignisse besitzen hierbei gleiche A-priori-Eintrittswahrscheinlichkeiten.[10]

Objektivistischer Wahrscheinlichkeitsbegriff

Häufigkeitsprinzip – statistische Wahrscheinlichkeitsauffassung

Der Versuch wird viele Male wiederholt, dann werden die relativen Häufigkeiten der jeweiligen Elementarereignisse berechnet. Die Wahrscheinlichkeit eines Ereignisses ist nun der Grenzwert, dem die relative Häufigkeit für unendlich viele Wiederholungen zustrebt. Dies ist die sogenannte „Limes-Definition“ nach von Mises. Das Gesetz der großen Zahlen spielt hier eine zentrale Rolle. Voraussetzung sind die beliebige Wiederholbarkeit des Experiments und, dass die einzelnen Durchgänge voneinander unabhängig sind. Ein anderer Name für dieses Konzept ist Frequentistischer Wahrscheinlichkeitsbegriff.[11]

Beispiel: Man würfelt 1000-mal und erhält folgende Verteilung: Die 1 fällt 100-mal (das entspricht einer relativen Häufigkeit von 10 %), die 2 fällt 150-mal (15 %), die 3 ebenfalls 150-mal (15 %), die 4 in 20 %, die 5 in 30 % und die 6 in 10 % der Fälle. Der Verdacht kommt auf, dass der Würfel nicht fair ist. Wenn nach 10.000 Durchgängen sich die Zahlen bei den angegebenen Werten stabilisiert haben, dann kann man mit einiger Sicherheit sagen, dass zum Beispiel die Wahrscheinlichkeit, eine 3 zu würfeln, bei 15 % liegt.

Propensitätstheorie

Die Propensitätstheorie interpretiert Wahrscheinlichkeit als Maß für die Neigung eines Prozesses zu einem bestimmten Ergebnis.[12] Dieser Wahrscheinlichkeitsbegriff ist zum Beispiel in der Physik bei der Zerfallswahrscheinlichkeit eines Radionuklids gemeint; die Experimente sind hier die einzelnen, voneinander unabhängigen Zerfälle der Atomkerne. Für jeden einzelnen Atomkern nimmt man eine charakteristische Neigung (propensity) zum Zerfall an, die unabhängig von seinem Alter und der Nachbarkerne ist.[13]

Quantenmechanische Wahrscheinlichkeitsauffassung

In der nichtrelativistischen Quantenmechanik wird die Wellenfunktion eines Teilchens als seine fundamentale Beschreibung verwendet. Das Integral des Betragsquadrates der Wellenfunktion über ein Raumgebiet entspricht dort der Wahrscheinlichkeit, das Teilchen darin anzutreffen.[14] Es handelt sich also nicht um eine bloß statistische, sondern um eine nicht-determinierte Wahrscheinlichkeit.

Subjektivistische Wahrscheinlichkeitsauffassung

Wahrscheinlichkeiten sind Grade des Vertrauens in eine ungewisse Sache, sie sind beste Schätzungen. Sie erhalten dadurch den Charakter von Hypothesen. Auch bei einmaligen Zufallsereignissen kann man deren Eintretenswahrscheinlichkeit schätzen. Zentrale Gesichtspunkte sind hier Experten­wissen, Erfahrung und Intuition. Manche Hypothesen werden für wahrscheinlicher als andere gehalten, manche müssen aufgrund neuer Informationen geändert, andere ganz verworfen werden. Man spricht von einer subjektivistischen Wahrscheinlichkeitsauffassung, siehe auch Bayesscher Wahrscheinlichkeitsbegriff.[15]

Beispiel: Nachdem jemand verschiedene Autos besessen hat, schätzt er die Wahrscheinlichkeit als hoch ein (zum Beispiel „Ich bin mir zu 80 % sicher“), mit der Marke XY auch beim nächsten Autokauf wieder zufrieden zu sein. Dieser Vorhersagewert kann zum Beispiel durch einen Testbericht nach oben oder unten verändert werden.

Diese intuitive Wahrscheinlichkeitserfassung birgt jedoch eine Vielzahl von "Stolpersteinen", die z. B. in der subjektiven Wahrnehmung (Risiken, wie etwa wegen erhöhter Geschwindigkeit zu verunfallen, werden tendenziell niedriger und Chancen, wie etwa auf einen Lottogewinn, höher als die tatsächliche Wahrscheinlichkeit des Eintritts eingeschätzt) oder der asymmetrischen Informationen liegen (Die subjektive Beurteilung von Unfallgefahren entspricht eher der Erwähnungshäufigkeit in den Medien als der tatsächlichen Unfallstatistik, klassische Beispiele dafür sind zu hoch eingeschätzte Eintrittswahrscheinlichkeiten eines Haiangriffes oder eines Flugunfalls). Aber solche a-priori-Wahrscheinlichkeiten können bei wiederholten Experimenten unter Anwendung der Bayes-Formel zu a-posteriori-Wahrscheinlichkeiten führen, die bessere Schätzungen ermöglichen. Dies wird mit dem Schlagwort "Lernen aus Erfahrung" umschrieben.[16]

Axiomatische Definition der Wahrscheinlichkeit

Die axiomatische (auf Axiomen beruhende) Definition der Wahrscheinlichkeit nach Kolmogorow ist die heute für die Mathematik maßgebende Definition, siehe Axiome von Kolmogorow.[17]

Stochastik

Wahrscheinlichkeit beim Lotto
Anzahl
Richtige
Wahrscheinlichkeit
[%]
0
  
43,5965
1
  
41,30195
2
  
13,2378
3
  
1,76504
4
  
0,09686
5
  
0,00184
6
  
0,00001
[[Hilfe:Cache|Fehler beim Thumbnail-Erstellen]]:

Die Stochastik ist die Mathematik des Zufalls[18] oder die Mathematik der Daten und des Zufalls[19], also ein Teilgebiet der Mathematik und fasst als Oberbegriff die Gebiete Wahrscheinlichkeitstheorie und Mathematische Statistik zusammen.

Die Wahrscheinlichkeitsrechnung oder Wahrscheinlichkeitstheorie als Teilgebiet der Stochastik stellt die Begriffe zur mathematischen Modellierung von Vorgängen bereit, in denen zufällige Ereignisse auftreten. Auf dieser Grundlage liefert die Mathematische Statistik Verfahren, um aus Beobachtungsdaten Modellparameter zu bestimmen und Aussagen über die Angemessenheit der Modellierung machen zu können.[20]

Wahrscheinlichkeiten sind Zahlen zwischen 0 und 1, wobei null und eins zulässige Werte sind. Einem unmöglichen Ereignis wird die Wahrscheinlichkeit 0 zugewiesen, einem sicheren Ereignis die Wahrscheinlichkeit 1. Die Umkehrung davon gilt jedoch nur, wenn die Anzahl aller Ereignisse höchstens abzählbar unendlich ist. In „überabzählbar unendlichen“ Wahrscheinlichkeitsräumen kann ein Ereignis mit Wahrscheinlichkeit 0 eintreten, es heißt dann fast unmöglich, ein Ereignis mit Wahrscheinlichkeit 1 muss nicht eintreten, es heißt dann fast sicher.[21][22]

Siehe auch : bedingte Wahrscheinlichkeit, Wahrscheinlichkeitsmaß, Fehler 1. und 2. Art, Eintrittswahrscheinlichkeit.

Psychologie – Einschätzen von Wahrscheinlichkeiten

Es wird oft behauptet, der Mensch besitze ein schlechtes Gefühl für die Wahrscheinlichkeit, man spricht in diesem Zusammenhang auch vom „Wahrscheinlichkeitsidioten“ (siehe auch Zahlenanalphabetismus). Dazu folgende Beispiele:

  • Das Geburtstagsparadoxon: Auf einem Fußballspielfeld befinden sich 23 Personen (zweimal elf Spieler und ein Schiedsrichter). Die Wahrscheinlichkeit, dass hierunter mindestens zwei Personen am gleichen Tag Geburtstag haben, ist größer als 50 %.[23] Es ist nur deshalb ein Paradoxon, weil das Ergebnis nicht mit unserem gesunden Menschenverstand übereinstimmt; denn viele Menschen denken spontan, dass man bei 365 Tagen, die ein Jahr hat, eine wesentlich größere Gruppe als nur 23 Personen braucht, damit die Wahrscheinlichkeit einer Koinzidenz größer als 50 % ist.[24]
  • Sie haben an einer Vorsorgeuntersuchung teilgenommen und einen positiven Befund erhalten. Sie wissen zusätzlich, dass Sie im Vergleich zur Gesamtbevölkerung keine besonderen Risikofaktoren für die diagnostizierte Krankheit aufweisen: Mit den Rechenmethoden der bedingten Wahrscheinlichkeit kann man das tatsächliche Risiko abschätzen, dass die durch den Test erstellte Diagnose tatsächlich zutrifft. Dabei sind zwei Angaben von besonderer Bedeutung, um das Risiko eines falsch positiven Befundes zu ermitteln: die Zuverlässigkeit (Sensitivität und Spezifität) des Tests und die beobachtete Grundhäufigkeit der betreffenden Krankheit in der Gesamtbevölkerung. Dieses tatsächliche Risiko zu kennen kann dabei helfen, den Sinn weitergehender (unter Umständen folgenreicher) Behandlungen abzuwägen. In solchen Fällen ergibt die Darstellung der absoluten Häufigkeit am vollständigen Entscheidungsbaum und ein darauf aufbauendes Beratungsgespräch mit dem Arzt einen besser fasslichen Eindruck als die bloße Interpretation von Prozentzahlen aufgrund des isoliert betrachteten Testergebnisses.[25]

Philosophie – Verständnisse von Wahrscheinlichkeit

Während über den mathematischen Umgang mit Wahrscheinlichkeiten weitgehend Einigkeit herrscht (siehe Wahrscheinlichkeitstheorie), besteht Uneinigkeit darüber, worauf die Rechenregeln der mathematischen Theorie angewendet werden dürfen. Dies führt zur Frage nach der Interpretation des Begriffs „Wahrscheinlichkeit“.

Häufig wird „Wahrscheinlichkeit“ in zwei verschiedenen Zusammenhängen gebraucht:

  1. Aleatorische Wahrscheinlichkeit (auch: ontische/objektive/statistische Wahrscheinlichkeit) beschreibt die relative Häufigkeit zukünftiger Ereignisse, die von einem zufälligen physikalischen Prozess bestimmt werden. Genauer unterscheidet man deterministische physikalische Prozesse, die mit ausreichend genauer Information im Prinzip vorhersagbar wären (Würfelwurf, Wettervorhersage), und nichtdeterministische Prozesse, die prinzipiell nicht vorhersagbar sind (radioaktiver Zerfall).
  2. Epistemische Wahrscheinlichkeit (auch: subjektive/personelle Wahrscheinlichkeit) beschreibt die Unsicherheit über Aussagen, bei denen kausale Zusammenhänge und Hintergründe nur unvollständig bekannt sind. Diese Aussagen können sich auf vergangene oder zukünftige Ereignisse beziehen. Naturgesetzen werden zum Beispiel gelegentlich epistemische Wahrscheinlichkeiten zugeordnet, ebenso Aussagen in Politik („Die Steuersenkung kommt mit 60 % Wahrscheinlichkeit.“), Wirtschaft oder Rechtsprechung.

Aleatorische und epistemische Wahrscheinlichkeit sind lose mit dem frequentistischen und dem bayesschen Wahrscheinlichkeitsbegriff assoziiert.

Es ist eine offene Frage, ob sich aleatorische Wahrscheinlichkeit auf epistemische Wahrscheinlichkeit reduzieren lässt (oder umgekehrt): Erscheint uns die Welt zufällig, weil wir nicht genug über sie wissen, oder gibt es fundamental zufällige Prozesse, wie etwa die objektive Deutung der Quantenmechanik annimmt? Obwohl für beide Standpunkte dieselben mathematischen Regeln zum Umgang mit Wahrscheinlichkeiten gelten, hat die jeweilige Sichtweise wichtige Konsequenzen dafür, welche mathematischen Modelle als gültig angesehen werden.

Siehe auch

Literatur

  • Jacob Rosenthal: Wahrscheinlichkeiten als Tendenzen. Eine Untersuchung objektiver Wahrscheinlichkeitsbegriffe. Mentis, Paderborn 2004. ISBN 3-89785-373-6 (Guter Überblick über die philosophischen Deutungen der Wahrscheinlichkeit, vor allem über die aleatorischen bzw. ontischen Deutungen)
  • Vic Barnett: Comparative Statistical Inference. John Willey & Sons, Chichester 1999. ISBN 978-0-471-97643-1

Weblinks

Wiktionary: Wahrscheinlichkeit – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

  1. Manfred Borovcnik: Stochastik im Wechselspiel von Intuitionen und Mathematik. BI Wissenschaftsverlag, Mannheim, Leipzig, Wien, Zürich 1992, ISBN 3-411-03206-5, S. 178.
  2. Wolfgang Riemer: Stochastische Probleme aus elementarer Sicht. BI Wissenschaftsverlag, Mannheim, Leipzig, Wien, Zürich 1991, ISBN 3-411-14791-1, S. 19.
  3. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 133.
  4. Helmut Wirths: Stochastikunterricht am Gymnasium. BoD, Norderstedt 2021, ISBN 978-3-7526-2218-8, S. 168–201.
  5. Gerd Gigerenzer und andere: Das Reich des Zufalls. Spektrum Akademischer Verlag, Heidelberg, Berlin 1999, ISBN 3-8274-0101-1, S. 11, 257 - 294.
  6. F. Barth, R.Haller: Stochastik Leistungskurs. Ehrenwirth Verlag, München 1985, ISBN 3-431-02511-0, S. 75.
  7. statistik-dresden.de
  8. Jakob Bernoulli: Wahrscheinlichkeitsrechnung (Ars conjectandi). Verlag Harri Deutsch, Frankfurt am Main 2002, ISBN 3-8171-3107-0, S. 21. Der erste Teil der Ars conjectandi ist ein von Bernoulli kommentierter Abdruck von Christaan Huygens' Abhandlung über die bei Glückspielen möglichen Berechnungen "De ratiociniis in ludo aleae".
  9. Jakob Bernoulli: Wahrscheinlichkeitsrechnung (Ars conjectandi). Verlag Harri Deutsch, Frankfurt am Main 2002, ISBN 3-8171-3107-0, S. 262.
  10. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 139–142.
  11. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 143–149.
  12. Ian Hacking: An Introduction to probability and inductive logic. Cambridge University Press, Cambridge/ New York/ Melbourne 2006, ISBN 0-521-77501-9, S. 145 (englisch).
  13. Gerd Gigerenzer und andere: Das Reich des Zufalls. Spektrum Akademischer Verlag, Heidelberg, Berlin 1999, ISBN 3-8274-0101-1, S. 11, 213.
  14. Max Born: Zur Quantenmechanik der Stoßvorgänge, in: Zeitschrift für Physik 37, Nr. 12, 1926, S. 863–867
  15. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 149–151.
  16. Manfred Borovcnik: Stochastik im Wechselspiel von Intuitionen und Mathematik. BI Wissenschaftsverlag, Mannheim, Leipzig, Wien, Zürich 1992, ISBN 3-411-03206-5, S. 89.
  17. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 152–164.
  18. Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg Verlag, Braunschweig 1991, ISBN 3-528-27259-7, S. V.
  19. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. Untertitel.
  20. Kurt Nawrotzki: Lehrbuch der Stochastik. Verlag Harri Deutsch, Frankfurt 1994, ISBN 3-8171-1368-4, S. 7.
  21. Hans Christian Reichel: Wahrscheinlichkeit und Statistik. Verlag Hölder-Pichler-Tempsky, Wien 1987, ISBN 3-209-00736-5, S. 64.
  22. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 137.
  23. F. Barth, R.Haller: Berühmte Aufgaben der Stochastik. Oldenbourg Wissenschaftsverlag, München 2014, ISBN 978-3-486-72832-3, S. 369 - 372.
  24. H. Winter: Zur intuitiven Aufklärung probabilistischer Paradoxien. In: Journal für Mathematikdidaktik, 13(1), 1992, S. 23–53
  25. Heinz Böer: AIDS - Welche Aussagekraft hat ein "positives" Testergebnis ? In: Stochastik in der Schule, 1993, S. 6–15