Diskussion:Sensitivität
Sensitivität (Empfindlichkeit oder Richtigpositiv-Rate) eines statistischen Tests oder eines anderen Klassifikators den in einem Test den Anteil der richtig positiven Ergebnisse an der Gesamtheit der positiven Ergebnissen an. Sie bezeichnet somit die Wahrscheinlichkeit, ein positives Ergebnis auch als solches zu erkennen.
Eine Untersuchungsmethode mit hoher Sensitivität eignet sich also am besten dazu, eine Krankheit auszuschliessen
Stimmt IMHO nicht:
Eine hohe Sensitivität oder 'Richtigpositiv-Rate' läßt mich die Kranken als Kranke gut erkennen, da ist der Anteil an richtigen Test hoch, mit dem Preis einer geringen Spezifität.--^°^ @ 15:01, 20. Jun 2005 (CEST)
- Die Aussage stimmt so. Wenn ein Test eine Sensitivität von 100% hätte, würde er alle Kranken erkennen. Im Umkehrschluss könnte man also sagen, dass alle mit negativem Ergebnis nicht krank sind. Weiterhin könnten aber Menschen einen positiven Test haben und nicht krank sein. Ein Test der nur sensitiv, aber nicht spezifisch ist, eignet sich nur zum Ausschluss. --Docvalium 23:22, 20. Jun 2005 (CEST)
- Na dann lasst uns den satz wieder einfügen, ich finde nämlich dass der ziemlich anschaulich das ganze zusammenfasst
James hetfield 01:52, 21. Jun 2005 (CEST)
aus Absolute Häufigkeit modifiziert auf Sensitivität von 100% Eine Darstellung im Entscheidungsbaum:
1000 / \ / \ / \ 10(krank) 990 (gesund) /\ /\ / \ / \ / \ / \ / \ / \ 0 10 99 891 - + + -
- „+“ - positives Testergebnis
- „-“ - negatives Testergebnis
vielleicht mag ja wer eine ähnliche Grafik zur Anschauung einfügen?---^°^ @ 11:37, 21. Jun 2005 (CEST)
wunsch: ROC-Kurve
Detektor-Sensitivität
Ehrlich gesagt vermisse ich etwas den "Sensitivität (Detektoren)"-Artikel, in dem die Sensitivität als eine Kenngröße eines Detektors näher erläutert wird - als Signalschwelle oder dergleichen. Beantrage daher eine Verzweigungsseite mit einer kurzen Erklärung zu diesem - eher physikalischen - Thema. (Eine solche Definition wie die hier beschriebene liesse sich nämlich grundsätzlich auch auf einen, sagen wir, Photomultiplier, anwenden, wenn man ein Signal draufjagt und schaut, wie oft es im Rauschen untergeht - tut man aber nicht. Daher kann das verwirrend sein und eine Trennung wäre wünschenswert.)
- Ich denke mal, daß das Wort "Sensitivität", wie hier beim Detektor, ein Falscher Freund ist. Das englische "sensitivity" entspricht nämlich im Deutschen dem Wort "Sensibilität", und keinesfalls "Sensitivität". Sensibilität = Empfindlichkeit, Sensitivität = Überempfindlichkeit. Quelle: Duden Gruß --Akapuma 16:26, 18. Feb. 2010 (CET)
Baustelle
- P(positiv erkannt|tatsächlich positiv)=
Stimmt das so?
Auf der Seite steht "Mit der Falschnegativ-Rate addiert sich die Richtigpositiv-Rate zu 100%." Das ist m.E. falsch. Die Falschnegativ-Rate + die Segreganz (negative predictive value) addieren sich zu 100%. Die Falschnegativ-Rate plus die Richtigpositive-Rate ergeben nichts sinnvolles. Analoges Problem auf der Seite zur Spezifität.
(nicht signierter Beitrag von 84.163.63.199 (Diskussion) )
- Addiert sich da nicht eher die Richtigpositivenrate mit der Falschpositivenrate zu 100%? Segreganz ist ja von der Basisrate abhängig und als solche gar nicht allgemein für einen Test anzugeben. So wie es jetzt da steht ist es aber auch nach meinem Verständnis falsch. --Docvalium 11:53, 4. Aug 2006 (CEST)
- Ich denke mit den 100 % ist sind die 100 % aller tatsächlich positiven gemeint:
- Falschnegativ-Rate + Richtigpositiv-Rate
- = P(negativ erkannt|tatsächlich positiv) + P(positiv erkannt|tatsächlich positiv)
- = P(tatsächlich positiv)
- Entsprechendes gilt für Richtignegativ-Rate + Falschpositiv-Rate. Das ist so, wie es im Artikel steht, sicherlich missverständlich formuliert. 100 % aller zu klassifizierenden Stichproben (positiv und negativ) würde man erhalten, wenn man alle vier Raten addiert. Der Satz müsste demnach lauten: „Mit der Falschnegativ-Rate addiert sich die Richtigpositiv-Rate zum Gesamtanteil der positiven Ergebnisse P(tatsächlich positiv) im Test.“ Einverstanden? Oder habe ich jetzt alles durcheinander gebracht? --Zefram blabla 13:17, 4. Aug 2006 (CEST)
- So stimmt's jetzt, glaube ich. Kann dann im Artikel geändert werden. --Docvalium 14:49, 4. Aug 2006 (CEST)
- nein, es ist tatsächlich der wert 1.00 oder 100% gemeint, die falschnegativ rate und die Sensitivität eines test addieren sich zu 100% Zitat aus S 335, Gigerenzer: das einmaleins der skepsis, 2002. --^°^ 17:39, 4. Aug 2006 (CEST)
- So stimmt's jetzt, glaube ich. Kann dann im Artikel geändert werden. --Docvalium 14:49, 4. Aug 2006 (CEST)
- Entsprechendes gilt für Richtignegativ-Rate + Falschpositiv-Rate. Das ist so, wie es im Artikel steht, sicherlich missverständlich formuliert. 100 % aller zu klassifizierenden Stichproben (positiv und negativ) würde man erhalten, wenn man alle vier Raten addiert. Der Satz müsste demnach lauten: „Mit der Falschnegativ-Rate addiert sich die Richtigpositiv-Rate zum Gesamtanteil der positiven Ergebnisse P(tatsächlich positiv) im Test.“ Einverstanden? Oder habe ich jetzt alles durcheinander gebracht? --Zefram blabla 13:17, 4. Aug 2006 (CEST)
Den Wert 1 bzw. 100 % erhalte ich auch wenn ich es nachreche:
P(negativ erkannt|tatsächlich positiv) = a/(a+c) P(positiv erkannt|tatsächlich positiv) = c/(a+c) a/(a+c) + c/(a+c) = (a+c)/(a+c) = 1
Soweit korrekt. Es war nur nicht ganz klar, 100 % von was die Addition ergibt. Und das sind in diesem Fall die tatsächlich positiven Ergebnisse. --Zefram blabla 18:14, 4. Aug 2006 (CEST)
- es stimmt, WP ist in Summe, und hier konkret, wirklich didaktisch, danke, lg--^°^ 08:44, 5. Aug 2006 (CEST)
Die Sensitivität ist nach dieser Beschreibung das gleiche wie Power (siehe dort). Stimmt das? Dann gehören die Artikel zusammengelegt.
- Power und Sensitivität werden in unterschiedlichem Zusammenhang benutzt, auch mathematisch. Sie stellen schon eigenständige Größen dar. --Docvalium 19:08, 14. Sep 2006 (CEST)
Unterschied zu positivem prädiktiven Wert?
Hi! Folgendes habe ich nie verstanden und finde es auch nicht wirklich im Artikel erklärt: Was ist der Unterschied zwischen einem positiven prädiktiven Wert und der Sensitivität? Beide Werte analysieren doch die Zuverlässigkeit eines Tests (sind z.B. Patienten mit einem positiven Testergebnis wirklich krank, oder ist der Test falsch positiv?)? Ich würde mich über eine kurze Aufklärung - vielleicht auch im Artikel freuen! Gruß, --193.196.166.161 19:18, 30. Jul. 2007 (CEST)
- Sensitivität sagt aus: wieviele von 100 Kranken getesten werden positiv getestet. PPV sagt aus: wieviele von 100 positiv Getesteten sind wirklich krank. Beide sind ein Maß für die Qualität eines Tests, es gibt aber auch Unterschiede. Sensitivtät ist unabhängig von der Prävalenz, also der Häufigkeit, einer Krankheit, schließlich berechnet er sich nur innerhalb der Gruppe der Kranken (unabhängig davon, ob das jetzt 0,001% oder 10% sind). Das ist gut, wenn man Tests vergleichen will, weil man Aussagen unabhängig von der Häufigkeit der Erkrankung treffen kann, die ja, wie bei HIV extrem von Land zu Land variieren kann. PPV wiederum ist das, was den Patienten eigentlich interessiert, nämlich: wenn ich einen positiven Test habe, wie hoch ist die Wahrscheinlichkeit, dass ich krank bin. Solche Aussagen kann man aber nur treffen, wenn man die Grundwahrscheinlichkeit kennt (Bayes Theorem), also wie hoch ist die Häufigkeit in meinem Land oder in meiner Bevölkerungstruppe oder bei Menschen mit meinem Risikoprofil. Angenommen Einer von Tausernd hat eine bestimmte Krankheit. Ein Test identifiziert 99% der Gesunden korrekt als gesund (Spezifität!). Nun teste ich 1000 Menschen. Ich erhalte 11 positive Ergebnisse, von denen aber nur eines korrekt ist und 10 falsch-positiv. Der PPV ist ca. 9% trotz der großen Spezifität. wie Du siehst, korreliert der PPV eher mit der Spezifität (wieviele von 100 Gesunden werden negativ getestet), weil sie beide ein Maß dafür sind, wieviele falsch-positive Ergebnisse es gibt. Hoffe, ich konnte helfen. --Docvalium 22:47, 30. Jul. 2007 (CEST)
Übernahme der Artikelinhalte in eine neue Version von "Beurteilung eines Klassifikators"
Hallo, ich habe auf meiner Benutzerseite eine neue Version des Artikels "Beurteilung eines Klassifikators erstellt, die die vielen Redundanzen unter anderem auch dieses Artikels (siehe Portal:Mathematik/Qualitätssicherung#Mutter_aller_Redundanzen:_Fehlerklassifikation) auflösen und darüber hinaus die verschiedenen Maße sowie ihr Bezug zur statistischen Testtheorie (bzw. auch die Abgrenzung dazu) besser darstellen soll. Über Feedback zu der neuen Version wäre ich dankbar, wenn keine größeren Bedenken geäußert werden, werde ich in den nächsten Tagen die neue Version schrittweise einstellen und diesen und die anderen Artikel in Weiterleitungen umgewandeln. Gruss --Darian 23:19, 22. Okt. 2010 (CEST)