Statistische Schätztheorie

Statistische Schätztheorie

konzentriert sich auf die Genauigkeit und Präzision der Dinge, die Sie, messen, zählen oder berechnen schätzen. Es gibt Ihnen Möglichkeiten, um anzuzeigen, wie präzise Ihre Maße und die Reichweite zu berechnen, um den wahren Wert wahrscheinlich auch ist.

Genauigkeit und Präzision

Jedes Mal, wenn Sie abschätzen, oder irgendetwas zu messen, Ihre geschätzte oder gemessene Wert kann auf zwei Arten von der Wahrheit abweichen - es kann ungenau, ungenau sein, oder beides.

  • Genauigkeit schließen neigt dazu, Ihre Messung bezieht sich auf, wie man das zu kommen wahrer Wert, ohne dass in eine oder andere Richtung systematisch voreingenommen.

  • Präzision bezieht sich auf, wie nahe ein Bündel von Wiederholungsmessungen kommen gegenseitig - das heißt, wie reproduzierbar sie sind.

Die Abbildung zeigt vier Schießscheiben mit einem Bündel von Einschusslöchern aus wiederholten Gewehrschüsse. Diese Ziele veranschaulichen den Unterschied zwischen der Genauigkeit und Präzision - zwei Begriffe, die unterschiedliche Arten von Fehlern, beschreiben, die auftreten können, wenn Abtasten oder Messen etwas (oder in diesem Fall, wenn auf ein Ziel schießen).

bild0.jpg
  • Die obere linke Ziel ist das, was die meisten Menschen zu erreichen hoffen - alle Cluster die Schüsse zusammen (gute Präzision) und sie zentriert auf dem Bullauge (guter Genauigkeit).

  • Der obere rechte Ziel zeigt, dass die Schüsse alle sehr konsistent miteinander (gute Präzision) sind, so dass wir wissen, dass der Schütze sehr stabil war (ohne große Zufalls Störungen von einer Aufnahme zur nächsten), und andere zufällige Effekte auch recht klein gewesen sein muss .

    Aber die Schüsse waren alle durchweg hoch und nach rechts (schlechte Genauigkeit). Vielleicht war das Visier nicht richtig ausgerichtet oder der Schütze nicht wusste, wie man es richtig zu verwenden. Ein systematischer Fehler irgendwo im Ziel und Schießprozess.

  • Der linke untere Ziel zeigt an, dass der Schütze von einem Schuss zum anderen nicht sehr konstant war (er hatte schlechte Präzision). Vielleicht war er unsicher in den Schützen hält vielleicht atmete er anders für jede Schuss- vielleicht die Kugeln waren nicht alle richtig geformt und hatten verschiedene Aerodynamik- oder eine beliebige Anzahl von anderen zufälligen Unterschiede eine Wirkung von einer Aufnahme zur nächsten gehabt haben können.

    Über die einzige gute Sache, kann man sagen, zu diesem Shooter, dass zumindest ist er eher um das Bullauge zentriert mehr oder weniger zu sein - die Aufnahmen zeigen keine Tendenz gleichbleibend hoch oder niedrig sein, oder konsequent nach links oder rechts der Mitte. Es gibt keine Hinweise auf eine systematische Fehler (oder Ungenauigkeit) in seiner Aufnahme.

  • Die untere rechte Ziel zeigt die schlimmste Art von Shooting - die Aufnahmen sind nicht eng gruppierten (schlechte Präzision), und sie scheinen eine Tendenz zu zeigen, hoch und nach rechts (schlechte Genauigkeit) zu sein. Sowohl zufällige und systematische Fehler sind prominent in diesem Shooting des Schützen.

Stichprobenverteilungen und Standardfehler

Das Standart Fehler (Abgekürzt SE) ist eine Möglichkeit, um anzuzeigen, wie präzise Ihre Schätzung oder Messung von etwas ist. Die SE sagt Ihnen, wie viel die Schätzung oder gemessene Wert kann variieren, wenn Sie das Experiment zu wiederholen waren oder die Messung viele Male, jedes Mal eine andere Stichprobe aus derselben Population mit und Aufzeichnen der Wert, den Sie jedes Mal erhalten.

Diese Sammlung von Zahlen wäre eine Verbreitung von Werten, das bilden, was das heißt Stichprobenverteilung für diese Variable. Das SE ist ein Maß für die Breite der Stichprobenverteilung.

Glücklicherweise müssen Sie nicht das ganze Experiment eine große Anzahl von Zeiten wiederholen Sie die SE zu berechnen. Sie können in der Regel die SE unter Verwendung von Daten aus einem einzigen Experiment abzuschätzen.

Vertrauensintervalle

Vertrauensintervalle bieten eine weitere Möglichkeit, die Genauigkeit einer Schätzung oder Messung von etwas zu zeigen. EIN Konfidenzintervall (CI) um einen Schätzwert ist der Bereich, in dem Sie ein gewisses Maß an Sicherheit haben, die so genannte Konfidenzniveau (CL), dass der wahre Wert für diese Variable liegt.

Wenn sie richtig berechnet, sollte Ihr zitierte Konfidenzintervall den wahren Wert einen Prozentsatz der Zeit, zumindest gleich dem angegebenen Konfidenzniveau umfassen.

Angenommen, Sie behandeln 100 zufällig ausgewählte Migräne mit einem neuen Medikament-Kranken, und Sie feststellen, dass 80 von ihnen auf die Behandlung ansprechen (nach den Kriterien für das Ansprechen festgestellt ist). Ihre beobachtete Ansprechrate beträgt 80 Prozent, aber wie genau ist diese beobachtete Rate?

Sie können berechnen, dass die 95 Prozent Konfidenzintervall für diese 80 Prozent Rücklaufquote von 70,8 Prozent auf 87,3 Prozent geht. Diese beiden Zahlen werden die unteren und oberen 95 Prozent genannt Vertrauensgrenzen um die beobachtete Ansprechrate.

Wenn Sie, dass die wahre Ansprechrate (in der Population der Migränepatienten, die Sie Ihre Probe entnahm) behaupten, liegt zwischen 70,8 Prozent und 87,3 Prozent, gibt es eine 95-prozentige Chance, dass diese Behauptung richtig ist.

Menü