Typ I und Typ II Fehler in Hypothesentests

Das Ergebnis eines statistischen Tests ist eine Entscheidung, entweder annehmen oder ablehnen H0 (Die Null-Hypothese) zugunsten von HAlt (Die alternative Hypothese). Da H0 der Bevölkerung betrifft, ist es entweder wahr oder falsch für die Bevölkerung Sie sind zu probieren. Sie können nie wissen, was die Wahrheit ist, sondern eine objektive Wahrheit ist da draußen dennoch.

Die Wahrheit kann eines von zwei Dingen sein, und Ihre Schlussfolgerung ist, eines von zwei Dingen, so vier verschiedene Situationen sind möglich- diese oft in einer vierfachen Tabelle dargestellt werden.

bild0.jpg

Hier sind die vier Dinge, die passieren kann, wenn man eine statistische Signifikanztest auf Ihre Daten ausgeführt (unter Verwendung eines Beispiels der Herstellung eines Arzneimittels zur Wirksamkeitsprüfung):

  • Sie können eine bekommen nonsignificant zur Folge haben, wenn wirklich ist Nein Effekt vor. Das ist richtig - Sie wollen nicht behaupten, dass ein Medikament wirkt, wenn es wirklich nicht. (Siehe die linke obere Ecke des eingerahmten Feld in der Abbildung.)

  • Sie können eine bekommen signifikant zur Folge haben, wenn es wirklich ist eine gewisse Wirkung vorhanden. Das ist richtig - Sie wollen behaupten, dass ein Medikament wirkt, wenn es wirklich tut. (Siehe die untere rechte Ecke des eingerahmten Feld in der Abbildung.)

  • Sie können eine bekommen signifikant zur Folge haben, wenn es wirklich ist Nein Effekt vor. Dies ist ein Typ-I-Fehler - Sie haben durch zufällige Schwankungen betrogen worden, dass ein wirklich wertlos Droge gemacht scheinen Wirkung zu zeigen. (Siehe die untere linke Ecke des eingerahmten Feld in der Abbildung.)

    Ihr Unternehmen wird Millionen von Dollar in die weitere Entwicklung eines Medikaments investieren, die schließlich gezeigt werden, wertlos zu sein. Statistiker verwenden den griechischen Buchstaben Alpha die Wahrscheinlichkeit der Herstellung eines Typ-I-Fehler zu vertreten.

  • Sie können eine bekommen nonsignificant zur Folge haben, wenn es wirklich ist ein Effekt vorhanden ist. Dies ist ein Fehler vom Typ II (die obere rechte Ecke des eingerahmten Feld in der Abbildung zu sehen) - Sie haben versagt, um zu sehen, dass das Medikament wirklich funktioniert, vielleicht, weil der Effekt durch die zufällige Rauschen in den Daten verdeckt wurde.

    Die weitere Entwicklung wird gestoppt, und die Wunderdroge des Jahrhunderts wird auf dem Schrotthaufen übergeben werden, zusammen mit dem Nobelpreis werden Sie nie bekommen. Statistiker verwenden den griechischen Buchstaben Beta die Wahrscheinlichkeit der Herstellung eines Fehlers vom Typ II zu vertreten.

Die Begrenzung Ihre Chance auf einen Typ-I-Fehler zu machen (fälschlicherweise behauptet Bedeutung) ist sehr einfach. Wenn Sie nicht über eine Art machen will ich mehr als 5 Prozent der Zeit Fehler, nicht ausdrücklich erklären, Bedeutung, wenn der p-Wert kleiner als 0,05. Das ist Tests auf 0,05 Alpha-Niveau genannt.

Wenn Sie bereit sind, eine Art zu machen Fehler, die ich 10 Prozent der Zeit, verwenden p lt; 0,10 als Kriterium für die Bedeutung. Dies wird sehr oft in "Sondierungs" Studien durchgeführt, wo Sie sind eher bereit, die Droge den Vorteil des Zweifels. Auf der anderen Seite, wenn Sie wirklich von Typ-I-Fehler erschrocken, Verwendung p lt; 0.000001 als Kriterium für die Bedeutung, und Sie werden nicht fälschlicherweise Bedeutung in einer Million mehr als einmal behaupten.

Warum nicht immer eine kleine Alpha-Level verwenden (wie p lt; 0.000001) für Ihre Signifikanztests? Denn dann werden Sie fast nie Bedeutung bekommen, auch wenn ein Effekt wirklich vorhanden ist. Die Forscher nicht mögen durch das Leben gehen nie irgendwelche Entdeckungen zu machen. Wenn ein Medikament wirklich wirksam ist, möchten Sie ein signifikantes Ergebnis zu erhalten, wenn Sie es testen.

Sie müssen ein Gleichgewicht zwischen Typ I und Typ II Fehler zu schlagen - zwischen den Alpha- und Beta-Fehlerraten. Wenn Sie Alpha zu klein zu machen, wird sich Beta zu groß ist, und umgekehrt.

Menü