Post-Hoc-Tests sind ein integraler Bestandteil von ANOVA. Wenn Sie ANOVA verwenden, um die Gleichheit von mindestens drei Gruppenmitteln zu testen, zeigen statistisch signifikante Ergebnisse an, dass nicht alle Gruppenmittel gleich sind. ANOVA-Ergebnisse identifizieren jedoch nicht, welche besonderen Unterschiede zwischen Mittelpaaren signifikant sind. Verwenden Sie Post-hoc-Tests, um Unterschiede zwischen mehreren Gruppenmitteln zu untersuchen und gleichzeitig die experimentelle Fehlerrate zu steuern.,
In diesem Beitrag, ich werde Ihnen zeigen, wie post-hoc-Analysen, die entscheidende Vorteile bieten Sie und helfen Sie wählen die richtige für Ihre Studie. Darüber hinaus werde ich zeigen, warum das Versäumnis, die experimentelle Fehlerrate zu kontrollieren, zu schwerwiegenden Zweifeln an Ihren Ergebnissen führt.
Beginnend mit dem ANOVA Omnibus Test
Wenn Sie normalerweise feststellen möchten, ob drei oder mehr Mittel unterschiedlich sind, führen Sie ANOVA durch. Statistiker bezeichnen den ANOVA F-Test als Omnibus-Test. Welchs ANOVA ist eine andere Art von Omnibus-Test.,
Ein Omnibus-Test liefert Gesamtergebnisse für Ihre Daten. Zusammengenommen sind die Unterschiede zwischen den Mitteln statistisch signifikant-Ja oder Nein?
Wenn der p-Wert aus Ihrem ANOVA F-Test oder Welch-Test kleiner als Ihr Signifikanzniveau ist, können Sie die Nullhypothese ablehnen.
- : Null: Alle gruppenmittelwerte sind gleich.
- Alternative: Nicht alle Gruppenmittel sind gleich.
Die ANOVA-Testergebnisse zeigen jedoch nicht, welche Gruppen sich von anderen Gruppen unterscheiden., Wie Sie den obigen Hypothesen entnehmen können, wissen Sie nur, dass nicht alle Mittel gleich sind, wenn Sie die null ablehnen können. Manchmal müssen Sie wirklich wissen, welche Gruppen sich erheblich von anderen Gruppen unterscheiden!
: Wie F-Tests in ANOVA und Welchs ANOVA funktionieren
Beispiel Einweg-ANOVA für Post-Hoc-Tests
Wir beginnen mit diesem Einweg-ANOVA-Beispiel und verwenden es dann, um drei Post-hoc-Tests in diesem Blogbeitrag zu veranschaulichen. Stellen Sie sich vor, wir testen vier Materialien, die wir für die Herstellung eines Produktteils in Betracht ziehen., Wir wollen herausfinden, ob die mittleren Unterschiede zwischen den Stärken dieser vier Materialien statistisch signifikant sind. Wir erhalten die folgenden Einweg-ANOVA-Ergebnisse. Um diesem Beispiel zu folgen, laden Sie den CSV-Datensatz herunter: PostHocTests.
Der p-Wert von 0.004 zeigt an, dass wir die Nullhypothese ablehnen und daraus schließen können, dass die vier Mittelwerte nicht alle gleich sind. Die Tabelle Means unten zeigt die Mittelwerte der Gruppe an. Wir wissen jedoch nicht, welche Gruppenpaare sich signifikant unterscheiden.,
Um Gruppenmittel zu vergleichen, müssen wir Post-hoc-Tests durchführen, die auch als Mehrfachvergleiche bezeichnet werden. Im Lateinischen bedeutet Post hoc “ danach.“Führen Sie die post-hoc Analysen nach einem statistisch signifikanten omnibus-test (F-test oder der Welch).
Bevor wir zu diesen Gruppenvergleichen kommen, müssen Sie sich über die experimentelle Fehlerrate informieren.
: Wie interpretiere ich P-Werte richtig und mache Einweg-ANOVA in Excel
Was ist die experimentelle Fehlerrate?
Post-hoc-tests durchführen, die zwei wichtige Aufgaben., Ja, sie sagen Ihnen, welche Gruppenmittel sich signifikant von anderen Gruppenmitteln unterscheiden. Entscheidend ist, dass sie auch die experimentelle oder familienweise Fehlerrate steuern. In diesem Zusammenhang sind experimentelle, familienbezogene und familiäre Fehlerraten Synonyme, die ich austauschbar verwenden werde.
Was ist diese experimentelle Fehlerrate? Für jeden Hypothesentest, den Sie durchführen, gibt es eine Fehlerrate vom Typ I, die Ihr Signifikanzniveau (Alpha) definiert. Mit anderen Worten, es besteht die Möglichkeit, dass Sie eine Nullhypothese ablehnen, die tatsächlich wahr ist—es ist ein falsch positives., Wenn Sie nur einen Test durchführen, entspricht die Fehlerrate vom Typ I Ihrem Signifikanzniveau, das häufig 5% beträgt. Wenn Sie jedoch immer mehr Tests durchführen, steigt Ihre Chance auf ein falsch positives Ergebnis. Wenn Sie genügend Tests durchführen, erhalten Sie praktisch garantiert ein falsch positives Ergebnis! Die Fehlerrate für eine Familie von Tests ist immer höher als bei einem einzelnen Test.
Stellen Sie sich vor, Sie würfeln ein Paar Würfel und rollen zwei (bekannt als Schlangenaugen) stellt einen Fehler vom Typ I dar. Die Wahrscheinlichkeit von Schlangenaugen für eine einzelne Rolle beträgt ~2,8% statt 5%, aber Sie bekommen die Idee., Wenn Sie nur einmal würfeln, sind Ihre Chancen, Schlangenaugen zu rollen, nicht so schlecht. Je öfter Sie jedoch würfeln, desto wahrscheinlicher erhalten Sie zwei. Mit 25 Rollen werden Schlangenaugen wahrscheinlicher als nicht (50,8%). Mit genügend Rollen wird es unvermeidlich.
: Arten von Fehlern in Hypothesentests und Signifikanzniveaus und P-Werten
Familienfehlerraten in ANOVA
Im ANOVA-Kontext möchten Sie die Gruppenmittel vergleichen. Je mehr Gruppen Sie haben, desto mehr Vergleichstests müssen Sie durchführen., Für unser Beispiel ANOVA mit vier Gruppen (A, B, C, D), müssen wir die folgenden sechs Vergleiche.
- A – B
- – C
- A – D
- B – C
- B – D
- C – D
Unser experiment umfasst diese Familie von sechs Vergleiche. Jeder Vergleich stellt einen Würfelwurf dar, um ein falsch positives Ergebnis zu erhalten. Wie hoch ist die Fehlerquote bei sechs Vergleichen? Leider, wie Sie als nächstes sehen werden, die experimentelle Fehlerrate Schneebälle basierend auf der Anzahl der Gruppen in Ihrem Experiment.
Die Experimentelle Fehlerquote Wird Schnell Problematisch!,
Die folgende Tabelle zeigt, wie die Erhöhung der Gruppenzahl in Ihrer Studie dazu führt, dass die Anzahl der Vergleiche ansteigt, was wiederum die familienbezogene Fehlerrate erhöht. Beachten Sie, wie schnell die Anzahl der Vergleiche durch Hinzufügen von nur wenigen Gruppen zunimmt! Entsprechend wird die experimentelle Fehlerrate schnell problematisch.
Die Tabelle beginnt mit zwei Gruppen, und der einzelne Vergleich zwischen ihnen weist eine experimentelle Fehlerrate auf, die dem Signifikanzniveau (0,05) entspricht. Leider steigt die familiäre Fehlerquote von dort schnell an!,
Die Formel für die maximale Anzahl von Vergleichen, die Sie für N Gruppen durchführen können, lautet: (N*(N-1))/2. Die Gesamtzahl der Vergleiche ist die Familie der Vergleiche für Ihr Experiment, wenn Sie alle möglichen Gruppenpaare (dh alle paarweisen Vergleiche) vergleichen. Zusätzlich ist die Formel zur Berechnung der Fehlerrate für den gesamten Satz von Vergleichen 1 – (1 – α)^C. Alpha ist Ihr Signifikanzniveau für einen einzelnen Vergleich und C entspricht der Anzahl der Vergleiche.,
Die experimentelle Fehlerrate stellt die Wahrscheinlichkeit eines Fehlers vom Typ I (falsch positiv) über die gesamte Vergleichsfamilie dar. Unser ANOVA-Beispiel hat vier Gruppen, die sechs Vergleiche und eine familienbezogene Fehlerrate von 0,26 ergeben. Wenn Sie die Gruppen auf fünf erhöhen, springt die Fehlerrate auf 40%! Wenn Sie 15 Gruppen haben, haben Sie praktisch garantiert ein falsch positives (99,5%)!
Post-hoc-Tests Steuern Sie die experimentelle Fehlerrate
Die Tabelle veranschaulicht kurz und bündig das Problem, das Post-hoc-Tests lösen., In der Regel erwarten Sie bei der statistischen Analyse eine falsch positive Rate von 5% oder einen Wert, den Sie für die Signifikanzstufe festgelegt haben. Wie die Tabelle zeigt, verdreifacht sich die Fehlerrate fast von 0,05 auf 0,143, wenn Sie die Anzahl der Gruppen von 2 auf 3 erhöhen. Und es verschlechtert sich schnell von dort!
Diese Fehlerraten sind zu hoch! Wenn Sie einen signifikanten Unterschied zwischen den Gruppen feststellen, haben Sie ernsthafte Zweifel, ob es sich eher um ein falsch positives als um einen echten Unterschied handelt.,
Wenn Sie T-Tests mit 2 Stichproben verwenden, um alle Gruppenmittel in Ihrer Studie systematisch zu vergleichen, wird dieses Problem auftreten. Sie würden das Signifikanzniveau für jeden Test festlegen (z. B. 0,05), und dann bestimmt die Anzahl der Vergleiche die experimentelle Fehlerrate, wie in der Tabelle gezeigt.
Glücklicherweise verwenden Post-hoc-Tests einen anderen Ansatz. Für diese Tests legen Sie die experimentelle Fehlerrate für den gesamten Vergleichssatz fest. Anschließend berechnet der Post-hoc-Test das Signifikanzniveau für alle einzelnen Vergleiche, das die von Ihnen angegebene Familywise-Fehlerrate erzeugt.,
Es ist viel einfacher zu verstehen, wie Post-hoc-Tests funktionieren, wenn Sie sie in Aktion sehen. Kommen wir zurück zu unserem Einweg – ANOVA-Beispiel!
Beispiel für die Verwendung der Tukey-Methode mit EINWEGANOVA
Für unser ANOVA-Beispiel haben wir vier Gruppen, für die sechs Vergleiche erforderlich sind, um alle Gruppenkombinationen abzudecken. Wir verwenden einen Post-hoc-Test und geben an, dass die Familie von sechs Vergleichen gemeinsam eine familienweise Fehlerrate von 0,05 erzeugen sollte. Der Post-hoc-Test, den ich verwenden werde, ist Tukey ‚ s Methode., Es gibt eine Vielzahl von Post-hoc-Tests, aus denen Sie wählen können, aber Tukey Methode ist die häufigste für den Vergleich aller möglichen Gruppenpaarungen.
Es gibt zwei Möglichkeiten, Post-hoc-Testergebnisse darzustellen-angepasste p-Werte und gleichzeitige Konfidenzintervalle. Ich zeige sie beide unten.
Angepasste P-Werte
Die folgende Tabelle zeigt die sechs verschiedenen Vergleiche in unserer Studie, die Differenz zwischen den Gruppenmitteln und den angepassten p-Wert für jeden Vergleich.,
Der angepasste p-Wert identifiziert die Gruppenvergleiche, die sich signifikant unterscheiden, während die Familienfehlerrate auf Ihr Signifikanzniveau begrenzt wird. Vergleichen Sie einfach die angepassten p-Werte mit Ihrem Signifikanzniveau. Wenn die angepassten p-Werte kleiner als das Signifikanzniveau sind, ist der Unterschied zwischen diesen Gruppenmitteln statistisch signifikant. Wichtig ist, dass dieser Prozess die familienbezogene Fehlerrate auf Ihr Signifikanzniveau steuert. Wir können sicher sein, dass dieser gesamte Satz von Vergleichen zusammen eine Fehlerrate von 0,05 aufweist.,
In der obigen Ausgabe ist bei Verwendung einer Familienfehlerrate von 0,05 nur die DB – Differenz statistisch signifikant. Der mittlere Unterschied zwischen diesen beiden Gruppen beträgt 9,5.
Gleichzeitige Konfidenzintervalle
Die andere Möglichkeit, Post-hoc-Testergebnisse darzustellen, besteht darin, gleichzeitige Konfidenzintervalle der Unterschiede zwischen den Mitteln zu verwenden. In einem Einzeltest stimmen die Hypothesentestergebnisse unter Verwendung eines Signifikanzniveaus von α mit Konfidenzintervallen unter Verwendung eines Konfidenzniveaus von 1 – α überein. Zum Beispiel Hypothesentests mit einem Signifikanzniveau von 0.,05 entsprechen 95% Konfidenzintervallen.
In Post-hoc-Tests verwenden wir eher ein gleichzeitiges Konfidenzniveau als ein individuelles Konfidenzniveau. Das gleichzeitige Konfidenzniveau gilt für die gesamte Vergleichsfamilie. Mit einem gleichzeitigen Konfidenzniveau von 95% können wir zu 95% sicher sein, dass alle Intervalle in unseren Vergleichen die tatsächlichen Bevölkerungsunterschiede zwischen Gruppen enthalten. Eine 5% experimentelle Fehlerrate entspricht 95% gleichzeitigen Konfidenzintervallen.
Tukey-CIs für unser Einweg-ANOVA-Beispiel
Kommen wir zu den Konfidenzintervallen., Während die obige Tabelle diese Werte numerisch anzeigt, gefällt mir die folgende Grafik, da sie eine einfache visuelle Bewertung ermöglicht und mehr Informationen als die angepassten p-Werte liefert.
Null zeigt an, dass die gruppenmittelwerte sind gleich. Wenn ein Konfidenzintervall nicht Null enthält, ist der Unterschied zwischen diesem Gruppenpaar statistisch signifikant. In der Tabelle ist nur der Unterschied zwischen D – B signifikant. Diese CI-Ergebnisse stimmen mit den Hypothesentestergebnissen in der vorherigen Tabelle überein., Ich bevorzuge diese CI-Ergebnisse, weil sie auch zusätzliche Informationen liefern, die die angepassten p-Werte nicht vermitteln.
Diese Konfidenzintervalle bieten Wertebereiche, die wahrscheinlich die tatsächliche Bevölkerungsdifferenz zwischen Gruppenpaaren enthalten. Wie bei allen CIs zeigt die Breite des Intervalls für die Differenz die Genauigkeit der Schätzung. Engere Intervalle deuten auf eine genauere Schätzung hin. Und Sie können beurteilen, ob der gesamte Wertebereich praktisch signifikant ist., Denken Sie daran, statistische Signifikanz bedeutet nicht unbedingt, dass die Ergebnisse in der realen Welt sinnvoll sind.
Wenn das Intervall zu breit (ungenau) ist, um hilfreich zu sein, und/oder der Bereich Unterschiede enthält, die praktisch nicht signifikant sind, haben Sie Grund zu zögern, bevor Sie Entscheidungen auf der Grundlage der Ergebnisse treffen.
Post Hoc Tests und die Statistische Power Tradeoff
Post hoc tests sind ideal für die steuerung der familie-weise fehler rate. Viele Texte würden an dieser Stelle aufhören. Hinter den Kulissen kommt es jedoch zu einem Kompromiss., Sie müssen sich dessen bewusst sein, da Sie es möglicherweise effektiv verwalten können. Der Nachteil hierbei ist jedoch die folgende:
Post-hoc-tests Kontrolle der experiment-wise error rate durch die Reduzierung der statistischen power der Vergleiche.
So funktioniert das und was es für Ihr Studium bedeutet.
Um die von Ihnen angegebene Familienfehlerrate zu erhalten, müssen Post-hoc-Verfahren die Signifikanz für alle Einzelvergleiche senken. Um beispielsweise eine Familienfehlerrate von 5% für eine Reihe von Vergleichen zu erhalten, verwendet das Verfahren ein noch niedrigeres individuelles Signifikanzniveau.,
Wenn die Anzahl der Vergleiche zunimmt, muss die Post-hoc-Analyse das individuelle Signifikanzniveau noch weiter senken. Für unsere sechs Vergleiche verwendet Tukey ‚ s Methode ein individuelles Signifikanzniveau von ungefähr 0,011, um die familienweise Fehlerrate von 0,05 zu erzeugen. Wenn unsere ANOVA mehr Vergleiche erfordern würde, wäre sie noch niedriger.
Was ist das problem bei der Verwendung einer niedrigeren individuellen Bedeutung Ebene? Niedrigere Signifikanzniveaus entsprechen einer geringeren statistischen Leistung., Wenn ein Unterschied zwischen Gruppenmitteln tatsächlich in der Bevölkerung besteht, ist es weniger wahrscheinlich, dass eine Studie mit geringerer Leistung dies erkennt. Sie könnten wichtige Erkenntnisse verpassen!
Um diese Leistungsreduzierung zu vermeiden, verwenden viele Studien ein individuelles Signifikanzniveau von 0,05 anstelle von 0,01. Leider ist unser Beispiel-Post-hoc-Test mit nur vier Gruppen gezwungen, die niedrigere Signifikanzstufe zu verwenden.
Schlüssel zum Mitnehmen: Je mehr Gruppenvergleiche Sie durchführen, desto geringer ist die statistische Potenz dieser Vergleiche.,
Verwandter Beitrag: Statistische Leistung verstehen
Verwalten des Leistungsabgleichs in Post-hoc-Tests durch Reduzierung der Anzahl der Vergleiche
Eine Methode zur Minderung dieses Kompromisses besteht darin, die Anzahl der Vergleiche zu reduzieren. Diese Reduzierung ermöglicht es dem Verfahren, eine größere individuelle Fehlerrate zu verwenden, um die von Ihnen angegebene Familienfehlerrate zu erreichen—was die statistische Leistung erhöht.
In diesem Artikel habe ich über die Durchführung aller paarweisen Vergleiche geschrieben-die alle möglichen Gruppenpaarungen vergleicht., Während dies der häufigste Ansatz ist, häuft sich die Anzahl der Kontraste schnell! Abhängig vom Zweck Ihrer Studie müssen Sie jedoch möglicherweise nicht alle möglichen Gruppen vergleichen.
Ihre Studie muss möglicherweise aus verschiedenen Gründen nur eine Teilmenge aller möglichen Vergleiche vergleichen. Ich werde zwei häufige Gründe behandeln und Ihnen zeigen, welche Post-hoc-Tests Sie verwenden können. In den folgenden Beispielen zeige ich nur die Konfidenzintervalldiagramme und nicht die Hypothesentestergebnisse an. Beachten Sie, dass diese anderen Methoden für unseren Beispieldatensatz weniger Vergleiche (3 und 4) durchführen als die Tukey-Methode (6).,
Während Sie Ihre Studie entwerfen, ist es wichtig, dass Sie im Voraus die Methode für mehrere Vergleiche definieren, die Sie verwenden werden. Probieren Sie nicht verschiedene Methoden aus und wählen Sie dann diejenige aus, die die günstigsten Ergebnisse liefert. Das ist Daten Baggern, und es kann zu falschen Ergebnissen führen. Ich verwende mehrere Post-hoc-Tests für einen einzelnen Datensatz, um zu zeigen, wie sie sich unterscheiden, aber das ist für eine echte Studie keine geeignete Praxis. Definieren Sie Ihre Methodik im Voraus, einschließlich einer Post-hoc-Analyse, bevor Sie die Daten analysieren, und halten Sie sich daran!,
Key Takeaway: Wenn es möglich ist, vergleichen Sie eine Teilmenge von Gruppen, um Ihre statistische Leistung zu erhöhen.
Beispiel für die Verwendung von Dunnetts Methode zum Vergleichen von Behandlungsgruppen mit einer Kontrollgruppe
Wenn Ihre Studie über eine Kontrollgruppe und mehrere Behandlungsgruppen verfügt, müssen Sie möglicherweise die Behandlungsgruppen nur mit der Kontrollgruppe vergleichen.
Verwenden Sie Dunnetts Methode, wenn Folgendes zutrifft:
- Vor der Studie wissen Sie, welche Gruppe (Kontrolle) Sie mit allen anderen Gruppen (Behandlungen) vergleichen möchten.
- Sie müssen die Behandlungsgruppen nicht miteinander vergleichen.,
Lassen Sie uns Dunnetts Methode mit unserem Beispiel Einweg-ANOVA verwenden, aber wir werden das Szenario leicht optimieren. Angenommen, wir verwenden derzeit Material A. Wir haben dieses Experiment durchgeführt, um die alternativen Materialien (B, C und D) damit zu vergleichen. Material A wird unsere Kontrollgruppe sein, während die anderen drei die Behandlungen sind.
Mit Dunnetts Methode sehen wir, dass nur der B – A-Unterschied statistisch signifikant ist, da das Intervall nicht Null enthält. Mit Tukey ‚ s Methode war dieser Vergleich nicht signifikant., Die zusätzliche Kraft, die durch weniger Vergleiche gewonnen wurde, kam für uns durch. Auf der anderen Seite stellt Dunnetts Methode im Gegensatz zur Tukey-Methode nicht fest, dass der D – B-Unterschied signifikant ist, da sie die Behandlungsgruppen nicht miteinander vergleicht.
Beispiel für die Verwendung des MCB von Hsu, um das stärkste Material zu finden
Wenn das Ziel Ihrer Studie darin besteht, die beste Gruppe zu identifizieren, müssen Sie möglicherweise nicht alle möglichen Gruppen vergleichen. Hsu ‚ s Multiple Comparisons to the Best (MCB) identifiziert die Gruppen, die die besten sind, sich unbedeutend von den Besten unterscheiden und sich signifikant von den Besten unterscheiden.,
Verwenden Sie die MCB von Hsu, wenn Sie:
- Nicht im Voraus wissen, welche Gruppe Sie mit allen anderen Gruppen vergleichen möchten.
- Sie müssen Gruppen, die nicht die besten sind, nicht mit anderen Gruppen vergleichen, die nicht die besten sind.
- Kann „das Beste“ entweder als die Gruppe mit dem höchsten Mittelwert oder dem niedrigsten Mittelwert definieren.
Der MCB von Hsu vergleicht jede Gruppe mit der Gruppe mit dem besten Mittelwert (höchster oder niedrigster Wert). Mit diesem Verfahren können Sie mehrere Gruppen erhalten, die sich nicht wesentlich von der besten Gruppe unterscheiden., Denken Sie daran, dass die Gruppe, die in der gesamten Population wirklich am besten ist, aufgrund von Stichprobenfehlern möglicherweise nicht den besten Stichprobenmittelwert hat. Die Gruppen sind nicht signifikant Verschieden von der besten Gruppe werden kann, ist so gut wie oder sogar besser als die Gruppe mit den besten Stichprobe-Mittelwert.
Gleichzeitige Konfidenzintervalle für Hsu ‚ s MCB
Für unsere EINWEGANOVA möchten wir das Material verwenden, das die stärksten Teile produziert. Folglich verwenden wir Hsu ‚ s MCB und definieren den höchsten Mittelwert als den besten. Wir kümmern uns nicht um alle anderen möglichen Vergleiche.,
Gruppe D ist insgesamt die beste Gruppe, da sie den höchsten Mittelwert (41, 07) aufweist. Das Verfahren vergleicht D mit allen anderen Gruppen. Für die MCB von Hsu ist eine Gruppe signifikant besser als eine andere Gruppe, wenn das Konfidenzintervall Null als Endpunkt hat. Aus der Grafik können wir sehen, dass Material D signifikant besser ist als B und C. Der A-D-Vergleich enthält jedoch Null, was darauf hinweist, dass sich A nicht signifikant von den besten unterscheidet.
Der MCB der Hsu bestimmt, dass die Kandidaten für die beste Gruppe A und D sind., D hat den höchsten Stichprobenmittelwert und A unterscheidet sich nicht signifikant von D. Andererseits schließt das Verfahren effektiv aus, dass B und C das Beste sind.
Zusammenfassung der Verwendung mehrerer Vergleichsmethoden
In diesem Blogbeitrag haben Sie gesehen, wie der Omnibus-ANOVA-Test bestimmt, ob sich die Mittel im Allgemeinen unterscheiden, jedoch keine spezifischen Gruppenunterschiede identifiziert statistisch signifikant.
Wenn Sie signifikante ANOVA-Ergebnisse erhalten, verwenden Sie einen Post-hoc-Test, um die mittleren Unterschiede zwischen Gruppenpaaren zu untersuchen.,
Sie haben auch gelernt, wie die Steuerung der experimentellen Fehlerrate eine entscheidende Funktion dieser Post-hoc-Tests ist. Diese Familienfehlerraten wachsen überraschend!
Wenn Sie nicht alle paarweisen Vergleiche durchführen müssen, lohnt es sich schließlich, nur eine Teilmenge zu vergleichen, da Sie mehr statistische Leistung beibehalten.
Wenn Sie etwas über Hypothesentests lernen und den Ansatz mögen, den ich in meinem Blog verwende, lesen Sie mein eBook!