VO 4 Statistik

Cards (142)

  • False Discovery Rate (FDR) ist ein trennschärfstes Verfahren, das die Maximum an nominell signifikanten Effekten bewahrt.
  • Bonferroni-Klassisch ist eine Methode, bei der alle p i < 0.01 sind.
  • Schwelle p korr ist die Bonferroni-Sequenz, die alle p i < 0.01 enthält.
  • Durchführung mehrfacher Tests – das Bonferroni-Problem 𝑝𝑔𝑙𝑜𝑏 (𝛼)෍ �� = 1 𝑛 𝑝 𝑖 (��) ist die Wahrscheinlichkeit, mindestens eine von n Nullhypothesen fälschlich abzulehnen, nicht größer als die Summe der Irrtumswahrscheinlichkeiten für jede einzelne Nullhypothese.
  • Bonferroni 1892 - 1960 wikipedia182
  • Sequenzielle Vergleiche aller möglichen Paarevermeiden!
  • Multiple t-Tests oder U-TestsInflation des 𝑥-Fehlers.
  • Mehrfache Tests am selben Datenmaterial → generell keine stochastisch unabhängigen Untersuchungen.
  • Wenn die Datenstruktur eine Rangstatistik nahelegt, kann eine Rang-Transformation als Alternative zur herkömmlichen ANOVA mit Rang-transformierten Daten verwendet werden.
  • Rang-Transformationen sind eine robuste Variante, bei der keine 'normalisierende' Transformation nötig ist.
  • Varia unterscheidet sich signifikant von allen anderen Fraßpflanzenarten wie Lotus corniculatus, Melilotus officinalis und Securigera varia.
  • Medicago sativa ist eine der am häufigsten kultivierten Nutzpflanzen und wird in der Gartenbauwissenschaft und Landwirtschaft verwendet.
  • Die nichtparametrische Rang-Varianzanalyse verbundener Stichproben ist der Friedman-Test.
  • W.J. Conover & R.L. Iman (1981) haben die Rang-Transformationen als eine Brücke zwischen parametrischer und nichtparametrischer Statistik beschrieben.
  • Die Voraussetzung für den Friedman-Test ist, dass alle k Stichproben exakt gleicher Umfang sind.
  • Der Friedman-Test ist eine Verallgemeinerung des Wilcoxon-Tests für verbundene Stichproben.
  • Der Friedman-Test ist relevant nur für Veränderungen innerhalb der "Objekte".
  • Für zwei-faktorielle ANOVA-Designs gibt es kein Analogon zum H-Test nach Kruskal & Wallis.
  • Tukey-Verfahren beliebige Mittelwerte, existiert in diversen Modifikationen (Spjøtvol - Stoline – für ungleiche n, etc.), weniger konservativ.
  • Software-Pakete bieten meist diverse Verfahren an → Auswahl-Entscheidung erfordert.
  • Multiple Vergleiche zur Lokalisierungpost-hoc-Tests
  • Kein "optimales" Vorgehen für alle Situationen
  • Post-hoc-Tests nach ANOVA – zwei Empfehlungen RW Day & GP Quinn (1989) Ecological Monographs 59 (4): 433 - 463
  • Verschiedene Verfahren → nicht identische Gruppenaufteilungen
  • Grundidee: wie groß muss Unterschied zwischen (einzelnen) Gruppen - Mittelwerten bei gegebenen Varianzverhältnissen mindestens sein, um (gerade noch) als überzufällig zu gelten ?
  • GD Ruxton & G Beauchamp (2008) Behavioral Ecology 19 (3): 690 - 693
  • ANOVA - Befund → nur 'globale' Signifikanz
  • Empfehlung: auf a priori geplante Kontraste fokussieren.
  • Lineare Kontraste nach Scheffé beliebige Mittelwerte, ungleiche Stichprobenumfänge, konservativ.
  • Durchführung vieler ( oft : nicht geplanter) Tests „auf Verdacht“ → Vorsicht bei Interpretation von Signifikanzbefunden.
  • Nominell sind "starke" Befunde, wenn der p-Wert kleiner als 0.001 ist.
  • Es ist wichtig, klare Dokumentation zu nomineller und korrigierter Signifikanz zu führen, sowie die genaueste Methodik der Korrektur zu dokumentieren.
  • Bei der Einfaktorischen Varianzanalyse (one-way ANOVA) werden die Mittelwerte von 𝑥1, 𝑥2, 𝑥3, … 𝑥𝑘 gleichgesetzt.
  • Nominelle Signifikanz ist robust und "verlässlich".
  • Signifikanz nach FDR - Korrektur: in Fettdruck hervorgehoben.
  • In "parametrischen" Situationen, bei denen keine Normalverteilung bzw. inhomogene Varianzen vorliegen, sind Rang statistiken oder Permutationstests anzuraten.
  • Ein falscher Alarm kann durch die "Inflation" des -Fehlers entstehen.
  • Bei Vergleichsanalysen mit mehreren Mittelwerten, die von ± normal verteilten Stichproben, ist der t-Test eine Verallgemeinerung der H0-Test.
  • Schwach signifikante Befunde sind, wenn der p-Wert zwischen 0.01 und 0.05 ist.
  • Signifikanz ist besonders wichtig bei vielen Hypothesen - Tests in einer Studie.