Angewandte Statistik f ur die biologischen Wissenschaften .Angewandte Statistik f ur die biologischen

  • View
    213

  • Download
    0

Embed Size (px)

Text of Angewandte Statistik f ur die biologischen Wissenschaften .Angewandte Statistik f ur die...

  • Angewandte Statistikfur die biologischen Wissenschaften

    2., durchgesehene, aktualisierte, uberarbeitete und erweiterte Auflage

    Dr. Carsten F. Dormann Dr. Ingolf KuhnHelmholtz Zentrum fur Umweltforschung-UFZ

    23. Februar 2011

  • Inhaltsverzeichnis

    Vorwort v

    I. Grundlagen 1

    1. Einleitung 31.1. Wissenschaftliche Methodik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

    1.2. Das Testen von Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

    1.2.1. Kochrezept fur den Test von Hypothesen . . . . . . . . . . . . . . . . 4

    1.2.2. Testfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.3. Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.3.1. Weitere Begriffe zum Thema Tests . . . . . . . . . . . . . . . . . . . . 5

    1.3.2. Schlussbemerkungen zu Tests . . . . . . . . . . . . . . . . . . . . . . . 6

    2. Grundlagen 72.1. Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    2.1.1. Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    2.1.2. Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    2.2. Datentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.3. Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.3.1. Die Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.3.2. Die Poisson-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    2.3.3. Die Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    2.3.4. Weitere Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    2.4. Wichtige Parameter und Statistiken . . . . . . . . . . . . . . . . . . . . . . . 15

    2.4.1. Mae fur das Zentrum einer Verteilung . . . . . . . . . . . . . . . . . . 16

    2.4.2. Mae fur die Breite der Verteilung . . . . . . . . . . . . . . . . . . . . 16

    2.4.3. Gute der Parameterschatzung . . . . . . . . . . . . . . . . . . . . . . . 16

    2.4.4. Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

    2.5. Methoden der Parameterschatzung . . . . . . . . . . . . . . . . . . . . . . . . 20

    2.5.1. Schatzung von Verteilungsparametern . . . . . . . . . . . . . . . . . . 20

    2.5.2. Parameterschatzung mittels verteilungsfreier Methoden . . . . . . . . 24

    2.5.3. Der bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

    2.5.4. Das jackknife . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

    2.6. Der Ansatz der Bayesische Statistik . . . . . . . . . . . . . . . . . . . . . . . 28

    2.6.1. Noch mehr Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . 28

    2.6.2. Konditionale Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . 29

    2.6.3. Bayes Theorem und einfache Beispiele seine Anwendung . . . . . . . . 29

    2.6.4. Bayesische Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    3. Visualisierung und beschreibende Statistik 333.1. Univariate Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    3.2. Bivariate Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

    3.2.1. Kontinuierliche Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

    3.2.2. Daten mit kategorischer Variablen . . . . . . . . . . . . . . . . . . . . 35

    i

  • Inhaltsverzeichnis

    3.3. Transformationen und ihre Visualisierung . . . . . . . . . . . . . . . . . . . . 363.3.1. Die logarithmische Transformation . . . . . . . . . . . . . . . . . . . . 373.3.2. Die Wurzel-Transformation . . . . . . . . . . . . . . . . . . . . . . . . 383.3.3. Die arcsin-Wurzel-Transformation . . . . . . . . . . . . . . . . . . . . 393.3.4. Box-Cox-Transformationen . . . . . . . . . . . . . . . . . . . . . . . . 393.3.5. Rang-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . 413.3.6. Standardisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413.3.7. Ausreier und das Beschneiden (trimming) von Datensatzen . . . . . 43

    4. Klassische Tests 454.1. Klassische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    4.1.1. Statistik mit nur einer Stichprobe . . . . . . . . . . . . . . . . . . . . 454.1.2. Vergleich zweier Stichproben . . . . . . . . . . . . . . . . . . . . . . . 474.1.3. Vergleich der Varianzen zweier Stichproben . . . . . . . . . . . . . . . 484.1.4. Vergleich von Proportionen . . . . . . . . . . . . . . . . . . . . . . . . 494.1.5. Test auf Assoziation: der X2 Test . . . . . . . . . . . . . . . . . . . . . 504.1.6. Permutationstests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

    4.2. Kovarianz und Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

    II. Univariate Statistik I: Das Lineare Modell 57

    5. Das (Einfache) Lineare Modell: Eine Erklarende Variable 615.1. Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

    5.1.1. Berechnung der Parameter . . . . . . . . . . . . . . . . . . . . . . . . 615.1.2. Signifikanztests bei Regressionen . . . . . . . . . . . . . . . . . . . . . 645.1.3. Diagnostik/Transformationen . . . . . . . . . . . . . . . . . . . . . . . 655.1.4. Gute des Regressionsmodells: erklarte Varianz . . . . . . . . . . . . . 675.1.5. Regression durch den Ursprung und gewichtete Regression . . . . . . . 685.1.6. Modell II und III Regression . . . . . . . . . . . . . . . . . . . . . . . 715.1.7. Vorhersage von y und x . . . . . . . . . . . . . . . . . . . . . . . . . . 725.1.8. Steigung und Achsenabschnitt unterschiedlicher Regressionen vergleichen 73

    5.2. Nicht-lineare Regression und stuckweise Regression . . . . . . . . . . . . . . . 745.2.1. Nicht-lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . 745.2.2. Haufig benutzte nicht-lineare Regressionen . . . . . . . . . . . . . . . 785.2.3. Stuckweise Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

    5.3. Faktoren statt kontinuierliche erklarende Variablen: oneway-ANOVA . . . . . 815.3.1. Einfaktorielle Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . 815.3.2. Von der Regression zur ANOVA . . . . . . . . . . . . . . . . . . . . . 83

    5.4. Modelldiagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

    6. Das Allgemeine Lineare Modell: Mehrere Erklarende Variablen 896.1. Mehrere, kontinuierliche erklarende Variablen: Multiple Regression . . . . . . 906.2. Modellvereinfachung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 946.3. Vorsortierung der Variablen: explorative Datenanalyse . . . . . . . . . . . . . 101

    6.3.1. Hierarchische Partitionierung . . . . . . . . . . . . . . . . . . . . . . . 1016.3.2. Random Forest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

    6.4. Mehrere, kategoriale erklarende Variablen: ANOVA und LM . . . . . . . . . . 1066.4.1. Kategoriale erklarende Variablen im LM . . . . . . . . . . . . . . . . . 1066.4.2. Kategoriale erklarende Variablen in der ANOVA . . . . . . . . . . . . 108

    6.5. Kontinuierliche und kategoriale erklarende Variablen . . . . . . . . . . . . . . 1116.5.1. Interaktionen und ihre Interpretation . . . . . . . . . . . . . . . . . . . 111

    6.6. Die Mathematik hinter dem linearen Modell . . . . . . . . . . . . . . . . . . . 116

    ii

  • Inhaltsverzeichnis

    6.7. Post-hoc Vergleiche und Kontraste . . . . . . . . . . . . . . . . . . . . . . . . 119

    6.7.1. Kontraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

    6.7.2. Pooling of levels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

    7. Lineare Gemischte Modelle (LMM) 1277.1. Feste und zufallige Faktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

    7.2. Split-plot ANOVA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

    7.2.1. Blockeffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

    7.2.2. Verschachtelte Versuchseinheiten unterschiedlicher Groe: split plots . 129

    7.3. Nesting(nesting(nesting)) & Wiederholungsmessungen . . . . . . . . . . . . . 130

    7.3.1. Raumliches Nesting . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

    7.3.2. Zeitliches Nesting: Wiederholungsmessungen . . . . . . . . . . . . . . 131

    III. Univariate Statistik II: Das Verallgemeinerte Lineare Modell (GeneralisedLinear Model, GLM) 137

    8. Verallgemeinertes Lineares Modell 1418.1. Binomial-verteilte Fehler: logistische Regression . . . . . . . . . . . . . . . . . 143

    8.2. Log-lineare Modelle: Poisson Regression . . . . . . . . . . . . . . . . . . . . . 154

    8.3. Verallgemeinerte Lineare Gemischte Modelle (GLMM) . . . . . . . . . . . . . 159

    9. Nicht-parametrische Regression: loess, splines and GAM 1619.0.1. Mehr als eine erklarende Variable . . . . . . . . . . . . . . . . . . . . . 163

    9.0.2. Generalised Additive Models . . . . . . . . . . . . . . . . . . . . . . . 165

    IV. Multivariate Verfahren 169

    10.Multivariate Daten und ihre Analyse: Einleitung und Uberblick 17110.1. Ordinationstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

    10.2. Transformationen multivariater Daten . . . . . . . . . . . . . . . . . . . . . . 173

    11.Indirekte Ordination 17511.1. Hauptkomponentenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

    11.1.1. Beschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

    11.1.2. Beispiel . . . . . . . . . . . . . .

Recommended

View more >