149
2. Korrelation, Linear Regression und multiple Regression 2. Korrelation, lineare Regression und multiple Regression 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearit¨ at und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenh¨ ange 2.7 Partielle und Semipartielle Korrelation 2. Korrelation, lineare Regression und multiple Regression 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearit¨ at und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenh¨ ange 2.7 Partielle und Semipartielle Korrelation 1 / 149

2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

  • Upload
    lammien

  • View
    237

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2. Korrelation, lineare Regression und multipleRegression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineare Regression

2.4 Multikollinearitat und Suppressionseffekte

2.5 Variablenselektion

2.6 Nichtlineare Zusammenhange

2.7 Partielle und Semipartielle Korrelation

1 / 149

Page 2: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.1 Korrelation

2 / 149

Page 3: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.1 Beispiel: Arbeitsmotivation

I Untersuchung zur Motivation am Arbeitsplatz in einemChemie-Konzern

I 25 Personen werden zufallig ausgewahlt und verschiedeneVariablen gemessen.

I y : Motivation (Einschatzung durch Experten)x : Leistungsstreben (Fragebogen)

I Frage: besteht ein Zusammenhang zwischen der Variablen“Motivation” und der Variablen “Leistungsstreben”

I Beachte: es werden auch noch weitere Variablen gemessen(Ehrgeiz, Kreativitat, Hierarchie, Lohn, Arbeitsbedingungen,Lernpotential, Vielfalt, Anspruch)

3 / 149

Page 4: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Daten

x 20 30 15 39 5 6 12 0 35y 32 14 12 27 20 13 17 8 22x 8 34 26 32 26 12 36 27 26y 19 25 23 17 22 19 27 26 20x 13 19 25 30 18 21 11y 11 24 19 19 22 24 17

4 / 149

Page 5: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.2 Der Korrelationskoeffizient von Pearson

I Daten (x1, y1), . . . , (xn, yn)

I Maß fur die (lineare) Abhangigkeit zwischen x und y :Korrelationskoeffizient von Pearson

r = rX ,Y =s2x,y

sx,xsy ,y=

∑ni=1(xi − x ·)(yi − y ·)√∑n

i=1(xi − x ·)2∑n

i=1(yi − y ·)2

I Dabei ist:I x· = 1

n

∑ni=1 xi : Mittelwert der Daten xi

I y· = 1n

∑ni=1 yi : Mittelwert der Daten yi

I s2x,x = 1

n

∑ni=1(xi − x·)

2 : Varianz der Daten xi

I s2y,y = 1

n

∑ni=1(yi − y·)

2 : Varianz der Daten yi

I s2x,y = 1

n

∑ni=1(xi − x·)(yi − y·) : Kovarianz zwischen den

Daten xi , yi

5 / 149

Page 6: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.3 Eigenschaften des Korrelationskoeffizienten(1) −1 ≤ r ≤ 1

(2) r = 1 genau dann, wenn ein exakter linearer Zusammenhang

yi = b0 + b1xi

mit b1 > 0 besteht (ohne Storgroßen).

(3) r = −1 genau dann, wenn ein exakter linearer Zusammenhang

yi = b0 + b1xi

mit b1 < 0 besteht (ohne Storgroßen).

(4) Der Korrelationskoeffizient ist invariant bzgl. linearerTransformationen, d.h.

xi = a0 + a1xi i = 1, . . . , nyi = c0 + c1yi i = 1, . . . , n

}⇒ rX ,Y = rX ,Y

(4) Der Korrelationskoeffizient von Pearson ist ein deskriptivesMaß fur den linearen Zusammenhang in der Stichprobe(x1, y1), . . . , (xn, yn)

6 / 149

Page 7: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.4 Beispiel: Korrelationskoeffizient fur die Datenaus Beispiel 2.1

I Variablenx : Leistungsstrebeny : Motivation

I Korrelationskoeffizient von Pearson

r = 0.5592

I Fragen:I Wie genau ist diese Schatzung?I Ist die Korrelation von 0 verschieden (Unkorreliertheit zwischen

den Merkmalen Leistungsstreben und Motivation)?

7 / 149

Page 8: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.5 Signifikanztest fur KorrelationI (x1, y1), . . . , (xn, yn) ist eine Stichprobe (unabhangige

Beobachtungen) aus einer (bivariat) normalverteiltenGrundgesamtheit

I ρ bezeichne die Korrelation des Merkmals X mit demMerkmal Y einer Population; funfter Modellparameterneben µx , µy , σ2

x und σ2y .

I Ein Test zum Niveau α fur die Hypothese “die Merkmalesind unkorreliert”

H0 : ρ = 0

lehnt die Nullhypothese zu Gunsten der AlternativeH1 : ρ 6= 0 ab, falls∣∣∣∣√n − 2r√

1− r 2

∣∣∣∣ > tn−2,1−α/2

gilt.

8 / 149

Page 9: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.6(a) Beispiel: Arbeitsmotivation (Fortsetzungvon Beispiel 2.1)

I n = 25; r = 0.5592; t23,0.95 = 1.7139

I ∣∣√n − 2 r√1− r 2

∣∣ = 3.2355 > 1.7139

I Die Nullhypothese H0 : ρ = 0 (keine Korrelation zwischen denMerkmalen) wird zum Niveau 5% verworfen.

I p-Wert: 0.0037

9 / 149

Page 10: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output fur Korrelationskoeffizient

LeistungsstrebenMotivationKorrelation nach Pearson

Signifikanz (2-seitig)

N

Korrelation nach Pearson

Signifikanz (2-seitig)

N

Motivation

Leistungsstreben

2525

,004

1,000,559**

2525

,004

,559**

1,000

Korrelationen

**. Die Korrelation ist auf dem Niveau von 0,01 (2-seitig) signifikant.

10 / 149

Page 11: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.7 Konfidenzintervall fur Korrelation

I ρ: Korrelation zwischen Merkmal x und Merkmal y einerPopulation

I (x1, y1), . . . , (xn, yn): Stichprobe (unabhangige Beobacht-ungen) aus einer (bivariat) normalverteilten Grundgesamt-heit

I Mathematische Statistik: r ist “naherungsweise” (d.h. beigroßem Stichprobenumfang) normalverteilt mitErwartungswert ρ und Varianz

γ2 = Var(r) ≈ (1− ρ2)2/n

I (1− α)-Konfidenzintervall fur den Korrelationskoeffizienten(r − γz1−α/2, r + γz1−α/2

)Hier bezeichnet γ = (1− r 2)/

√n einen Schatzer fur die

Standardabweichung von r und z1−α/2 das (1− α/2)Quantil der Standardnormalverteilung (Tabelle, Software)

11 / 149

Page 12: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.6(b) Beispiel: Arbeitsmotivation (Fortsetzungvon Beispiel 2.1)

I n = 25; r = 0.5592

I z0.95 = 1.6449, γ = 0.1328

I ⇒ 90% Konfidenzintervall fur den Korrelationskoeffizient

[0.2739, 0.7541]

12 / 149

Page 13: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.8 Hinweise zur Interpretation von Korrelationen

I Annahme: man hat eine signifikante Korrelation zwischenden Variablen x und y gefunden

I Folgende Interpretationen sind moglich

(1) x beeinflusst y kausal(2) y beeinflusst x kausal(3) x und y werden von weiteren Variablen kausal beeinflusst(4) x und y beeinflussen sich wechselseitig kausal

I Die Korrelation zwischen zwei Variablen ist eine not-wendige aber keine hinreichende Voraussetzung fur einenkausalen Zusammenhang

I Der Korrelationskoeffizient gibt keine Information welcheder vier Interpretationen zutrifft (in “vielen” Fallen wird dasder Typ (3) sein)

I Korrelationen sollten ohne Zusatzinformation nichtinterpretiert werden!

13 / 149

Page 14: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel

I Annahme: man hat eine signifikante Korrelation zwischenden Merkmalen ”Ehrlichkeit” und ”Haufigkeit des Kirch-gangs” gefunden

I Folgende Interpretationen sind moglichI Die in der Kirche vermittelten Werte haben einen positiven

Einfluß auf das Merkmal ”Ehrlichkeit”I ”Ehrliche” Menschen fuhlen sich durch die in der Kirche

vermittelten Inhalte eher angesprochen und gehen ausdiesem Grund haufiger zur Kirche

I Die allgemeine familiare und außerfamiliare Sozialisationbeeinflußt beide Merkmale

14 / 149

Page 15: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.2 Lineare Regression

15 / 149

Page 16: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.9 Beispiel: (Fortsetzung von Beispiel 2.1)

I Untersuchung zur Motivation am Arbeitsplatz in einemChemie-Konzern

I 25 Personen werden zufallig ausgewahlt und verschiedeneVariablen gemessen.

I y : Motivation (Einschatzung durch Experten)x : Leistungsstreben (Fragebogen)

I Kann man y aus x “vorhersagen”?

16 / 149

Page 17: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Streudiagramm fur die Daten aus Beispiel 2.9

Leistungsstreben

403020100

Mo

tiva

tio

n

35

30

25

20

15

10

5

17 / 149

Page 18: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.9 Beispiel: (Fortsetzung von Beispiel 2.1)

I Untersuchung zur Motivation am Arbeitsplatz in einemChemie-Konzern

I 25 Personen werden zufallig ausgewahlt und verschiedeneVariablen gemessen.

I y : Motivation (Einschatzung durch Experten)x : Leistungsstreben (Fragebogen)

I Frage: besteht ein funktionaler Zusammenhang zwischen derVariablen “Motivation” und der Pradiktorvariablen “Leistungs-streben” (Kann man y aus x “vorhersagen”?)

Genauer: Gesucht ist Funktion f , die aus der PradiktorvariablenLeistungsstreben (x) eine Vorhersage fur die abhangige Variable(y) Motivation liefert:Motivation = f( Leistungsbereitschaft )

I Beachte: es werden auch noch weitere Variablen gemessen(Ehrgeiz, Kreativitat, Hierarchie, Lohn, Arbeitsbedingungen,Lernpotential, Vielfalt, Anspruch)

18 / 149

Page 19: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

RegressionI Ausgangslage: Von Interesse ist der Zusammenhang zwischen

verschiedenen Variablen. Im einfachsten Fall betrachtet man, wieim Beispiel der Arbeitsmotivation, den Zusammenhang zwischenzwei Variablen.

I Daten: (x1, y1), (x2, y2), . . . , (xn, yn)I Annahme: Es existiert ein kausaler Zusammenhang der Form

y = f (x) zwischen der abhangigen Variablen y und der Pra-diktorvariablen x .Weitere Annahme: Die Funktion f hat eine bestimmte Form.Beispiele:

I Lineare Regression (der Zusammenhang ist also durch eineGerade beschreibbar): y = b0 + b1x

I Quadratische Regression (der Zusammenhang ist also durch eineParabel beschreibbar): y = b0 + b1x + b2x

2

I usw.I Beachte: Der Zusammenhang ist in der Regel nicht exakt zu

beobachten. Mathematisches Modell

Y = b0 + b1x + ε

Dabei bezeichnet ε eine zufallige Storgroße. Diese Modellbezeichnet man als Lineare Regression.

19 / 149

Page 20: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.10 Das Modell der linearen Regression

I Daten (x1, y1), . . . , (xn, yn)

I yi ist Realisation einer Zufallsvariablen Yi (unter derBedingung xi ). Fur den Zusammenhang zwischen denVariablen Yi und xi gilt:

Yi = b0 + b1xi + εi i = 1, . . . , n

I εi bezeichnet hier eine zufallige “Storung” und es wirdangenommen, dass die Storungen unabhangig undnormalverteilt sind mit Erwartungswert 0 und Varianzσ2 > 0

I Deutung: es wird ein linearer Zusammenhang zwischen xund y postuliert, der noch zufalligen Storungen unterliegt

20 / 149

Page 21: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Idee der Schatzung bei (linearer) Regression

I Daten (x1, y1), (x2, y2), . . . , (xn, yn)

I Annahme: Es existiert ein linearer Zusammenhang

Y = b0 + b1x + ε

I Gesucht: Diejenige Gerade, die den Zusammenhang zwischen Yund x am besten beschreibt.

I Idee: Bestimme die Gerade so, dass die Summe der quadrat-ischen (vertikalen) Abstande zwischen den y -Koordinaten derDatenpunkte und den entsprechenden Punkten auf dergeschatzten Geraden minimal wird Methode der kleinstenQuadrate

21 / 149

Page 22: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel: Verschiedene Geraden mit senkrechtenAbstanden zu den Daten

0 10 20 30 40

510

1520

2530

35

x

y

● ●

y=0.2x+5

0 10 20 30 40

510

1520

2530

35

x

y

● ●

y=0.5x+10

22 / 149

Page 23: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel: Verschiedene Geraden mit senkrechtenAbstanden zu den Daten: die Losung durch dieMethode der kleinsten Quadrate

0 10 20 30 40

510

1520

2530

35

x

y

● ●

● y=0.292x+13.816

23 / 149

Page 24: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.11 Die Methode der kleinsten Quadrate

I Bestimme die Gerade so, dass die Summe der quadriertensenkrechten Abstande zwischen Gerade und Daten minimalwird- Datum an der Stelle xi : yi- Wert der Geraden an der Stelle xi : b0 + b1xi- Differenz: yi − (b0 + b1xi )

I Minimiere

h(b0, b1) =∑n

i=1

(yi − (b0 + b1xi )

)2

bzgl. der Wahl der Parameter b0 und b1.

I Losung dieses Extremwertproblems liefert Schatzer furAchsenabschnitt und Steigung der Geraden:

b1 =

∑ni=1(xi − x·)(yi − y·)∑n

i=1(xi − x·)2, b0 = y· − b1x·

- x· = 1n

∑ni=1 xi : Mittelwert der Pradiktorvariablen

- y· = 1n

∑ni=1 yi : Mittelwert der abhangigen Variablen

24 / 149

Page 25: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel Arbeitsmotivation: Streudiagramm undRegressionsgerade fur die Daten aus Beispiel 2.1

Leistungsstreben

403020100

Mo

tiva

tio

n

35

30

25

20

15

10

5

R-Quadrat linear = 0,313

I Schatzer: b0 = 13.82, b1 = 0.29I Fragen:

- Wie genau sind diese Schatzungen?- Besteht ein (signifikanter) Einfluß des Leistungsstrebens auf die

MotivationH0 : b1 = 0

- Wie gut beschreibt das lineare Regressionsmodell die Situation?

25 / 149

Page 26: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Die Genauigkeit der Schatzer fur die Parameter

I Beachte: vor der Datenerhebung sind b0 und b1 zufallig

I Mathematische Statistik (allgemeines lineares Modell) liefertSchatzer fur die Varianzen von b0 und b1

Schatzer fur die Varianz von b0 : s2b0

=S2y |x

n

∑ni=1 x2

i∑ni=1(xi − x ·)2

Schatzer fur die Varianz von b1 : s2b1

=S2y |x

n

11n

∑ni=1(xi − x ·)2

Dabei bezeichnet

S2y |x =

1

n − 2

n∑i=1

(yi − (b0 + b1xi ))2.

die Residualvarianz (Schatzer fur die Varianz der Storgroßen)

I Je großer der Stichprobenumfang n, desto genauer sind dieSchatzungen!

26 / 149

Page 27: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Fortsetzung von Beispiel 2.1: Schatzer fur die Daten derArbeitsmotivation

I Schatzer fur die Parameter

b0 = 13.82

b1 = 0.292

S2y |x = 22.737

I Schatzer fur die Varianz von b0 und b1

s2b0

= 4.5158

s2b1

= 0.0081

I Standdardafehler von b0 und b1

sb0 =√

4.5158 = 2.125

sb1 =√

0.0081 = 0.09

27 / 149

Page 28: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Schatzer und Standardabweich-ungen bei linearer Regression in Beispiel 2.1

StandardfehlerB Beta SignifikanzT

StandardisierteKoeffizientenNicht standardisierte Koeffizienten

(Konstante)

Leistungsstreben

1

,0043,235,559,090,292

,0006,5012,12513,816ModellModell

Koeffizientena

a. Abhängige Variable: Motivation

28 / 149

Page 29: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.12 Konfidenzintervalle bei linearer Regression

I Modellannahme: lineare Regression

Yi = b0 + b1xi + εi (i = 1, . . . , n)

I Rechtfertigung der Normalverteilungs- und Unabhangig-keitsannahme fur ε1, . . . , εn

I Bestimmung der Schatzer s2b0

und s2b1

fur die Varianzen von

b0 und b1. Damit ist dann

=⇒ (b0 − tn−2,1−α/2sb0 , b0 + tn−2,1−α/2sb0 )

ein (1− α)-Konfidenzintervall fur b0 und

=⇒ (b1 − tn−2,1−α/2sb1 , b1 + tn−2,1−α/2sb1 )

ein (1− α)-Konfidenzintervall fur b1. Hier ist tn−2,1−α/2

das (1− α/2)-Quantil der t-Verteilung mit n − 2 Freiheits-graden (tabelliert oder mit Software verfugbar)

29 / 149

Page 30: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel 2.13: Konfidenzbereiche im Beispiel 2.1(Arbeitsmotivation)

I n = 25, t23,0975 = 2.0687

I Fur das Beispiel der Arbeitsmotivation (vgl. Beispiel 2.1) ergibtsich als 95% Konfidenzintervall fur

b0 : [9.420, 18.212]

b1 : [0.105, 0.479]

I Frage: Besteht ein (signifikanter) Einfluß der Pradikorvariablen xauf die abhangige Variable Y ?Mathematische Formulierung: H0 : b1 = 0

30 / 149

Page 31: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Konfidenzintervalle bei linearerRgeression in Beispiel 2.1

StandardfehlerB Beta SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

KoeffizientenNicht standardisierte Koeffizienten

(Konstante)

Leistungsstreben

1

,479,105,0043,235,559,090,292

18,2129,420,0006,5012,12513,816ModellModell

Koeffizientena

a. Abhängige Variable: Motivation

31 / 149

Page 32: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.14 F -test fur die Hypothese H0 : b1 = 0

I Modellannahme: lineare Regression

Yi = b0 + b1xi + εi (i = 1, . . . , n)

I Rechtfertigung der Normalverteilungs- und Unabhangig-keitsannahme fur ε1, . . . , εn

I Hypothesen

H0 : b1 = 0 , H1 : b1 6= 0

I Die Nullhypothese H0 : b1 = 0 wird zu Gunsten derAlternative H1 : b1 6= 0 verworfen, falls

Fn =S2reg

S2y |x

=11

∑ni=1(y· − (b0 + b1xi ))2

1n−2

∑ni=1(yi − (b0 + b1xi ))2

> F1;n−2,1−α

gilt

I F1;n−2,1−α bezeichnet das (1− α)-Quantil der F -Verteilungmit (1, n − 2) Freiheitsgraden

32 / 149

Page 33: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Motivation des F -Tests: Zerlegung der Varianz

n∑i=1

(yi − y ·)2

︸ ︷︷ ︸Gesamtvarianz

=n∑

i=1

(yi − (b0 + bxi ))2

︸ ︷︷ ︸Residualvarianz

+n∑

i=1

(y · − (b0 + b1xi ))2

︸ ︷︷ ︸Varianz der Regression

I Bezeichnungen:

S2reg =

1

1

∑n

i=1(y· − (b0 + b1xi ))2

heißt Varianz der Regression (diese hat 1 Freiheitsgrad) und

S2y |x =

1

n − 2

∑n

i=1(yi − (b0 + b1xi ))2.

ist die Residualvarianz (diese hat n − 2 Freiheitsgrade).I Andere Interpretationen:- Schatzung fur die Varianz der Großen εi- durch das lineare Regressionsmodell nicht erklarbare Varianz

33 / 149

Page 34: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Motivation des F -Tests: Zerlegung der Varianz

n∑i=1

(yi − y ·)2

︸ ︷︷ ︸Gesamtvarianz

=n∑

i=1

(yi − (b0 + bxi ))2

︸ ︷︷ ︸Residualvarianz

+n∑

i=1

(y · − (b0 + b1xi ))2

︸ ︷︷ ︸Varianz der Regression

= (n − 2) · S2y |x + ·S2

reg

Beachte:

I Bei dem F -Test fur die Hypothese H0 : b1 = 0 bildet man denQuotienten aus der Varianz der Regression und der Residual-varianz

I Man untersucht also das Verhaltnis zwischen erklarbarer undnicht erklarbarer Varianz.

34 / 149

Page 35: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.15 Varianzanalyse (ANOVA; analysis of variance)

Art der Freiheits- Quadrat- F -QuotientAbweichung grade (df ) summe schatzer

Regression 1∑n

i=1(y · − yi )2 Fn = S2

reg/S2y|x

Fehler n − 2∑n

i=1(yi − yi )2 —

Total n − 1∑n

i=1(yi − y ·)2 — —

Bezeichnung:

yi = b0 + b1xi Vorhersage an der Stelle xi

35 / 149

Page 36: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: F-Test bei linearer Regression inBeispiel 2.1

SignifikanzFMittel der QuadratedfQuadratsumme

Regression

Residuen

Gesamt

1

24760,960

22,73723522,945

,004a

10,468238,0151238,015ModellModell

ANOVAb

a. Einflußvariablen : (Konstante), Leistungsstreben

b. Abhängige Variable: Motivation

Beachte:

I F25 = 10.468, F1,23,0.95 = 4.2793

I Da F25 = 10.468 > 4.2793 wird die Nullhypothese H0 : b1 = 0 zuGunsten der Alternative H1 : b1 6= 0 zum Niveau 5% verworfen(p-Wert: 0.004)

36 / 149

Page 37: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Modellgute: “wie geeignet” ist das Modell fur dieBeschreibung der Daten

I Maß fur Modellanpassung: Residualvarianz (Summe derquadrierte Abstande von der Regressionsgerade):

S2y |x =

1

n − 2

n∑i=1

(yi − (b0 + b1xi )

)2

I Beachte: S2y |x ist ein Schatzer fur die Varianz der Meßfehler

I Je kleiner S2y |x , desto “besser” ist das (lineare) Regressions-

modell

I Streuung der Daten ohne die “Information”, dass ein linearesModell vorliegt:

n∑i=1

(yi − y·)2

I Man untersucht welchen Anteil der Streuung∑n

i=1(yi − y·)2

man durch das lineare Modell erklaren kann

37 / 149

Page 38: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Varianzzerlegung: ein extremes Beispiel

0 5 10 15 20

10

20

30

40

Unabhängige Variable

Abh

ängi

ge V

aria

ble

0 5 10 15 20

10

20

30

40

xy

Beachte:

I Die Grafik zeigt eine extreme Situation.

I Die Streuung der Daten ist durch das lineare Regressionsmodellzu 100% erklarbar!

∑ni=1(yi − y ·)

2 =∑n

i=1(y · − (b0 + b1xi ))2

I Residualvarianz (durch das lineare Regressionsmodell nicht er-klarbare Varianz) = 0

38 / 149

Page 39: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.16 Beispiel: Arbeitsmotivation (Fortsetzungvon Beispiel 2.1):

25∑i=1

(yi − y ·)2 = 760.96

25∑i=1

(y · − (b0 + b1xi ))2 = 238.04

R2 =

∑25i=1(y · − (b0 + b1xi ))2∑25

i=1(yi − y ·)2

= 0.313

d.h. 31,3 % der Varianz der Variablen Motivation konnen durch diePradiktorvariable Leistungsstreben erklart werden.

39 / 149

Page 40: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.17 Modellgute: das Bestimmtheitsmaß

I Die Große

R2 = 1−

n∑i=1

(yi − (b0 + b1xi ))2

n∑i=1

(yi − y ·)2

=

n∑i=1

(y · − (b0 + b1xi ))2

n∑i=1

(y · − yi )2

ist ein Maß fur die Gute der Regression und heißtBestimmtheitsmaß.

I Beachte: man kann zeigen, dass R2 genau das Quadrat derKorrelation ist.

I Je “besser” das Modell ist, desto kleiner ist dieResidualvarianz, bzw. desto großer R2!

I Das Bestimmtheitsmaß R2 liegt immer zwischen 0 und 1

40 / 149

Page 41: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Zusammenhang zwischen Bestimmtheitsmaß undF -Test

I Ist Fn die Statistik fur den F -Test aus 2.14 und R2 dasBestimmtheitsmaß, dann gilt:

R2 =1

n−2 Fn

1 + 1n−2 Fn

I In anderen Worten: die Statistik Fn des F -Test aus 2.5 kann ausdem Bestimmtheitsmaß berechnet werden (und umgekehrt)

I Im Beispiel des Zusammenhangs zwischen Motivation undLeistungsstreben ist

Fn = 10.468 =⇒ R2 =10.468

23

1 + 10.46823

= 0.313

Ca. 31.3% der Variation der Variablen Motivation konnen durchdie Variable Leistungsstreben erklart werden

41 / 149

Page 42: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Vorhersagen: es gibt zwei unterschiedliche

2.18 Vorhersage fur den Wert der Geradenan einer Stelle x

I Schatzung fur den Wert der Geraden y(x) = b0 + b1x ander Stelle x :

y(x) = b0 + b1x

I (1− α)-Konfidenzintervall fur y(x)

(y(x)− tn−2;α/2 · sy(x), y(x) + tn−2;α/2 · sy(x))

wobei

s2y(x) = S2

y |x

(1

n+

(x − x ·)2∑n

i=1(xi − x ·)2

)den Schatzer fur die Varianz von Y (x) bezeichnet

42 / 149

Page 43: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Vorhersagen: es gibt zwei unterschiedliche

2.19 Vorhersage fur eine neue Beobachtungan einer Stelle x

I Schatzer fur eine neue Beobachtung Y (x) = b0 + b1x + εan der Stelle x :

y(x) = b0 + b1x

I (1− α)-Konfidenzintervall fur y(x)

(y(x)− tn−2;α/2 · sy(x), y(x) + tn−2;α/2 · sy(x))

wobei

s2y(x) = S2

y |x

(1 +

1

n+

(x − x ·)2∑n

i=1(xi − x ·)2

)den Schatzer fur die Varianz von y(x) + ε bezeichnet

I Beachte: Diese Varianz wird bei wachsendem Stichpro-benumfang nicht beliebig klein!

43 / 149

Page 44: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.20 Beispiel (Fortsetzung von Beispiel 2.1)

(1) Gesucht ist ein 90% Konfidenzintervall fur den Wert der Geradenan der Stelle x = 16

I t23,0.95 = 1.714,S2y|x = 22.737, s2

y(x) = 1.116, y(16) = b0 + 16b1 = 18.49I Das 90% Konfidenzintervall fur den Wert der Geraden an der

Stelle 16 ist gegeben durch

[16.677, 20.299]

(2) Gesucht ist ein 90% Konfidenzintervall fur eine neue Beobachtungder Stelle x = 16

I t23,0.95 = 1.714,S2y|x = 22.737, s2

y(x) = 23.85, y(16) = b0 + 16b1 = 18.49I Das 90% Konfidenzintervall fur eine neue Beobachtung an der

Stelle 16 ist gegeben durch

[10.118, 26.859]

44 / 149

Page 45: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Vorhersagen bei linearerRegression in Beispiel 2.1 (schwierig)

45 / 149

Page 46: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Konfidenzintervalle fur Vorher-sagen bei linearer Regression in Beispiel 2.1

Leistungsstreben

403020100

Mo

tiva

tio

n

35

30

25

20

15

10

5

16.0

46 / 149

Page 47: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.21 Residuenanalyse

I Unter der Modellannahme des linearen Regressionsmodellsgilt: die Großen

εi = Yi − b0 − b1xi

sind unabhangig und normalverteilt mit Erwartungswert 0und Varianz σ2 > 0.

I Das bedeutet, dass diese Eigenschaften auch“naherungsweise” fur die Residuen

εi = yi − b0 − b1xi

erfullt sein sollte, falls die Modellannahme zutrifft.

I Residuenanalyse ist ein deskriptives Verfahren fur dieUberprufung der Annahmen an ε1, . . . , εn mit 4 Teil-schritten (oft werden auch nicht alle gemacht):

A: Das Streudiagramm der Daten mit der RegressionslinieB: Ein Streudiagramm der Residuen gegen die vorhergesagten

WerteC: Normalverteilungs-QQ-Plot der ResiduenD: Histogramm der Residuen mit angepasster

Normalverteilungsdichte47 / 149

Page 48: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Residuenanalyse bei “erfullten” Voraussetzungen

−2 −1 0 1 2

−2

0

2

4

6

8 A

Unabhängige Variable

Abh

ängi

ge V

aria

ble

0 2 4 6−1.5

−1.0

−0.5

0.0

0.5

1.0B

Vorhergesagter Wert

Res

iduu

m

−2 −1 0 1 2−1.5

−1.0

−0.5

0.0

0.5

1.0C

Theoretische Quantile der Standardnormalvert.

Em

piris

che

Qua

ntile

D

Residuum

f(R

esid

uum

)

−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5

0.0

0.2

0.4

0.6

0.8

1.0

48 / 149

Page 49: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Residuenanalyse bei “Abweichungen” von derNormalverteilung (Ausreißer)

−2 −1 0 1 2

−10

0

10

20

A

Unabhängige Variable

Abh

ängi

ge V

aria

ble

0 2 4 6 8

−10

−5

0

5

10

15

20B

Vorhergesagter Wert

Res

iduu

m

−2 −1 0 1 2

−10

−5

0

5

10

15

20C

Theoretische Quantile der Standardnormalvert.

Em

piris

che

Qua

ntile

D

Residuum

f(R

esid

uum

)

−15 −10 −5 0 5 10 15 20

0.00

0.05

0.10

0.15

49 / 149

Page 50: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Residuenanalyse bei Stratifizierung

Beachte: verschiedene Untergruppen (Strata) konnen ebenfalls zuAbweichungen von den Modellannahmen fuhren. Fur die Stratakonnen dann unterschiedliche Regressionsgleichungen gelten.

−2 −1 0 1 2

−10

−5

0

5

10

15A

Unabhängige Variable

Abh

ängi

ge V

aria

ble

−2 0 2 4 6

−10

−5

0

5

10B

Vorhergesagter WertR

esid

uum

−2 −1 0 1 2

−10

−5

0

5

10C

Theoretische Quantile der Standardnormalvert.

Em

piris

che

Qua

ntile

D

Residuum

f(R

esid

uum

)

−10 −5 0 5 10

0.00

0.05

0.10

0.15

50 / 149

Page 51: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Residuenanalyse bei falscher Modellannahme

−2 −1 0 1 2−60

−40

−20

0

20

40

A

Unabhängige Variable

Abh

ängi

ge V

aria

ble

−30 −20 −10 0 10 20 30 40

−20

−10

0

10

B

Vorhergesagter Wert

Res

iduu

m

−2 −1 0 1 2

−20

−10

0

10

C

Theoretische Quantile der Standardnormalvert.

Em

piris

che

Qua

ntile

D

Residuum

f(R

esid

uum

)

−30 −20 −10 0 10 20

0.00

0.01

0.02

0.03

0.04

0.05

Statt des linearen Modells ware ein Polynom 3. Grades die bessereAnnahme fur die Beschreibung des funktionalen Zusammenhangs!

51 / 149

Page 52: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Residuenanalyse bei ungleichen Varianzen(Heteroskedastizitat)

−2 −1 0 1 2

−40

−30

−20

−10

0

10

20

A

Unabhängige Variable

Abh

ängi

ge V

aria

ble

−2 0 2 4 6

−40

−30

−20

−10

0

10

20

30B

Vorhergesagter Wert

Res

iduu

m

−2 −1 0 1 2

−40

−30

−20

−10

0

10

20

30C

Theoretische Quantile der Standardnormalvert.

Em

piris

che

Qua

ntile

D

Residuum

f(R

esid

uum

)

−40 −20 0 20

0.00

0.02

0.04

0.06

0.08

0.10

52 / 149

Page 53: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Residuenanalyse in Beispiel 2.1

Leistungsstreben

403020100

Mo

tiva

tio

n35

30

25

20

15

10

5

R-Quadrat linear = 0,313

Streudiagramm und geschatzte Regressionsgerade im Beispiel derArbeitsmotivation

53 / 149

Page 54: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Residuenanalyse in Beispiel 2.1

Standardized Predicted Value

2,000001,00000,00000-1,00000-2,00000

Sta

nd

ard

ized

Res

idu

al3,00000

2,00000

1,00000

,00000

-1,00000

-2,00000

Streudiagramm der Residuen gegen die vorhergesagten Werte imBeispiel der Arbeitsmotivation

54 / 149

Page 55: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output fur Residuenanalyse

Beobachteter Wert

3210-1-2

Erw

arte

ter

Wer

t vo

n N

orm

al

2

1

0

-1

-2

Q-Q-Diagramm von Normal von Standardized Residual

QQ-Plot im Beispiel der Arbeitsmotivation

55 / 149

Page 56: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Korrelation und lineare Regression

Es besteht ein enger Zusammenhang zwischen linearer Regression undKorrelation

I Ist b1 die Schatzung im linearen Regressionsmodell und r derKorrelationskoeffizient von Pearson, dann gilt:

r =

√∑ni=1(xi − x ·)2∑ni=1(yi − y ·)

2· b1

I Ist R2 das Bestimmtheitsmaß und r der Korrelationskoeffizientvon Pearson, dann gilt:

r 2 = R2

56 / 149

Page 57: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.3 Multiple lineare Regression

57 / 149

Page 58: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.22 Beispiel: “Arbeitsmotivation mit mehreren Pradiktoren”

y : Motivation (Einschatzung der Arbeitsmotivation durch Experten)

Pradiktoren: Eigenschaften

I x1: Ehrgeiz (Fragebogen)

I x2: Kreativitat (Fragebogen)

I x3: Leistungsstreben (Fragebogen)

Pradiktoren: Rahmenbedingungen

I x4: Hierarchie (Position in der Hierarchie des Unternehmens)

I x5: Lohn (Bruttolohn pro Monat)

I x6: Arbeitsbedingungen (Zeitsouveranitat,Kommunikationsstruktur usw.)

Pradiktoren: Inhalte der Tatigkeit

I x7: Lernponential (Lernpotential der Tatigkeit)

I x8: Vielfalt (Vielfalt an Teiltatigkeiten)

I x9: Anspruch (Komplexitat der Tatigkeit)

58 / 149

Page 59: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Daten

i y x1 x2 x3 x4 x5 x6 x7 x8 x9

1 32 36 30 20 20 3100 34 29 69 662 14 30 11 30 7 2600 39 16 47 363 12 19 15 15 8 3200 42 13 32 174 27 42 16 39 13 2500 43 15 63 495 20 14 22 5 22 3700 42 29 38 626 13 12 16 6 11 2600 36 17 39 517 17 17 20 12 11 2500 41 18 44 558 8 4 5 0 16 3800 23 9 31 339 22 32 20 35 20 3500 25 21 40 55

10 19 15 13 8 13 3100 29 21 57 5611 25 38 5 34 21 3600 59 27 53 6712 23 24 6 26 9 2600 45 31 54 62

59 / 149

Page 60: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Daten

i y x1 x2 x3 x4 x5 x6 x7 x8 x9

13 17 28 11 32 10 2600 30 7 45 2614 22 36 4 26 16 2500 52 23 56 6415 19 18 26 12 6 2500 40 17 54 5516 27 40 27 36 12 2500 42 29 44 6217 26 30 28 27 18 3000 38 34 43 6418 20 27 11 26 10 2600 35 19 46 5519 11 18 23 13 11 2800 42 18 31 4320 24 32 18 19 15 2700 48 23 51 5321 19 33 9 25 6 2400 38 23 37 6522 19 33 22 30 5 2600 36 30 39 3923 22 27 28 18 17 4000 45 23 52 5424 24 30 32 21 11 2700 44 20 41 4725 17 37 8 11 2 2300 32 20 44 41

60 / 149

Page 61: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.23 Das Modell der multiplen linearen Regression

I Daten (x1, y1), . . . , (xn, yn)

I Es gibt k unabhangige Variablen: xi = (x1i , ..., xki )

I yi ist Realisation einer Zufallsvariablen Yi (unter der Be-dingung xi). Fur den Zusammenhang zwischen der Vari-ablen Yi und dem Vektor xi gilt (im Beispiel ist k = 9):

Yi = b0 + b1x1i + b2x2i + . . .+ bkxki + εi

= b0 +k∑

j=1

bjxji + εi .

I εi bezeichnet hier eine zufallige “Storung” und es wirdangenommen, dass die Storungen ε1, . . . , εn unabhangigund normalverteilt sind mit Erwartungswert 0 und Varianzσ2 > 0

I Deutung: es wird ein linearer Zusammenhang zwischen xund Y postuliert, der noch zufalligen Storungen unterliegt

61 / 149

Page 62: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.24 Schatzung bei multipler linearer Regression

I Methode der kleinsten Quadrate: Minimiere

n∑i=1

(yi − b0 − b1x1i − · · · − bkxki )2

bzgl. der Wahl von b0, . . . , bk

I Mathematische Statistik (allgemeines lineares Modell)liefert Schatzer

b0, b1, . . . , bk

fur die Parameter b0, . . . , bk (Formeln sind kompliziert)

I Schatzer fur die Varianz der Meßfehler

S2y |x =

1

n − k − 1

n∑i=1

(yi − b0 − b1x1i − · · · − bkxki )2

62 / 149

Page 63: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Streudiagramm bei multipler linearer Regression(k = 2)

Regressionsflache: y(x) = 3.24 + 4.5x1 + 5.27x2.

−5

0

5−3 −2 −1 0 1 2 3 4

−30

−20

−10

0

10

20

30

40

X2

X1

Y

63 / 149

Page 64: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Fortsetzung von Beispiel 2.22: Schatzer immultiplen linearen RegressionsmodellI Ergebnisse fur die Schatzer im multiplen linearen

Regressionsmodel

b0 = −3.842 b1 = 0.193

b2 = 0.153 b3 = 0.049

b4 = 0.246 b5 = 0.000

b6 = −0.031 b7 = 0.165

b8 = 0.206 b9 = −0.053

I Fragen:- Wie genau sind diese Schatzungen?- Besteht ein (signifikanter) Einfluß der unabhangigen Merkmaleauf die Motivation

H0 : b1 = 0

H0 : b2 = 0...

- Wie gut beschreibt das multiple lineare Regressionsmodell dieSituation? 64 / 149

Page 65: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Genauigkeit der Schatzung bei multipler linearerRegression

I Schatzer sb0 , . . . , sbk fur die Standardfehler von b0, . . . , bk sindverfugbar (Allgemeines lineares Modell → Formeln kompliziert)

I Anmerkung: Fur wachsenden Stichprobenumfang konvergieren dieSchatzer sbj gegen 0 ”je großer der Stichprobenumfang, destogenauer die Schatzungen”

I Damit erhalt man Konfidenzintervalle fur b0, . . . , bk , z.B.

(b0 − tn−k−1,1−α/2 sb0 , b0 + tn−k−1,1−α/2 sb0 )

ist (1− α)-Konfidenzintervall fur b0

65 / 149

Page 66: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Fortsetzung von Beispiel 2.22: Schatzer fur denStandardfehler der Schatzer im multiplen linearenRegressionsmodell

I Ergebnisse fur den Standardfehler der Schatzer im multiplenlinearen Regressionsmodell

sb0 = 5.052 sb1 = 0.081sb2 = 0.049 sb3 = 0.065sb4 = 0.148 sb5 = 0.001sb6 = 0.054 sb7 = 0.098sb8 = 0.052 sb9 = 0.058

I Wegen t15,0.975 = 2.1314 ist

[−0.089, 0.188]

ein 95%-Konfidenzintervall fur den Parameter b3. Man beachte:I 0.049 + 2.1314 · 0065 ≈ 0.188)I n = 25; k = 9 ⇒ n − k − 1 = 15

66 / 149

Page 67: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.25 Konfidenzintervalle fur multiple lineare Regression

I Modellannahme: multiple lineare Regression

Yi = b0 +k∑

j=1

bjxji + εi (i = 1, . . . , n)

I Rechterfertigung der Normalverteilungs- und Unabhangig-keitsannahme

I Schatzer sbj fur den Standardfehler von bj

=⇒ (bj − tn−k−1,1−α/2sbj , bj + tn−k−1,1−α/2sbj )

ist ein (1− α) -Konfidenzintervall fur bj (j = 0, . . . k)

I tn−k−1,1−α/2; (1− α/2)-Quantil der t-Verteilung mitn − k − 1 Freiheitsgraden (Tabelle oder Software)

I Anmerkung: Fur wachsenden Stichprobenumfang konver-gieren die Schatzer sbj gegen 0 ”je großer der Stichpro-benumfang, desto kleiner die Konfidenzintervalle”

67 / 149

Page 68: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.26 Beispiel: Konfidenzintervalle fur die Para-meter in Beispiel 2.22 (Arbeitsmotivation )

bj Merkmal Schatzung sbj Konfidenzintervall

b0 — -3.842 5.052 [-14.609, 6.926]

b1 Ehrgeiz 0.193 0.081 [0.020, 0.365]

b2 Kreativitat 0.153 0.049 [0.049, 0.258]

b3 Leistungsstreben 0.049 0.065 [-0.089, 0.188]

b4 Hierarchie 0.246 0.148 [-0.069, 0.561]

b5 Lohn 0.000 0.001 [-0.004, 0.002]

b6 Arbeitsbdg. -0.031 0.054 [-0.147, 0.085]

b7 Lernpotential 0.165 0.098 [-0.044, 0.373]

b8 Vielfalt 0.206 0.052 [0.095, 0.316]

b9 Anspruch 0.053 0.058 [-0.070, 0.177]

68 / 149

Page 69: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Schatzer, Standardabweichungund Konfidenzintervalle im Beispiel 2.22 (Arbeits-motivation mit mehreren Pradiktoren)

StandardfehlerB Beta

SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

Koeffizienten

NichtstandardisierteKoeffizienten

(Konstante)

x1

x2

x3

x4

x5

x6

x7

x8

x9

1

,177-,070,372,920,124,058,053

,316,095,0013,973,354,052,206

,373-,044,1131,683,199,098,165

,085-,147,573-,576-,045,054-,031

,002-,004,564-,589-,077,001,000

,561-,069,1171,664,235,148,246

,188-,089,458,761,095,065,049

,258,049,0073,127,234,049,153

,365,020,0312,381,337,081,193

6,926-14,609,459-,7605,052-3,842ModellModell

Koeffizientena

a. Abhängige Variable: Y

69 / 149

Page 70: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.27 Vorhersage der multiplen linearen Regression

I Modellannahme: multiple lineare Regression

Yi = b0 +∑k

j=1 bjxji + εi (i = 1, . . . , n)

I Rechterfertigung der Normalverteilungs- und Unabhangig-keitsannahme

I Vorhersage fur den Wert der multiplen Regression an derStelle x = (x1, . . . , xk) (im Beispiel ist k = 9)

y(x) = b0 +∑k

j=1 bjxj

I In Beispiel 2.22 ergibt sich z.B. als Vorhersage dermultiplen linearen Regression an der Stelle

x1 = 21, x2 = 30, x3 = 15, x4 = 11, , x5 = 2900,

x6 = 41, x7 = 25, x8 = 55, x9 = 54

der Wert y(x) = 22.717

70 / 149

Page 71: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Vorhersage der multiplen linearen Regression

Beachte: Wie in Abschnitt 2.18 und 2.19 gibt es zwei Vorher-sagen:

I Vorhersage fur den Wert der multiplen Regression an derStelle x = (x1, . . . , xk) (im Beispiel ist k = 9)

I Vorhersage fur den Wert einer neuen Beobachtung an derStelle x = (x1, . . . , xk) (im Beispiel ist k = 9)

I Fur beide Vorhesagen, kann man den Standardfehlerbestimmen (Formeln kompliziert) und Konfidenzbereicheangeben (vgl. Abschnitt 2.18 und 2.19 fur den Fall k = 1 )

71 / 149

Page 72: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Vorhersage bei der multiplenlinearen Regression (schwierig)

Beispiel:I Schatzung fur den Wert der ”Ebene” an der Stelle

x = (18, 23, 13, 11, 2800, 42, 18, 31, 43): 14.348I Schatzung fur eine weitere Beobachtung an der Stelle

x = (18, 23, 13, 11, 2800, 42, 18, 31, 43): 14.34872 / 149

Page 73: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Konfidenzintervalle fur Vorher-sagen bei mulitpler linearer Regression

I Konfidenzintervall fur den Wert der ”Ebene” an der Stellex = (18, 23, 13, 11, 2800, 42, 18, 31, 43): [12.399, 16.297]

I Konfidenzintervall fur eine weitere Beobachtung an der Stellex = (18, 23, 13, 11, 2800, 42, 18, 31, 43): [9.870, 18.826]

73 / 149

Page 74: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.28 Bestimmtheitsmaß bei multipler linearer Regressi-on

I Modellvorhersage:

yi = b0 + b1x1i + . . . bkxki = b0 +k∑

j=1

bjxji

I Residuum εi = yi − yi = yi − (b0 +∑k

j=1 bjxji )

I Beachte: Die Werte der abhangigen Variable zerfallen inModellvorhersage (y) und Residuum (ε), d.h.

yi = yi + εi i = 1, . . . , n

I Die Gute der Modellanpassung wird (wieder) durch dasBestimmtheitsmaß R2 beschrieben werden (Anteilerklarter Varianz)

R2 = 1−∑n

i=1(yi − yi )2∑n

i=1(yi − y ·)2

=

∑ni=1(y · − yi )

2∑ni=1(yi − y ·)

2.

74 / 149

Page 75: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel: das Bestimmtheitsmaß fur das Beispiel2.22 (Arbeitsmotivation)

In Beispiel 2.22 ist

I n = 25; k = 9

I∑n

i=1(yi − yi )2 = 53.651

I∑n

i=1(yi − y ·)2 = 790.96

I

R2 = 1− 53.651

790.96= 92.95

D.h. 92.95% der Varianz der Variablen Motivation werden durch dasmultiple lineare Regressionsmodell erklart

75 / 149

Page 76: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.29 Statistische Tests bei der multiplen linearer Regres-sion. Zwei ”wichtige” Fragestellungen:

I Frage A: Hat mindestens eine der Pradiktorvariablenx1, . . . , xk einen Einfluß auf die abhangige Variable y(Gesamttest auf Signifikanz).

I Mathematische Formulierung der Hypothese:

Nullhypothese:

H0 : bj = 0 fur alle j ∈ {1, 2, . . . , k}

Alternative:

H1 : bj 6= 0 fur mindestens ein j ∈ {1, 2, . . . , k}

I Frage B: Hat die Pradiktorvariable xj (z.B. Ehrgeiz) einenEinfluß auf die abhangige Variable y .

I Mathematische Formulierung der Hypothese:

Nullhypothese: H0 : bj = 0Alternative: H1 : bj 6= 0

76 / 149

Page 77: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.29(A) Gesamttest auf Signifikanz

I Nullhypothese: H0 : bj = 0 fur alle j ∈ {1, 2, . . . , k}

Alternative: H1 : bj 6= 0 fur mindestens ein j ∈ {1, 2, . . . , k}

(1) Bestimme

S2reg =

1

k

n∑i=1

(y · − yi )2

die Varianz der Regression, und

S2y|x =

1

n − k − 1

n∑i=1

(yi − yi )2

die Residualvarianz

I Beachte: man geht genau wie im linearenRegressionsmodell vor!

77 / 149

Page 78: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.29(A) Gesamttest auf Signifikanz

(2) H0 wird zu Gunsten der Alternative H1 verworfen, falls

Fn =S2reg

S2y|x

> Fk;n−k−1;1−α

gilt (oder der entsprechende p-Wert kleiner als α ist).Dabei bezeichnet Fk;n−k−1;1−α das (1− α)-Quantil derF -Verteilung mit (k, n − k − 1) Freiheitsgraden,

I Beachte: Wird H0 durch diesen Test verworfen, dann bleibtaber noch unklar, “welches der Merkmale signifikant ist”

78 / 149

Page 79: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.29(B) Tests fur die Signifikanz einzelner Merkmale

Nullhypothese:H0 : bj = 0

Alternative:H1 : bj 6= 0

I Die Nullhypothese H0 wird zu Gunsten der Alternative H1

verworfen, falls

Tn =

∣∣∣∣∣ bj

sbj

∣∣∣∣∣ > tn−k−1;1−α/2

gilt (oder der entsprechende p-Wert kleiner als α ist).Dabei ist

I tn−k−1;1−α/2 das (1− α/2)-Quantil der t-Verteilung mitn − k − 1 Freiheitsgraden

I sbj der Standardfehler von bj

I Beachte: Werden mehrere Hypothesen gestestet, ist dasNiveau entsprechend anzupassen (vgl. Abschntt 1.18).

79 / 149

Page 80: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.30(A) Test auf Signifikanz im multiplen Regressions-model in Beispiel 2.22

I Frage: “Hat eine der 9 Pradiktorvariablen einen Einfluß aufdie abhangige Variable?”

I Mathematische Hypothesen:

H0 : bj = 0 fur alle j = 1, . . . , 9

H1 : bj 6= 0 fur mindestens ein j ∈ {1, . . . , 9}

I Fn = 21.972, F9,15,0.95 = 2.5876

I Da Fn > 21.972 > 2.5876 ist, wird die Nullhypothese zumNiveau 5% verworfen.

80 / 149

Page 81: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.30(B) Beispiel: Test auf Signifikanz einesMerkmals im multiplen linearen Regressions-modell in Beispiel 2.22

I Frage: “Hat die Pradiktorvariable Ehrgeiz (x1) einen Einfluß aufdie abhangige Variable Motivation (Signifikanz des Regressions-koeffizienten b1)?”

I Mathematische Hypothesen:

H0 : b1 = 0; H1 : b1 6= 0

I b1 = 0.193, sb1 = 0.081, t25−10,0.975 = 2.13

⇒ T25 = 2.381

I DaT25 = 2.381 > 2.13

wird die Nullhypothese H0 zu Gunsten der Alternative H1 : b1 6= 0verworfen (zum Niveau 5%)

81 / 149

Page 82: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Der Test 2.29(A) fur das Beispiel2.22 (Arbeitsmotivation)

SignifikanzFMittel der QuadratedfQuadratsumme

Regression

Residuen

Gesamt

1

24760,960

3,5771553,651

,000a

21,97278,5909707,309ModellModell

ANOVAb

a. Einflußvariablen : (Konstante), x9, x5, x2, x3, x6, x8, x7, x4, x1

b. Abhängige Variable: Y

82 / 149

Page 83: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Der Test 2.29(B) fur das Beispiel2.22 (Arbeitsmotivation)

StandardfehlerB Beta

SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

Koeffizienten

NichtstandardisierteKoeffizienten

(Konstante)

x1

x2

x3

x4

x5

x6

x7

x8

x9

1

,177-,070,372,920,124,058,053

,316,095,0013,973,354,052,206

,373-,044,1131,683,199,098,165

,085-,147,573-,576-,045,054-,031

,002-,004,564-,589-,077,001,000

,561-,069,1171,664,235,148,246

,188-,089,458,761,095,065,049

,258,049,0073,127,234,049,153

,365,020,0312,381,337,081,193

6,926-14,609,459-,7605,052-3,842ModellModell

Koeffizientena

a. Abhängige Variable: Y

83 / 149

Page 84: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.4 Multikollinearitat und Suppressionseffekte

84 / 149

Page 85: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.31 Das Problem der Multikollinearitat

Beispiel: Betrachte in dem Beispiel der “Arbeitsmarktmotivation” einmultiples lineares Regressionsmodell mit 3 Pradiktorvariablen

Yi = b0 + b1x1i + b2x2i + b3x3i + εi i = 1, . . . , 25

(Y : Motivation, x1 : Ehrgeiz x2: Kreativitat, x3: Leistungsstreben)

I Schatzer fur die Modellparameter

i bi sbi p-Wert0 5.54 2.621 0.39 0.14 0.0082 0.23 0.09 0.0203 0.001 0.12 0.994

I Bestimmtheitsmaß R2 = 0.7861

I Beachte: nur fur den Koeffizient b3 (Leistungsstreben) kann keineSignifikanz (zum Niveau 5%) nachgewiesen werden

85 / 149

Page 86: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Korrelationsmatrix fur die Pradiktoren

Motivation Ehrgeiz Kreativitat LeistungsstrebenMotivation 1Ehrgeiz .71 1Kreativitat .38 .05 1Leistungsstreben .56 .82* -.02 1

Beachte: Der Test 2.5 liefert eine signifikante Korrelation (zum Niveau1%) zwischen den Variablen Leistungsstreben und Ehrgeiz (SPSS)

86 / 149

Page 87: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

I Beachte: Es gibt eine signifikante Korrelation zwischen denVariablen Leistungsstreben und Ehrgeiz

I Beide Variablen tragen weitgehend identische Information

I Im Beispiel ist die Variable Leistungsstreben redundant und wirdnicht fur die Vorhersage der abhangigen Variablen Motivationbenotigt

I Die Variable Ehrgeiz ist starker mit der Variablen Motivationkorreliert als die Variable Leistungsstreben (aus diesem Grund istder entsprechende Koeffizient auch signifikant)

I Fur die Bestimmtheitsmaße in den multiplen linearen Regressions-modellen mit drei bzw. zwei Variablen erhalt man

R2 = 0.786179 fur Modell mit den Pradiktoren x1, x2, x3

R2 = 0.786178 fur Modell mit den Pradiktoren x1, x2

87 / 149

Page 88: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Multikollinearitat; Schatzer imModell mit 3 Parametern

StandardfehlerB Beta

SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

Koeffizienten

NichtstandardisierteKoeffizienten

(Konstante)

x1

x2

x3

1

,257-,255,994,008,002,123,001

,410,040,0202,528,343,089,225

,674,112,0082,913,688,135,393

10,983,095,0462,1162,6185,539ModellModell

Koeffizientena

a. Abhängige Variable: Y

88 / 149

Page 89: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Multilkollinearitat;Korrelationsmatrix

x3x2x1YKorrelation nach Pearson

Signifikanz (2-seitig)

N

Korrelation nach Pearson

Signifikanz (2-seitig)

N

Korrelation nach Pearson

Signifikanz (2-seitig)

N

Korrelation nach Pearson

Signifikanz (2-seitig)

N

Y

x1

x2

x3

25252525

,939,000,004

1,000-,016,818**

,559**

25252525

,939,802,061

-,0161,000,053,379

25252525

,000,802,000

,818**

,0531,000,708**

25252525

,004,061,000

,559**

,379,708**

1,000

Korrelationen

**. Die Korrelation ist auf dem Niveau von 0,01 (2-seitig) signifikant.

89 / 149

Page 90: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.43 Das Problem der Suppressionseffekte

Beispiel: Betrachte in dem Beispiel 2.22 der“Arbeitsmarktmotivation” ein multiples lineares Regressionsmodell mit3 anderen Pradiktorvariablen

Yi = b0 + b4x4i + b5x5i + b6x6i + εi i = 1, . . . , 25

(Y : Motivation, x4: Hierarchie, x5: Lohn, x6: Arbeitsbedingungen)

I Schatzungen fur die Modellparameter

i bi sbi p-Wert0 25.08 8.40 0.0074 0.88 0.26 0.0025 -0.01 0.003 0.0166 0.13 0.12 0.308

90 / 149

Page 91: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Korrelationsmatrix fur die Variablen Motivation,Hierarchie, Lohn und Arbeitsbedingungen

Motivation Hierarchie Lohn ArbeitsbedingungenMotivation 1Hierarchie .42* 1Lohn -.04 .72** 1Arbeitsbedingungen .35 .16 -.06 1

Beachte:

I Zwischen der Pradiktorvariablen Lohn (x5) und der abhangigenVariablen Motivation liegt keine signifikante Korrelation vor

I Dennoch bekommt diese Variable im multiplen Regressionsmodellein signifikantes Gewicht; d.h. die Hypothese H0 : b5 = 0 wirdzum Niveau 5% verworfen (p-Wert: 0.016).

I Man spricht von einem Suppressionseffekt.

91 / 149

Page 92: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

I Grund fur diesen scheinbaren Widerspruch: Korrelationen sindbivariate Maße fur Zusammenhange (zwischen zwei Merkma-len). Das Modell der multiplen Regression untersucht aber denZusammenhang zwischen der Variablen Motivation und dem(3-dimensionalen) Pradiktor (x4, x5, x6):

I Motivation ist stark mit der Variablen Hierarchie korreliert

I Lohn ist ebenfalls stark mit der Variablen Hierarchie korreliert

I Pradiktorvariable Lohn wird in der multiplen linearen Regressionbenotigt, um “unerwunschte” Varianzanteile der VariablenHierarchie zu kompensieren

I Bestimmtheitsmaße fur verschiedene Modelle

R2 = 0.664282 fur Modell mit x4, x5, x6

R2 = 0.509720 fur Modell mit x4, x6

92 / 149

Page 93: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Suppressionseffekte; Schatzer imModell mit 4 Parametern

StandardfehlerB Beta SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

Koeffizienten

NichtstandardisierteKoeffizienten

(Konstante)

x4

x5

x6

1

,375-,124,3081,045,179,120,125

-,001-,013,016-2,612-,632,003-,007

1,419,350,0023,444,843,257,884

42,5397,612,0072,9868,39825,076ModellModell

Koeffizientena

a. Abhängige Variable: Y

93 / 149

Page 94: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Suppressionseffekte; Schatzungder Korrelationsmatrix

x6x5x4YKorrelation nach Pearson

Signifikanz (2-seitig)

N

Korrelation nach Pearson

Signifikanz (2-seitig)

N

Korrelation nach Pearson

Signifikanz (2-seitig)

N

Korrelation nach Pearson

Signifikanz (2-seitig)

N

Y

x4

x5

x6

25252525

,777,435,082

1,000-,060,163,354

25252525

,777,000,856

-,0601,000,717**

-,038

25252525

,435,000,037

,163,717**

1,000,419*

25252525

,082,856,037

,354-,038,419*

1,000

Korrelationen

*. Die Korrelation ist auf dem Niveau von 0,05 (2-seitig) signifikant.

**. Die Korrelation ist auf dem Niveau von 0,01 (2-seitig) signifikant.

94 / 149

Page 95: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.5 Variablenselektion

95 / 149

Page 96: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.33 Merkmalselektionsverfahren

I Ziel: mit moglichst wenig Pradiktorvariablen eine guteVorhersage der abhangigen Variablen zu erzielen.

I Prinzip: untersuche wie sich durch Weglassen einzelnerVariablen das Bestimmtheitsmaß R2 verandert.

Typische Selektionsprozeduren:

(A) Ruckwartsverfahren(B) Vorwartsverfahren(C) Schrittweise Verfahren

I Beachte: es handelt sich um explorative Verfahren, diehauptsachlich der Modellbildung dienen (Interpretationnicht einfach).

96 / 149

Page 97: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.34 Das Ruckwartsverfahren

I Betrachte das vollstandige Modell (mit allen Pradiktorvariablen)und berechne das Bestimmtheitsmaß R2

I Entferne sukzessive diejenigen Variablen, die zu dem geringstenRuckgang des Bestimmtheitsmaßes fuhren wurden

I Das Verfahren wird abgebrochen, falls sich bei dem Entferneneiner Variablen das Bestimmtheitsmaß “signifikant” verkleinert

97 / 149

Page 98: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.35 Beispiel: Variablenselektion mit demRuckwartsverfahren (vgl. Beispiel 2.22)Schritt Pradiktorvariablen t-Wert Ausgeschlossene Variablen R2

1 Ehrgeiz 2.38 .929Kreativitat 3.13Leistungsstreben .76Hierarchie 1.66Lohn -.59Arbeitsbedingungen -.58Lernpotential 1.68Vielfalt 3.97Anspruch .92

2 Ehrgeiz 2.38 Arbeitsbedingungen .928Kreativitat 3.28Leistungsstreben .79Hierarchie 1.66Lohn -.57Lernpotential 1.66Vielfalt 4.04Anspruch .91

98 / 149

Page 99: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel: Ruckwartsverfahren - FortsetzungSchritt Pradiktorvariablen t-Wert Ausgeschlossene Variablen R2

3 Ehrgeiz 2.54 Arbeitsbedingungen .926Kreativitat 3.43 LohnLeistungsstreben .88Hierarchie 2.11Lernpotential 1.59Vielfalt 4.17Anspruch 1.35

4 Ehrgeiz 5.40 Arbeitsbedingungen .923Kreativitat 3.38 LohnHierarchie 2.31 LeistungsstrebenLernpotential 1.55Vielfalt 4.12Anspruch 1.31

5 Ehrgeiz 5.18 Arbeitsbedingungen .916Kreativitat 3.16 LohnHierarchie 2.84 LeistungsstrebenLernpotential 3.31 AnspruchVielfalt 5.04

99 / 149

Page 100: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Ruckwartssverfahren im Beispielder Arbeitsmotivation

MethodeEntfernteVariablenAufgenommene Variablen

1

2

3

4

5 Rückwärts (Kriterium: Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).x9.

Rückwärts (Kriterium: Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).x3.

Rückwärts (Kriterium: Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).x5.

Rückwärts (Kriterium: Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).x6.

Eingeben.x9, x5, x2, x3, x6, x8, x7, x4, …ModellModell

Aufgenommene/Entfernte Variablenb

a. Alle gewünschten Variablen wurden aufgenommen.

b. Abhängige Variable: Y

100 / 149

Page 101: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Ruckwartssverfahren im Beispielder Arbeitsmotivation

Standardfehlerdes Schätzers

KorrigiertesR-QuadratR-QuadratR

Änderung in Signifikanz von

Fdf2df1Änderung in FÄnderung in R-Quadrat

Änderungsstatistiken

1

2

3

4

5 ,2071811,713-,0071,837,894,916,957e

,389171,783-,0031,803,897,923,961d

,575161,327-,0011,814,896,926,963c

,573151,332-,0021,851,892,928,963b

,00015921,972,9291,891,887,929,964a

ModellModell

Modellzusammenfassung

a. Einflußvariablen : (Konstante), x9, x5, x2, x3, x6, x8, x7, x4, x1

b. Einflußvariablen : (Konstante), x9, x5, x2, x3, x8, x7, x4, x1

c. Einflußvariablen : (Konstante), x9, x2, x3, x8, x7, x4, x1

d. Einflußvariablen : (Konstante), x9, x2, x8, x7, x4, x1

e. Einflußvariablen : (Konstante), x2, x8, x7, x4, x1

101 / 149

Page 102: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Ruckwartssverfahren im Beispielder Arbeitsmotivation: ANOVA

SignifikanzFMittel der QuadratedfQuadratsumme

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

1

2

3

4

5

24760,960

3,3741964,108

,000e

41,306139,3705696,852

24760,960

3,2521858,538

,000d

35,999117,0706702,422

24760,960

3,2921755,960

,000c

30,596100,7147705,000

24760,960

3,4271654,840

,000b

25,75288,2658706,120

24760,960

3,5771553,651

,000a

21,97278,5909707,309ModellModell

ANOVAf

a. Einflußvariablen : (Konstante), x9, x5, x2, x3, x6, x8, x7, x4, x1

b. Einflußvariablen : (Konstante), x9, x5, x2, x3, x8, x7, x4, x1

c. Einflußvariablen : (Konstante), x9, x2, x3, x8, x7, x4, x1

d. Einflußvariablen : (Konstante), x9, x2, x8, x7, x4, x1

e. Einflußvariablen : (Konstante), x2, x8, x7, x4, x1

f. Abhängige Variable: Y

102 / 149

Page 103: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Ruckwartssverfahren im Beispielder Arbeitsmotivation: Koeffizienten

StandardfehlerB Beta SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

KoeffizientenNicht standardisierte

Koeffizienten

(Konstante)

x1

x2

x3

x4

x5

x6

x7

x8

x9

(Konstante)

x1

x2

x3

x4

x5

x7

x8

x9

(Konstante)

x1

x2

x3

x4

1

2

3

,344,000,0502,113,164,081,172

,185-,076,389,885,105,062,055

,258,061,0033,431,244,046,159

,354,033,0212,540,338,076,193

-2,877-11,431,003-3,5292,027-7,154

,172-,068,374,914,121,057,052

,312,097,0014,040,352,051,205

,358-,044,1171,655,190,095,157

,002-,004,575-,572-,073,001,000

,545-,066,1161,660,228,144,240

,185-,084,441,790,096,063,050

,258,056,0053,285,239,048,157

,353,020,0302,376,326,079,187

5,238-14,713,329-1,0074,706-4,737

,177-,070,372,920,124,058,053

,316,095,0013,973,354,052,206

,373-,044,1131,683,199,098,165

,085-,147,573-,576-,045,054-,031

,002-,004,564-,589-,077,001,000

,561-,069,1171,664,235,148,246

,188-,089,458,761,095,065,049

,258,049,0073,127,234,049,153

,365,020,0312,381,337,081,193

6,926-14,609,459-,7605,052-3,842ModellModell

Koeffizientena

a. Abhängige Variable: Y

103 / 149

Page 104: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.36 Das Vorwartsverfahren

I Bestimme diejenige Pradiktorvariable, die mit der abhangigenVariablen am starksten korreliert ist und berechne dasBestimmtheitsmaß R2

I Ist R2 signifikant, wird diese Variable in das Modell aufgenommen

I Fuge sukzessive diejenigen Variablen zu dem Modell hinzu, die zudem großten Anstieg des Bestimmtheitsmaßes fuhren

I Das Verfahren bricht ab, falls sich bei Hinzunahme einer neuenVariablen das Bestimmtheitsmaß R2 “nicht signifikant” vergroßert

104 / 149

Page 105: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Vorwartssverfahren im Beispiel derArbeitsmotivation

MethodeEntfernteVariablen

AufgenommeneVariablen

1

2

3

4

5 Vorwährts- (Kriterium: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050).x4

Vorwährts- (Kriterium: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050).x8

Vorwährts- (Kriterium: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050).x2

Vorwährts- (Kriterium: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050).x9

Vorwährts- (Kriterium: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050).x1

ModellModell

Aufgenommene/Entfernte Variablena

a. Abhängige Variable: Y

105 / 149

Page 106: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Vorwartssverfahren im Beispiel derArbeitsmotivation

Standardfehlerdes Schätzers

KorrigiertesR-QuadratR-QuadratR

Änderung in Signifikanz

von Fdf2df1Änderung in FÄnderung in R-Quadrat

Änderungsstatistiken

1

2

3

4

5 ,0411914,810,0221,869,890,913,955e

,00220112,879,0702,039,869,891,944d

,0072118,876,0762,552,795,820,906c

,00022120,980,2442,973,721,744,863b

,00023123,059,5014,065,479,501,708a

ModellModell

Modellzusammenfassung

a. Einflußvariablen : (Konstante), x1

b. Einflußvariablen : (Konstante), x1, x9

c. Einflußvariablen : (Konstante), x1, x9, x2

d. Einflußvariablen : (Konstante), x1, x9, x2, x8

e. Einflußvariablen : (Konstante), x1, x9, x2, x8, x4

106 / 149

Page 107: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Vorwartssverfahren im Beispiel derArbeitsmotivation: ANOVA

SignifikanzFMittel der Quadratedf

Quadratsumme

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

1

2

3

4

5

24760,960

3,4931966,364

,000e

39,773138,9195694,596

24760,960

4,1582083,163

,000d

40,751169,4494677,797

24760,960

6,51021136,716

,000c

31,962208,0813624,244

24760,960

8,84122194,504

,000b

32,035283,2282566,456

24760,960

16,52123379,992

,000a

23,059380,9681380,968ModellModell

ANOVAf

a. Einflußvariablen : (Konstante), x1

b. Einflußvariablen : (Konstante), x1, x9

c. Einflußvariablen : (Konstante), x1, x9, x2

d. Einflußvariablen : (Konstante), x1, x9, x2, x8

e. Einflußvariablen : (Konstante), x1, x9, x2, x8, x4

f. Abhängige Variable: Y

107 / 149

Page 108: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Vorwartssverfahren im Beispiel derArbeitsmotivation: Koeffizienten

StandardfehlerB Beta SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

KoeffizientenNicht standardisierte

Koeffizienten

(Konstante)

x1

(Konstante)

x1

x9

(Konstante)

x1

x9

x2

(Konstante)

x1

x9

x2

x8

(Konstante)

x1

x9

x2

x8

x4

1

2

3

4

5

,354,008,0412,193,173,083,181

,283,079,0013,706,311,049,181

,272,082,0013,903,271,045,177

,193,039,0053,147,271,037,116

,364,178,0006,076,474,045,271

-2,479-11,186,004-3,2852,080-6,833

,301,080,0023,589,327,053,190

,294,089,0013,908,293,049,192

,226,074,0014,101,350,037,150

,352,153,0005,286,442,048,253

-1,781-11,224,009-2,8732,263-6,502

,310,055,0072,979,279,061,183

,290,116,0004,862,474,042,203

,433,204,0005,776,558,055,319

2,849-7,052,387-,8832,380-2,101

,321,121,0004,580,515,048,221

,454,187,0004,983,560,064,320

5,542-5,415,981,0242,642,063

,579,230,0004,802,708,084,404

14,0644,111,0013,7782,4069,088ModellModell

Koeffizientena

a. Abhängige Variable: Y

108 / 149

Page 109: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.37 Das schrittweise Verfahren

I Ruckwarts- und Vorwartsverfahren werden kombiniert!

I Man fuhrt ein Vorwartsverfahren durch, wobei in jedem Schrittuntersucht wird, ob bei Entfernen einer bereits aufgenommenenVariable das Bestimmtheitsmaß signifikant abnehmen wurde.

109 / 149

Page 110: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Das schrittweise Verfahren imBeispiel der Arbeitsmotivation

MethodeEntfernteVariablen

AufgenommeneVariablen

1

2

3

4

5 Schrittweise Auswahl (Kriterien: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050, Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).

.x4

Schrittweise Auswahl (Kriterien: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050, Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).

.x8

Schrittweise Auswahl (Kriterien: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050, Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).

.x2

Schrittweise Auswahl (Kriterien: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050, Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).

.x9

Schrittweise Auswahl (Kriterien: Wahrscheinlichkeit von F-Wert für Aufnahme <= ,050, Wahrscheinlichkeit von F-Wert für Ausschluß >= ,100).

.x1

ModellModell

Aufgenommene/Entfernte Variablena

a. Abhängige Variable: Y

110 / 149

Page 111: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Das schrittweise Verfahren imBeispiel der Arbeitsmotivation

Standardfehlerdes Schätzers

KorrigiertesR-QuadratR-QuadratR

Änderung in Signifikanz

von Fdf2df1Änderung

in FÄnderung in R-Quadrat

Änderungsstatistiken

1

2

3

4

5 ,0411914,810,0221,869,890,913,955e

,00220112,879,0702,039,869,891,944d

,0072118,876,0762,552,795,820,906c

,00022120,980,2442,973,721,744,863b

,00023123,059,5014,065,479,501,708a

ModellModell

Modellzusammenfassung

a. Einflußvariablen : (Konstante), x1

b. Einflußvariablen : (Konstante), x1, x9

c. Einflußvariablen : (Konstante), x1, x9, x2

d. Einflußvariablen : (Konstante), x1, x9, x2, x8

e. Einflußvariablen : (Konstante), x1, x9, x2, x8, x4

111 / 149

Page 112: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Das schrittweise Verfahren imBeispiel der Arbeitsmotivation: ANOVA

SignifikanzFMittel der QuadratedfQuadratsumme

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

Regression

Residuen

Gesamt

1

2

3

4

5

24760,960

3,4931966,364

,000e

39,773138,9195694,596

24760,960

4,1582083,163

,000d

40,751169,4494677,797

24760,960

6,51021136,716

,000c

31,962208,0813624,244

24760,960

8,84122194,504

,000b

32,035283,2282566,456

24760,960

16,52123379,992

,000a

23,059380,9681380,968ModellModell

ANOVAf

a. Einflußvariablen : (Konstante), x1

b. Einflußvariablen : (Konstante), x1, x9

c. Einflußvariablen : (Konstante), x1, x9, x2

d. Einflußvariablen : (Konstante), x1, x9, x2, x8

e. Einflußvariablen : (Konstante), x1, x9, x2, x8, x4

f. Abhängige Variable: Y

112 / 149

Page 113: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS Output: Das schrittweise Verfahren imBeispiel der Arbeitsmotivation: Koeffizienten

StandardfehlerB Beta SignifikanzT ObergrenzeUntergrenze

95%-Konfidenzintervall für BStandardisierte

KoeffizientenNicht standardisierte

Koeffizienten

(Konstante)

x1

(Konstante)

x1

x9

(Konstante)

x1

x9

x2

(Konstante)

x1

x9

x2

x8

(Konstante)

x1

x9

x2

x8

x4

1

2

3

4

5

,354,008,0412,193,173,083,181

,283,079,0013,706,311,049,181

,272,082,0013,903,271,045,177

,193,039,0053,147,271,037,116

,364,178,0006,076,474,045,271

-2,479-11,186,004-3,2852,080-6,833

,301,080,0023,589,327,053,190

,294,089,0013,908,293,049,192

,226,074,0014,101,350,037,150

,352,153,0005,286,442,048,253

-1,781-11,224,009-2,8732,263-6,502

,310,055,0072,979,279,061,183

,290,116,0004,862,474,042,203

,433,204,0005,776,558,055,319

2,849-7,052,387-,8832,380-2,101

,321,121,0004,580,515,048,221

,454,187,0004,983,560,064,320

5,542-5,415,981,0242,642,063

,579,230,0004,802,708,084,404

14,0644,111,0013,7782,4069,088ModellModell

Koeffizientena

a. Abhängige Variable: Y

Page 1

113 / 149

Page 114: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.38 Bemerkung zu den verschiedenenMerkmalselektionsverfahren

I Beachte: Verschiedene Verfahren liefern verschiedene Ergebnisse(es gibt kein richtig oder falsch!)

I Beispiel (Arbeitsmotivation)

Ruckwartsverfahren Vorwartsverfahren Schrittweises VerfahrenEhrgeiz Ehrgeiz Ehrgeiz

Kreativitat Kreativitat KreativitatHierarchie Hierarchie Hierarchie

Lernpotential Anspruch AnspruchVielfalt Vielfalt Vielfalt

R2 = .916 R2 = .913 R2 = .913

114 / 149

Page 115: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.6 Nichtlineare Zusammenhange

115 / 149

Page 116: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Nichtlineare Zusammenhange

I Die (multiplen) linearen Regressionsmodelle beruhen auf derAnnahme, dass der Zusammenhang zwischen jeder Pradiktor-variable und der abhangigen Variablen linear ist, d.h., durch eineGerade beschrieben werden kann

I Diese Annahme muss nicht immer erfullt sein. Zusammenhangezwischen Variablen konnen im Grunde beliebige Form haben

I Man spricht in diesen Fallen von nichtlinearen Zusammen-hangen

116 / 149

Page 117: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.39 Beispiel: Gedachtnistest

I Mehrere Personen machen einen Gedachtnistest

I 30 Ortsnamen (aus Mongolei) werden vorgegeben

I y(x): Anzahl der Ortsnamen, die nach x Tagen noch imGedachtnis geblieben sind (Mittelwerte)

x 1 2 3 4 5 6 7 8 9 10y(x) 24.9 19.7 17.0 13.2 11.0 8.5 7.9 5.8 5.5 5.0

117 / 149

Page 118: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Das Streudiagramm fur die Daten aus Beispiel2.39 (Gedachtnistest)

Tage

1086420

An

zah

l der

Ort

snam

en

30,0

20,0

10,0

,0

118 / 149

Page 119: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Lineare Regression fur die Daten aus Beispiel2.39 (Gedachtnistest)

Tage

1086420

An

zah

l der

Ort

snam

en30,0

20,0

10,0

,0

Die Gleichung der geschatzten Geraden:

y = 10.579− 0.429x119 / 149

Page 120: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Residuenanalyse bei linearer Regression fur dieDaten aus Beispiel 2.39 (Gedachtnistest)

Standardized Predicted Value

1,500001,00000,50000,00000-,50000-1,00000-1,50000

Sta

nd

ard

ized

Res

idu

al

2,00000

1,00000

,00000

-1,00000

120 / 149

Page 121: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

QQ - Plot bei linearer Regression fur die Datenaus Beispiel 2.39 (Gedachtnistest)

Beobachteter Wert

210-1-2

Erw

arte

ter

Wer

t vo

n N

orm

al

1,5

1,0

0,5

0,0

-0,5

-1,0

-1,5

Q-Q-Diagramm von Normal von Standardized Residual

121 / 149

Page 122: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beachte:

I Ein lineares Regressionmodell ist fur die Beschreibung desZusammenhangs ungeeignet!

I Quadratisches Regressionsmodel

Yi = b0 + b1xi + b2x2i + εi

I Schatzung der Parameter mit der Methode der kleinstenQuadrate und die entsprechenden Standardfehler

b0 = 29.088 b1 = −4.876 b2 = 0.249sb0 = 0.558 sb1 = 0.233 sb2 = 0.021

122 / 149

Page 123: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Konfidenzbereiche und Tests

I Man geht wie in 2.12 und 2.14 bzw. 2.29 vor

I 90% Konfidenzintervall fur b2 (man beachte: das Modell hat 3Parameter)

t10−3,0.95 = 1.8946 b2 = 0.249 sb2 = 0.021

⇒ [b2 − t7,0.95 sb2 , b2 + t7,095 sb2 ] = [0.2092, 0.2888]

ist 90% Konfidenzintervall fur b2

I Die Hypothese H0 : b2 = 0 wird (zum Niveau 10%) verworfen,falls ∣∣∣ b2

sb2

∣∣∣ > t10−3,0.95

gilt (im Beispiel wird also H0 abgelehnt)

I Beachte: 10− 3 Freiheitsgrade, da 10 Daten und 3 Parameter inder Parabelgleichung

123 / 149

Page 124: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS-Output: Schatzer fur quadratischeRegression

StandardfehlerB Beta Sig.t

StandardisierteKoeffizienten

Nicht standardisierte Koeffizienten

Tage

Tage ** 2

(Konstante) ,00052,136,55829,088

,00012,0551,257,021,249

,000-20,927-2,183,233-4,876

Koeffizienten

124 / 149

Page 125: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Streudiagramm fur die Daten aus Beispiel 2.39mit der geschatzten Parabel

Tage

1086420

30,0

20,0

10,0

0,0

Anzahl der Ortsnamen

QuadratischBeobachtet

125 / 149

Page 126: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS-Output: Residuenanalysefur fur die Datenaus Beispiel 2.39 bei quadratischer Regression

Standardized Predicted Value

2,000001,500001,00000,50000,00000-,50000-1,00000

Sta

nd

ard

ized

Res

idu

al

2,00000

1,00000

,00000

-1,00000

-2,00000

126 / 149

Page 127: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS-Output: QQ-Plot fur die Daten ausBeispiel 2.39 bei quadratischer Regression

Beobachteter Wert

210-1-2

Erw

arte

ter

Wer

t vo

n N

orm

al

1,5

1,0

0,5

0,0

-0,5

-1,0

-1,5

Q-Q-Diagramm von Normal von Standardized Residual

127 / 149

Page 128: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

SPSS-Output: Histogramm fur die Residuen ausBeispiel 2.39 bei quadratischer Regression

Regression Standardisiertes Residuum

210-1-2

Häu

fig

keit

2,5

2,0

1,5

1,0

0,5

0,0

Histogramm

Abhängige Variable: Anzahl der Ortsnamen

Mittelwert =3,96E-16Std.-Abw. = 0,882

N =10

128 / 149

Page 129: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.40 Polynomiale Regressionsmodelle

Modelle zur polynomialen Regression

Ordnung Modell0. Y = b0 + ε1. Y = b0 + b1x1 + ε2. Y = b0 + b1x1 + b2x2 + ε...

...k . Y = b0 + b1x1 + b2x2 + . . .+ bkxk + ε

Beachte:

I In der Regel werden nur Modelle von niedrigem Gradverwendet (k ≤ 3)!

I Schatzung der Parmeter erfolgt mit der Methode derkleinsten Quadrate

I Konfidenzintervalle, Tests und Residuenanalyse werden wiebei der linearen bzw. multiplen Regression durchgefuhrt(Allgemeines lineares Modell)

129 / 149

Page 130: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.41 Mehrdimensionale Polynome

I Sind mehrere Pradiktorenvariable verfugbar, so konnen nebenPotenzen auch Produkte von zwei oder mehr Variablen in dieRegressionsgleichung aufgenommen werden

I Beispiele:

Y (x) = b0 + b1x1 + b2x2 + b12x1x2 + ε

Y (x) = b0 + b1x1 + b2x2 + b12x1x2 + b02x21 + b20x2

2 + ε

Y (x) = b0 + b1x1 + b2x2 + b3x3 + b120x1x2 + b103x1x3

+b023x2x3 + b123x1x2x3 + ε

130 / 149

Page 131: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

3D-Streudiagramm mit der geschatzten Funktion

−6−4

−20

24

−4

−2

0

2

4

6−60

−40

−20

0

20

40

60

80

100

X1

X2

Y

Die geschatzte Funktion ist:

y(x) = 2.23 + 3.52x1 + 5.77x2 + 3.96x1x2

.

131 / 149

Page 132: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

3D-Streudiagramm mit der geschatzten FunktionPolynomiale Terme und Produkte der Pradiktoren konnen naturlichauch gemeinsam vorkommen.

Beispiel:

y(x) = b0 + b11x1 + b12x21 + b21x2 + b23x3

2 + b11;21x1x2 + ε.

−6−4

−20

24

−4

−2

0

2

4

6−60

−40

−20

0

20

40

60

80

100

X1

X2

Y

Die angepasste Funktion hat die Form

y(x) = 1 + 2.15x1 + 6.59x21 + 1.66x2 + 3.07x3

2 + 3.76x1x2

132 / 149

Page 133: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.7 Partielle und Semipartielle Korrelation

133 / 149

Page 134: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel 2.42 (Entwicklungspsychologie)

I Im Rahmen einer Studie in der Entwicklungspsychologie soll derZusammenhang zwischen

I Abstraktionsfahigkeit (x) undI sensomotorischer Koordination (y)

untersucht werden.

I Zusatzlich wird das Alter der Kinder erhoben (z)

I Insgesamt werden 15 Kinder im Alter von 6 - 10 Jahrenuntersucht

134 / 149

Page 135: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Daten

Kind Abstraktions- sensomotor. Alterfahigkeit (x) Koord. (y) (z)

1 9 8 62 11 12 83 13 14 94 13 13 95 14 14 106 9 8 77 10 9 88 11 12 99 10 8 8

10 8 9 711 13 14 1012 7 7 613 9 10 1014 13 12 1015 14 12 9

135 / 149

Page 136: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Auswertung:

I Fur den Korrelationskoeffizient von Pearson (vgl. 2.2) erhalt manfur die Korrelation der Variablen x (Abstraktionsfahigkeit) und y(sensomotorische Koordination)

rx,y = 0.89

I Obwohl der Korrelationskoeffizient sehr hoch ist, ist es in vielenFallen sinnvoll zu untersuchen, ob dieser hohe Wert auf einenEinfluss der dritten “Variablen” (Alter) zuruckfuhrbar ist.

I In einem solchen Fall spricht man von einer “Scheinkorrelation”.D.h. rx,y ist zwar im mathematischen Sinn einen Korrelation, aberder gefundene Zusammenhang zwischen Abstraktionsfahigkeit undsensomotorischer Koordination ist (teilweise) durch eine dritteVariable erklarbar und kann nicht als kausal interpretiert werden.

I Ziel: Berechnung einer Korrelation, die von dem Einfluss derdritten Variablen Alter “bereinigt” ist =⇒ Partialkorrelation.

136 / 149

Page 137: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.32 PartialkorrelationI Modell: Daten (xi , yi , zi )i=1,...,n. Im Beispiel ist xi die

Abstraktionsfahigkeit, yi die sensomotorische Koordination und zidas Alter des i-ten Kinds

I Gesucht: Ein um den Einfluss der Variablen z “bereinigtes”Abhangigkeitsmaß zwischen den Variablen x und y

I Methode:I Berechne die (lineare) Regressionsgerade fur die Daten (x1, z1),. . .,(xn, zn):

x = a0 + a1z

(vgl. 2.11) und die Residuen

x∗i = xi − (a0 + a1zi ) i = 1, . . . , n

I Berechne die (lineare) Regressionsgerade fur die Daten (y1, z1),. . ., (yn, zn):

y = b0 + b1z

(vgl. 2.11) und die Residuen

y∗i = yi − (b0 + b1zi ) i = 1, . . . , n

137 / 149

Page 138: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

I Bestimme die Korrelation zwischen den Residuen (x∗1 , y∗1 ), . . .,

(x∗n , y∗n )

rx,y ·z = rx∗,y∗ =

∑ni=1(x∗i − x∗· )(y∗i − y∗· )√∑n

i=1(x∗i − x∗· )2∑n

i=1(y∗i − y∗· )2

I Die Großerx,y ·z

heißt Partialkorrelation, zwischen x und y aus der das Merkmalz “herauspartialisiert” wurde.

I Die Partialkorrelation ist also eine bivariate Korrelation zwischenRegressionsresiduen

138 / 149

Page 139: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.44 Bemerkung(1) Man kann zeigen dass gilt:

rx,y ·z =rx,y − rx,z ry ,z√

(1− r 2x,z)(1− r 2

y ,z)(1)

Dabei istI rx,y der Korrelationskoeffizient zwischen den Variablen x und yI rx,z der Korrelationskoeffizient zwischen den Variablen x und zI ry,z der Korrelationskoeffizient zwischen den Variablen y und z

(2) Die Partialkorrelation ist ein Maß fur den linearen Zusammenhangvon zwei Variablen x und y , aus dem der lineare Einfluss einerdritten Variablen z eliminiert wurde.Genauer: Die Partialkorrelation bemisst, inwieweit man aus denVorhersagefehlern bei der linearen Prognose von x durch z dieVorhersagefehler bei der linearen Prognose von y durch z linearvorhersagen kann - und umgekehrt.

(3) Gibt es mehr als drei Variablen, so konnen Partialkorrelationenhoherer Ordnung gebildet werden, in dem die Residuen x∗i , y

∗i

mit Hilfe des multiplen linearen Regressionsmodells (vgl.Methodenlehre II, 2.23) bestimmt werden

139 / 149

Page 140: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Beispiel (Fortsetzung von Beispiel 2.42)I Lineare Regression von x bzgl. z

x = 1.246z + 0.464

I Lineare Regression von y bzgl. z

y = 1.420z − 1.13

I Regressionsresiduen

x∗ y∗

1,06 0,610,57 1,771,32 2,351,32 1,351,07 0,93

-0,19 - 0,81- 0,43 - 1,23- 0,68 0,35- 0,43 - 2,23- 1,19 0,19

0,07 0,93-0,94 -0,39-3,92 -3,070,07 -1,072,32 0,35

140 / 149

Page 141: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

I rx,y ·z = 0.72

I Die Korrelation zwischen Abstraktionsfahigkeit und sensomotor-ischen Koordinationsleistungen der Kinder ist somit von 0.89 auf0.72 gesunken. Die Differenz ist auf das Alter der Kinder zuruck-zufuhren

I Beachte: mit den Werten

I rx,y = 0.89I rx,z = 0.77I ry,z = 0.80

kann man die Partialkorrelation rx,y ·z auch mit Hilfe der Formel(1) berechnen

141 / 149

Page 142: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Signifikanztest fur partielle Korrelationen

Ein Test zum Niveau α fur die Hypothese “die Merkmale X und Yunter Z sind unkorreliert”

H0 : ρx,y .z = 0

lehnt die Nullhypothese zu Gunsten der Alternative

H1 : ρx,y .z 6= 0

ab, falls ∣∣∣∣∣∣√

n − 3rx,y .z√1− r 2

x,y .z

∣∣∣∣∣∣ > tn−3,1−α/2

gilt. Man vergleiche diesen Test mit dem Test auf eine signifikanteKorrelation zwischen zwei Merkmalen (vgl. 2.5)

142 / 149

Page 143: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Partielle Korrelationen in SPSS

sensomotorischeKoordination

Abstraktionsfähigkeit

Korrelation

Signifikanz (zweiseitig)

Freiheitsgrade

Korrelation

Signifikanz (zweiseitig)

Freiheitsgrade

Abstraktionsfähigkeit

sensomotorischeKoordination

Alter

012

.,004

1,000,722

120

,004.

,7221,000KontrollvariablenKontrollvariablen

Korrelationen

143 / 149

Page 144: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

2.45 Semipartialkorrelationen

I Wird die dritte Variable z nur aus einer Variablen (z.B. x)herauspartialisiert, so spricht man von einer Semipartial-korrelation.

I Man berechnet die (lineare) Regressionsgerade fur die Daten(x1, z1), . . ., (xn, zn):

x = a0 + a1z

und betrachtet die Vorhersagefehler

x∗i = xi − a0 − a1zi

I Dann bestimmt man die Korrelation zwischen (x∗1 , y1), . . .,(x∗n , yn):

ry(x·z) = rx∗,y =

∑ni=1(x∗i − x∗· )(yi − y ·)√∑n

i=1(x∗i − x∗· )2∑n

i=1(yi − y ·)2

144 / 149

Page 145: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Alternative Darstellung fur die Semipartial-korrelationen

I Man kann zeigen dass gilt:

ry(x·z) =rx,y − rx,z ry ,z√

1− r 2x,z

(2)

Dabei istI rx,y der Korrelationskoeffizient zwischen den Variablen x und yI rx,z der Korrelationskoeffizient zwischen den Variablen x und zI ry,z der Korrelationskoeffizient zwischen den Variablen y und z

I Bemerkung:I Die Semipartialkorrelation bemisst, inwieweit man aus den Vor-

hersagefehlern bei der linearen Prognose von x durch z die Wertevon y linear vorhersagen kann.

I Die quadrierte Semipartialkorrelation ist der Anteil der Varianzvon y , der durch die Variable x zusatzlich zu der Variablen zerklart werden kann.

I Die Semipartialkorrelation ist immer kleiner als die Partialkorre-lation.

145 / 149

Page 146: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Berechnung der Semipartialkorrelationen inBeispiel 2.42

I Lineare Regression von x bgzl. z

x = 1.246z + 0.464

I Regressionsresiduen und Beobachtungen

x∗ y1,06 80,57 121,32 141,32 131,07 14

-0,19 8- 0,43 9- 0,68 12- 0,43 8- 1,19 9

0,07 14-0,94 7-3,92 100,07 122,32 12

146 / 149

Page 147: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

I ry(x·z) = 0.43

I Die Korrelation zwischen Abstraktionsfahigkeit und sensomotor-ischen Koordinationsleistungen der Kinder ist somit von 0.89 auf0.43 gesunken. Die Differenz ist auf das Alter der Kinder zuruck-zufuhren.

I Beachte: mit den Werten

I rx,y = 0.89I rx,z = 0.77I ry,z = 0.80

kann man die Semipartialkorrelation ry(x·z) auch mit Hilfe derFormel (2) berechnen.

147 / 149

Page 148: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Semipartialkorrelationen in SPSSI Die Semipartialkorrelationen (in SPSS heißen diese Teil-Korre-

lationen) werden (auf Wunsch) als Erganzung zu den KleinstenQuadrate-Schatzungen im multiplen linearen Regressionsmodell(vgl. 2.23) ausgegeben.

I Signifikanztest fur die Semipartialkorrelationen fehlen.

StandardfehlerRegressionskoeffizientB Beta Sig.T

StandardisierteKoeffizienten

Nicht standardisierte Koeffizienten

(Konstante)

Alter

Abstraktionsfähigkeit

1

,0043,615,671,202,730

,1461,555,289,328,510

,429-,8181,795-1,469ModellModell

Koeffizientena

a. Abhängige Variable: sensomotorische Koordination

TeilPartiellNullter

Ordnung

Korrelationen

Alter

Abstraktionsfähigkeit

1

,431,722,892

,185,410,803ModellModell

Koeffizientena

a. Abhängige Variable: sensomotorische Koordination

148 / 149

Page 149: 2. Korrelation, Linear Regression und multiple Regression · SPSS Output f ur Korrelationskoe zient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation

2. Korrelation, LinearRegression und

multiple Regression

2. Korrelation, lineareRegression undmultiple Regression

2.1 Korrelation

2.2 Lineare Regression

2.3 Multiple lineareRegression

2.4 MultikollinearitatundSuppressionseffekte

2.5 Variablenselektion

2.6 NichtlineareZusammenhange

2.7 Partielle undSemipartielleKorrelation

Bemerkung:

Ob ein Partial- oder Semipartialkorrelationskoeffizient zur Beschreib-ung eines Zusammenhangs gewahlt wird, hangt von theoretischenUberlegungen ab:

I Beeinflusst eine dritte Variable (z) “ursachlich” beide Variablen xund y Partialkorrelation

I Wird der Zusammenhang zwischen den Variablen x und y durchdie dritte Variable z “vermittelt” (z ist mit y korreliert undbeinflußt x) Semipartialkorrelation

149 / 149