330 likes | 461 Views
Methoden der Politikwissenschaft II Weitere Zusammenhangsmaße Siegfried Schumann. Phi-Koeffizient: Alternative Berechnungsart. a d – b c √ ( a + b ) ( c + d ) ( a + c ) ( b + d ). a d – b c √ ( 35 + 15 ) ( 25 + 25 ) ( 35 + 25 ) ( 15 + 25 ). = 0.204124.
E N D
Methoden der Politikwissenschaft IIWeitere ZusammenhangsmaßeSiegfried Schumann
Phi-Koeffizient: Alternative Berechnungsart ad – bc √ (a+b) (c+d) (a+c) (b+d) ad – bc √ (35+15) (25+25) (35+25) (15+25) = 0.204124 (nach Clauß u.a. 1994: 82-83; 294-295)
Phi-Koeffizient: Bekannte Berechnungsart (Aufgabe) Σ= 4.16;Φ = √ 4.16 / 100 =0.204124
Beispiele für Werte 1, -1 und 0: „expected“ aus vorherigem Beispiel!
Phi-Koeffizient: Signifikanzprüfung (Beispiel) • Voraussetzung: Erwartete absolute Häufigkeiten in der Indifferenztabelle > 5 • Hypothesen: H0: ρxy = 0 H1: ρxy ≠ 0 • Signifikanzniveau festlegen: α = 0.01 • Prüfgröße: χ2 = • Berechnung: χ2 = = 4.17 • Kritischer Wert χ2(α=0.01; df=1) = ? N ·(ad – bc)2 (a+b) (c+d) (a+c) (b+d) 100 · (35 · 25 – 15 · 25)2 50 · 50 · 60 · 40
Chi-Quadrat-Verteilungen 99 % krit. Wert 1 % aus: Bortz 2005: 80
Kritische Werte der Chi-Quadrat-Verteilung Zusatzbeispiel Kritischer (Chi-Quadrat-) Wert Empirischer Chi-Quadrat Wert (Prüfgröße) Im Beispiel: 4.17 Bei: α = 0.01 4.17<6.64 → nicht signifikant
Kontingenzkoeffizient: Berechnung χ2 = 2.036 df.: 6 = 0.22 (nach Clauß u.a. 1994: 85-87; 295-297)
Kontingenzkoeffizient: Signifikanzprüfung • Voraussetzung: Erwartete absolute Häufigkeiten in der Indifferenztabelle > 5 • Hypothesen: H0: ρxy = 0 H1: ρxy ≠ 0 • Signifikanzniveau festlegen: α = 0.01 • Prüfgröße: χ2 = 2.036 • Kritischer Wert χ2(α=0.01; df=6) = 16.8 • 2.036<16.8; → nicht signifikant Kritischer (Chi-Quadrat-) Wert
Korrelationsanalyse Interpretation des Korrelationskoeffizienten rxy • direkt interpretierbare Werte: +1, 0, -1 • Regressionskoeffizient bei z-standardisierten Werten • geometrische Interpretation • geometrisches Mittel zweier „zusammengehöriger“ Regressionskoeffizienten • Wurzel aus „Bestimmtheitsmaß“ plus Vorzeichen des Regressionskoeffizienten • Quadrat: Gemeinsame Varianz der beiden Variablen
Geometrische Interpretation (1) aus: Krämer 1994: 135
Geometrische Interpretation (2) aus: Krämer 1994: 138
Geometrische Interpretation (3) aus: Krämer 1994: 140
Signifikanzprüfung für H0: ρxy = 0 (Beispiel) • Voraussetzungen: metrische Daten mit (annähernd) Normalverteilung; n ≥ 10 • Hypothesen i.d.R.: H0: ρxy = 0 (Abweichung: s. Seite 300 Mitte, 301 unten - 302 oben, 364, 441) H1: ρxy ≠ 0 • Signifikanzniveau festlegen: α = 0.01 • Prüfgröße: r hier: r = 0.713(Korrelationskoeffizient) • Freiheitsgrade (df.) ermitteln: N – 2 hier: 10 – 2 = 8 • Zufallshöchstwert (kritischen Wert) r(α; N-2) ermitteln: Zufallshöchstwert von r für α = 0.01:bei df. = 5: 0.87 bei df. = 10: 0.71 bei df. = 8:0.774 (Interpolation; Tafel 8, S. 381) • 0.713 < 0.774; → nicht signifikant (nach Clauß u.a. 1994: 299-301; 381)
Zufallshöchstwert von r + lineare Interpolation Tabellenwert für df = 8 ? 3/5 der Differenz 2/5 der Differenz df = 5df = 8df = 10 0.87?0.71 Differenz: 0.16 2/5 ∙ 0.16 = 0.064 0.71 + 0.064 = 0.774 ! Tafel 8 aus Clauß u.a. 1994: 381
Signifikanzprüfung für H0: ρxy≠ 0(Beispiel) • Voraussetzungen: metrische Daten mit (annähernd) Normalverteilung; n ≥ 10 • Hypothese z.B.: H0: ρxy = 0.9500 H1: ρxy ≠ 0.9500 • Signifikanzniveau festlegen: α = 0.05 • Fisher´sche z-Transformation für Korrelationskoeffizienten empirisch auftretender Koeffizient: r = 0.9882 → z = 2.5634 Koeffizient gemäß H0: ρxy= 0.9500 → z0 = 1.8318 (Werte grob aus Tafel 24 auf S. 441 ablesbar) • t-verteilte Prüfgröße: hier: 1.9356(bei n = 10) • Wenn Prüfgröße ≥ t(α; N-2), dann ist H0 abzulehnen. • Freiheitsgrade (df.): N – 2 (hier: 10 – 2 = 8) • t(0.05; 8) = 2.31(t-Verteilung aus Tabelle 4, S. 364) • 1.9356 < 2.31; → nicht signifikant (aus: Bleymüller u.a. 1992: 63) (nach Clauß u.a. 1994: 300 Mitte, 301 unten – 302 oben, 364, 441)
Tabelle zur Umrechnung: r → z z-Wert für r = 0.95 ? z-Wert für r = 0.94983: 1.83 z-Wert für r = 0.95080: 1.84 Differenz der z-Werte: 1.84 – 1.83 = 0.01 Differenz der r-Werte aus der Tabelle: 0.95080 -0.94983 = 0.00097 Differenz der r-Werte „0.95“ und „0.94983: 0.95000 -0.94983 = 0.00017 1.83 + (0.00017 / 0.00097∙0.01) = 1.83175 Tafel 24 aus Clauß u.a. 1994: 441
Wdh: Signifikanzprüfung für H0: ρxy≠ 0(Beispiel) • Voraussetzungen: metrische Daten mit (annähernd) Normalverteilung; n ≥ 10 • Hypothese z.B.: H0: ρxy = 0.9500 H1: ρxy ≠ 0.9500 • Signifikanzniveau festlegen: α = 0.05 • Fisher´sche z-Transformation für Korrelationskoeffizienten empirisch auftretender Koeffizient: r = 0.9882 → z = 2.5634 Koeffizient gemäß H0: ρxy= 0.9500 → z0 = 1.8318 (Werte grob aus Tafel 24 auf S. 441 ablesbar) • t-verteilte Prüfgröße: hier: 1.9356(bei n = 10) • Wenn Prüfgröße ≥ t(α; N-2), dann ist H0 abzulehnen. • Freiheitsgrade (df.): N – 2 (hier: 10 – 2 = 8) • t(0.05; 8) = 2.31(t-Verteilung aus Tabelle 4, S. 364) • 1.9356 < 2.31; → nicht signifikant (aus: Bleymüller u.a. 1992: 63) (nach Clauß u.a. 1994: 300 Mitte, 301 unten – 302 oben, 364, 441)
Kritische Werte der t-Verteilung → SNV Tafel 4 aus: Clauß u.a. 1994: 364-365
Sonderfälle beim Kontingenzkoeffizienten • Punktbiserialer Koeffizient rpbis (Zweizeilenkoeffizient) • Variable X alternativ (dichotom) • Variable Y metrisch + normalverteilt • Beispiel: Körpergrößen in cm • falls Variable X ebenfalls normalverteilt: biserialer Koeffizient rbis (→ Lieraturverweis!) f1 / f2: relative Häufigkeiten! (84 / 170 bzw. 86 / 170) AM Männer: 174.2 cm AM Frauen: 165.1 cm AM insgesamt: 169.6 cm SD aller Werte: 9.09 cm rpbis = 0.50 nach Clauß u.a. 1994: 87/88
Rangkorrelationskoeffizient R (Spearman) • Daten: zwei Rangreihen ohne Bindungen • Beispiel: Rainer Horst Klaus Mario Peter Tilo Σ Leistung 1 2 3 4 5 6 21 Sympathie 2 3 1 4 6 5 21 di (absolut) 1 1 2 0 1 1 di2 1 1 4 0 1 1 8 • Interpretation der Werte: +1: zwei identische Rangreihen -1: zwei gegenläufige Rangreihen Vorzeichen: zeigt die Richtung des Zusammenhangs • Vorteil: leicht zu berechnen • Nachteil: Zwischen den Rangplätzen werden gleiche Abstände unterstellt (aus r ableitbar!) Abhilfe: Rangkorrelationskoeffizient τ (Tau) berechnen (aber: aufwendiger) später!
Signifikanzprüfung für R (Beispiel), Rkorr oder Rg • Voraussetzungen: ordinale Daten; n ≥ 6 • Hypothesen: H0: ρxy = 0 H1: ρxy ≠ 0 • Signifikanzniveau festlegen: hier: α = 0.01 • Prüfgröße: Rangkorrelationskoeffizient (R, Rkorr oder Rg) hier: R = 0.77 • Für N ≤ 30: Wenn ≥ R(α; N) (lt. Tafel 18), dann ist H0 abzulehnen. Für N > 30: Wenn ≥ r(α; N-2) (lt. Tafel 8), dann ist H0 abzulehnen. • Im Beispiel: n = 6 R(0.01; 6) = 1.00 (nach Tafel 18) < 1.00; → nicht signifikant siehe oben! (nach Clauß u.a. 1994: 88-89, 297-298, 381, 435)
Kritische Werte Rα;N für den Rangkorr.koeffizienten R(0.01; 6) = 1.00 Tafel 18 aus Clauß u.a. 1994: 435
Rangkorrelationskoeffizient Tau (Kendall) - Beispiel • Vier Objekte (O) werden von 2 Gutachtern (A und B) beurteilt (Rangfolge) O1 O2 O3 O4 Rangfolge von Gutachter A: 3 4 2 1 Rangfolge von Gutachter B: 3 1 4 2 • Bestimmung von Konkordanzen (Wert: „1“) und Diskordanzen (Wert: -1): O1-O2: -1; O1-O3: -1; O1-O4: +1; O2-O3: -1; O2-O4: -1; O3-O4: +1 Summe der Diskordanzen (Vertauschungen): nd = 4 • Kendall-Summe: Maximum bei nd = 0, d.h. • Normierung, um Werte zwischen „-1“ und „+1“ zu erhalten: • Im Beispiel: Achtung: Keine Bindungen! nur monotoner Zusammenhangsanteil! n = Anzahl d. Beobachtungspaare; hier: 4 Anzahl der Paarvergleiche (nach Hochstädter 1991: 158-161)
Eta → Varianzanalyse Beispiel: Sympathie für den Papst x Konfession andere Konfesions- Katholiken Protestanten Konfessionen lose
λ-Maßzahlen für den Zusammenhang zwischen zwei diskreten Variablen
Beispiel zur Konstruktion von λ-Maßzahlen Empirischer Chi-Quadrat-Wert: 727.1
Berechnung der λ-Maßzahlen ZI = Zusatzinformation
Berechnung der λ-Maßzahlen ZI = Zusatzinformation N = 10509
Drittvariablenkontrolle durch Partialkorrelation Formale Bildung (höchster allgemeinbildender Schulabschluß) Autoritarismus Extrem rechte Einstellungen Residuum Residuum Partialkorrelation Regressionen
Vielen Dank für Ihre Aufmerksamkeit!