470 likes | 867 Views
Forschungsmethoden der Psychologie. Tutorium 6. Informationsverarbeitungsmodelle Signal-Entdeckungstheorie (SET) Theorie der kognitiven Entwicklung von Siegler. Übersicht. Behaviorismus Neobehaviorismus z.B. SET oder Siegler. Verhalten. V1 V2 V. S. R. S. O. R. S. R.
E N D
Forschungsmethoden der Psychologie Tutorium 6
Informationsverarbeitungsmodelle Signal-Entdeckungstheorie (SET) Theorie der kognitiven Entwicklung von Siegler Übersicht
Behaviorismus Neobehaviorismus z.B. SET oder Siegler Verhalten V1 V2 V... S R S O R S R nicht unmittelbar Beobachtbar; z.B. Pawlow, Skinner Intervenierende Variablen, die durch Beobachtbare Referenzoperationen operationalisierbar sind.
Edward Tolman (1937) fing seine wissenschaftliche Karriere als Behaviourist an und wollte mit rein operational definierten Konstrukten erreichen, dass in seiner Theorie auf nicht beobachtbare Größen wie Persönlichkeitseigenschaften, Bewusstseinsinhalte, Wünsche, Einstellungen usw. verzichtet werden kann. Er hat aber den Weg für Neobehaviorismus vorbereitet und den Begrief intervenierende Variable eingeführt. Intervenierende Variable ist ein hypothetischer innerlicher Zustand, der zum Erklären von Beziehungen zwischen beobachtbaren unabhängigen und abhängigen Variablen benutzt wird. Bsp: Motivation, Intelligenz, Erwartungen… IntervenierendeVariablen
Quelle: http://www.lifecircles-inc.com/Learningtheories/behaviorism/Tolman.html S-O-R
Der erste Anstoß zu dieser Forschung – der nicht vom Radar erkannte japanische Luftangriff auf Pearl Harbor im Dezember 1941. Die SET kann bei jeder Art von Diagnostik zur Anwendung kommen; einige ihrer Anwendungsfelder sind: Medizin (u. a. Beurteilung von Röntgenbildern, Labortests usw.); Qualitätsmanagement; Gepäckkontrolle (z.B. in Flughäfen) Psychologie: wie die Menschen die Entscheidungen unter Bedingung der Ungewissheit treffen (z.B. Wahrnehmen der Distanz im Nebel; Erkennen von zuvor gelernten Wörtern; Erkennung von Signale/Geräusche) Die SET wurde von John A. Swets und David M. Green entwickelt und erstmals 1966 in ihrem Buch Signal Detection Theory and Psychophysics vorgestellt. (Signal/Geräusch Originalexperiment) Einführung in SET
Zwei Medizinstudenten sollen je 20 Röntgenaufnahmen begutachten, von denen, was sie aber nicht wissen, 10 einen Tumor zeigen. Student A möchte möglichst nichts übersehen und entscheidet sich bei 13 Aufnahmen für die Diagnose „Tumor“. Davon sind 9 richtig erkannt und 4 falsch. Student B hingegen möchte sich ganz sicher sein und entscheidet sich bei 7 Aufnahmen für „Tumor“. Davon sind 6 richtig und 1 falsch. Beide haben also die gleiche Leistung (9 – 4 = 6 – 1), nur dass Student A ein liberaleres Antwortkriterium als B hat. Beispiel 1
Beispiel 2 • Die Teilnehmer versuchen zu erkennen, ob die Wörter bekannt sind oder nicht (alt/neu). • Uns interessieren: Bekanntheitsdifferenz (d`) und Entscheidungsstrategie (ß)
Beispiel 2 • 1. Trefferquote (man sagte ‚alt‘ für ‚alte‘ Wörter) ist 40/50 oder p= .80. • Fehlalarmquote (man sagte ‚alt‘ für neue Wörter) ist 5/50 oder p= .10. • Jetzt machen wir z-transformation von p Werte (keine Panik, es gibt eine Tabelle!) • d' = z(FA) - z(T) • ß= z-Score von Fehlalarmquote
Larger absolute values of d' mean that a person is more sensitive to the difference between the Signal Present and Signal Absent distributions. d' values near zero indicate chance performance. A larger value of the Criterion ß implies that the respondent requires stronger evidence before saying that the signal is present.
How to find out the truth? Beispiel 3
Fünf Axiome SET: Struktureller Theoriekern • Jedes Wort hat einen Bekanntheitsgrad • Bekanntheitsgrade der präsentierten Wörter sind normalverteilt • Lernen einer Wörterliste erhöht den Bekanntheitsgrad dieser Wörter um den selben Betrag • Wörter werden als bekannt bezeichnet, wenn Bekanntheitsgrad den Wert ß übersteigt Fehlalarmquote = prob(Y>=ß) = 1- Ф ß Trefferquote = (prob X>=ß) = 1- Ф(ß-d`) • 5. Kriteriumswert ß ist inter- u. intraindividuell verschieden – Entscheidungsstrategie der Vpn
Modellvorstellung Kempf, 2006, S.296 Signal –Bekanntheitsgrad Strategie –Kriterium
Hat selbst keinen empirischen Gehalt(bei SET nur teilw./empir. gehaltvolle Zusatzannahmen wie Normalverteilung des Bekanntheitsgrads) Kann deshalb auch nicht an der Erfahrung scheitern Wenn eine Prognose sich als falsch erweist, wird nicht der strukturelle Theoriekern falsifiziert, sondern nur die daraus abgeleitete Hypothese SET: Struktureller Theoriekern
Lerndurchgänge erhöhen d‘, beeinflussen (Trefferquote , Fehlalarmquote bleibt gleich) Androhung von Strafpunkten für Fehlalarme führen zur Änderung der Strategie = restriktiver (Trefferquote , Fehlalarmquote ) SET: Empirische Prognosen Empirische Annahmen:
Normalverteilungsannahme erlaubt genauere empirische Prognosen, ist aber beliebig und rein technischer Natur SETNormalverteilungs-Annahme Kempf, 2006, S.298
Struktureller Theoriekern Mit Intentionalem Erklärungsmodell erklärt: Das System verfolgt das Ziel, auf eingehende Informationen (input) angemessen zu reagieren (output) Als Mittel dienen dazu bestimmte Info-Verarbeitungsstrategien Also produziert System jenen output, der aus den Strategien resultiert
Fragen Sehr gute Übungen zur SET http://wise.cgu.edu/sdtmod/index.asp
Einführung zur Sieglers Theorie der kognitiven Entwicklung Robert Siegler, * 1949
Erste Entwicklungsstufe Zuerst wissen die Kinder lediglich, dass das Verhalten der Balkenwaage etwas mit Gewichten zu tun hat. Das größere Gewicht entscheidet (Stufe 1)
Vierte Entwicklungsstufe Am Ende haben sie den richtigen Algorithmus gefunden und bewältigen auch die Konflikt-Aufgaben, indem sie das Drehmoment (=Produkt aus Gewicht x Distanz) berechnen (Stufe 4)
Struktureller Theoriekern: Erste schlussfolgerungen • Jede Entwicklungsstufe baut auf der vorhergehenden auf Empirischer Anteil: • Wechsel von einer Stufe zur nächsten ist erfahrungsbedingt(kann man im Experiment testen)
Zum Nachlesen Siegler, Robert. 1976. Three aspects of cognitive development. Cognitive psychology 8, 481-520.
Methoden der Prüfung der Theorie von Siegler • 1. Empirische Reduktion • Pragmatische Evaluation • Genetische Rekonstruktion
Empirische Reduktion Von Antwort der Person auf Entwicklungsstufe, auf der sie steht, schließen = empirische Reduktion Dazu verschiedene Aufgabentypen: • Gewichte gleich, Distanz gleich • Distanz gleich, Gewichte verschieden • Gewichte gleich, Distanz verschieden • Gewicht und Distanz gegenläufig (Konflikt) • - höheres Gewicht überwiegt Distanz.....
Scheitern der pragmatischen Evaluation • Kind mit Aufgaben konfrontieren, die an gegenwärtigen Wissensstand anknüpfen • Feedback über Verhalten der Waage Annahme: Kind will Verhalten der Waage korrekt voraussagen
Die genetische Rekonstruktion Narratives Erklärungsmodell Wechsel von Stufe 1 zu Stufe 2 t1 = 1. Stufe: nur Gewichte werden beachtet • Erfahrung, dass bei Aufgabe (D) trotz gleicher Gewichte die Waage kippt. • Suche nach Ursache • Erkennen, dass D verändert • Vermutung, dass D = Ursache • Erkennen, dass Seite mit größerer D runtergeht t2 t3 = 2. Stufe: Gewichte und Distanz werden beachtet
Die genetische Rekonstruktion Typischer Entwicklungsverlauf / kulturelle Rahmenbedingungen Wechsel von Stufe 3 zu Stufe 4 t1 = Kind auf Stufe 3 rät nur • Kind sucht nach Verrechnungsalgorhythmus um bei Konflikt-aufgaben G und D zu verrechnen • Kind vermutet, dass Produkt (GxD) t2 t3 = Kind auf Stufe 4 löst Aufgaben durch Berechnung
Die genetische Rekonstruktion Stufe 3a mit Algorhythmus G+D lässt sich aus Sieglers Theorie nicht konstruieren! Dazu neue Aufgaben von May entwickelt
Sprung bei Wechsel von Stufe 3 auf 4 Stufe 3: Verwirrung Stufe 4: korrekter Lösungsalgorithmus Sieglers Theorie der kognitiven Entwicklung Erweiterung durch May (1979) Stufe 3a: Summe aus G + D
G = Waage geht nach unten, wo höheres Gewicht ist B = Balance D = Waage geht runter, wo größere Distanz ist = richtig gelöst = falsch gelöst Kempf, 2006, S.303
G = Waage geht nach unten, wo höheres Gewicht ist B = Balance D = Waage geht runter, wo größere Distanz ist = richtig gelöst = falsch gelöst Kempf, 2006, S.303 Sagt uns nichts über die Entwicklungsstufe aus
6 verschiedene Aufgabentypen 4 Entwicklungsstufen Stufenentwicklung der Intelligenz Intelligenzsprünge Sukzessiver Wissenszuwachs Sieglers Theorie der kognitiven Entwicklung
Statistische Regelmäßigkeit des Entwicklungsverlaufs Entwicklungspsychologische Regelmäßigkeiten: = Empirische Regelmäßigkeiten Naturgesetze i. S. des D-N-Modells = statistische Regelmäßigkeiten, die sich aufgrund struktureller Gesetzmäßigkeiten aus empirischen Randbedingungen ergeben Als strukturelle Gesetzmäßigkeiten kommen 1)intentionale Erklärungsmodell, 2) die Entwicklungslogik der Informationsverarbeitungsstrategien zum Tragen. Empirische Randbedienungen sind z.B. Motivation der Probanden, kulturelle Umfeld, u.s.w.
Lösungswahrscheinlichkeit Abb. 3.6.5 Kempf, 2006, S.306 Lebensalter
Lösungswahrscheinlichkeit Abb. 3.6.8 Kempf, 2006, S.307 Lebensalter
Unterschiede zwischen SET Siegler‘s Theorie: • Erlaubt eine empirische Reduktion der Informationsverarbeitungsstrategien auf das Antwortverhalten der Vpn • Verzicht auf empirisch gehaltvolle „technische“ Zusatzannahmen • Handlungstheoretische Begründbarkeit • Empirische Reduktion • Genetische Rekonstruktion • Pragmatische Evaluation