150 likes | 305 Views
Entscheidungstheorie für Unentschlossene In decision Theory. Christian Kaernbach Institut für Allgemeine Psychologie Universität Leipzig. 0. d‘. 0. 2. e. Entscheidungstheorie Decision Theory.
E N D
Entscheidungstheorie für UnentschlosseneIndecision Theory Christian Kaernbach Institut für Allgemeine Psychologie Universität Leipzig
0 d‘ 0 2 e EntscheidungstheorieDecision Theory • Jeder Stimulus löst eine interne Repräsentation aus, die sich durch einen eindimensionalen Parameter e beschreiben läßt. • e ist Gauß-verteilt , mit Standardabweichung = 1 und Mittelwert µ = 0 (Rauschen) bzw. µ = d‘ (Signal).
0 d‘ e EntscheidungstheorieDecision Theory • Bei Ja/Nein-Aufgaben setzt die VP ein Kriterium c und sagt „Ja“ wenn e > c. • Bei Wahlaufgaben (forced choice) wählt die VP den Stimulus mit dem größten e. „Ja“ „Signal“
B AB A Wahrscheinlichkeitsrechnung • bedingte Wahrscheinlichkeit: : 100 A : 30 B : 40 AB : 24 • Wahrscheinlichkeit für Hypothesen nach Bayes:
0 d‘ d‘(e) 0 (e) e Entscheidungstheorie bei Ja/Nein-Aufgaben pcor wächst monoton mit e Kriterium in pcor Kriterium ine
0 d‘ 0 (e3) d‘(e2) 0 (e1) Entscheidungstheorie bei Wahlaufgaben am größten für emax =es am größten für emax =es e1 e3 e2 e
Wahlaufgaben ohne Entscheidungszwangunforced choice • Es war der • 1. Stimulus • 2. Stimulus • 3. Stimulus • ich weiß es nicht
0 d‘ e1 e1 e3 e3 e2 e2 e1 e3 e2 Wahlaufgaben ohne Entscheidungszwangunforced choice pcor 1/N + D
|e1 – e2|> C/d’ D |e1 – e2|> c D 0 d‘ e1 e2 Wahlaufgaben ohne Entscheidungszwangunforced choice pcor 1/N + D |e1 – e2| d’ > C D eS – eR
Anwendungsbeispiel: Adaptive Verfahren Signalstärke anpassen, um Wahrnehmungsschwelle zu finden • Ja/Nein-Aufgabensimple up-down: Ja Nein • führt zu 50% „Ja“ • kriterienabhängig • Wahl-Aufgaben, N=2,3,4...:weighted up-down(hier N=2): • führt zu 75% • kriterienfrei • Stochastik (random walk) • Raten wird erzwungen • Wahl ohne Zwang (hier N=2)unforcedweighted up-down • führt zu 75% + / 2 • Stochastik müßte reduziert werden • Komfortgewinn • Test des Verfahrens in Simulation und Experiment
Simulation des optimalen Nicht-Entscheidersin adaptiven Versuchsläufen • optimaler Nicht-Entscheider bei festem d‘: pcor > 1/N + oder (N=2): |e1–e2| > c • optimaler Nicht-Entscheider bei variablem d‘ ? optimal wäre: konstant halten. Erfordert Kenntnis von d‘. ohne Kenntnis von d‘ : c konstant halten (geht nur für N=2) N > 2: konstant halten. • je 100.000 virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw. (N 2) Messung des statistischen und systematischen Fehlers
Simulation des optimalen Nicht-Entscheidersin adaptiven Versuchsläufen • je 100.000 virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw. (N 2) Messung des statistischen und systematischen Fehlers
Experimenteller Vergleich:Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs) N=4, letzte 180 runs N=6, erste 120 runs „schlechtes“ Cluster (N=3) „gutes“ Cluster (N=3) –SUD–UWUD –WUD–WUD erste 120 runs (N=6) –3.45.5 0.030.5 letzte 180 runs (N=4) –0.32.4 0.090.3
Experimenteller Vergleich:Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs)
Fazit vor Bayes (vage): „Ich weiß nicht...“ nach Bayes (bestimmt): „Ich weiß, daß ich nichts weiß!“ (Goethe oder so)