420 likes | 559 Views
Hempel Kapitel 3: Statistische Erklärung. Kapitel 3.1: Statistische Gesetze (8) Kapitel 3.2: DS-Erklärung (3) Kapitel 3.3: IS-Erklärung (26). Statistische Gesetze 1/8. Beruhen auch auf einer Art nomologischer Aussagen (S. 55) Die elementaren statistischen Aussagen:
E N D
Hempel Kapitel 3: Statistische Erklärung Kapitel 3.1: Statistische Gesetze (8) Kapitel 3.2: DS-Erklärung (3) Kapitel 3.3: IS-Erklärung (26)
Statistische Gesetze 1/8 • Beruhen auch auf einer Art nomologischer Aussagen (S. 55) • Die elementaren statistischen Aussagen: • In Worten: Die Wahrscheinlichkeit, dass bei einem Zufallsexperiment F das Ereignis G auftritt, ist gleich r.
Statistische Gesetze 2/8 • „[S]ie stellen beide eine allgemeine Behauptung über eine Klasse von Fällen auf, die man als potentiell unendlich ansehen könnte.“ (S. 56) • „Wir könnten sagen, daß ein Gesetz der Gestalt `p(G,F)=r` sich nicht nur auf alle tatsächlichen Einzelfälle von F bezieht, sondern sozusagen auf die Klasse aller potenziellen Einzelfälle.“ (ebd.)
Statistische Gesetze 3/8 • Beispiel S. 56f: Sei F ein „Würfelwurf“ mit einem (fairen) Tetraeder mit den Augenzahlen von I bis IV. Das Ereignis G sei das Wurfergebnis III zu erhalten. Dann ist: • In Worten bedeutet das Ergebnis: „[W]enn das Tetraeder sehr oft geworfen würde, dann würde es in ungefähr einem Viertel der Fälle III als Ergebnis haben.“ (S. 57)
Statistische Gesetze 4/8 These: Wahrscheinlichkeitsaussagen sind als Dispositionen aufzufassen. • „Die Wahrscheinlichkeitsaussage schreibt dem Tetraeder (…) nicht die Häufigkeit zu, mit der das Ergebnis III bei tatsächlich durchgeführten, vergangenen oder zukünftigen Würfen auftritt, sondern eine gewisse Disposition, nämlich die Disposition, beim `Würfeln` das Ergebnis III auf lange Sicht in ungefähr einem von vier Fällen zu liefern.“ (S. 57, erste H. von ihm, zweite und dritte von mir)
Statistische Gesetze 5/8 Argument: • „Denn wir könnten unsere Hypothese selbst dann aufrechterhalten, wenn uns berichtet würde, daß das Tetraeder in Wirklichkeit während seiner Existenz nur ein paar Mal geworfen würde, und in diesem Fall dürfte man unsere Wahrscheinlichkeitsaussage sicher nicht als Behauptung interpretieren, daßgenau oder auch nur ungefähr 1/4 dieser Würfe das Ergebnis III liefern würden. Und selbst wenn das vorliegende Tetraeder zerstört werden sollte, bevor es auch nur ein einziges Mal geworfen wurde, wäre unsere Aussage durchaus sinnvoll und könnte sogar gut bestätigt sein.“ (S. 57, H. von mir)
Statistische Gesetze 6/8 • Gegenthese S. 57f: Auch streng universelle Gesetzesaussagen wie beruhen auch nur auf einer notwendig endlichen Evidenzmenge. Dementsprechend können später Ausnahmen entdeckt werden, die dem universellen Charakter solcher Gesetze widersprechen, welche somit auch nur noch als statistische gelten können.
Statistische Gesetze 7/8 • Gegenargument S. 58: Es ist sehr wichtig, zwischen der Behauptung eines Gesetzes und dessen Stützung zu unterscheiden. „Die Unterscheidung zwischen streng universellen und probabilistischen Gesetzesaussagen betrifft jedoch nicht die Bestätigung der fraglichen Aussagen, sondern die durch sie aufgestellten Behauptungen: die ersteren schreiben, grob gesprochen, jedem Element einer vorliegenden Menge (…) ein gewisses Merkmal zu; die letzteren nur einem genau angegebenen Teil.“ (H. von ihm)
Statistische Gesetze 8/8 • Wichtig zu betonen ist dabei, dass selbst eine Aussage wie nicht mit einer entsprechenden universellen Konditionalaussage logisch äquivalent ist. (vgl. S. 58) • Def.: statistische Erklärung: „Unter einer statistischen Erklärung wollen wir nun eine Erklärung verstehen, die mindestens ein Gesetz oder theoretisches Prinzip statistischer Form wesentlich benützt.“ (S. 59, erste H. von ihm, zweite von mir)
Fragen? Nachdem wir hinreichend geklärt haben, was unter statistischen Gesetzen zu verstehen ist, ist es Zeit, sich denjenigen Erklärungen zu widmen, die auf eben diese Art von Gesetzen zurückgreifen.
D-S-Erklärung 1/3 • Diejenige Erklärung, die Hempel die deduktiv-statistische Erklärung nennen möchte, „läuft im Prinzip auf die deduktive Subsumption einer engeren statistischen Gesetzmäßigkeit unter umfassendere hinaus“. (S. 59) • „Sie enthalten die Ableitung einer statistischen Gesetzesaussage aus einem Explanans, in dem mindestens ein Gesetz statistischer Art als unentbehrliche Prämisse auftritt.“ (S. 60)
D-S-Erklärung 2/3 • „Die Ableitung wird durch die mathematische Theorie der statistischen Wahrscheinlichkeit bewerkstelligt, die es ermöglicht, gewisse abgeleitete Wahrscheinlichkeiten (auf die im Explanandum Bezug genommen wird) aus anderen Wahrscheinlichkeiten (die im Explanans angegeben werden) zu berechnen“. (S. 60) • Der wichtige Punkt ist, dass im Explanans und im Explanandum Wahrscheinlichkeiten angegeben werden.
D-S-Erklärung 3/3 • Bsp. S. 59: M sei das Zufallsexperiment Münzwurf mit einer fairen Münze, die „Wappen“ und „Zahl“ zeigen kann. Z sei das Wurfergebnis „Zahl“. P1: P2: Verschiedene Würfe sind statistisch unabhängig K: Beim nächsten Wurf zeigt die Münze mit einer Wahrscheinlichkeit von 0,5 (= ½ = 50%) Zahl.
Fragen? Wir haben uns nun ausreichend mit der D-S-Erklärung beschäftigt. Wir stellen uns nun die Frage, warum überhaupt noch weitere Erklärungen nötig sind. Diese weiter Form der Erklärung werden wir dann genauer erläutern.
Erinnerung an letzte Woche 1/2 Im Zusammenhang der strukturellen Identität von Vorhersage und Erklärung kam der Einwand von Scriven, dass die Erkrankung an Parese alleine durch die Tatsache erklärt werden konnte, dass die Person zuvor an Syphilis erkrankte. Als Vorhersage dient diese Tatsache aber nicht, weil die Wahrscheinlichkeit, dass jemand, der an Syphilis erkrankte auch an Parese erkranken wird, zu gering ist. Was war das Gegenargument von Hempel?
Erinnerung an letzte Woche 2/2 „Aber gerade weil Parese eine so seltene Folgeerscheinung von Syphilis ist, kann eine frühere syphilitische Ansteckung alleine sicher keine adäquate Erklärung für die Parese liefern.“ (S. 46, H. von mir) Der Grund, warum Scrivens „Erklärung“ nicht von Hempel akzeptiert wird, scheint (u.a.) mit der Wahrscheinlichkeit zusammenzuhängen, mit der Parese auf Syphilis folgt.
Warum I-S-Erklärung? 1/2 D-S-Erklärung I-S-Erklärung (?) Wir versuchen nun nach und nach den Unterschied zwischen diesen beiden Formen der Erklärung zu entwickeln. Wir werden an entsprechender Stelle auf dieses Beispiel zurückkommen. P1: P2: Herr A ist an Syphilis erkrankt. K: Die Wahrscheinlichkeit, dass Herr A an Parese erkrankt, beträgt 1%.
Warum I-S-Erklärung? 2/2 • Bei I-S-Erklärungen geht es um die Erklärung von Einzelereignissen unter Verwendung statistischer Gesetze. • In diesem Sinne unterscheidet sie sich zum einen von nomologischen Erklärungen, die zwar auch Einzelfälle erklären sollen, nicht aber auf statistische Gesetze zurückgreifen, sondern auf Gesetze der Form universeller Konditionalaussagen, und zum anderen von deduktiv-statistischen Erklärungen, die im Explanandum keine Einzelereignisse, sondern Wahrscheinlichkeiten von diesen Einzelereignissen beinhalten.
I-S-Erklärung 1/17 • Das Explanans „impliziert (…) den Explanandum-Satz (…) offensichtlich nicht mit deduktiver Gewißheit, sondern nur, wie wir sagen könnten, mit annähernder Gewißheit, oder mit hoher Wahrscheinlichkeit.“ (S. 61, H. von mir) • Das Explanandum folgt nicht logisch aus dem Explanans. Das bedeutet: Auch wenn die Prämissen alle wahr sind, kann die Konklusion falsch sein. Bei der I-S-Erklärung scheint die „annähernde Gewißheit“ entscheidend. Doch was bedeutet das?
I-S-Erklärung 2/17 • (3a) S. 61 • (3b) ebd.: P1: P2: K:
I-S-Erklärung 3/17 • Problem von (3b) S. 61f: Was ist die Wahrheitsbedingung der Konklusion? Ein solcher Satz hat keinen objektiven Wahrmacher, bzw. muss relativ zu einer gegeben Evidenzmenge gesehen werden. Alleine ist ein solcher Satz also weder wahr noch falsch.
I-S-Erklärung 4/17 • (3c) S. 62: ist relativ zum Explanans, das die Sätze und enthält, praktisch sicher. Dieser Ansatz entgeht der Schwierigkeit, dass die Konklusion weder wahr noch falsch ist, was die Formalisierung (3d) verdeutlicht:
I-S-Erklärung 5/17 • (3d) S. 63: P1: P2: K: Hierbei handelt es sich dann nicht um eine deduktive (logische) Folgerung, sondern um eine induktive Stützung. (vgl. S. 63)
I-S-Erklärung 6/17 • Die Ausdrücke wie „macht praktisch sicher“ bezeichnet hier also keine Eigenschaft von Sätzen, sondern beschreiben die Beziehungzwischen solcher Sätze. Der eine Satz macht den anderen also praktisch sicher. (vgl. S. 64) • Die Evidenzmenge (in diesem Fall die beiden Prämissen P1 und P2) soll als bezeichnet werden. Die Aussage, die durch gestützt wird, wird mit gekennzeichnet. (vgl. ebd.)
I-S-Erklärung 7/17 • Carnap entwickelt mithilfe beider Variablen und eine Funktion , die angibt, wie stark eine Aussage durch ihre Evidenz gestützt wird. Der so errechnete Zahlenwert, der im Intervall liegt, wird „die logische oder induktive Wahrscheinlichkeit von aufgrund von genannt“ (S. 65, H. von ihm) oder auch der Grad „induktiver Stützung“ (ebd.). • Vorsicht: induktive und statistische Wahrscheinlichkeit auseinander halten!
I-S-Erklärung 8/17 „Erklärungen spezieller Tatsachen oder Ereignisse mittels statistisch-probabilistischer Gesetze erweisen sich also als Argumente, die in dem Sinne induktiv oder probabilistisch sind, daß das Explanans dem Explanandum einen mehr oder weniger hohen Grad induktiver Stützung (…) verleiht“. (S. 66, erste H. von ihm, zweite von mir)
I-S-Erklärung 9/17 Aus dem folgenden Abschnitt (S. 66f) sind zwei Begriffe herauszunehmen und gesondert zu betrachten. Dies ist zum einen der Begriff der Menge und zum anderen der des Zufallsexperiment. Mit diesen Überlegungen will Hempel zeigen, „daß die hier für die statistische Erklärung spezieller Tatsachen vorgeschlagene induktive Auffassung auch durch die empirische Interpretation gefordert wird“. (S. 66, H. von mir)
Exkurs: Zufallsexperiment 1/2 • „Grob gesprochen ist ein Zufallsexperiment eine Art von Prozeß oder Ereignis, das durch den Menschen oder durch die Natur unbegrenzt oft wiederholt werden kann und das jedesmal eines aus einer bestimmten Menge von „möglichen Ergebnissen“ in solcher Weise liefert, daß die Ergebnisse zwar von Fall zu Fall auf unregelmäßige und unvorhersehbare Weise variieren, die relativen Häufigkeiten der einzelnen Ergebnisse jedoch allmählich nahezu konstant werden, wenn die Anzahl der Durchführungen des Zufallsexperiments wächst.“ (S.66, H. von mir)
Exkurs: Zufallsexperiment 2/2 • „Die mathematische Theorie der statistischen Wahrscheinlichkeit soll eine theoretische Darstellung der statistischen Aspekte von wiederholbaren Prozessen einer gewissen Art liefern, die (…) Zufallsexperimente genannt werden.“ (S. 66)
Exkurs: Menge 1/1 Sei die Menge sämtlicher Durchführungen des Zufallsexperiments. Sei die Menge jener Durchführungen des Zufallsexperiments, die das fragliche Ergebnis liefern. Dann ist „[d]ie Wahrscheinlichkeit dafür, als Resultat einer Durchführung des Experiments ein Ergebnis der Art zu erhalten (…) ein Maß (…) der Größe der Menge im Verhältnis zur Menge “ (S. 67)
I-S-Erklärung 10/17 • Hempel gibt mit Hilfe von Cramér eine Definition für die „Häufigkeitsinterpretation statistischer Wahrscheinlichkeit“ (S. 67) • (3e) ebd: „Sei ein beliebiges Zufallsexperiment mit als einem möglichen Ergebnis; dann besagt die Aussage , daß es bei einer langen Reihe von Wiederholungen von praktisch sicher ist, daß die relative Häufigkeit des Ereignisses angenähertgleich ist.“ (H. von mir)
I-S-Erklärung 11/17 • Diese vage Definition setzt also die relative Häufigkeit mit der statistischen Wahrscheinlichkeit in Beziehung. • Doch gerade weil die I-S-Erklärung konkrete Ereignisse erklären will, ist es wichtig, sich anzuschauen, was diese Definition implizit über ein einzelnes Ereignis sagt.
I-S-Erklärung 12/17 • (3e.1) S. 68 (mit Hinblick auf 3c bzw. 3d): „Wenn ist, wobei eine sehr kleine positive Zahl ist, dann ist es praktisch sicher, daß das Ereignis auftritt, wenn das Zufallsexperiment ein einziges Mal durchgeführt wird.“ (H. von mir) • (3e.2) analog für den Fall des Nicht-Eintretens von
I-S-Erklärung 13/17 • Einfaches Beispiel einer I-S-Erklärung (S. 70): sei das Ziehen einer von 999 weiße und einer schwarzen „gleichen“ Kugeln aus einer Urne. Das Ergebnis, eine weiße Kugel zu ziehen, sei mit bezeichnet. Es gelte Dann nach (3e.1) bzw. (3d):
I-S-Erklärung 14/17 • (3f) S. 70: P1: P2: K: Schauen wir uns nun genauer den Grad der induktiven Stützung an.
I-S-Erklärung 15/17 • (3g) S. 71: „Wenn die Aussage und die Aussage ist, dann ist .“ (S. 71) • In diesem Fall kann also der Wert der induktiven Wahrscheinlichkeit mit dem der statistischen gleichgesetzt werden!
I-S-Erklärung 16/17 • (3h) S. 71: P1: P2: K: • „Ich werde auch die der Erklärung zugeordnete Wahrscheinlichkeit nennen“ (ebd., H. von ihm)
I-S-Erklärung 17/17 • Problem: Ab wann gilt als für eine Erklärung hinreichend groß? Oder anders: Ab welcher Ausprägung von kann man von einer Erklärung sprechen?
Einwände 1/4 • Einwand S. 72: Die I-S-Erklärung kann keine Vorhersagen eines konkreten Ereignisses machen. So kann sie bei einem Münzwurf nicht vorhersagen, ob das Ergebnis Kopf oder Wappen zeigt.
Einwände 2/4 • Gegenargumentation S. 72: Dass wir das Ergebnis eines Münzwurfs nicht vorhersagen können, liegt am zu schwach ausgeprägten . In diesem Fall handelt es sich noch nicht einmal um eine Erklärung. I-S-Erklärungen benötige eine Ausprägung von , die nahe 1 ist.
Einwände 3/4 • Einwand S. 72f: Selbst bei hoher induktiver Stützung des Explanandums kann es passieren, dass das Explanandum nicht eintrifft, obwohl die im Explanans erwähnten Bedingungen zutrafen. Akzeptiert man diese Verträglichkeit, kann man nicht mehr von einer Erklärung sprechen.
Einwände 4/4 • Gegenargumentation S. 73ff: Eben diese Verträglichkeit macht das Wesen der I-S-Erklärung aus. Man kann zwar nicht mehr von einer Erklärung im deterministischen Sinne sprechen, jedoch empfiehlt es sich einen „statistisch-probabilistischen Weil-Begriff“ (S. 75) einzuführen, der diesen Umstand berücksichtigt.