Author
nikolas-kranz
View
224
Download
4
Embed Size (px)
Hempel
Hempel Kapitel 3: Statistische Erklrung
Kapitel 3.1: Statistische Gesetze (8)Kapitel 3.2: DS-Erklrung (3)Kapitel 3.3: IS-Erklrung (26)Statistische Gesetze 1/8Beruhen auch auf einer Art nomologischer Aussagen (S. 55)Die elementaren statistischen Aussagen:
In Worten: Die Wahrscheinlichkeit, dass bei einem Zufallsexperiment F das Ereignis G auftritt, ist gleich r.
Statistische Gesetze 2/8[S]ie stellen beide eine allgemeine Behauptung ber eine Klasse von Fllen auf, die man als potentiell unendlich ansehen knnte. (S. 56)Wir knnten sagen, da ein Gesetz der Gestalt `p(G,F)=r` sich nicht nur auf alle tatschlichen Einzelflle von F bezieht, sondern sozusagen auf die Klasse aller potenziellen Einzelflle. (ebd.)Statistische Gesetze 3/8Beispiel S. 56f:Sei F ein Wrfelwurf mit einem (fairen) Tetraeder mit den Augenzahlen von I bis IV. Das Ereignis G sei das Wurfergebnis III zu erhalten. Dann ist:In Worten bedeutet das Ergebnis: [W]enn das Tetraeder sehr oft geworfen wrde, dann wrde es in ungefhr einem Viertel der Flle III als Ergebnis haben. (S. 57)
Statistische Gesetze 4/8These: Wahrscheinlichkeitsaussagen sind als Dispositionen aufzufassen.Die Wahrscheinlichkeitsaussage schreibt dem Tetraeder () nicht die Hufigkeit zu, mit der das Ergebnis III bei tatschlich durchgefhrten, vergangenen oder zuknftigen Wrfen auftritt, sondern eine gewisse Disposition, nmlich die Disposition, beim `Wrfeln` das Ergebnis III auf lange Sicht in ungefhr einem von vier Fllen zu liefern. (S. 57, erste H. von ihm, zweite und dritte von mir)Statistische Gesetze 5/8Argument:Denn wir knnten unsere Hypothese selbst dann aufrechterhalten, wenn uns berichtet wrde, da das Tetraeder in Wirklichkeit whrend seiner Existenz nur ein paar Mal geworfen wrde, und in diesem Fall drfte man unsere Wahrscheinlichkeitsaussage sicher nicht als Behauptung interpretieren, da genau oder auch nur ungefhr 1/4 dieser Wrfe das Ergebnis III liefern wrden. Und selbst wenn das vorliegende Tetraeder zerstrt werden sollte, bevor es auch nur ein einziges Mal geworfen wurde, wre unsere Aussage durchaus sinnvoll und knnte sogar gut besttigt sein. (S. 57, H. von mir)Statistische Gesetze 6/8Gegenthese S. 57f:Auch streng universelle Gesetzesaussagen wie beruhen auch nur auf einer notwendig endlichen Evidenzmenge. Dementsprechend knnen spter Ausnahmen entdeckt werden, die dem universellen Charakter solcher Gesetze widersprechen, welche somit auch nur noch als statistische gelten knnen.
Statistische Gesetze 7/8Gegenargument S. 58:Es ist sehr wichtig, zwischen der Behauptung eines Gesetzes und dessen Sttzung zu unterscheiden. Die Unterscheidung zwischen streng universellen und probabilistischen Gesetzesaussagen betrifft jedoch nicht die Besttigung der fraglichen Aussagen, sondern die durch sie aufgestellten Behauptungen: die ersteren schreiben, grob gesprochen, jedem Element einer vorliegenden Menge () ein gewisses Merkmal zu; die letzteren nur einem genau angegebenen Teil. (H. von ihm)Statistische Gesetze 8/8Wichtig zu betonen ist dabei, dass selbst eine Aussage wie nicht mit einer entsprechenden universellen Konditionalaussage logisch quivalent ist. (vgl. S. 58)Def.: statistische Erklrung: Unter einer statistischen Erklrung wollen wir nun eine Erklrung verstehen, die mindestens ein Gesetz oder theoretisches Prinzip statistischer Form wesentlich bentzt. (S. 59, erste H. von ihm, zweite von mir)
Fragen?Nachdem wir hinreichend geklrt haben, was unter statistischen Gesetzen zu verstehen ist, ist es Zeit, sich denjenigen Erklrungen zu widmen, die auf eben diese Art von Gesetzen zurckgreifen. D-S-Erklrung 1/3Diejenige Erklrung, die Hempel die deduktiv-statistische Erklrung nennen mchte, luft im Prinzip auf die deduktive Subsumption einer engeren statistischen Gesetzmigkeit unter umfassendere hinaus. (S. 59)Sie enthalten die Ableitung einer statistischen Gesetzesaussage aus einem Explanans, in dem mindestens ein Gesetz statistischer Art als unentbehrliche Prmisse auftritt. (S. 60) D-S-Erklrung 2/3Die Ableitung wird durch die mathematische Theorie der statistischen Wahrscheinlichkeit bewerkstelligt, die es ermglicht, gewisse abgeleitete Wahrscheinlichkeiten (auf die im Explanandum Bezug genommen wird) aus anderen Wahrscheinlichkeiten (die im Explanans angegeben werden) zu berechnen. (S. 60)Der wichtige Punkt ist, dass im Explanans und im Explanandum Wahrscheinlichkeiten angegeben werden.D-S-Erklrung 3/3Bsp. S. 59:M sei das Zufallsexperiment Mnzwurf mit einer fairen Mnze, die Wappen und Zahl zeigen kann. Z sei das Wurfergebnis Zahl. P1: P2: Verschiedene Wrfe sind statistisch unabhngig
K: Beim nchsten Wurf zeigt die Mnze mit einer Wahrscheinlichkeit von 0,5 (= = 50%) Zahl.
Fragen?Wir haben uns nun ausreichend mit der D-S-Erklrung beschftigt. Wir stellen uns nun die Frage, warum berhaupt noch weitere Erklrungen ntig sind. Diese weiter Form der Erklrung werden wir dann genauer erlutern.Erinnerung an letzte Woche 1/2Im Zusammenhang der strukturellen Identitt von Vorhersage und Erklrung kam der Einwand von Scriven, dass die Erkrankung an Parese alleine durch die Tatsache erklrt werden konnte, dass die Person zuvor an Syphilis erkrankte. Als Vorhersage dient diese Tatsache aber nicht, weil die Wahrscheinlichkeit, dass jemand, der an Syphilis erkrankte auch an Parese erkranken wird, zu gering ist. Was war das Gegenargument von Hempel?Erinnerung an letzte Woche 2/2Aber gerade weil Parese eine so seltene Folgeerscheinung von Syphilis ist, kann eine frhere syphilitische Ansteckung alleine sicher keine adquate Erklrung fr die Parese liefern. (S. 46, H. von mir)Der Grund, warum Scrivens Erklrung nicht von Hempel akzeptiert wird, scheint (u.a.) mit der Wahrscheinlichkeit zusammenzuhngen, mit der Parese auf Syphilis folgt.Warum I-S-Erklrung? 1/2D-S-ErklrungP1: P2: Herr A ist an Syphilis erkrankt.K: Die Wahrscheinlichkeit, dass Herr A an Parese erkrankt, betrgt 1%. I-S-Erklrung (?)Wir versuchen nun nach und nach den Unterschied zwischen diesen beiden Formen der Erklrung zu entwickeln. Wir werden an entsprechender Stelle auf dieses Beispiel zurckkommen.
Warum I-S-Erklrung? 2/2Bei I-S-Erklrungen geht es um die Erklrung von Einzelereignissen unter Verwendung statistischer Gesetze. In diesem Sinne unterscheidet sie sich zum einen von nomologischen Erklrungen, die zwar auch Einzelflle erklren sollen, nicht aber auf statistische Gesetze zurckgreifen, sondern auf Gesetze der Form universeller Konditionalaussagen, und zum anderen von deduktiv-statistischen Erklrungen, die im Explanandum keine Einzelereignisse, sondern Wahrscheinlichkeiten von diesen Einzelereignissen beinhalten.I-S-Erklrung 1/17Das Explanans impliziert () den Explanandum-Satz () offensichtlich nicht mit deduktiver Gewiheit, sondern nur, wie wir sagen knnten, mit annhernder Gewiheit, oder mit hoher Wahrscheinlichkeit. (S. 61, H. von mir) Das Explanandum folgt nicht logisch aus dem Explanans. Das bedeutet: Auch wenn die Prmissen alle wahr sind, kann die Konklusion falsch sein. Bei der I-S-Erklrung scheint die annhernde Gewiheit entscheidend. Doch was bedeutet das?I-S-Erklrung 2/17(3a) S. 61(3b) ebd.:P1: P2: K:
I-S-Erklrung 3/17Problem von (3b) S. 61f: Was ist die Wahrheitsbedingung der Konklusion? Ein solcher Satz hat keinen objektiven Wahrmacher, bzw. muss relativ zu einer gegeben Evidenzmenge gesehen werden. Alleine ist ein solcher Satz also weder wahr noch falsch.
I-S-Erklrung 4/17(3c) S. 62: ist relativ zum Explanans, das die Stze und enthlt, praktisch sicher.
Dieser Ansatz entgeht der Schwierigkeit, dass die Konklusion weder wahr noch falsch ist, was die Formalisierung (3d) verdeutlicht:
I-S-Erklrung 5/17(3d) S. 63:P1: P2:
K:Hierbei handelt es sich dann nicht um eine deduktive (logische) Folgerung, sondern um eine induktive Sttzung. (vgl. S. 63)
I-S-Erklrung 6/17Die Ausdrcke wie macht praktisch sicher bezeichnet hier also keine Eigenschaft von Stzen, sondern beschreiben die Beziehung zwischen solcher Stze. Der eine Satz macht den anderen also praktisch sicher. (vgl. S. 64)Die Evidenzmenge (in diesem Fall die beiden Prmissen P1 und P2) soll als bezeichnet werden. Die Aussage, die durch gesttzt wird, wird mit gekennzeichnet. (vgl. ebd.)
I-S-Erklrung 7/17Carnap entwickelt mithilfe beider Variablenund eine Funktion , die angibt, wie stark eine Aussage durch ihre Evidenz gesttzt wird. Der so errechnete Zahlenwert, der im Intervall liegt, wird die logische oder induktive Wahrscheinlichkeit von aufgrund von genannt (S. 65, H. von ihm) oder auch der Grad induktiver Sttzung (ebd.).Vorsicht: induktive und statistische Wahrscheinlichkeit auseinander halten!
I-S-Erklrung 8/17Erklrungen spezieller Tatsachen oder Ereignisse mittels statistisch-probabilistischer Gesetze erweisen sich also als Argumente, die in dem Sinne induktiv oder probabilistisch sind, da das Explanans dem Explanandum einen mehr oder weniger hohen Grad induktiver Sttzung () verleiht. (S. 66, erste H. von ihm, zweite von mir) I-S-Erklrung 9/17Aus dem folgenden Abschnitt (S. 66f) sind zwei Begriffe herauszunehmen und gesondert zu betrachten. Dies ist zum einen der Begriff der Menge und zum anderen der des Zufallsexperiment.Mit diesen berlegungen will Hempel zeigen, da die hier fr die statistische Erklrung spezieller Tatsachen vorgeschlagene induktive Auffassung auch durch die empirische Interpretation gefordert wird. (S. 66, H. von mir)Exkurs: Zufallsexperiment 1/2Grob gesprochen ist ein Zufallsexperiment eine Art von Proze oder Ereignis, das durch den Menschen oder durch die Natur unbegrenzt oft wiederholt werden kann und das jedesmal eines aus einer bestimmten Menge von mglichen Ergebnissen in solcher Weise liefert, da die Ergebnisse zwar von Fall zu Fall auf unregelmige und unvorhersehbare Weise variieren, die relativen Hufigkeiten der einzelnen Ergebnisse jedoch allmhlich nahezu konstant werden, wenn die Anzahl der Durchfhrungen des Zufallsexperiments wchst. (S.66, H. von mir)Exkurs: Zufallsexperiment 2/2Die mathematische Theorie der statistischen Wahrscheinlichkeit soll eine theoretische Darstellung der statistischen Aspekte von wiederholbaren Prozessen einer gewissen Art liefern, die () Zufallsexperimente genannt werden. (S. 66)Exkurs: Menge 1/1Sei die Menge smtlicher Durchfhrungen des Zufallsexperiments.Sei die Menge jener Durchfhrungen des Zufallsexperiments, die das fragliche Ergebnis liefern.Dann ist [d]ie Wahrscheinlichkeit dafr, als Resultat einer Durchfhrung des Experiments ein Ergebnis der Art zu erhalten () ein Ma () der Gre der Menge im Verhltnis zur Menge (S. 67)
I-S-Erklrung 10/17Hempel gibt mit Hilfe von Cramr eine Definition fr die Hufigkeitsinterpretation statistischer Wahrscheinlichkeit (S. 67)(3e) ebd:Sei ein beliebiges Zufallsexperiment mit als einem mglichen Ergebnis; dann besagt die Aussage , da es bei einer langen Reihe von Wiederholungen von praktisch sicher ist, da die relative Hufigkeit des Ereignisses angenhert gleich ist. (H. von mir)
I-S-Erklrung 11/17Diese vage Definition setzt also die relative Hufigkeit mit der statistischen Wahrscheinlichkeit in Beziehung. Doch gerade weil die I-S-Erklrung konkrete Ereignisse erklren will, ist es wichtig, sich anzuschauen, was diese Definition implizit ber ein einzelnes Ereignis sagt.I-S-Erklrung 12/17(3e.1) S. 68 (mit Hinblick auf 3c bzw. 3d):Wenn ist, wobei eine sehr kleine positive Zahl ist, dann ist es praktisch sicher, da das Ereignis auftritt, wenn das Zufallsexperiment ein einziges Mal durchgefhrt wird. (H. von mir) (3e.2) analog fr den Fall des Nicht-Eintretens von
I-S-Erklrung 13/17Einfaches Beispiel einer I-S-Erklrung (S. 70): sei das Ziehen einer von 999 weie und einer schwarzen gleichen Kugeln aus einer Urne. Das Ergebnis, eine weie Kugel zu ziehen, sei mit bezeichnet. Es gelteDann nach (3e.1) bzw. (3d):
I-S-Erklrung 14/17(3f) S. 70:P1:P2:
K:Schauen wir uns nun genauer den Grad der induktiven Sttzung an.
I-S-Erklrung 15/17(3g) S. 71:Wenn die Aussage und die Aussage ist, dann ist . (S. 71)In diesem Fall kann also der Wert der induktiven Wahrscheinlichkeit mit dem der statistischen gleichgesetzt werden!
I-S-Erklrung 16/17(3h) S. 71:P1:P2:
K:Ich werde auch die der Erklrung zugeordnete Wahrscheinlichkeit nennen (ebd., H. von ihm)
I-S-Erklrung 17/17Problem: Ab wann gilt als fr eine Erklrung hinreichend gro? Oder anders: Ab welcher Ausprgung von kann man von einer Erklrung sprechen?
Einwnde 1/4Einwand S. 72:Die I-S-Erklrung kann keine Vorhersagen eines konkreten Ereignisses machen. So kann sie bei einem Mnzwurf nicht vorhersagen, ob das Ergebnis Kopf oder Wappen zeigt. Einwnde 2/4Gegenargumentation S. 72:Dass wir das Ergebnis eines Mnzwurfs nicht vorhersagen knnen, liegt am zu schwach ausgeprgten . In diesem Fall handelt es sich noch nicht einmal um eine Erklrung. I-S-Erklrungen bentige eine Ausprgung von , die nahe 1 ist.
Einwnde 3/4Einwand S. 72f:Selbst bei hoher induktiver Sttzung des Explanandums kann es passieren, dass das Explanandum nicht eintrifft, obwohl die im Explanans erwhnten Bedingungen zutrafen. Akzeptiert man diese Vertrglichkeit, kann man nicht mehr von einer Erklrung sprechen.Einwnde 4/4Gegenargumentation S. 73ff: Eben diese Vertrglichkeit macht das Wesen der I-S-Erklrung aus. Man kann zwar nicht mehr von einer Erklrung im deterministischen Sinne sprechen, jedoch empfiehlt es sich einen statistisch-probabilistischen Weil-Begriff (S. 75) einzufhren, der diesen Umstand bercksichtigt.