Dies ist eine Datei im Archiv der Stanford Encyclopedia of Philosophy.
Probabilistische Ursache
Erstveröffentlichung am 11. Juli 1997; inhaltliche Überarbeitung Fr 6. September 2002
"Probabilistische Ursache" bezeichnet eine Gruppe philosophischer Theorien, die darauf abzielen, die Beziehung zwischen Ursache und Wirkung mithilfe der Werkzeuge der Wahrscheinlichkeitstheorie zu charakterisieren. Die zentrale Idee hinter diesen Theorien ist, dass Ursachen die Wahrscheinlichkeiten ihrer Auswirkungen erhöhen, wenn alle anderen gleich sind. Ein großer Teil der in diesem Bereich geleisteten Arbeit befasste sich mit der Präzisierung der ceteris paribus-Klausel. Dieser Artikel beschreibt diese Entwicklungen sowie die jüngsten verwandten Entwicklungen in der kausalen Modellierung. Fragen innerhalb und Einwände gegen probabilistische Kausaltheorien werden ebenfalls diskutiert.
1. Einführung und Motivation
1.1 Regelmäßigkeitstheorien
1.2 Unvollkommene Regelmäßigkeiten
1.3 Indeterminismus
1.4 Asymmetrie
1.5 Falsche Regelmäßigkeiten
2. Vorbereitungen
3. Hauptentwicklungen
3.1 Die zentrale Idee
3.2 Scheinkorrelationen
3.3 Asymmetrie
4. Kontrafaktische Ansätze
5. Kausale Modellierung und probabilistische Verursachung
5.1 Kausale Modellierung
5.2 Die Markov- und Minimalitätsbedingungen
5.3 Was die Pfeile bedeuten
5.4 Die Bedingung der Treue
6. Weitere Probleme und Probleme
6.1 Kontext-Einstimmigkeit
6.2 Mögliche Gegenbeispiele
6.3 Singuläre und allgemeine Ursache
6.4 Reduktion und Zirkularität
Literaturverzeichnis
Andere Internetquellen
Verwandte Einträge
1. Einführung und Motivation
1.1 Regelmäßigkeitstheorien
Laut David Hume folgen Ursachen immer ihren Auswirkungen: „Wir können eine Ursache als Objekt definieren, gefolgt von einem anderen, und wo auf alle Objekte, die dem ersten ähnlich sind, Objekte folgen, die dem zweiten ähnlich sind.“(1748, Abschnitt VII.) Versuche, die Kausalität anhand unveränderlicher Sukzessionsmuster zu analysieren, werden als „Regelmäßigkeitstheorien“der Kausalität bezeichnet. Es gibt eine Reihe bekannter Schwierigkeiten mit Regelmäßigkeitstheorien, die verwendet werden können, um probabilistische Ansätze zur Verursachung zu motivieren.
Lesevorschläge: Hume (1748), insbesondere Abschnitt VII.
1.2 Unvollkommene Regelmäßigkeiten
Die erste Schwierigkeit besteht darin, dass auf die meisten Ursachen nicht immer ihre Auswirkungen folgen. Beispielsweise ist allgemein anerkannt, dass Rauchen eine Ursache für Lungenkrebs ist, aber es wird auch anerkannt, dass nicht alle Raucher Lungenkrebs entwickeln. (Ebenso bleiben nicht alle Nichtraucher von den Verwüstungen dieser Krankheit verschont.) Im Gegensatz dazu besteht die zentrale Idee hinter probabilistischen Kausaltheorien darin, dass Ursachen die Wahrscheinlichkeit ihrer Auswirkungen erhöhen. Ein Effekt kann immer noch auftreten, wenn keine Ursache vorliegt, oder wenn er nicht vorhanden ist. Rauchen ist daher eine Ursache für Lungenkrebs, nicht weil alle Raucher an Lungenkrebs erkranken, sondern weil Raucher eher an Lungenkrebs erkranken als Nichtraucher. Dies steht im Einklang mit einigen Rauchern, die Lungenkrebs vermeiden, und einigen Nichtrauchern, die untergehen.
Das Problem der unvollkommenen Regelmäßigkeiten spricht nicht entscheidend gegen den Regelmäßigkeitsansatz zur Verursachung. Nachfolger von Hume, insbesondere John Stuart Mill und John Mackie, haben versucht, die Regelmäßigkeiten, die kausale Beziehungen begründen, genauer zu beschreiben. Mackie führte den Begriff einer Inus-Bedingung ein: Eine Inus-Bedingung für einen bestimmten Effekt ist ein unzureichender, aber nicht redundanter Teil einer unnötigen, aber ausreichenden Bedingung. Angenommen, ein brennendes Streichholz verursacht einen Waldbrand. Die Beleuchtung des Streichholzes allein reicht nicht aus; Viele Streichhölzer werden ohne Waldbrände angezündet. Das brennende Streichholz ist jedoch Teil einer Konstellation von Bedingungen, die gemeinsam für das Feuer ausreichen. Angesichts der Tatsache, dass dieser Satz von Bedingungen eintrat und nicht irgendein anderer Satz, der für ein Feuer ausreicht,Die Beleuchtung des Streichholzes war notwendig: Unter solchen Umständen kommt es nicht zu Bränden, wenn keine brennenden Streichhölzer vorhanden sind.
Diese Art von Ansatz weist jedoch Nachteile auf. Die Regelmäßigkeiten, auf denen eine kausale Behauptung beruht, erweisen sich nun als viel komplizierter als wir zuvor erkannt hatten. Diese Komplexität wirft insbesondere Probleme für die Erkenntnistheorie der Kausalität auf. Ein Reiz von Humes Regelmäßigkeitstheorie besteht darin, dass sie eine einfache Darstellung darüber liefert, wie wir wissen, was was verursacht: Wir lernen, dass A B verursacht, indem wir beobachten, dass auf A s immer B s folgt. Betrachten Sie noch einmal den Fall von Rauchen und Lungenkrebs: Auf der Grundlage welcher Beweise glauben wir, dass das eine eine Ursache für das andere ist? Es ist nicht so, dass alle Raucher Lungenkrebs entwickeln, denn wir beobachten dies nicht als wahr. Aber wir haben auch keine Konstellation der Zustände C beobachtet, so dass auf das Rauchen in Gegenwart von C immer Lungenkrebs folgt.während Lungenkrebs bei Nichtrauchern, die die Bedingung C erfüllen, niemals auftritt. Wir beobachten vielmehr, dass Raucher viel häufiger an Lungenkrebs erkranken als Nichtraucher. Dies ist der Anscheinsbeweis dafür, dass Rauchen Lungenkrebs verursacht. Dies passt sehr gut zum probabilistischen Ansatz der Kausalität.
Wie wir in Abschnitt 3.2 unten sehen werden, muss die Grundidee, die die Wahrscheinlichkeit ihrer Auswirkungen erhöht, jedoch auf verschiedene Weise qualifiziert werden. Bis diese Qualifikationen hinzugefügt werden, scheinen probabilistische Kausaltheorien einen Schritt zu machen, der Mackies Appell an Konstellationen von Hintergrundbedingungen ziemlich analog ist. Es ist daher nicht klar, dass das Problem der unvollkommenen Regulierung an sich einen wirklichen Grund bietet, probabilistische Ansätze der Kausalität gegenüber Regelmäßigkeitsansätzen vorzuziehen.
Empfohlene Lektüre: Verfeinerte Versionen der Regelmäßigkeitsanalyse finden sich in Mill (1843), Band I, Kapitel V, und in Mackie (1974), Kapitel 3. Die Einführung von Suppes (1970) drückt auf das Problem unvollständiger Regelmäßigkeiten.
1.3 Indeterminismus
Während Mackies Inus-Condition-Ansatz bestimmen kann, dass Rauchen Lungenkrebs verursacht, selbst wenn es Raucher gibt, die keinen Lungenkrebs entwickeln, erfordert es eine gewisse Verbindung von Zuständen, einschließlich Rauchen, auf die ausnahmslos Lungenkrebs folgt. Aber selbst diese spezifischere Regelmäßigkeit kann fehlschlagen, wenn das Auftreten von Lungenkrebs durch diese Bedingungen physikalisch nicht bestimmt wird. Im Allgemeinen macht der Regelmäßigkeitsansatz die Kausalität mit dem Indeterminismus unvereinbar: Wenn nicht festgestellt wird, dass ein Ereignis eintritt, kann kein Ereignis Teil einer ausreichenden Bedingung für dieses Ereignis sein. (Ein analoger Punkt kann zur Notwendigkeit gemacht werden.) Der jüngste Erfolg der Quantenmechanik - und in geringerem Maße anderer Theorien, die die Wahrscheinlichkeit anwenden - hat unser Vertrauen in den Determinismus erschüttert. Daher hat es viele Philosophen als wünschenswert empfunden, eine Kausaltheorie zu entwickeln, die keinen Determinismus voraussetzt.
Viele Philosophen finden die Idee der unbestimmten Kausalität nicht intuitiv. In der Tat wird das Wort "Kausalität" manchmal als Synonym für Determinismus verwendet. Ein starkes Argument für eine unbestimmte Verursachung kann unter Berücksichtigung des epistemischen Grunds für kausale Ansprüche angeführt werden. Es gibt jetzt sehr starke empirische Beweise dafür, dass Rauchen Lungenkrebs verursacht. Die Frage, ob es einen deterministischen Zusammenhang zwischen Rauchen und Lungenkrebs gibt, ist jedoch weit offen. Die Bildung von Krebszellen hängt von der Mutation ab, die ein starker Kandidat für einen unbestimmten Prozess ist. Darüber hinaus hängt es von einer Reihe zusätzlicher Faktoren ab, ob eine einzelne Raucherin an Lungenkrebs erkrankt oder nicht, z. B. ob sie von einem Bus angefahren wird oder nicht, bevor sich Krebszellen bilden. Der Preis für die Wahrung der Intuition, dass Kausalität Determinismus voraussetzt, ist also Agnostizismus gegenüber selbst unseren am besten unterstützten Kausalansprüchen.
Da probabilistische Kausaltheorien nur erfordern, dass eine Ursache die Wahrscheinlichkeit ihrer Wirkung erhöht, sind diese Theorien mit dem Indeterminismus vereinbar. Dies scheint ein potenzieller Vorteil gegenüber Regelmäßigkeitstheorien zu sein. Es ist jedoch unklar, inwieweit dieser potenzielle Vorteil tatsächlich besteht. Im Bereich der Mikrophysik, wo wir starke (aber immer noch umstrittene) Beweise für Indeterminismus haben, lassen sich unsere gewöhnlichen kausalen Vorstellungen nicht leicht anwenden. Dies wird besonders deutlich im berühmten Gedankenexperiment von Einstein, Podolski und Rosen. Auf der anderen Seite ist unklar, inwieweit der Quantenindeterminismus in die Makrowelt der Raucher und Krebsopfer "sickert", wo wir einige klare kausale Intuitionen zu haben scheinen.
Empfohlene Lektüre: Humphreys (1989) enthält eine sensible Behandlung von Fragen, die Indeterminismus und Kausalität betreffen; siehe insbesondere Abschnitte 10 und 11. Earman (1986) ist eine gründliche Behandlung von Fragen des Determinismus in der Physik.
1.4 Asymmetrie
Wenn A B verursacht, verursacht B normalerweise nicht auch A. Rauchen verursacht Lungenkrebs, aber Lungenkrebs führt nicht zum Rauchen. Mit anderen Worten, die Kausalität ist normalerweise asymmetrisch. Dies kann ein Problem für Regelmäßigkeitstheorien darstellen, da es durchaus plausibel erscheint, dass Lungenkrebs eine Inusbedingung für das Rauchen ist, wenn Rauchen eine Inusbedingung für Lungenkrebs ist. Eine Möglichkeit, die Asymmetrie der Kausalität durchzusetzen, besteht darin, festzulegen, welche Ursachen ihren Auswirkungen rechtzeitig vorausgehen. Sowohl Hume als auch Mill übernehmen diese Strategie ausdrücklich. Dies hat mehrere systematische Nachteile. Erstens schließt es die Möglichkeit einer zeitlichen Rückwärtsverursachung von vornherein aus, während viele glauben, dass es nur eine zufällige Tatsache ist, dass Ursachen ihren Auswirkungen rechtzeitig vorausgehen. Zweite,Dieser Ansatz schließt die Möglichkeit aus, eine kausale Theorie der zeitlichen Ordnung (über den Schmerz bösartiger Zirkularität) zu entwickeln, eine Theorie, die einigen Philosophen attraktiv erschien. Drittens wäre es schön, wenn eine Kausaltheorie die Richtwirkung der Kausalität erklären könnte, anstatt sie nur festzulegen.
Einige Befürworter probabilistischer Kausaltheorien folgen Hume bei der Identifizierung der Kausalrichtung mit der zeitlichen Richtung. Andere haben versucht, die Ressourcen der Wahrscheinlichkeitstheorie zu nutzen, um mit gemischtem Erfolg eine inhaltliche Darstellung der Asymmetrie der Kausalität zu formulieren. Wir werden diese Vorschläge in Abschnitt 3.3 weiter unten ausführlicher erörtern.
Lesevorschläge: Hausman (1998) enthält eine detaillierte Diskussion von Fragen, die die Asymmetrie der Kausalität betreffen. Mackie (1974), Kapitel 3, zeigt, wie das Problem der Asymmetrie für seine Inus-Bedingungstheorie entstehen kann. Lewis (1986) enthält eine sehr kurze, aber klare Aussage über das Problem der Asymmetrie.
1.5 Falsche Regelmäßigkeiten
Angenommen, auf eine Ursache folgen regelmäßig zwei Effekte. Angenommen, wenn der Luftdruck in einem bestimmten Bereich unter ein bestimmtes Niveau fällt, passieren zwei Dinge. Erstens fällt die Höhe der Quecksilbersäule in einem bestimmten Barometer unter ein bestimmtes Niveau. Kurz darauf kommt es zu einem Sturm. Diese Situation ist in Abbildung 1 schematisch dargestellt. Dann kann es durchaus auch vorkommen, dass es zu einem Sturm kommt, wenn die Quecksilbersäule fällt. (Plausibler ist das Fallenlassen des Barometers eine inus Bedingung für den Sturm.) Dann scheint es, dass eine Regelmäßigkeitstheorie regeln müsste, dass der Tropfen der Quecksilbersäule den Sturm verursacht. Tatsächlich ist die Regelmäßigkeit dieser beiden Ereignisse jedoch falsch; es spiegelt nicht den kausalen Einfluss des einen auf das andere wider.
Abbildung 1
Abbildung 1
Die Fähigkeit, mit solchen falschen Korrelationen umzugehen, ist wahrscheinlich der größte Erfolg probabilistischer Kausaltheorien und bleibt eine Hauptattraktionsquelle für solche Theorien. Wir werden dieses Problem in Abschnitt 3.2 weiter unten näher erläutern.
Lesevorschläge: Mackie (1974), Kapitel 3, zeigt, wie das Problem falscher Regelmäßigkeiten für seine Inus-Bedingungstheorie entstehen kann. Lewis (1986) enthält eine sehr kurze, aber klare Darstellung des Problems falscher Regelmäßigkeiten.
2. Vorbereitungen
Bevor wir im nächsten Abschnitt mit der formalen Entwicklung einer probablistischen Kausaltheorie fortfahren, sollten einige vorläufige Punkte angesprochen werden. Erstens kann ein bestimmtes Ereignis viele verschiedene Ursachen haben. Ein Streichholz wird geschlagen und es leuchtet. Das Schlagen des Streichholzes ist eine Ursache für seine Beleuchtung, aber das Vorhandensein von Sauerstoff ist auch eine Ursache, und es wird noch viele andere geben. Manchmal bezeichnen wir in ungezwungenen Gesprächen die eine oder andere davon als „Ursache“für die Beleuchtung des Spiels. Welche Ursache wir auf diese Weise herausgreifen, kann von unseren Interessen, unseren Erwartungen usw. abhängen. Philosophische Kausaltheorien versuchen normalerweise, den Begriff „Ursache“zu analysieren. Beachten Sie auch, dass die Ursachen Standbedingungen - wie das Vorhandensein von Sauerstoff - sowie Veränderungen sein können.
Zweitens ist es üblich, zwei verschiedene Arten von Kausalansprüchen zu unterscheiden. Einzigartige kausale Behauptungen wie „Jills starkes Rauchen in den 80er Jahren führte dazu, dass sie an Lungenkrebs erkrankte“beziehen sich auf bestimmte Ereignisse mit raumzeitlichen Standorten. (Einige Autoren behaupten, dass singuläre kausale Behauptungen stattdessen Tatsachen betreffen.) Wenn sie auf diese Weise verwendet werden, ist Ursache ein Erfolgsverb: Die singuläre kausale Behauptung impliziert, dass Jill in den 80er Jahren stark geraucht hat und Lungenkrebs entwickelt hat. Beachten Sie, dass diese Verwendung im Widerspruch zur Verwendung der „probabilistischen Verursachung“in der Rechtsliteratur steht. Dieser Ausdruck wird verwendet, wenn eine Person einem Risiko ausgesetzt ist (z. B. einem Karzinogen), unabhängig davon, ob sie tatsächlich diesem Risiko erliegt. (Die rechtliche Frage ist, ob eine Person, die einem Risiko ausgesetzt ist, dadurch geschädigt wird und eine Entschädigung für die Exposition erhalten kann.) Allgemeine kausale Behauptungen, wie „Rauchen verursacht Lungenkrebs“, beziehen sich auf wiederholbare Ereignistypen oder -eigenschaften. Einige Autoren haben probabilistische Theorien der singulären Kausalität aufgestellt, andere haben probabilistische Theorien der allgemeinen Kausalität weiterentwickelt. Die Beziehung zwischen singulärer und allgemeiner Kausalität wird in Abschnitt 6.3 unten diskutiert. Wie wir sehen werden, scheint es einen Grund zu der Annahme zu geben, dass probabilistische Kausaltheorien besser zur Analyse der allgemeinen Kausalität geeignet sind. Die kausalen Relata - die Entitäten, die in kausalen Beziehungen stehen - werden auf verschiedene Weise als Fakten, Ereignisse, Eigenschaften usw. angesehen. Ich werde nicht versuchen, zwischen diesen verschiedenen Ansätzen zu entscheiden, sondern den Oberbegriff „Faktor“verwenden. Beachten Sie jedoch, dass probabilistische Kausaltheorien erfordern, dass kausale Relata einen weitgehend „aussagekräftigen“Charakter haben:Sie sind die Art von Dingen, die verbunden und negiert werden können.
Empfohlene Lektüre: Mill (1843) enthält die klassische Diskussion über „die Ursache“und „eine Ursache“. Bennett (1988) ist eine hervorragende Diskussion über Fakten und Ereignisse.
3. Hauptentwicklungen
3.1 Die zentrale Idee
Die zentrale Idee, dass Ursachen die Wahrscheinlichkeit ihrer Auswirkungen erhöhen, kann formal mit dem Apparat der bedingten Wahrscheinlichkeit ausgedrückt werden. A, B, C, … repräsentieren Faktoren, die möglicherweise in kausalen Beziehungen stehen. Sei P eine Wahrscheinlichkeitsfunktion, die die normalen Regeln der Wahrscheinlichkeitsrechnung erfüllt, so dass P (A) die empirische Wahrscheinlichkeit darstellt, dass Faktor A auftritt oder instanziiert wird (und ebenso für die anderen Faktoren). Die Frage, wie die empirische Wahrscheinlichkeit zu interpretieren ist, wird hier nicht behandelt. Unter Verwendung der Standardnotation lassen wir P (B | A) die bedingte Wahrscheinlichkeit von B bei gegebenem A darstellen. Formal wird die bedingte Wahrscheinlichkeit standardmäßig als ein bestimmtes Verhältnis von Wahrscheinlichkeiten definiert:
P (B | A) = P (A & B) / P (A).
Nehmen wir zur Veranschaulichung an, wir werfen einen fairen Würfel. A soll die Landung des Würfels darstellen, wobei eine gerade Zahl (2, 4 oder 6) auf der obersten Fläche angezeigt wird. Dann ist P (A) die Hälfte. Es sei B die Landung des Würfels mit einer Primzahl (2, 3 oder 5), die auf der obersten Seite (auf derselben Rolle) angezeigt wird. Dann ist P (B) auch die Hälfte. Die bedingte Wahrscheinlichkeit P (B | A) beträgt nun ein Drittel. Es ist die Wahrscheinlichkeit, dass die Zahl auf dem Würfel sowohl gerade als auch prim ist, dh dass die Zahl 2 ist, geteilt durch die Wahrscheinlichkeit, dass die Zahl gerade ist. Der Zähler ist ein Sechstel und der Nenner ist die Hälfte; daher beträgt diese bedingte Wahrscheinlichkeit ein Drittel. In das Konzept der bedingten Wahrscheinlichkeit ist keine Vorstellung von zeitlicher oder kausaler Ordnung eingebaut. Angenommen, der Würfel wird zweimal gewürfelt. Es ist sinnvoll, nach der Wahrscheinlichkeit zu fragen, dass der erste Wurf eine Primzahl ist, da der erste Wurf gerade ist. die Wahrscheinlichkeit, dass der zweite Wurf eine Primzahl ist, vorausgesetzt, der erste Wurf ist gerade; und die Wahrscheinlichkeit, dass der erste Wurf eine Primzahl ist, vorausgesetzt, der zweite Wurf ist gerade.
Wenn P (A) 0 ist, ist das Verhältnis in der Definition der bedingten Wahrscheinlichkeit undefiniert. Es gibt jedoch andere technische Entwicklungen, die es uns ermöglichen, P (B | A) zu definieren, wenn P (A) 0 ist. Am einfachsten ist es, die bedingte Wahrscheinlichkeit als Grundelement und die bedingungslose Wahrscheinlichkeit als eine von a abhängige Wahrscheinlichkeit zu definieren Tautologie.
Ein natürlicher Weg, die Idee zu verstehen, dass A die Wahrscheinlichkeit von B erhöht, ist, dass P (B | A)> P (B | not-A). Ein erster Versuch einer probabilistischen Kausaltheorie wäre also:
PR: A verursacht B genau dann, wenn P (B | A)> P (B | not-A).
Diese Formulierung trägt die Bezeichnung PR für "Probability-Raising". Wenn P (A) streng zwischen 0 und 1 liegt, stellt sich heraus, dass die Ungleichung in PR äquivalent zu P (B | A)> P (A) und auch zu P (A & B)> P (A) P (B) ist). Wenn diese letzte Beziehung gilt, werden A und B als positiv korreliert bezeichnet. Wenn die Ungleichung umgekehrt wird, sind sie negativ korreliert. Wenn A und B entweder positiv oder negativ korreliert sind, werden sie als probabilistisch abhängig bezeichnet. Wenn Gleichheit gilt, sind A und B wahrscheinlich unabhängig oder unkorreliert.
PR befasst sich mit den oben diskutierten Problemen unvollkommener Regelmäßigkeiten und Indeterminismus. Die beiden anderen in Abschnitt 1 oben erörterten Probleme werden jedoch nicht behandelt. Erstens ist die Wahrscheinlichkeitserhöhung symmetrisch: Wenn P (B | A)> P (B | nicht-A), dann ist P (A | B)> P (A | nicht-B). Der Kausalzusammenhang ist jedoch typischerweise asymmetrisch.
Figur 2
Figur 2
Zweitens hat PR Probleme mit falschen Korrelationen. Wenn A und B beide durch einen dritten Faktor C verursacht werden, kann es sein, dass P (B | A)> P (B | not-A) ist, obwohl A B nicht verursacht. Diese Situation ist in Abbildung 2 schematisch dargestellt. Beispielsweise sei A eine Person mit gelb gefärbten Fingern und B eine Person mit Lungenkrebs. Dann würden wir erwarten, dass P (B | A)> P (B | not-A). Der Grund dafür, dass Menschen mit gelb gefärbten Fingern häufiger an Lungenkrebs leiden, ist, dass Rauchen tendenziell beide Effekte hervorruft. Da Personen mit gelb gefärbten Fingern eher Raucher sind, leiden sie auch häufiger an Lungenkrebs. Intuitiv besteht der Weg, um dieses Problem anzugehen, darin, zu verlangen, dass Ursachen die Wahrscheinlichkeiten ihrer Auswirkungen ceteris paribus erhöhen. Die Geschichte der probabilistischen Verursachung ist weitgehend eine Geschichte von Versuchen, diese beiden zentralen Probleme zu lösen.
Empfohlene Lektüre: Eine Einführung in die grundlegende Wahrscheinlichkeitstheorie finden Sie im Eintrag für „Wahrscheinlichkeitsrechnung: Interpretationen von“. Dieser Eintrag enthält auch eine Diskussion der Interpretation von Wahrscheinlichkeitsansprüchen.
3.2 Scheinkorrelationen
Hans Reichenbach führte die Terminologie des „Screening off“ein, um sie auf eine bestimmte Art von probabilistischer Beziehung anzuwenden. Wenn P (B | A & C) = P (B | C), dann soll C A von B abschirmen. (Wenn P (A & C)> 0 ist, entspricht diese Gleichheit P (A & B | C) = P (A | C) P (B | C).) Intuitiv macht C A für B wahrscheinlich irrelevant. Mit diesem Begriff können wir versuchen, das Problem falscher Korrelationen zu vermeiden, indem wir der Grundbedingung zur Erhöhung der Wahrscheinlichkeit eine Bedingung hinzufügen, dass kein Screening durchgeführt wird:
NSO: Faktor A, der zum Zeitpunkt t auftritt, ist genau dann eine Ursache für den späteren Faktor B, wenn:
P (B | A)> P (B | nicht-A)
Es gibt keinen Faktor C, der früher oder gleichzeitig mit A auftritt und A von B abschirmt.
Wir werden dies die NSO- oder "No Screening Off" -Formulierung nennen. Nehmen wir an, wie in unserem obigen Beispiel, dass Rauchen (C) sowohl gelb gefärbte Finger (A) als auch Lungenkrebs (B) verursacht. Dann werden durch Rauchen gelb gefärbte Finger von Lungenkrebs abgeschirmt: Da eine Person raucht, haben seine gelb gefärbten Finger keinen Einfluss auf die Wahrscheinlichkeit, an Lungenkrebs zu erkranken.
Die zweite Bedingung von NSO reicht jedoch nicht aus, um das Problem der falschen Korrelationen zu lösen. Diese Bedingung wurde hinzugefügt, um Fälle zu eliminieren, in denen falsche Korrelationen zu Faktoren führen, die die Wahrscheinlichkeit anderer Faktoren erhöhen, ohne sie zu verursachen. Falsche Korrelationen können auch zu Fällen führen, in denen eine Ursache die Wahrscheinlichkeit ihrer Wirkung nicht erhöht. Echte Ursachen müssen also nicht die erste Bedingung von NSO erfüllen. Nehmen wir zum Beispiel an, dass Rauchen in hohem Maße mit Bewegung korreliert: Diejenigen, die rauchen, trainieren viel häufiger auch. Rauchen ist eine Ursache für Herzkrankheiten, aber nehmen wir an, dass Bewegung eine noch stärkere Vorbeugung gegen Herzkrankheiten darstellt. Dann kann es sein, dass Raucher insgesamt weniger an Herzerkrankungen leiden als Nichtraucher. Das heißt, A steht für Rauchen, C für Bewegung und B für Herzerkrankungen. P (B | A) <P (B | not-A). Beachten Sie jedoch, dass diese Ungleichung umgekehrt ist, wenn wir davon abhängig sind, ob man trainiert oder nicht: P (B | A & C)> P (B | nicht-A & C) und P (B | A & nicht-C))> P (B | not-A & not-C). Solche Umkehrungen probabilistischer Ungleichungen sind Beispiele für „Simpsons Paradoxon“.
Der nächste Schritt besteht darin, die Bedingungen 1 und 2 durch die Anforderung zu ersetzen, dass Ursachen die Wahrscheinlichkeit ihrer Auswirkungen in Testsituationen erhöhen müssen:
TS: A verursacht B, wenn P (B | A & T)> P (B | not-A & T) für jede Testsituation T.
Eine Testsituation ist eine Verbindung von Faktoren. Wenn eine solche Verbindung von Faktoren bedingt ist, werden diese Faktoren als "festgehalten" bezeichnet. Um anzugeben, wie die Testsituationen aussehen sollen, müssen wir angeben, welche Faktoren festgehalten werden sollen. Im vorherigen Beispiel haben wir gesehen, dass die wahre kausale Relevanz des Rauchens für Lungenkrebs aufgedeckt wurde, wenn wir das Training entweder positiv (Konditionierung auf C) oder negativ (Konditionierung auf nicht-C) festhielten. Dies legt nahe, dass wir bei der Bewertung der kausalen Relevanz von A für B andere positive oder negative Ursachen von B festhalten müssen. Dieser Vorschlag ist jedoch nicht ganz richtig. A und B seien Rauchen und Lungenkrebs. Angenommen, C ist ein kausaler Vermittler, beispielsweise das Vorhandensein von Teer in der Lunge. Wenn A B ausschließlich über C verursacht, schirmt C A von B ab:Angesichts des Vorhandenseins (Nichtvorhandenseins) von Karzinogenen in der Lunge wird die Wahrscheinlichkeit von Lungenkrebs nicht dadurch beeinflusst, ob diese Karzinogene durch Rauchen dorthin gelangt sind (fehlen trotz Rauchen). Daher wollen wir keine Ursachen von B festhalten, die selbst durch A verursacht werden. Nennen wir die Menge aller Faktoren, die Ursachen für B sind, aber nicht durch A verursacht werden, die Menge der unabhängigen Ursachen von B. Eine Testsituation für A und B ist dann eine maximale Konjunktion, deren Konjunktionen entweder eine unabhängige Ursache für B oder die Negation einer unabhängigen Ursache für B sind. Nennen wir die Menge aller Faktoren, die Ursachen für B sind, aber nicht durch A verursacht werden, die Menge der unabhängigen Ursachen von B. Eine Testsituation für A und B ist dann eine maximale Konjunktion, deren Konjunktionen entweder eine unabhängige Ursache für B oder die Negation einer unabhängigen Ursache für B sind. Nennen wir die Menge aller Faktoren, die Ursachen für B sind, aber nicht durch A verursacht werden, die Menge der unabhängigen Ursachen von B. Eine Testsituation für A und B ist dann eine maximale Konjunktion, deren Konjunktionen entweder eine unabhängige Ursache für B oder die Negation einer unabhängigen Ursache für B sind.
Beachten Sie, dass die Angabe von Faktoren, die festgehalten werden müssen, kausale Zusammenhänge anspricht. Dies scheint die Theorie ihres Status als reduktive Ursachenanalyse zu berauben. Wir werden jedoch in Abschnitt 6.4 unten sehen, dass das Problem wesentlich komplexer ist. In jedem Fall wäre eine Theorie von großem philosophischen Interesse, selbst wenn es keine Reduktion der Kausalität auf die Wahrscheinlichkeit gibt, die die systematischen Zusammenhänge zwischen Kausalität und Wahrscheinlichkeit detailliert.
Der Übergang von der Grundidee der PR zur komplexen Formulierung von TS ähnelt eher dem Übergang von Humes ursprünglicher Regelmäßigkeitstheorie zu Mackies Theorie der Inus-Bedingungen. In beiden Fällen erschwert der Umzug die Erkenntnistheorie der Verursachung erheblich. Um zu wissen, ob A eine Ursache für B ist, müssen wir wissen, was in Gegenwart und Abwesenheit von B passiert, während wir eine komplizierte Verbindung weiterer Faktoren festhalten. Die Hoffnung, dass eine probabilistische Kausaltheorie es uns ermöglichen würde, das Problem der unvollkommenen Regelmäßigkeiten zu lösen, ohne solche Konstellationen von Hintergrundbedingungen anzusprechen, scheint nicht bestätigt worden zu sein. Dennoch scheint TS uns eine Theorie zu liefern, die mit Indeterminismus vereinbar ist und die Kausalität von falscher Korrelation unterscheiden kann.
TS kann auf mindestens zwei wichtige Arten verallgemeinert werden. Erstens können wir eine "negative Ursache" oder "Verhinderung" oder "Inhibitor" als einen Faktor definieren, der die Wahrscheinlichkeit seiner "Wirkung" in allen Testsituationen senkt, und eine "gemischte" oder "interagierende" Ursache als eine, die die beeinflusst Wahrscheinlichkeit seiner "Wirkung" auf unterschiedliche Weise in unterschiedlichen Testsituationen. Es sollte offensichtlich sein, dass bei der Konstruktion von Testsituationen für A und B auch feste Verhinderer und gemischte Ursachen von B vorhanden sein sollten, die von A unabhängig sind. Noch weiter verallgemeinernd könnte man kausale Zusammenhänge zwischen nicht-binären Variablen wie Kalorienaufnahme und Blutdruck definieren. Bei der Bewertung der kausalen Relevanz von X für Y müssen wir die Werte von Variablen festhalten, die für Y unabhängig kausal relevant sind. Allgemein gesagt,Es gibt unendlich viele Möglichkeiten, wie eine Variable wahrscheinlich von einer anderen abhängt, selbst wenn eine bestimmte Testsituation festgehalten wird. Sobald die Theorie verallgemeinert ist, um nicht-binäre Variablen einzuschließen, wird es daher nicht möglich sein, eine klare Klassifizierung der kausalen Faktoren in Ursachen und Verhinderer bereitzustellen.
Diese beiden Verallgemeinerungen bringen eine wichtige Unterscheidung hervor. Es ist eine Sache zu fragen, ob A in irgendeiner Weise für B kausal relevant ist; es ist eine andere Frage, inwiefern A für B kausal relevant ist. Zu sagen, dass A B verursacht, ist dann möglicherweise mehrdeutig: Es könnte bedeuten, dass A auf die eine oder andere Weise für B kausal relevant ist; oder es könnte bedeuten, dass A in besonderer Weise für B kausal relevant ist, dass A B fördert oder ein positiver Faktor für das Auftreten von B ist. Wenn beispielsweise A B verhindert, zählt A im ersten Sinne als Ursache für B, im zweiten jedoch nicht. Probabilistische Kausaltheorien können verwendet werden, um beide Arten von Fragen zu beantworten. A ist für B kausal relevant, wenn A in einer Testsituation einen Unterschied für die Wahrscheinlichkeit von B macht; wohingegen A eine positive oder fördernde Ursache für B ist, wenn A die Wahrscheinlichkeit von B in allen Testsituationen erhöht.
Das Problem der falschen Korrelationen plagt auch bestimmte Versionen der Entscheidungstheorie. Dies kann passieren, wenn die Wahl der Maßnahme symptomatisch für bestimmte gute oder schlechte Ergebnisse ist, ohne diese Ergebnisse zu verursachen. (Das bekannteste Beispiel dieser Art ist das Newcomb-Problem.) In solchen Fällen scheinen einige Versionen der Entscheidungstheorie zu empfehlen, dass man handelt, um gute Nachrichten über Ereignisse zu erhalten, die außerhalb seiner Kontrolle liegen, anstatt zu handeln wünschenswerte Ereignisse, die unter der Kontrolle eines Menschen liegen. Als Reaktion darauf haben viele Entscheidungstheoretiker Versionen der kausalen Entscheidungstheorie befürwortet. Einige Versionen ähneln stark TS.
Lesevorschläge: Dieser Abschnitt folgt mehr oder weniger den wichtigsten Entwicklungen in der Geschichte der probabilistischen Kausaltheorien. Versionen der NSO-Theorie finden sich in Reichenbach (1956, Abschnitt 23) und Suppes (1970, Kapitel 2). Good (1961, 1962) ist ein früher Aufsatz über probabilistische Ursachen, der reich an Einsichten ist, aber überraschend wenig Einfluss auf die Formulierung späterer Theorien hatte. Salmon (1980) ist eine einflussreiche Kritik dieser Theorien. Die ersten Versionen von TS wurden in Cartwright (1979) und Skyrms (1980) vorgestellt. Eells (1991, Kapitel 2, 3 und 4) und Hitchcock (1993) führen die beiden beschriebenen Verallgemeinerungen von TS durch. Skyrms (1980) präsentiert eine Version der Kausalentscheidungstheorie, die TS sehr ähnlich ist. Siehe auch den Eintrag für „Entscheidungstheorie: kausal“.
3.3 Asymmetrie
Das zweite Hauptproblem bei der Grundidee der Wahrscheinlichkeitserhöhung besteht darin, dass das Verhältnis der Wahrscheinlichkeitserhöhung symmetrisch ist. Einige Befürworter probabilistischer Kausaltheorien legen einfach fest, dass Ursachen ihren Auswirkungen rechtzeitig vorausgehen. Wie wir in Abschnitt 1.4 oben gesehen haben, weist diese Strategie eine Reihe von Nachteilen auf. Beachten Sie auch, dass die Zuweisung zeitlicher Orte zu bestimmten Ereignissen zwar völlig kohärent ist, es jedoch nicht so klar ist, was es bedeutet zu sagen, dass eine Eigenschaft oder ein Ereignistyp vor einer anderen auftritt. Was bedeutet es zum Beispiel zu sagen, dass Rauchen Lungenkrebs vorausgeht? Es gab viele Episoden des Rauchens und viele von Lungenkrebs, und nicht alle ersteren traten vor allen letzteren auf. Dies ist ein Problem für diejenigen, die daran interessiert sind, eine probabilistische Theorie der Kausalzusammenhänge zwischen Eigenschaften oder Ereignistypen bereitzustellen.
Einige Verfechter der Manipulierbarkeit oder Kausaltheorien der Agentur haben argumentiert, dass die notwendige Asymmetrie durch unsere Perspektive als Agenten bereitgestellt wird. Bei der Beurteilung, ob A eine Ursache für B ist, müssen wir uns fragen, ob A die Wahrscheinlichkeit von B erhöht, wenn die relevanten bedingten Wahrscheinlichkeiten Agentenwahrscheinlichkeiten sind: Die Wahrscheinlichkeiten, die B gehabt hätte, wären A (oder nicht - A), die durch die Wahl realisiert werden sollen eines freien Agenten. Kritiker haben sich gefragt, wie hoch diese Agentenwahrscheinlichkeiten sind.
Andere Ansätze versuchen, die Asymmetrie zwischen Ursache und Wirkung innerhalb der Struktur der Wahrscheinlichkeiten selbst zu lokalisieren. Ein sehr einfacher Vorschlag wäre, die Art und Weise zu verfeinern, in der die Testsituationen aufgebaut sind. (Weitere Informationen zu Testsituationen finden Sie im vorherigen Abschnitt.) Bei der Bewertung, ob A eine Ursache für B ist, sollten wir nicht nur die unabhängigen Ursachen von B, sondern auch die Ursachen von A festhalten. Wenn also B eine Ursache für A ist und nicht umgekehrt, erhöht A die Wahrscheinlichkeit von B in der geeigneten Testsituation nicht, da das Vorhandensein oder Fehlen von B bereits festgehalten wird. Diese Idee ist in die in Abschnitt 5 unten beschriebene kausale Markov-Bedingung integriert. Befürworter traditioneller probabilistischer Kausaltheorien haben diese Strategie nicht übernommen. Dies mag daran liegen, dass sie der Meinung sind, dass diese Verfeinerung die Theorie der Teufelskreisförmigkeit zu nahe bringen würde: Um beurteilen zu können, ob A B verursacht, müssten wir bereits wissen, ob B A verursacht.
Eine ehrgeizigere Herangehensweise an das Problem der kausalen Asymmetrie geht auf Hans Reichenbach zurück. Angenommen, die Faktoren A und B sind positiv korreliert:
1. P (A & B)> P (A) P (B)
Es ist leicht zu erkennen, dass dies genau dann gilt, wenn A die Wahrscheinlichkeit von B erhöht und umgekehrt. Angenommen, es gibt einen Faktor C mit den folgenden Eigenschaften:
2. P (A & B | C) = P (A | C) P (B | C)
3. P (A & B | nicht C) = P (A | nicht C) P (B | nicht C) C)
4. P (A | C)> P (A | nicht-C)
5. P (B | C)> P (B | nicht-C).
In diesem Fall soll das Trio ACB eine Bindegabel bilden. Die Bedingungen 2 und 3 sehen vor, dass C und nicht C A von B abschirmen. Wie wir gesehen haben, tritt dies manchmal auf, wenn C eine häufige Ursache für A und B ist. Die Bedingungen 2 bis 5 beinhalten 1, daher erklärt C in gewissem Sinne die Korrelation zwischen A und B. Wenn C früher als A und B auftritt und es kein Ereignis gibt, das 2 bis 5 erfüllt und später als A und B auftritt, wird ACB als eine für die Zukunft offene Konjunktivgabel bezeichnet. Wenn es einen zukünftigen Faktor gibt, der 2 bis 5 erfüllt, aber keinen vergangenen Faktor, haben wir analog eine Bindegabel, die für die Vergangenheit offen ist. Wenn ein vergangener Faktor C und ein zukünftiger Faktor D beide 2 bis 5 erfüllen, bildet ACBD eine geschlossene Gabel. Reichenbachs Vorschlag war, dass die Richtung von Ursache zu Wirkung die Richtung ist, in der offene Gabeln vorherrschen. In unserer Welt,Es gibt viele Gabeln, die für die Zukunft offen sind, wenige oder keine, die für die Vergangenheit offen sind. Dieser Vorschlag steht in enger Beziehung zu Reichenbachs Prinzip der gemeinsamen Ursache, wonach A und B, wenn sie positiv korreliert sind (dh Bedingung 1 erfüllen), ein C existieren, das sowohl für A als auch für B eine Ursache ist und das sie überprüft voneinander entfernt. (Im Gegensatz dazu werden bei häufigen Effekten ihre Ursachen im Allgemeinen nicht abgeschirmt.)
Es ist jedoch nicht klar, dass diese Asymmetrie zwischen Gabeln, die für die Vergangenheit offen sind, und Gabeln, die für die Zukunft offen sind, so weit verbreitet sein wird, wie dieser Vorschlag vorauszusetzen scheint. In der Quantenmechanik gibt es korrelierte Effekte, von denen angenommen wird, dass sie keine gemeinsame Ursache haben, die sie abschirmt. Wenn ACB eine konjunktive Gabel bildet, in der C vor A und B steht, C jedoch einen deterministischen Effekt D hat, der nach A und B auftritt, bildet ACBD eine geschlossene Gabel. Eine weitere Schwierigkeit bei diesem Vorschlag besteht darin, dass er, da er eine globale Reihenfolge von Ursachen und Wirkungen bietet, a priori die Möglichkeit auszuschließen scheint, dass einige Wirkungen ihren Ursachen vorausgehen könnten. Es wurden komplexere Versuche angeboten, die Richtung der Verursachung aus Wahrscheinlichkeiten abzuleiten. Die hier auftretenden Probleme überschneiden sich mit dem in Abschnitt 6.4 erörterten Problem der Reduzierung.
Empfohlene Lektüre: Suppes (1970, Kapitel 2) und Eells (1991, Kapitel 5) definieren die kausale Asymmetrie als zeitliche Asymmetrie. Price (1991) verteidigt einen Bericht über kausale Asymmetrie in Bezug auf Agentenwahrscheinlichkeiten; siehe auch den Eintrag für "Verursachung und Manipulation". Reichenbachs Vorschlag wird in seinem (1956, Kapitel IV) vorgestellt. Einige Schwierigkeiten mit diesem Vorschlag werden in Arntzenius (1993) diskutiert; siehe auch seinen Eintrag in diese Enzyklopädie unter "Physik: Reichenbachs Prinzip der gemeinsamen Ursache". Papineau (1993) ist eine gute Gesamtdiskussion über das Problem der kausalen Asymmetrie innerhalb probabilistischer Theorien. Hausman (1998) ist eine detaillierte Untersuchung des Problems der kausalen Asymmetrie.
4. Kontrafaktische Ansätze
Ein führender Ansatz zur Untersuchung der Kausalität war die Analyse der Kausalität im Hinblick auf kontrafaktische Bedingungen. Eine kontrafaktische Bedingung ist ein Konjunktiv-Bedingungssatz, dessen Vorgeschichte der Tatsache widerspricht. Hier ein Beispiel: "Wenn der Schmetterlingsstimmzettel nicht in West Palm Beach verwendet worden wäre, wäre Albert Gore der Präsident der Vereinigten Staaten." Bei unbestimmten Ergebnissen kann es angebracht sein, probabilistische Konsequenzen zu verwenden: „Wenn der Schmetterlingsstimmzettel nicht in West Palm Beach verwendet worden wäre, hätte Albert Gore eine Chance von 0,7 gehabt, zum Präsidenten gewählt zu werden.“Eine probabilistische kontrafaktische Kausaltheorie (PC) zielt darauf ab, die Kausalität im Hinblick auf diese probabilistischen kontrafaktischen Faktoren zu analysieren. Das Ereignis B soll kausal von dem bestimmten Ereignis A abhängen, nur für den Fall, dass beide auftreten, und die Wahrscheinlichkeit, dass B zum Zeitpunkt des Auftretens von A auftreten würde, war viel höher als zum entsprechenden Zeitpunkt, wenn A dies nicht getan hätte aufgetreten. Dieses Kontrafaktische ist in Bezug auf mögliche Welten zu verstehen: Es ist wahr, wenn in der nächstmöglichen Welt (en), in der A nicht vorkommt, die Wahrscheinlichkeit von B viel geringer ist als in der tatsächlichen Welt. Aus diesem Grund wird der relevante Begriff der "Wahrscheinlichkeitserhöhung" nicht als bedingte Wahrscheinlichkeiten verstanden, sondern als bedingungslose Wahrscheinlichkeiten in verschiedenen möglichen Welten. Die Testsituation ist keine bestimmte Verbindung von Faktoren, sondern die Summe aller Faktoren, die beim Übergang zur nächstmöglichen Welt (en), in der A nicht auftritt, unverändert bleiben. Beachten Sie, dass PC speziell als Theorie der singulären Kausalität zwischen bestimmten Ereignissen und nicht als Theorie der allgemeinen Kausalität gedacht ist.
Die im vorherigen Absatz definierte Kausalabhängigkeit ist für die Kausalität ausreichend, aber nicht erforderlich. Ursache ist definiert als Vorfahr der kausalen Abhängigkeit; das heißt, A verursacht B nur für den Fall, dass es eine Folge von Ereignissen C 1, C 2,…, C n gibt, so dass C 1 kausal von A abhängt, C 2 kausal von C 1 abhängt,…, B kausal von C abhängt n. Diese Modifikation garantiert, dass die Kausalität transitiv ist: Wenn A C verursacht und C B verursacht, dann verursacht A B. Diese Änderung ist auch nützlich, um bestimmte Probleme zu beheben, die in Abschnitt 6.2 unten erläutert werden.
Befürworter kontrafaktischer Kausaltheorien versuchen, die Kausalasymmetrie aus einer entsprechenden Asymmetrie der Wahrheitswerte kontrafaktischer Werte abzuleiten. Zum Beispiel mag es wahr sein, dass Mary, wenn sie nicht geraucht hätte, weniger wahrscheinlich an Lungenkrebs erkrankt wäre, aber wir wären uns normalerweise nicht einig, dass sie weniger wahrscheinlich geraucht hätte, wenn Mary keinen Lungenkrebs entwickelt hätte. Gewöhnliche Kontrafakten „ziehen“sich nicht von Effekten zu Ursachen zurück. Dieses Verbot des Zurückverfolgens löst auch das Problem falscher Korrelationen: Wir würden nicht sagen, dass der Abfall des atmosphärischen Drucks weniger wahrscheinlich gewesen wäre, wenn die Mecury-Säule nicht gestiegen wäre, und daher wäre der Sturm auch weniger wahrscheinlich gewesen.
Eine wichtige Frage ist, ob die in der Ursachenanalyse auftretenden Kontrafakten ohne Bezug zur Schadensursache charakterisiert werden können. Dazu müsste man sagen, was manche Welten näher macht als andere, ohne auf kausale Begriffe Bezug zu nehmen. Trotz einiger interessanter Versuche ist nicht klar, ob dies möglich ist. Wenn nicht, ist es nicht möglich, eine reduktive PC-Analyse der Kausalität bereitzustellen, obwohl es möglicherweise immer noch möglich ist, interessante Zusammenhänge zwischen Kausalität, Wahrscheinlichkeit und Kontrafakten zu artikulieren.
Der Philosoph Igal Kvart war ein hartnäckiger Kritiker der Behauptung, dass es möglich ist, Kontrafakten ohne Kausalität zu analysieren. Er hat eine probabilistische Theorie der singulären Kausalität entwickelt, die keine Kontrafakten verwendet. Dennoch hat seine Theorie eine Reihe von Merkmalen gemeinsam mit kontrafaktischen Theorien: Es ist ein Versuch, die singuläre Kausalität zwischen Ereignissen zu analysieren; Es wird auf die grundlegende Idee der Wahrscheinlichkeitserhöhung eingegangen, um einige der in Abschnitt 6.2 angesprochenen Probleme zu vermeiden. und es strebt eine reduktive Analyse der Kausalität an, ohne auf kausale Beziehungen in den Analysans Bezug zu nehmen.
Empfohlene Lektüre : Lewis (1986a) ist der locus classicus für PC. Lewis (1986b) ist ein Versuch, den Begriff der Nähe zwischen möglichen Welten zu erklären. Die jüngsten Versuche, die Kausalität im Hinblick auf probabilistische Kontrafakten zu analysieren, sind ziemlich kompliziert geworden. siehe zum Beispiel Noordhof (1999). Weitere Informationen zu kontrafaktischen Kausaltheorien finden Sie im Eintrag unter „Kausalität, kontrafaktische Theorien“. Zur Theorie von Kvart siehe zum Beispiel Kvart (1997).
5. Kausale Modellierung und probabilistische Verursachung
5.1 Kausale Modellierung
'Causal Modeling' ist ein neues interdisziplinäres Feld, das sich der Untersuchung von Methoden der kausalen Inferenz widmet. Dieses Feld umfasst Beiträge aus Statistik, künstlicher Intelligenz, Philosophie, Ökonometrie, Epidemiologie und anderen Disziplinen. In diesem Bereich sind die Forschungsprogramme, die das größte philosophische Interesse geweckt haben, die der Informatikerin Judea Pearl und seiner Mitarbeiter sowie der Philosophen Peter Spirtes, Clark Glymour und Richard Scheines (SGS). Nicht zufällig sind diese beiden Programme die ehrgeizigsten in ihren Behauptungen, Algorithmen entwickelt zu haben, um auf der Grundlage statistischer Daten kausale Schlussfolgerungen zu ziehen. Diese Behauptungen haben viele Kontroversen ausgelöst, die oft sehr hitzig sind. InsbesondereEs scheint großen Widerstand gegen die Idee zu geben, dass automatisierte Verfahren das fachspezifische Hintergrundwissen und das gute experimentelle Design ersetzen können, von denen die kausale Folgerung immer abhing. In gewissem Maße geht es bei dieser Debatte um Betonung und Werbung. Sowohl Pearl als auch SGS geben explizite Annahmen an, die getroffen werden müssen, bevor ihre Verfahren zu Ergebnissen führen können. Kritiker werfen zunächst vor, dass diese Annahmen im Kleingedruckten vergraben sind, während die automatisierten Verfahren in Fettdruck angekündigt werden. und zweitens, dass die erforderlichen Annahmen in realistischen Fällen selten erfüllt werden, was die neuen Verfahren praktisch unbrauchbar macht. Diese Gebühren sind orthogonal zu der Frage, ob die Techniken wie angekündigt funktionieren, wenn die erforderlichen Annahmen zutreffen.die Dinge, von denen die kausale Folgerung immer abhing. In gewissem Maße geht es bei dieser Debatte um Betonung und Werbung. Sowohl Pearl als auch SGS geben explizite Annahmen an, die getroffen werden müssen, bevor ihre Verfahren zu Ergebnissen führen können. Kritiker werfen zunächst vor, dass diese Annahmen im Kleingedruckten vergraben sind, während die automatisierten Verfahren in Fettdruck angekündigt werden. und zweitens, dass die erforderlichen Annahmen in realistischen Fällen selten erfüllt werden, was die neuen Verfahren praktisch unbrauchbar macht. Diese Gebühren sind orthogonal zu der Frage, ob die Techniken wie angekündigt funktionieren, wenn die erforderlichen Annahmen zutreffen.die Dinge, von denen die kausale Folgerung immer abhing. In gewissem Maße geht es bei dieser Debatte um Betonung und Werbung. Sowohl Pearl als auch SGS geben explizite Annahmen an, die getroffen werden müssen, bevor ihre Verfahren zu Ergebnissen führen können. Kritiker werfen zunächst vor, dass diese Annahmen im Kleingedruckten vergraben sind, während die automatisierten Verfahren in Fettdruck angekündigt werden. und zweitens, dass die erforderlichen Annahmen in realistischen Fällen selten erfüllt werden, was die neuen Verfahren praktisch unbrauchbar macht. Diese Gebühren sind orthogonal zu der Frage, ob die Techniken wie angekündigt funktionieren, wenn die erforderlichen Annahmen zutreffen. Erstens, dass diese Annahmen im Kleingedruckten vergraben sind, während die automatisierten Verfahren in Fettdruck angekündigt werden. und zweitens, dass die erforderlichen Annahmen in realistischen Fällen selten erfüllt werden, was die neuen Verfahren praktisch unbrauchbar macht. Diese Gebühren sind orthogonal zu der Frage, ob die Techniken wie angekündigt funktionieren, wenn die erforderlichen Annahmen zutreffen. Erstens, dass diese Annahmen im Kleingedruckten vergraben sind, während die automatisierten Verfahren in Fettdruck angekündigt werden. und zweitens, dass die erforderlichen Annahmen in realistischen Fällen selten erfüllt werden, was die neuen Verfahren praktisch unbrauchbar macht. Diese Gebühren sind orthogonal zu der Frage, ob die Techniken wie angekündigt funktionieren, wenn die erforderlichen Annahmen zutreffen.
Wir werden uns hier nicht mit der Wirksamkeit dieser Methoden der kausalen Folgerung befassen, sondern mit ihren philosophischen Grundlagen. Wir werden hier die Entwicklungen von SGS verfolgen, da diese eine stärkere Ähnlichkeit mit den in Abschnitt 3 oben beschriebenen probabilistischen Kausaltheorien aufweisen. (Der Ansatz von Pearl ist zumindest in seiner jüngeren Entwicklung stärker mit kontrafaktischen Ansätzen verbunden.)
Literaturhinweise: Perle (2000) und Spirtes, Glymour und Scheines (2000) sind die detaillierten Darstellungen der beiden Forschungsprogramme diskutiert. Beide Werke sind recht technisch, obwohl der Epilog von Pearl (2000) eine sehr lesenswerte historische Einführung in Perles Werk bietet. Pearl (1999) enthält auch eine einigermaßen zugängliche Einführung in einige der jüngsten Entwicklungen von Pearl. Scheines (1997) ist eine nichttechnische Einführung in einige der Ideen in SGS (2000). McKim and Turner (1997) ist eine Sammlung von Arbeiten zur kausalen Modellierung, einschließlich einiger wichtiger Kritikpunkte an SGS.
5.2 Die Markov- und Minimalitätsbedingungen
Wir können hier nur einen sehr rudimentären Überblick über das SGS-Framework geben. Wir beginnen mit einer Menge V von Variablen. Die Menge kann zum Beispiel Variablen enthalten, die das Bildungsniveau, das Einkommen, das Einkommen der Eltern usw. von Personen in einer Bevölkerung darstellen. Diese Variablen unterscheiden sich von den Faktoren, die normalerweise in probabilistischen Kausaltheorien vorkommen. Faktoren stehen für Variablen als Determinanten für Bestimmbare. "Einkommen" ist eine Variable; "Ein Einkommen von 40.000 USD pro Jahr" ist ein Faktor. Bei einer gegebenen Menge von Variablen können wir zwei verschiedene mathematische Strukturen über diese Menge definieren. Erstens ist ein gerichteter Graph G auf V eine Menge gerichteter Kanten oder "Pfeile" mit den Variablen in V.als ihre Eckpunkte. Die Variable X ist ein 'Elternteil' von Y, nur für den Fall, dass ein Pfeil von X nach Y angezeigt wird. X ist ein 'Vorfahr' von Y (äquivalent dazu ist Y ein 'Nachkomme' von X), nur für den Fall, dass es einen 'gerichteten Pfad' von X nach Y gibt, der aus Pfeilen besteht, die Zwischenvariablen verbinden. Der gerichtete Graph ist azyklisch, wenn keine Schleifen vorhanden sind, dh wenn keine Variable ein Vorfahr von sich selbst ist. Zusätzlich zu einem gerichteten azyklischen Graphen über V, haben wir auch eine Wahrscheinlichkeitsverteilung P über die Werte der Variablen in V.
Der gerichtete azyklische Graph G über V kann auf verschiedene Weise mit der Wahrscheinlichkeitsverteilung in Beziehung gesetzt werden. Eine wichtige Bedingung, die die beiden erfüllen könnten, ist die sogenannte Markov-Bedingung:
MC: Für jedes X in V und jede Menge Y von Variablen in V / DE (X) ist P (X | PA (X) & Y) = P (X | PA (X)); Dabei ist DE (X) die Menge der Nachkommen von X und PA (X) die Menge der Eltern von X.
Die Notation bedarf einer kleinen Klarstellung. Betrachten Sie zum Beispiel den ersten Begriff in der Gleichheit. Da X eine Variable ist, ist es nicht wirklich sinnvoll, über die Wahrscheinlichkeit von X oder die bedingte Wahrscheinlichkeit von X zu sprechen. Es ist sinnvoll, über die Wahrscheinlichkeit eines Einkommens von 40.000 USD pro Jahr zu sprechen (zumindest wenn es sich um Mitglieder einer genau definierten Bevölkerung handelt), aber es ist nicht sinnvoll, über die Wahrscheinlichkeit eines "Einkommens" zu sprechen. (Beachten Sie, dass wir hier nicht die Wahrscheinlichkeit eines Einkommens oder eines anderen meinen. Diese Wahrscheinlichkeit ist eins, vorausgesetzt, wir lassen Null als Wert des Einkommens zählen.) Diese Formulierung von MC verwendet eine gemeinsame Notationskonvention. Immer wenn eine Variable oder ein Satz von Variablen erscheint, gibt es einen impliziten universellen Quantifizierer, der sich über die Werte der betreffenden Variablen erstreckt. Daher sollte MC so verstanden werden, dass eine Gleichheit zwischen zwei bedingten Wahrscheinlichkeiten behauptet wird, die für alle Werte der Variablen X und für alle Werte der Variablen in gilt Y und PA (X). Mit anderen Worten, die Markov-Bedingung besagt, dass die Eltern von X X von allen anderen Variablen mit Ausnahme der Nachkommen von X abschirmen. Angesichts der Werte der Variablen, die Eltern von X sind, haben die Werte der Variablen in Y (die keine Nachkommen von X enthalten) keinen weiteren Unterschied zur Wahrscheinlichkeit, dass X einen bestimmten Wert annimmt.
Wie bereits erwähnt, beschreibt die Markov-Bedingung eine rein formale Beziehung zwischen abstrakten Entitäten. Nehmen wir jedoch an, wir geben dem Diagramm und der Wahrscheinlichkeitsverteilung empirische Interpretationen. Das Diagramm stellt die kausalen Beziehungen zwischen den Variablen in einer Population dar, und die Wahrscheinlichkeitsverteilung repräsentiert die empirische Wahrscheinlichkeit, dass ein Individuum in der Population bestimmte Werte der relevanten Variablen besitzt. Wenn der gerichtete Graph eine kausale Interpretation erhält, wird er als kausaler Graph bezeichnet. Wir werden kurz auf die Frage zurückkommen, was genau die Pfeile in einem Kausaldiagramm darstellen.
Die Causal Markov Condition (CMC) behauptet, dass MC für eine Population gilt, wenn der gerichtete Graph und die Wahrscheinlichkeitsverteilung diese Interpretationen erhalten. CMC gilt im Allgemeinen nicht, sondern nur, wenn bestimmte weitere Bedingungen erfüllt sind. Zum Beispiel muss V alle gängigen Ursachen für Variablen enthalten, die in V enthalten sind. Nehmen wir zum Beispiel an, dass V = {X, Y}, dass keine Variable eine Ursache für die andere ist und dass Z eine häufige Ursache für X und Y ist (die wahre Kausalstruktur ist in Abbildung 3 unten dargestellt). Der richtige Kausaldiagramm für V.enthält keine Pfeile, da weder X noch Y den anderen verursachen. Aber X und Y werden aufgrund der zugrunde liegenden gemeinsamen Ursache wahrscheinlich korreliert sein. Dies ist eine Verletzung von CMC. Da der korrekte Kausaldiagramm auf {X, Y} keine Pfeile enthält, hat X keine Eltern oder Nachkommen. somit bedeutet CMC, dass P (X | Y) = P (X) ist. Diese Gleichheit ist falsch, da X und Y tatsächlich korreliert sind. CMC kann auch für bestimmte Arten heterogener Populationen fehlschlagen, die aus Subpopulationen mit unterschiedlichen kausalen Strukturen bestehen. Und CMC wird für bestimmte Quantensysteme versagen. Ein kontroverser Bereich betrifft das Ausmaß, in dem tatsächliche Populationen CMC in Bezug auf die Arten von Variablensätzen erfüllen, die typischerweise in empirischen Untersuchungen verwendet werden. Für die weitere Diskussion gehen wir davon aus, dass CMC gilt.
Figur 3
Figur 3
Die kausale Markov-Bedingung ist eine Verallgemeinerung des Common-Cause-Prinzips von Reichenbach, das in Abschnitt 3.3 oben erörtert wurde. Hier sind einige Abbildungen, wie es funktioniert.
Figur 4
Figur 4
In den 3 und 4 bedeutet CMC, dass die Werte von Z die Werte von X von den Werten von Y abschirmen.
Abbildung 5
Abbildung 5
Abbildung 6
Abbildung 6
In den 5 und 6 bedeutet CMC erneut, dass die Werte von Z die Werte von X von den Werten von Y abschirmen. CMC bedeutet jedoch nicht, dass die Werte von W die Werte von X von den Werten von Y in 5 abschirmen, wohingegen es bedeutet, dass die Werte von W die Werte von X von den Werten von Y in 6 abschirmen. Dies zeigt, dass eine häufige Ursache für X und Y weder notwendig noch ausreichend ist, um die Werte dieser Variablen abzuschirmen.
Abbildung 7
Abbildung 7
In 7 sind sowohl Z als auch W häufige Ursachen für X und Y, doch CMC bedeutet nicht, dass eine von ihnen für sich allein ausreicht, um die Werte von X und Y abzuschirmen. Dies erscheint vernünftig: Wenn wir den Wert von Z festhalten, sollten wir erwarten, dass X und Y aufgrund der Wirkung von W korreliert bleiben. CMC bedeutet, dass Z und W X und Y gemeinsam abschirmen. Das heißt, wenn wir die Werte von Z und W bedingen, gibt es keine verbleibende Korrelation zwischen X und Y.
Eine zweite wichtige Beziehung zwischen einem gerichteten Graphen und der Wahrscheinlichkeitsverteilung ist die Minimalitätsbedingung. Angenommen, der gerichtete Graph G auf dem Variablensatz V erfüllt die Markov-Bedingung in Bezug auf die Wahrscheinlichkeitsverteilung P. Die Minimalitätsbedingung besagt, dass kein Subgraph von G über V auch die Markov-Bedingung in Bezug auf P erfüllt. Die kausale Minimalitätsbedingung behauptet, dass die Minimalitätsbedingung gilt, wenn G.und P erhalten ihre empirischen Interpretationen. Betrachten Sie zur Veranschaulichung die Variablensatz {X, Y}, lassen Sie einen Pfeil von X nach Y erscheinen und nehmen Sie an, dass X und Y in P wahrscheinlich unabhängig voneinander sind. Dieser Graph würde die Markov-Bedingung in Bezug auf P erfüllen: Keine der von MC vorgeschriebenen Unabhängigkeitsbeziehungen fehlt (tatsächlich schreibt MC keine Unabhängigkeitsbeziehungen vor). Dieser Graph würde jedoch die Minimalitätsbedingung in Bezug auf P verletzen, da der Untergraph, der den Pfeil von X nach Y weglässt, auch die Markov-Bedingung erfüllen würde.
Literaturhinweise: Spirtes, Glymour und Scheines (2000) und Scheines (1997). Hausman und Woodward (1999) liefern eine detaillierte Diskussion des kausalen Markov-Zustands.
5.3 Was die Pfeile bedeuten
Wir sind jetzt besser in der Lage, etwas darüber zu sagen, was die Pfeile in einem Kausaldiagramm bedeuten. Betrachten Sie zunächst ein einfaches Diagramm mit zwei Variablen X und Y und einem Pfeil von X nach Y. Die Minimalitätsbedingung erfordert, dass die beiden Variablen nicht probabilistisch unabhängig sind. Dies bedeutet, dass es Werte x und x 'von X und y von Y geben muss, so dass
P (Y = y | X = x)
nicht =
P (Y = y | X = x ').
Dies sagt nichts darüber aus, wie X auf Y wirkt. Nehmen wir zum Beispiel an, wir haben ein Modell mit drei Variablen, einschließlich der Variablen Rauchen, Bewegung und Herzerkrankungen. Das Kausaldiagramm würde (vermutlich) einen Pfeil vom Rauchen zur Herzkrankheit und einen Pfeil vom Training zur Herzkrankheit enthalten. Nichts in der Grafik weist darauf hin, dass ein erhöhtes Maß an Rauchen das Risiko und die Schwere von Herzerkrankungen erhöht, während ein erhöhtes Maß an Bewegung (jedenfalls bis zu einem gewissen Punkt) das Risiko und die Schwere von Herzerkrankungen verringert. Ein Pfeil in einem Kausaldiagramm zeigt also nur an, dass eine Variable für eine andere kausal relevant ist, und sagt nichts über die Art und Weise aus, in der sie relevant ist (ob es sich um eine fördernde, hemmende oder interagierende Ursache handelt oder in einer komplexeren Beziehung steht)..
Abbildung 8
Abbildung 8
Betrachten Sie Abbildung 8. Beachten Sie, dass es sich von Abbildung 4 dadurch unterscheidet, dass ein zusätzlicher Pfeil direkt von X nach Y verläuft. Was bedeutet dieser Pfeil von X nach Y? Es zeigt nicht nur an, dass X für Y kausal relevant ist; In Abbildung 4 ist natürlich zu erwarten, dass X über seine Wirkung auf Z für Y relevant ist. Unter Anwendung der kausalen Markov- und Minimalitätsbedingungen zeigt der Pfeil von X nach Y an, dass Y wahrscheinlich von X abhängig ist, selbst wenn wir den Wert von Z festhalten. Das heißt, X macht einen probabilistischen Unterschied für Y, der über den Unterschied hinausgeht, den es aufgrund seiner Wirkung auf Z macht. Fig. 8 zeigt somit, dass X über zwei verschiedene Routen eine Auswirkung auf Y hat: eine Route, die durch die Variable Z verläuft, und die andere Route, die direkt ist, dh nicht durch eine andere Variable in V vermittelt wird. Betrachten Sie zur Veranschaulichung ein bekanntes Beispiel von Germund Hesslow. Der Konsum von Antibabypillen (X) ist ein Risikofaktor für Thrombosen (Y). Auf der anderen Seite sind Antibabypillen ein wirksamer Verhinderer der Schwangerschaft (Z), was wiederum ein starker Risikofaktor für Thrombosen ist. Die Verwendung von Antibabypillen kann daher die Wahrscheinlichkeit einer Thrombose auf zwei verschiedene Arten beeinflussen, eine "direkte" und eine über die Wirkung von Pillen auf die Wahrscheinlichkeit einer Schwangerschaft. Ob Antibabypillen die Wahrscheinlichkeit einer Thrombose insgesamt erhöhen oder senken, hängt von den relativen Stärken dieser beiden Wege ab. Die in Abschnitt 3 oben beschriebenen probabilistischen Kausaltheorien eignen sich zur Analyse des Gesamt- oder Nettoeffekts eines Faktors oder einer Variablen auf einen anderen. Die in diesem Abschnitt diskutierten kausalen Modellierungstechniken zielen in erster Linie darauf ab, ein kausales System in einzelne Wege kausalen Einflusses zu zerlegen.
Lesungen vorgeschlagen: Die Pille Beispiel wurde ursprünglich in Hesslow präsentiert (1976). Hitchcock (2001a) diskutiert die Unterscheidung zwischen Gesamt- oder Nettoeffekt und kausalem Einfluss entlang einzelner Routen.
5.4 Die Bedingung der Treue
Eine letzte Bedingung, die SGS in großem Umfang nutzt, ist die Treuebedingung. (Ich werde auf die Unterscheidung zwischen der kausalen und der nicht-kausalen Version verzichten.) Die Treuebedingung besagt, dass alle (bedingten und bedingungslosen) probabilistischen Unabhängigkeiten, die zwischen den Variablen in V existieren, von der kausalen Markov-Bedingung verlangt werden. Angenommen, V.= {X, Y, Z}. Nehmen wir auch an, dass X und Y bedingungslos unabhängig voneinander sind, aber abhängig von Z. (Die beiden anderen Variablenpaare sind sowohl bedingt als auch bedingungslos abhängig.) Der in Abbildung 8 gezeigte Graph erfüllt die Treuebedingung in Bezug auf diese Verteilung nicht (umgangssprachlich ist der Graph der Verteilung nicht treu). Wenn CMC auf den Graphen von 8 angewendet wird, impliziert dies nicht die Unabhängigkeit von X und Y. Im Gegensatz dazu entspricht das in 9 gezeigte Diagramm der beschriebenen Verteilung. Beachten Sie, dass Abbildung 8 die Minimalitätsbedingung erfüllt. Kein Untergraph erfüllt CMC in Bezug auf die beschriebene Verteilung. (Das Diagramm in Abbildung 9 ist kein Untergraph des Diagramms in Abbildung 8.)
Abbildung 9
Abbildung 9
Die Treuebedingung impliziert, dass sich die kausalen Einflüsse einer Variablen auf eine andere auf mehreren kausalen Wegen nicht „aufheben“. Angenommen, Abbildung 8 stellt die zugrunde liegende Kausalstruktur korrekt dar. Dann impliziert die Treuebedingung, dass X und Y in der empirischen Verteilung nicht unbedingt unabhängig voneinander sein können. In Hesslows Beispiel bedeutet dies, dass die Tendenz von Antibabypillen, Thrombosen auf dem direkten Weg zu verursachen, nicht genau durch die Tendenz von Antibabypillen, Thrombosen durch Verhinderung einer Schwangerschaft zu verhindern, aufgehoben werden kann. Diese Bedingung, dass keine Aufhebung erfolgt, erscheint als metaphysische oder konzeptionelle Einschränkung des Zusammenhangs zwischen Kausalität und Wahrscheinlichkeiten unplausibel. Warum können sich konkurrierende Kausalpfade nicht gegenseitig aufheben? In der Tat liefert uns die Newtonsche Physik ein Beispiel:Die durch die Schwerkraft auf meinen Körper ausgeübte Abwärtskraft löst vom Boden aus eine gleiche und entgegengesetzte Aufwärtskraft auf meinen Körper aus. Mein Körper reagiert, als würde keine Kraft auf ihn einwirken. Die Bedingung der Treue scheint eher ein methodisches Prinzip zu sein. Bei einer Verteilung auf {X, Y, Z}, in der X und Y unabhängig sind, sollten wir schließen, dass die kausale Struktur die in Abbildung 9 dargestellte ist und nicht Abbildung 8. Dies liegt nicht daran, dass Abbildung 8 durch die Verteilung, sondern weil sie unbegründet komplex ist: Sie postuliert kausale Zusammenhänge, die nicht notwendig sind, um das zugrunde liegende Muster probabilistischer Abhängigkeiten zu erklären. Die Bedingung der Treue ist somit eine formale Version von Ockhams Rasiermesser. Mein Körper reagiert, als würde keine Kraft auf ihn einwirken. Die Bedingung der Treue scheint eher ein methodisches Prinzip zu sein. Bei einer Verteilung auf {X, Y, Z}, in der X und Y unabhängig sind, sollten wir schließen, dass die kausale Struktur die in Abbildung 9 dargestellte ist und nicht Abbildung 8. Dies liegt nicht daran, dass Abbildung 8 durch die Verteilung, sondern weil sie unbegründet komplex ist: Sie postuliert kausale Zusammenhänge, die nicht notwendig sind, um das zugrunde liegende Muster probabilistischer Abhängigkeiten zu erklären. Die Bedingung der Treue ist somit eine formale Version von Ockhams Rasiermesser. Mein Körper reagiert, als würde keine Kraft auf ihn einwirken. Die Bedingung der Treue scheint eher ein methodisches Prinzip zu sein. Bei einer Verteilung auf {X, Y, Z}, in der X und Y unabhängig sind, sollten wir schließen, dass die kausale Struktur die in Abbildung 9 dargestellte ist und nicht Abbildung 8. Dies liegt nicht daran, dass Abbildung 8 durch die Verteilung, sondern weil sie unbegründet komplex ist: Sie postuliert kausale Zusammenhänge, die nicht notwendig sind, um das zugrunde liegende Muster probabilistischer Abhängigkeiten zu erklären. Die Bedingung der Treue ist somit eine formale Version von Ockhams Rasiermesser. Wir sollten daraus schließen, dass die Kausalstruktur eher die in Abbildung 9 als in Abbildung 8 dargestellte ist. Dies liegt nicht daran, dass Abbildung 8 durch die Verteilung endgültig ausgeschlossen wird, sondern daran, dass sie unbegründet komplex ist: Sie postuliert Kausalzusammenhänge, die nicht erforderlich sind Erklären Sie das zugrunde liegende Muster probabilistischer Abhängigkeiten. Die Bedingung der Treue ist somit eine formale Version von Ockhams Rasiermesser. Wir sollten daraus schließen, dass die Kausalstruktur eher die in Abbildung 9 als in Abbildung 8 dargestellte ist. Dies liegt nicht daran, dass Abbildung 8 durch die Verteilung endgültig ausgeschlossen wird, sondern daran, dass sie unbegründet komplex ist: Sie postuliert Kausalzusammenhänge, die nicht erforderlich sind Erklären Sie das zugrunde liegende Muster probabilistischer Abhängigkeiten. Die Bedingung der Treue ist somit eine formale Version von Ockhams Rasiermesser.
SGS verwendet die Causal Markov-, Minimality- und Faithfulness-Bedingungen, um eine Vielzahl statistischer Ununterscheidbarkeitssätze zu beweisen. Diese Theoreme sagen uns, wann zwei unterschiedliche Kausalstrukturen anhand der Wahrscheinlichkeitsverteilungen, zu denen sie führen, unterschieden werden können oder nicht. Wir werden auf dieses Problem in Abschnitt 6.4 zurückkommen.
Literaturhinweise: Spirtes, Glymour und Scheines (2000) und Scheines (1997).
6. Weitere Probleme und Probleme
6.1 Kontext-Einstimmigkeit
Laut TS muss eine Ursache in jeder Testsituation die Wahrscheinlichkeit ihrer Wirkung erhöhen. Dies wurde als Erfordernis der Kontext-Einstimmigkeit bezeichnet. Diese Anforderung ist anfällig für die folgende Art von Gegenbeispiel. Angenommen, es gibt ein Gen, das den folgenden Effekt hat: Diejenigen, die das Gen besitzen, haben eine geringere Wahrscheinlichkeit, sich beim Rauchen mit Lungenkrebs zu infizieren. Dieses Gen ist sehr selten, stellen wir uns vor (tatsächlich muss es in der menschlichen Bevölkerung überhaupt nicht existieren, solange der Mensch eine Wahrscheinlichkeit ungleich Null hat, dieses Gen zu besitzen, möglicherweise aufgrund einer sehr unwahrscheinlichen Mutation). In diesem Szenario würde es Testsituationen geben (solche, in denen das Vorhandensein des Gens feststeht), in denen Rauchen die Wahrscheinlichkeit von Lungenkrebs senkt: Somit wäre Rauchen keine Ursache für Lungenkrebs gemäß der Anforderung der Kontext-Einstimmigkeit. Dennoch ist es unwahrscheinlich, dass die Entdeckung eines solchen Gens (oder die bloße Möglichkeit seines Auftretens) dazu führen würde, dass wir die Behauptung aufgeben, dass Rauchen Lungenkrebs verursacht.
Diese Einwand ist sicherlich richtig in Bezug auf unseren gewöhnlichen Gebrauch der kausalen Sprache. Es steht der Verteidigerin der Kontext-Einstimmigkeit jedoch offen zu antworten, dass sie daran interessiert ist, ein genaues Konzept zu liefern, um den vagen Begriff der Kausalität zu ersetzen, der unserem alltäglichen Gebrauch entspricht. In einer Population, die aus Personen besteht, denen das Gen fehlt, verursacht Rauchen Lungenkrebs. In einer Population, die ausschließlich aus Personen besteht, die das Gen besitzen, verhindert das Rauchen Lungenkrebs.
Beachten Sie, dass dieser Streit nur im Kontext einer heterogenen Bevölkerung auftritt. Wenn wir uns auf eine bestimmte Testsituation beschränken, können beide Parteien vereinbaren, dass Rauchen in dieser Testpopulation Lungenkrebs verursacht, nur für den Fall, dass es die Wahrscheinlichkeit von Lungenkrebs in dieser Testsituation erhöht.
Die Position in dieser Debatte wird zum Teil davon abhängen, wie man allgemeine kausale Behauptungen wie „Rauchen verursacht Lungenkrebs“verwenden möchte. Wenn man sie als Kausalgesetze auffasst, dann mag das Erfordernis der Kontext-Einstimmigkeit attraktiv erscheinen. Wenn „Rauchen Lungenkrebs verursacht“eine Art Gesetz ist, sollte seine Wahrheit nicht von der Knappheit des Gens abhängen, das die Auswirkungen des Rauchens umkehrt. Im Gegensatz dazu kann man den Kausalanspruch praktischer verstehen, indem man ihn als eine Art politisches Leitprinzip behandelt. Da das fragliche Gen sehr selten ist, wäre es für Organisationen des öffentlichen Gesundheitswesens immer noch vernünftig, Maßnahmen zu fördern, die die Häufigkeit des Rauchens verringern würden.
Empfohlene Lektüre: Dupré; (1984) stellt diese Herausforderung an das Erfordernis der Kontext-Einstimmigkeit und bietet eine Alternative. Eells (1991, Kapitel 1 und 2) verteidigt die Einstimmigkeit im Kontext mit der Idee, dass kausale Behauptungen in Bezug auf eine Bevölkerung aufgestellt werden. Hitchock (2001b) enthält weitere Diskussionen und entwickelt die Idee, allgemeine kausale Behauptungen als politische Leitprinzipien zu behandeln.
6.2 Mögliche Gegenbeispiele
Angesichts der Grundidee der Wahrscheinlichkeitssteigerung würde man erwarten, dass mutmaßliche Gegenbeispiele zu probabilistischen Kausaltheorien zwei Grundtypen haben: Fälle, in denen Ursachen die Wahrscheinlichkeiten ihrer Wirkungen nicht erhöhen, und Fälle, in denen Nichtursachen die Wahrscheinlichkeiten von Nichtwirkungen erhöhen. Die Diskussion in der Literatur hat sich fast ausschließlich auf die erste Art von Beispiel konzentriert. Betrachten Sie das folgende Beispiel aufgrund von Deborah Rosen. Ein Golfer schneidet einen Golfball schlecht, der in Richtung Rough geht, aber dann von einem Baum in die Tasse springt, um ein Loch in einem zu bekommen. Die Scheibe des Golfers verringerte die Wahrscheinlichkeit, dass der Ball im Pokal landen würde, verursachte jedoch dieses Ergebnis. Eine Möglichkeit, dieses Problem zu vermeiden, besteht darin, die verglichenen Wahrscheinlichkeiten zu berücksichtigen. Wenn wir die Schicht A bezeichnen, ist not-A eine Disjunktion mehrerer Alternativen. Eine solche Alternative ist ein sauberer Schuss - im Vergleich zu dieser Alternative hat die Scheibe die Wahrscheinlichkeit eines Hole-in-One verringert. Eine andere Alternative ist überhaupt kein Schuss, relativ zu dem die Scheibe die Wahrscheinlichkeit eines Hole-in-One erhöht. Durch den letztgenannten Vergleich können wir unsere ursprünglichen Intuitionen über das Beispiel wiederherstellen.
Eine andere Art von Gegenbeispiel beinhaltet die kausale Prävention. Angenommen, ein Attentäter gibt dem Getränk des Königs ein schwaches Gift, was zu einer 30% igen Todeswahrscheinlichkeit führt. Der König trinkt das Gift und stirbt. Wenn der Attentäter das Getränk nicht vergiftet hätte, hätte ihr Mitarbeiter das Getränk mit einem noch tödlicheren Elixier versetzt (70% ige Wahrscheinlichkeit des Todes). In dem Beispiel ließ der Attentäter den König sterben, indem er sein Getränk vergiftete, obwohl sie seine Sterbewahrscheinlichkeit senkte (von 70% auf 30%). Hier senkte die Ursache die Wahrscheinlichkeit des Todes, weil sie eine noch stärkere Ursache verhinderte.
Ein Ansatz für dieses Problem, der in den in Abschnitt 4 oben beschriebenen kontrafaktischen Ansatz integriert ist, besteht darin, sich auf das Prinzip der Transitivität der Kausalität zu berufen. Die Aktion des Attentäters erhöhte die Wahrscheinlichkeit und damit das Vorhandensein von schwachem Gift im Getränk des Königs. Das Vorhandensein von schwachem Gift im Getränk des Königs erhöhte die Wahrscheinlichkeit und damit den Tod des Königs. (Zu diesem Zeitpunkt ist bereits festgelegt, dass der Mitarbeiter das Getränk nicht vergiften wird.) Durch die Transitivität verursachte die Aktion des Attentäters den Tod des Königs. Die Behauptung, dass die Kausalität transitiv ist, ist jedoch höchst umstritten und unterliegt vielen überzeugenden Gegenbeispielen.
Ein anderer Ansatz wäre, sich auf eine in Abschnitt 5.3 eingeführte Unterscheidung zu berufen. Die Handlung des Attentäters beeinflusst die Sterbewahrscheinlichkeit des Königs auf zwei verschiedene Arten: Erstens führt sie das schwache Gift in das Getränk des Königs ein; zweitens verhindert es die Einführung eines stärkeren Giftes. Der Nettoeffekt besteht darin, die Wahrscheinlichkeit des Todes des Königs zu verringern. Trotzdem können wir den ersten dieser Effekte isolieren (was durch einen Pfeil in einem Kausaldiagramm angezeigt würde). Wir tun dies, indem wir die Untätigkeit des Mitarbeiters festhalten: Da der Mitarbeiter das Getränk tatsächlich nicht vergiftet hat, hat die Aktion des Attentäters die Wahrscheinlichkeit des Todes des Königs erhöht (von nahe Null auf 0,3). Wir zählen die Aktion des Attentäters als Todesursache, weil sie die Wahrscheinlichkeit des Todes auf einer der Verbindungswege zwischen den beiden Ereignissen erhöht.
Nehmen wir für ein Gegenbeispiel des zweiten Typs an, dass zwei bewaffnete Männer auf ein Ziel schießen. Jeder hat eine bestimmte Trefferwahrscheinlichkeit und eine bestimmte Wahrscheinlichkeit zu fehlen. Angenommen, keine der Wahrscheinlichkeiten ist eins oder null. Tatsächlich trifft der erste Schütze und der zweite Schütze verfehlt. Trotzdem feuerte der zweite Schütze und erhöhte durch Schießen die Wahrscheinlichkeit, dass das Ziel getroffen wurde, was es war. Während es offensichtlich falsch ist zu sagen, dass der Schuss des zweiten Schützen das Ziel getroffen hat, scheint es, dass eine probabilistische Kausaltheorie dieser Konsequenz verpflichtet ist. Ein natürlicher Ansatz für dieses Problem wäre der Versuch, die probabilistische Kausaltheorie mit dem Erfordernis einer räumlich-zeitlichen Verbindung zwischen Ursache und Wirkung zu kombinieren, obwohl überhaupt nicht klar ist, wie diese Hybridtheorie funktionieren würde.
Empfohlene Lektüre:Das Beispiel des Golfballs aufgrund von Deborah Rosen wird erstmals in Suppes (1970) vorgestellt. Salmon (1980) präsentiert mehrere Beispiele für wahrscheinlichkeitssenkende Ursachen. Hitchcock (1995) präsentiert eine Antwort. Lewis (1986a) diskutiert Fälle von Präferenz, siehe auch den Eintrag für "Kausalität: kontrafaktische Theorien". Hithcock (2001a) präsentiert die Lösung in Bezug auf die Zerlegung in kausale Komponentenwege. Woodward (1990) beschreibt die Struktur, die am Beispiel der beiden bewaffneten Männer instanziiert wird. Humphreys (1989, Abschnitt 14) antwortet. Menzies (1989, 1996) diskutiert Beispiele mit kausaler Prävention, bei denen Nichtursachen die Wahrscheinlichkeit von Nichteffekten erhöhen. Hitchcock (2002) liefert eine allgemeine Diskussion dieser Gegenbeispiele. Eine Diskussion der Versuche, Ursache und Wirkung im Hinblick auf zusammenhängende Prozesse zu analysieren, finden Sie im Eintrag für „Kausalität:kausale Prozesse. “
6.3 Singuläre und allgemeine Ursache
Wir haben in Abschnitt 2 oben festgestellt, dass wir mindestens zwei verschiedene Arten von Kausalansprüchen geltend machen, singuläre und allgemeine. In Anbetracht dieser Unterscheidung können wir feststellen, dass die im vorherigen Abschnitt erwähnten Gegenbeispiele alle als singuläre Kausalität formuliert sind. Eine mögliche Reaktion auf die Gegenbeispiele des vorherigen Abschnitts wäre die Behauptung, dass eine probabilistische Kausaltheorie nur für die allgemeine Kausalität geeignet ist und dass die singuläre Kausalität eine bestimmte philosophische Theorie erfordert. Eine Konsequenz dieses Schrittes ist, dass es (mindestens) zwei verschiedene Arten von Kausalzusammenhängen gibt, von denen jede ihre eigene philosophische Darstellung erfordert - keine insgesamt glückliche Situation.
Lesevorschläge: Die Notwendigkeit unterschiedlicher Theorien zur singulären und allgemeinen Verursachung wird in Good (1961, 1962), Sober (1985) und Eells (1991, Einleitung und Kapitel 6) verteidigt. Eells (1991, Kapitel 6) bietet eine eindeutige probabilistische Theorie der singulären Kausalität in Bezug auf die zeitliche Entwicklung von Wahrscheinlichkeiten. Carroll (1991) und Hitchcock (1995) bieten zwei sehr unterschiedliche Antwortlinien. Hitchcock (2001b) argumentiert, dass hier wirklich (mindestens) zwei verschiedene Unterscheidungen am Werk sind.
6.4 Reduktion und Zirkularität
Zurück zu den in Abschnitt 3 skizzierten Theorien: Die Theorie NSO war ein Versuch einer reduktiven Analyse der Kausalität in Bezug auf Wahrscheinlichkeiten (und möglicherweise auch zeitliche Ordnung). Im Gegensatz dazu definiert TS kausale Beziehungen in Form von Wahrscheinlichkeiten, die von Spezifikationen von Testbedingungen abhängig sind, die selbst kausal charakterisiert sind. Es scheint also, dass letztere Theorien keine Ursachenanalysen sein können, da die Ursachen in den Analysans auftreten. Angesichts der Tatsache, dass TS dringend benötigte Verbesserungen gegenüber NSO enthält, sieht es so aus, als könne die Kausalität nicht auf Wahrscheinlichkeiten reduziert werden. Dies kann jedoch zu früh aufgeben. Um festzustellen, ob eine probabilistische Reduzierung der Kausalität möglich ist, ist die zentrale Frage nicht, ob das Wort "Ursache" sowohl im Analysandum als auch im Analysans vorkommt. lieber,Die Schlüsselfrage sollte sein, ob es bei einer Zuordnung von Wahrscheinlichkeiten zu einer Reihe von Faktoren eine eindeutige Reihe von Kausalzusammenhängen zwischen diesen Faktoren gibt, die mit der Wahrscheinlichkeitszuordnung und der fraglichen Theorie vereinbar sind.
Die wichtigsten Arbeiten in dieser Richtung wurden von Spirtes, Glymour und Scheines durchgeführt. Anstatt über die Details ihrer Ergebnisse zu berichten, präsentieren wir hier eine allgemeinere Diskussion. Angenommen, eine Reihe von Faktoren und ein System von Kausalzusammenhängen zwischen diesen Faktoren sind gegeben: Nennen Sie dies die Kausalstruktur CS. Sei T eine Theorie, die kausale Beziehungen zwischen Faktoren mit probabilistischen Beziehungen zwischen Faktoren verbindet. Dann ist die Kausalstruktur CS relativ zu T wahrscheinlich unterscheidbar, wenn für jede Zuordnung von Wahrscheinlichkeiten zu den Faktoren in CS, die mit CS und T kompatibel sind, CS die eindeutige Kausalstruktur ist, die mit T und diesen Wahrscheinlichkeiten kompatibel ist. (Man könnte ein schwächeres Gefühl der Unterscheidbarkeit formulieren, indem man verlangt, dass nur eine bestimmte Zuordnung von Wahrscheinlichkeiten die CS eindeutig bestimmt). Intuitiv,Mit T können Sie schließen, dass die Kausalstruktur angesichts der Wahrscheinlichkeitsrelationen zwischen Faktoren tatsächlich CS ist. Bei einer probabilistischen Kausaltheorie T kann man sich viele verschiedene Eigenschaften vorstellen. Hier sind einige Möglichkeiten:
Alle kausalen Strukturen sind relativ zu T wahrscheinlich unterscheidbar
Alle kausalen Strukturen mit einigen interessanten Eigenschaften sind relativ zu T wahrscheinlich unterscheidbar
Jede kausale Struktur kann in eine kausale Struktur eingebettet werden, die relativ zu T wahrscheinlich unterscheidbar ist
Die tatsächliche Kausalstruktur der Welt (vorausgesetzt, es gibt so etwas) ist wahrscheinlich relativ zu T unterscheidbar.
Es ist nicht offensichtlich, welche Art von Unterscheidbarkeitseigenschaften eine Theorie haben muss, um eine Reduktion der Kausalität auf Wahrscheinlichkeiten darzustellen. Die Frage, ob die Kausalität auf Wahrscheinlichkeiten reduziert werden kann, ist daher weniger eindeutig, als es den Anschein haben mag.
Empfohlene Lektüre : Die detaillierteste Behandlung der probabilistischen Unterscheidbarkeit findet sich in Spirtes, Glymour und Scheines (2000); siehe insbesondere Kapitel 4. Spirtes, Glymour und Scheines beweisen (Satz 4.6) ein Ergebnis nach dem Vorbild von 3 für eine von ihnen vorgeschlagene Theorie. Diese Arbeit ist sehr technisch. Eine zugängliche Präsentation ist in Papineau (1993) enthalten, der eine Position in der Richtung von 4 verteidigt.
Literaturverzeichnis
Arntzenius, Frank. (1993) "The Common Cause Principle" in Hull, Forbes und Okruhlik (1993), S. 227 - 237.
Bennett, Jonathan. (1988) Ereignisse und ihre Namen. Indianapolis und Cambridge: Hackett.
Dupré, John. (1984) "Probabilistic Causality Emancipated" in Peter French, Theodore Uehling Jr. und Howard Wettstein, Hrsg. (1984) Midwest Studies in Philosophy IX (Minneapolis: University of Minnesota Press), S. 169 - 175.
Earman, John. (1986) Eine Einführung in den Determinismus. Dordrecht: Reidel.
Eells, Ellery. (1991) Probabilistische Kausalität. Cambridge, Großbritannien: Cambridge University Press.
Gut, IJ (1961) "A Causal Calculus I", Britisches Journal für Wissenschaftstheorie 11: 305-18.
-----. (1962) "A Causal Calculus II", Britisches Journal für Wissenschaftstheorie 12: 43-51.
Hausman, Daniel. (1998) Kausale Asymmetrien. Cambridge: Cambridge University Press.
Hausman, Daniel und Woodward, James. (1999) "Unabhängigkeit, Invarianz und der kausale Markov-Zustand", British Journal for the Philosophy of Science 50: 1 - 63.
Hesslow, Germund. (1976) "Diskussion: Zwei Anmerkungen zum probabilistischen Ansatz zur Kausalität", Philosophy of Science 43: 290 - 292.
-----. (2002) "Erhöhen alle und nur Ursachen die Wahrscheinlichkeit von Effekten?" in John Collins, Ned Hall und LA Paul (Hrsg.), Causation and Counterfactuals (Cambridge, MA: MIT Press, 2002).
Hull, David, Mickey Forbes und Kathleen Okruhlik, Hrsg. (1993) PSA 1992, Band Zwei. East Lansing: Verein für Philosophie der Wissenschaften.
Hume, David. (1748) Eine Untersuchung zum menschlichen Verständnis.
Humphreys, Paul. (1989) Die Chancen der Erklärung: Kausale Erklärungen in den Sozial-, Medizin- und Physikwissenschaften, Princeton: Princeton University Press.
Kvart, Igal. (1997) "Ursache und einige positive kausale Auswirkungen", Noûs 11: 401 - 432.
Lewis, David. (1986a) "Causation" und "Postscripts to 'Causation'" in Lewis (1986c), S. 172-213.
-----. (1986b) "Kontrafaktische Abhängigkeit und Zeitpfeil" und "Postskripte zu" Kontrafaktische Abhängigkeit und Zeitpfeil " in Lewis (1986c), S. 32 - 66.
-----. (1986c) Philosophical Papers, Band II. Oxford: Oxford University Press.
Mackie, John. (1974) Der Zement des Universums. Oxford: Clarendon Press.
McKim, Vaughn und Stephen Turner, Hrsg. (1997) Kausalität in der Krise? Notre Dame: Universität Notre Dame Press.
Menzies, Peter. (1989) "Probabilistische Verursachung und kausale Prozesse: Eine Kritik von Lewis", Philosophy of Science 56: 642-63.
Menzies, Peter. (1996) "Probabilistic Causation and the Pre-EmissionProblem", Mind 105: 85-117.
Mill, John Stuart. (1843) Ein System von Logik, Ratiozinativ und Induktiv. London: Parker und Sohn.
Noordhof, Paul. (1999) "Probabilistic Causation, Preemption and Counterfactuals", Mind 108: 95 - 125.
Papineau, David. (1993) "Können wir die kausale Richtung auf Wahrscheinlichkeiten reduzieren?" in Hull, Forbes und Okruhlik (1993), S. 238-252.
Perle, Judäa. (1999) "Reasoning with Cause and Effect" in Proceedings der Internationalen Gemeinsamen Konferenz über künstliche Intelligenz (San Francisco: Morgan Kaufman), S. 1437 - 1449.
-----. (2000) Kausalität: Modelle, Argumentation und Folgerung. Cambridge: Cambridge University Press.
Preis, Huw. (1991) "Agency and Probabalistic Causality", Britisches Journal für Wissenschaftstheorie 42: 157-76.
Reichenbach, Hans. (1956) Die Richtung der Zeit. Berkeley und Los Angeles: University of California Press.
Scheines, Richard. (1997) "Eine Einführung in die kausale Folgerung" in McKim und Turner (1997), S. 185 - 199.
Skyrms, Brian. (1980) Kausale Notwendigkeit. New Haven und London: Yale University Press.
Nüchtern, Elliott. (1985) "Two Concepts of Cause" in Peter Asquith und Philip Kitcher, Hrsg., PSA 1984, Vol. II (East Lansing: Philosophy of Science Association), S. 405-424.
Spirtes, Peter, Clark Glymour und Richard Scheines. (2000) Causation, Prediction and Search, 2. Auflage. Cambridge, MA: MIT Press.
Suppes, Patrick. (1970) Eine probabilistische Theorie der Kausalität. Amsterdam: Nordholland Verlag.
Woodward, James. (1990) "Supervenience and Singular Causal Claims", in Dudley Knowles, Hrsg., Explanation and its Limits (Cambridge, Großbritannien: Cambridge University Press), S. 211 - 246.
Andere Internetquellen
[Bitte kontaktieren Sie den Autor mit Vorschlägen.]
Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Leibniz über die Ursache Erstveröffentlichung Di 15. Februar 2005; inhaltliche Überarbeitung Mi 6.
Dies ist eine Datei im Archiv der Stanford Encyclopedia of Philosophy. Reichenbachs Prinzip der gemeinsamen Ursache Erstveröffentlichung Do 23. September 1999; inhaltliche Überarbeitung Mi Aug 18, 2010 Angenommen, zwei Geysire, die ungefähr eine Meile voneinander entfernt sind, brechen in unregelmäßigen Abständen aus, aber normalerweise fast genau zur gleichen Zeit.
Dies ist eine Datei im Archiv der Stanford Encyclopedia of Philosophy. Ursache und Manipulierbarkeit Erstveröffentlichung am 17. August 2001; inhaltliche Überarbeitung Mo 20.10.2008 Manipulierbarkeitstheorien der Kausalität, nach denen Ursachen als Griffe oder Mittel zur Manipulation von Effekten anzusehen sind, haben eine beträchtliche intuitive Anziehungskraft und sind bei Sozialwissenschaftlern und Statistikern beliebt.