Logik Und Wahrscheinlichkeit

Inhaltsverzeichnis:

Logik Und Wahrscheinlichkeit
Logik Und Wahrscheinlichkeit

Video: Logik Und Wahrscheinlichkeit

Video: Logik Und Wahrscheinlichkeit
Video: Wahrscheinlichkeit Grundlagen | Mathe by Daniel Jung 2023, March
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Logik und Wahrscheinlichkeit

Erstveröffentlichung Do 7. März 2013; inhaltliche Überarbeitung Di 26. März 2019

Logik und Wahrscheinlichkeitstheorie sind zwei der Hauptinstrumente bei der formalen Untersuchung des Denkens und wurden in so unterschiedlichen Bereichen wie Philosophie, künstliche Intelligenz, Kognitionswissenschaft und Mathematik erfolgreich angewendet. In diesem Beitrag werden die wichtigsten Vorschläge zur Kombination von Logik und Wahrscheinlichkeitstheorie erörtert und versucht, eine Klassifizierung der verschiedenen Ansätze in diesem sich schnell entwickelnden Bereich bereitzustellen.

  • 1. Kombination von Logik und Wahrscheinlichkeitstheorie
  • 2. Aussagenwahrscheinlichkeitslogik

    • 2.1 Probabilistische Semantik
    • 2.2 Adams 'Wahrscheinlichkeitslogik
    • 2.3 Weitere Verallgemeinerungen
  • 3. Grundlegende Wahrscheinlichkeitsoperatoren

    • 3.1 Qualitative Darstellungen von Unsicherheit
    • 3.2 Beträge und Produkte von Wahrscheinlichkeitsbedingungen
  • 4. Modale Wahrscheinlichkeitslogik

    • 4.1 Grundlegende endliche modale Wahrscheinlichkeitsmodelle
    • 4.2 Indizierung und Interpretation
    • 4.3 Wahrscheinlichkeitsräume
    • 4.4 Quantitative und qualitative Unsicherheit kombinieren
    • 4.5 Dynamik
  • 5. Wahrscheinlichkeitslogik erster Ordnung

    • 5.1 Ein Beispiel für eine Wahrscheinlichkeitslogik erster Ordnung

      • 5.1.1 Quantifizierung über mehr als eine Variable
      • 5.1.2 Bedingte Wahrscheinlichkeit
      • 5.1.3 Wahrscheinlichkeiten als Begriffe
    • 5.2 Mögliche Wahrscheinlichkeitslogik erster Welt
    • 5.3 Metalogic
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Kombination von Logik und Wahrscheinlichkeitstheorie

Die Idee, Logik und Wahrscheinlichkeit zu kombinieren, mag auf den ersten Blick seltsam aussehen (Hájek 2001). Schließlich befasst sich die Logik mit absolut bestimmten Wahrheiten und Schlussfolgerungen, während sich die Wahrscheinlichkeitstheorie mit Unsicherheiten befasst. Darüber hinaus bietet die Logik eine qualitative (strukturelle) Perspektive auf Inferenz (die deduktive Gültigkeit eines Arguments basiert auf der formalen Struktur des Arguments), während Wahrscheinlichkeiten quantitativer (numerischer) Natur sind. Wie im nächsten Abschnitt gezeigt wird, gibt es jedoch natürliche Sinne, in denen die Wahrscheinlichkeitstheorie die klassische Logik voraussetzt und erweitert. Historisch gesehen haben mehrere angesehene Theoretiker wie De Morgan (1847), Boole (1854), Ramsey (1926), de Finetti (1937), Carnap (1950), Jeffrey (1992) und Howson (2003, 2007)2009) haben die engen Verbindungen zwischen Logik und Wahrscheinlichkeit hervorgehoben oder sogar ihre Arbeit an der Wahrscheinlichkeit als Teil der Logik selbst betrachtet.

Durch die Integration der komplementären Perspektiven der qualitativen Logik und der numerischen Wahrscheinlichkeitstheorie kann die Wahrscheinlichkeitslogik sehr aussagekräftige Inferenzberichte liefern. Es sollte daher nicht überraschen, dass sie in allen Bereichen angewendet wurden, die Argumentationsmechanismen untersuchen, wie Philosophie, künstliche Intelligenz, Kognitionswissenschaft und Mathematik. Der Nachteil dieser interdisziplinären Popularität ist, dass Begriffe wie „Wahrscheinlichkeitslogik“von verschiedenen Forschern auf unterschiedliche, nicht äquivalente Weise verwendet werden. Bevor wir zur eigentlichen Diskussion der verschiedenen Ansätze übergehen, werden wir daher zunächst den Gegenstand dieses Eintrags beschreiben.

Der wichtigste Unterschied ist der zwischen Wahrscheinlichkeitslogik und induktiver Logik. Klassischerweise gilt ein Argument nur dann (deduktiv) als gültig, wenn es unmöglich ist, dass die Prämissen von (A) alle wahr sind, während seine Schlussfolgerung falsch ist. Mit anderen Worten, deduktive Gültigkeit bedeutet Wahrung der Wahrheit: In einem gültigen Argument garantiert die Wahrheit der Prämissen die Wahrheit der Schlussfolgerung. In einigen Argumenten garantiert die Wahrheit der Prämissen jedoch nicht vollständig die Wahrheit der Schlussfolgerung, macht sie jedoch sehr wahrscheinlich. Ein typisches Beispiel ist das Argument mit den Prämissen "Der erste Schwan, den ich sah, war weiß", …, "Der 1000. Schwan, den ich sah, war weiß" und der Schlussfolgerung "Alle Schwäne sind weiß". Solche Argumente werden in der induktiven Logik untersucht, die in großem Umfang probabilistische Begriffe verwendet.und wird daher von einigen Autoren als mit der Wahrscheinlichkeitslogik verwandt angesehen. Es gibt einige Diskussionen über die genaue Beziehung zwischen induktiver Logik und Wahrscheinlichkeitslogik, die in der Einführung von Kyburg (1994) zusammengefasst wird. Die dominante Position (unter anderem von Adams und Levine (1975) verteidigt), die auch hier vertreten wird, ist, dass die Wahrscheinlichkeitslogik vollständig zur deduktiven Logik gehört und sich daher nicht mit induktivem Denken befassen sollte. Die meisten Arbeiten zur induktiven Logik fallen jedoch unter den Ansatz der „Wahrscheinlichkeitserhaltung“und sind daher eng mit den in Abschnitt 2 diskutierten Systemen verbunden. Weitere Informationen zur induktiven Logik finden Sie in Jaynes (2003), Fitelson (2006), Romeijn (2011) und die Einträge zum Problem der Induktion und der induktiven Logik dieser Enzyklopädie. Es gibt einige Diskussionen über die genaue Beziehung zwischen induktiver Logik und Wahrscheinlichkeitslogik, die in der Einführung von Kyburg (1994) zusammengefasst wird. Die dominante Position (unter anderem von Adams und Levine (1975) verteidigt), die auch hier vertreten wird, ist, dass die Wahrscheinlichkeitslogik vollständig zur deduktiven Logik gehört und sich daher nicht mit induktivem Denken befassen sollte. Die meisten Arbeiten zur induktiven Logik fallen jedoch unter den Ansatz der „Wahrscheinlichkeitserhaltung“und sind daher eng mit den in Abschnitt 2 diskutierten Systemen verbunden. Weitere Informationen zur induktiven Logik finden Sie in Jaynes (2003), Fitelson (2006), Romeijn (2011) und die Einträge zum Problem der Induktion und der induktiven Logik dieser Enzyklopädie. Es gibt einige Diskussionen über die genaue Beziehung zwischen induktiver Logik und Wahrscheinlichkeitslogik, die in der Einführung von Kyburg (1994) zusammengefasst wird. Die dominante Position (unter anderem von Adams und Levine (1975) verteidigt), die auch hier vertreten wird, ist, dass die Wahrscheinlichkeitslogik vollständig zur deduktiven Logik gehört und sich daher nicht mit induktivem Denken befassen sollte. Die meisten Arbeiten zur induktiven Logik fallen jedoch unter den Ansatz der „Wahrscheinlichkeitserhaltung“und sind daher eng mit den in Abschnitt 2 diskutierten Systemen verbunden. Weitere Informationen zur induktiven Logik finden Sie in Jaynes (2003), Fitelson (2006), Romeijn (2011) und die Einträge zum Problem der Induktion und der induktiven Logik dieser Enzyklopädie. Die dominante Position (unter anderem von Adams und Levine (1975) verteidigt), die auch hier vertreten wird, ist, dass die Wahrscheinlichkeitslogik vollständig zur deduktiven Logik gehört und sich daher nicht mit induktivem Denken befassen sollte. Die meisten Arbeiten zur induktiven Logik fallen jedoch unter den Ansatz der „Wahrscheinlichkeitserhaltung“und sind daher eng mit den in Abschnitt 2 diskutierten Systemen verbunden. Weitere Informationen zur induktiven Logik finden Sie in Jaynes (2003), Fitelson (2006), Romeijn (2011) und die Einträge zum Problem der Induktion und der induktiven Logik dieser Enzyklopädie. Die dominante Position (unter anderem von Adams und Levine (1975) verteidigt), die auch hier vertreten wird, ist, dass die Wahrscheinlichkeitslogik vollständig zur deduktiven Logik gehört und sich daher nicht mit induktivem Denken befassen sollte. Die meisten Arbeiten zur induktiven Logik fallen jedoch unter den Ansatz der „Wahrscheinlichkeitserhaltung“und sind daher eng mit den in Abschnitt 2 diskutierten Systemen verbunden. Weitere Informationen zur induktiven Logik finden Sie in Jaynes (2003), Fitelson (2006), Romeijn (2011) und die Einträge zum Problem der Induktion und der induktiven Logik dieser Enzyklopädie. Die meisten Arbeiten zur induktiven Logik fallen unter den Ansatz der „Wahrscheinlichkeitserhaltung“und sind daher eng mit den in Abschnitt 2 diskutierten Systemen verbunden. Weitere Informationen zur induktiven Logik finden Sie in Jaynes (2003), Fitelson (2006), Romeijn (2011)) und die Einträge zum Problem der Induktion und der induktiven Logik dieser Enzyklopädie. Die meisten Arbeiten zur induktiven Logik fallen unter den Ansatz der „Wahrscheinlichkeitserhaltung“und sind daher eng mit den in Abschnitt 2 diskutierten Systemen verbunden. Weitere Informationen zur induktiven Logik finden Sie in Jaynes (2003), Fitelson (2006), Romeijn (2011)) und die Einträge zum Problem der Induktion und der induktiven Logik dieser Enzyklopädie.

Wir werden uns auch von der philosophischen Debatte über die genaue Natur der Wahrscheinlichkeit fernhalten. Die hier diskutierten formalen Systeme sind mit allen gängigen Interpretationen der Wahrscheinlichkeit kompatibel, aber offensichtlich passen in konkreten Anwendungen bestimmte Interpretationen der Wahrscheinlichkeit natürlicher als andere. Zum Beispiel sind die in Abschnitt 4 diskutierten Modalwahrscheinlichkeitslogiken für sich genommen neutral in Bezug auf die Art der Wahrscheinlichkeit, aber wenn sie zur Beschreibung des Verhaltens eines Übergangssystems verwendet werden, werden ihre Wahrscheinlichkeiten typischerweise objektiv interpretiert, während die Modellierung multi -agent-Szenarien werden am natürlichsten von einer subjektiven Interpretation der Wahrscheinlichkeiten (als Glaubensgrad der Agenten) begleitet. Dieses Thema wird ausführlich in Gillies (2000), Eagle (2010) und im Eintrag über Interpretationen der Wahrscheinlichkeit dieser Enzyklopädie behandelt.

Ein aktueller Trend in der Literatur bestand darin, sich weniger auf die Integration oder Kombination von Logik und Wahrscheinlichkeitstheorie in einem einzigen einheitlichen Rahmen zu konzentrieren, sondern Brücken zwischen den beiden Disziplinen zu schlagen. Dies beinhaltet typischerweise den Versuch, die qualitativen Begriffe der Logik in quantitativen Begriffen der Wahrscheinlichkeitstheorie zu erfassen oder umgekehrt. Wir werden der Vielfalt der Ansätze in diesem boomenden Bereich nicht gerecht werden können, aber interessierte Leser können Leitgeb (2013, 2014), Lin und Kelly (2012a, 2012b), Douven und Rott (2018) und Harrison- konsultieren. Trainor, Holliday und Icard (2016, 2018). Ein "zeitgenössischer Klassiker" in diesem Bereich ist Leitgeb (2017), während van Benthem (2017) eine nützliche Übersicht und einige interessante programmatische Bemerkungen bietet.

Obwohl der Erfolg der Wahrscheinlichkeitslogik weitgehend auf ihre verschiedenen Anwendungen zurückzuführen ist, werden wir uns mit diesen Anwendungen nicht im Detail befassen. Zum Beispiel werden wir die Verwendung der Wahrscheinlichkeit als formale Repräsentation des Glaubens an die Philosophie (Bayes'sche Erkenntnistheorie) oder der künstlichen Intelligenz (Wissensrepräsentation) und ihre Vor- und Nachteile in Bezug auf alternative Repräsentationen wie die verallgemeinerte Wahrscheinlichkeitstheorie (für Quantum) nicht bewerten Theorie), (p) - adische Wahrscheinlichkeit und Fuzzy-Logik. Für weitere Informationen zu diesen Themen kann der Leser Gerla (1994), Vennekens et al. (2009), Hájek und Hartmann (2010), Hartmann und Sprenger (2010), Ilić-Stepić et al. (2012) und die Einträge zu formalen Darstellungen des Glaubens, der Bayes'schen Erkenntnistheorie, dem durchführbaren Denken, der Quantenlogik und der Wahrscheinlichkeitstheorie,und Fuzzy-Logik dieser Enzyklopädie.

Mit diesen Klarstellungen sind wir nun bereit, uns anzuschauen, was in diesem Eintrag besprochen wird. Die gebräuchlichste Strategie, um ein konkretes System der Wahrscheinlichkeitslogik zu erhalten, besteht darin, mit einem klassischen (propositionalen / modalen / etc.) System der Logik zu beginnen und es auf die eine oder andere Weise zu "probabilisieren", indem probabilistische Merkmale hinzugefügt werden. Es gibt verschiedene Möglichkeiten, wie diese Wahrscheinlichkeit implementiert werden kann. Man kann probabilistische Semantik für klassische Sprachen studieren (die keine expliziten probabilistischen Operatoren haben). In diesem Fall erhält die Konsequenzrelation selbst einen probabilistischen Charakter: deduktive Validität wird eher zu "Wahrscheinlichkeitserhaltung" als zu "Wahrheitserhaltung". Diese Richtung wird in Abschnitt 2 erörtert. Alternativ kann man der Syntax der Logik verschiedene Arten von Wahrscheinlichkeitsoperatoren hinzufügen. In Abschnitt 3 werden wir einige erste, eher grundlegende Beispiele für probabilistische Operatoren diskutieren. Die volle Expressivität modaler probabilistischer Operatoren wird in Abschnitt 4 untersucht. Schließlich werden Sprachen mit probabilistischen Operatoren erster Ordnung in Abschnitt 5 erörtert.

2. Aussagenwahrscheinlichkeitslogik

In diesem Abschnitt werden wir eine erste Familie von Wahrscheinlichkeitslogiken vorstellen, mit denen Fragen der 'Wahrscheinlichkeitserhaltung' (oder zweifach 'Unsicherheitsausbreitung') untersucht werden. Diese Systeme erweitern die Sprache nicht um probabilistische Operatoren, sondern befassen sich mit einer 'klassischen' Satzsprache (mathcal {L}), die eine zählbare Menge atomarer Sätze aufweist, und der üblichen Wahrheitsfunktion (Boolean). Konnektiva.

Die Hauptidee ist, dass die Prämissen eines gültigen Arguments ungewiss sein können. In diesem Fall legt die (deduktive) Gültigkeit keine Bedingungen für die (Un-) Gewissheit der Schlussfolgerung fest. Zum Beispiel ist das Argument mit den Prämissen "Wenn es morgen regnen wird, werde ich nass" und "Es wird morgen regnen" und die Schlussfolgerung "Ich werde nass werden" gültig, aber wenn seine zweite Prämisse ungewiss ist, wird seine Schlussfolgerung typischerweise sein auch unsicher sein. Aussagenwahrscheinlichkeitslogiken stellen solche Unsicherheiten wie Wahrscheinlichkeiten dar und untersuchen, wie sie von den Prämissen zur Schlussfolgerung „fließen“; Mit anderen Worten, sie studieren nicht die Wahrung der Wahrheit, sondern die Wahrung der Wahrscheinlichkeit. In den folgenden drei Unterabschnitten werden Systeme erläutert, die sich mit immer allgemeineren Versionen dieses Problems befassen.

2.1 Probabilistische Semantik

Wir beginnen mit der Erinnerung an den Begriff einer Wahrscheinlichkeitsfunktion für die Satzsprache (mathcal {L}). (In der Mathematik werden Wahrscheinlichkeitsfunktionen normalerweise für eine (sigma) - Algebra von Teilmengen einer gegebenen Menge (Omega) definiert und sind erforderlich, um die zählbare Additivität zu erfüllen; vgl. Abschnitt 4.3. In logischen Kontexten jedoch Es ist oft natürlicher, Wahrscheinlichkeitsfunktionen 'sofort' für die Objektsprache der Logik zu definieren (Williamson 2002). Da diese Sprache endlich ist - alle ihre Formeln haben eine endliche Länge -, reicht es auch aus, eine endliche Additivität zu erfordern.) Eine Wahrscheinlichkeitsfunktion (z (mathcal {L})) ist eine Funktion (P: \ mathcal {L} bis \ mathbb {R}), die die folgenden Einschränkungen erfüllt:

Nicht-Negativität. (P (phi) geq 0) für alle (phi \ in \ mathcal {L}.)

Tautologien. Wenn (models \ phi), dann ist (P (phi) = 1.)

Endliche Additivität. Wenn (models \ neg (phi \ wedge \ psi)), dann ist (P (phi \ vee \ psi) = P (phi) + P (psi).)

In der zweiten und dritten Bedingung bezeichnet das Symbol (models) - die (semantische) Gültigkeit in der klassischen Aussagenlogik. Die Definition von Wahrscheinlichkeitsfunktionen erfordert daher Begriffe aus der klassischen Logik, und in diesem Sinne kann gesagt werden, dass die Wahrscheinlichkeitstheorie die klassische Logik voraussetzt (Adams 1998, 22). Es kann leicht gezeigt werden, dass, wenn (P) diese Bedingungen erfüllt, (P (phi) in [0,1]) für alle Formeln (phi \ in \ mathcal {L}), und (P (phi) = P (psi)) für alle Formeln (phi, \ psi \ in \ mathcal {L}), die logisch äquivalent sind (dh so, dass (models \ phi) linker rechter Pfeil \ psi)).

Wir wenden uns nun der probabilistischen Semantik zu, wie sie in Leblanc (1983) definiert ist. Ein Argument mit Prämissen (Gamma) und Schlussfolgerung (phi) - im Folgenden als ((Gamma, \ phi)) bezeichnet - gilt als wahrscheinlich gültig, geschrieben (Gamma \ models_p \ phi)), dann und nur dann, wenn:

für alle Wahrscheinlichkeitsfunktionen (P: \ mathcal {L} bis \ mathbb {R}):

wenn (P (gamma) = 1) für alle (gamma \ in \ Gamma), dann auch (P (phi) = 1).

Die probabilistische Semantik ersetzt somit die Bewertungen (v: \ mathcal {L} bis {0,1 }) der klassischen Aussagenlogik durch Wahrscheinlichkeitsfunktionen (P: \ mathcal {L} bis \ mathbb {R}), die Werte im realen Einheitsintervall ([0,1]) annehmen. Die klassischen Wahrheitswerte von wahr (1) und falsch (0) können somit als Endpunkte des Einheitsintervalls ([0,1]) und ebenso als Bewertungen (v: \ mathcal {L} to) angesehen werden {0,1 }) kann als entartete Wahrscheinlichkeitsfunktion (P: \ mathcal {L} bis [0,1]) angesehen werden. In diesem Sinne ist die klassische Logik ein Sonderfall der Wahrscheinlichkeitslogik, oder gleichwertig ist die Wahrscheinlichkeitslogik eine Erweiterung der klassischen Logik.

Es kann gezeigt werden, dass die klassische Aussagenlogik in Bezug auf die probabilistische Semantik (stark) solide und vollständig ist:

) Gamma \ models_p \ phi \ text {genau dann, wenn} Gamma \ vdash \ phi.)

Einige Autoren interpretieren Wahrscheinlichkeiten als verallgemeinerte Wahrheitswerte (Reichenbach 1949, Leblanc 1983). Nach dieser Ansicht ist die Wahrscheinlichkeitslogik nur eine bestimmte Art von vielwertiger Logik, und die probabilistische Gültigkeit läuft auf die Wahrung der Wahrheit hinaus: Die Wahrheit (dh Wahrscheinlichkeit 1) überträgt sich von den Prämissen auf die Schlussfolgerung. Andere Logiker wie Tarski (1936) und Adams (1998, 15) haben festgestellt, dass Wahrscheinlichkeiten nicht als verallgemeinerte Wahrheitswerte angesehen werden können, da Wahrscheinlichkeitsfunktionen nicht "erweiterend" sind. Zum Beispiel kann (P (phi \ wedge \ psi)) nicht als Funktion von (P (phi)) und (P (psi)) ausgedrückt werden. Weitere Diskussionen zu diesem Thema finden sich in Hailperin (1984).

Eine andere Möglichkeit besteht darin, die Wahrscheinlichkeit eines Satzes als Maß für seine (Un-) Sicherheit zu interpretieren. Zum Beispiel kann der Satz "Jones ist im Moment in Spanien" einen beliebigen Grad an Sicherheit haben, der von 0 (maximale Unsicherheit) bis 1 (maximale Sicherheit) reicht. (Beachten Sie, dass 0 tatsächlich eine Art Gewissheit ist, nämlich Gewissheit über Falschheit. In diesem Eintrag folgen wir jedoch Adams 'Terminologie (1998, 31) und interpretieren 0 als maximale Unsicherheit.) Nach dieser Interpretation folgt der folgende Satz aus die starke Solidität und Vollständigkeit der probabilistischen Semantik:

Satz 1. Betrachten Sie ein deduktiv gültiges Argument ((Gamma, \ phi)). Wenn alle Prämissen in (Gamma) die Wahrscheinlichkeit 1 haben, hat die Schlussfolgerung (phi) auch die Wahrscheinlichkeit 1.

Dieser Satz kann als erste, sehr teilweise Klärung des Problems der Wahrscheinlichkeitserhaltung (oder der Unsicherheitsausbreitung) angesehen werden. Es heißt, wenn es keinerlei Unsicherheit über die Räumlichkeiten gibt, kann es auch keine Unsicherheit über die Schlussfolgerung geben. In den nächsten beiden Unterabschnitten werden wir interessantere Fälle betrachten, in denen die Prämissen ungleich Null sind, und fragen, wie sich dies auf die Schlussfolgerung auswirkt.

Schließlich ist anzumerken, dass, obwohl in diesem Unterabschnitt nur die probabilistische Semantik für die klassische Aussagenlogik erörtert wurde, es auch eine probabilistische Semantik für eine Vielzahl anderer Logiken gibt, wie beispielsweise die intuitionistische Aussagenlogik (van Fraassen 1981b, Morgan und Leblanc 1983), modale Logik (Morgan 1982a, 1982b, 1983, Cross 1993), klassische Logik erster Ordnung (Leblanc 1979, 1984, van Fraassen 1981b), relevante Logik (van Fraassen 1983) und nichtmonotone Logik (Pearl 1991). Alle diese Systeme haben ein gemeinsames Merkmal: Die Semantik der Logik ist probabilistischer Natur, aber Wahrscheinlichkeiten werden in der Objektsprache nicht explizit dargestellt. Daher sind sie der hier diskutierten Aussagenwahrscheinlichkeitslogik viel näher als den in späteren Abschnitten vorgestellten Systemen.

Die meisten dieser Systeme basieren nicht auf unären Wahrscheinlichkeiten (P (phi)), sondern auf bedingten Wahrscheinlichkeiten (P (phi, \ psi)). Die bedingte Wahrscheinlichkeit (P (phi, \ psi)) wird als primitiv angenommen (anstatt wie gewöhnlich als (P (phi \ wedge \ psi) / P (psi)) definiert zu werden). um Probleme zu vermeiden, wenn (P (psi) = 0). Goosens (1979) gibt einen Überblick über verschiedene Axiomatisierungen der Wahrscheinlichkeitstheorie im Hinblick auf solche primitiven Begriffe der bedingten Wahrscheinlichkeit.

2.2 Adams 'Wahrscheinlichkeitslogik

Im vorherigen Unterabschnitt haben wir ein erstes Prinzip der Wahrscheinlichkeitserhaltung erörtert, das besagt, dass wenn alle Prämissen die Wahrscheinlichkeit 1 haben, die Schlussfolgerung auch die Wahrscheinlichkeit 1 hat. Natürlich ergeben sich interessantere Fälle, wenn die Prämissen weniger als absolut sicher sind. Betrachten Sie das gültige Argument mit den Prämissen (p \ vee q) und (p \ bis q) und der Schlussfolgerung (q) (das Symbol '(bis)' bezeichnet die wahrheitsbedingte materielle Bedingung).. Das kann man leicht zeigen

[P (q) = P (p \ vee q) + P (p \ bis q) - 1.)

Mit anderen Worten, wenn wir die Wahrscheinlichkeiten der Prämissen des Arguments kennen, können wir die genaue Wahrscheinlichkeit seiner Schlussfolgerung berechnen und somit eine vollständige Antwort auf die Frage der Wahrscheinlichkeitserhaltung für dieses bestimmte Argument geben (zum Beispiel wenn (P (p \ vee q) = 6/7) und (P (p \ bis q) = 5/7), dann (P (q) = 4/7)). Im Allgemeinen ist es jedoch angesichts der Wahrscheinlichkeiten der Prämissen nicht möglich, die genaue Wahrscheinlichkeit der Schlussfolgerung zu berechnen. Das Beste, auf das wir hoffen können, ist eine (enge) Ober- und / oder Untergrenze für die Wahrscheinlichkeit der Schlussfolgerung. Wir werden nun Adams '(1998) Methoden diskutieren, um solche Grenzen zu berechnen.

Adams Ergebnisse können leichter als Unsicherheit als als Gewissheit (Wahrscheinlichkeit) angegeben werden. Bei gegebener Wahrscheinlichkeitsfunktion (P: \ mathcal {L} bis [0,1]) ist die entsprechende Unsicherheitsfunktion (U_P) definiert als

[U_P: \ mathcal {L} bis [0,1]: \ phi \ mapsto U_P (phi): = 1-P (phi).)

Wenn die Wahrscheinlichkeitsfunktion (P) aus dem Kontext hervorgeht, schreiben wir oft einfach (U) anstelle von (U_P). Im Rest dieses Unterabschnitts (und auch im nächsten) gehen wir davon aus, dass alle Argumente nur endlich viele Prämissen haben (was angesichts der Kompaktheitseigenschaft der klassischen Aussagenlogik keine signifikante Einschränkung darstellt). Adams 'erstes Hauptergebnis, das ursprünglich von Suppes (1966) aufgestellt wurde, kann nun wie folgt angegeben werden:

Satz 2. Betrachten Sie ein gültiges Argument ((Gamma, \ phi)) und eine Wahrscheinlichkeitsfunktion (P). Dann kann die Unsicherheit der Schlussfolgerung (phi) die Summe der Unsicherheiten der Prämissen (gamma \ in \ Gamma) nicht überschreiten. Formal:

[U (phi) leq \ sum _ { gamma \ in \ Gamma} U (gamma).)

Beachten Sie zunächst, dass dieser Satz Satz 1 als Sonderfall subsumiert: Wenn (P (gamma) = 1) für alle (gamma \ in \ Gamma), dann (U (gamma) = 0) für alle (gamma \ in \ Gamma), also (U (phi) leq \ sum U (gamma) = 0) und damit (P (phi) = 1). Beachten Sie außerdem, dass die Obergrenze für die Unsicherheit der Schlussfolgerung von (| \ Gamma |) abhängt, dh von der Anzahl der Prämissen. Wenn ein gültiges Argument eine kleine Anzahl von Prämissen hat, von denen jede nur eine geringe Unsicherheit (dh eine hohe Sicherheit) aufweist, hat seine Schlussfolgerung auch eine relativ kleine Unsicherheit (dh eine angemessen hohe Sicherheit). Wenn umgekehrt ein gültiges Argument Prämissen mit kleinen Unsicherheiten aufweist, kann seine Schlussfolgerung nur dann sehr unsicher sein, wenn das Argument eine große Anzahl von Prämissen aufweist (ein berühmtes Beispiel für dieses umgekehrte Prinzip ist das Lotterieparadoxon von Kyburg (1965)). Dies wird im Eintrag über epistemische Paradoxien dieser Enzyklopädie erörtert. Um die Angelegenheit konkreter zu formulieren: Wenn ein gültiges Argument drei Prämissen mit jeweils einer Unsicherheit von 1/11 hat, hat das Hinzufügen einer Prämisse mit einer Unsicherheit von 1/11 keinen Einfluss auf die Gültigkeit des Arguments, erhöht jedoch die Obergrenze die Unsicherheit der Schlussfolgerung von 3/11 bis 4/11, wodurch die Schlussfolgerung unsicherer wird als ursprünglich der Fall. Schließlich ist die durch Satz 2 bereitgestellte Obergrenze in dem Sinne optimal, dass (unter den richtigen Bedingungen) die Unsicherheit der Schlussfolgerung mit ihrer Obergrenze (sum U (gamma)) zusammenfallen kann:Wenn Sie dann eine Prämisse hinzufügen, die ebenfalls die Unsicherheit 1/11 aufweist, wird die Gültigkeit des Arguments nicht beeinflusst, aber die Obergrenze für die Unsicherheit der Schlussfolgerung wird von 3/11 auf 4/11 angehoben, sodass die Schlussfolgerung unsicherer ist als ursprünglich Fall. Schließlich ist die durch Satz 2 bereitgestellte Obergrenze in dem Sinne optimal, dass (unter den richtigen Bedingungen) die Unsicherheit der Schlussfolgerung mit ihrer Obergrenze (sum U (gamma)) zusammenfallen kann:Wenn Sie dann eine Prämisse hinzufügen, die ebenfalls die Unsicherheit 1/11 aufweist, wird die Gültigkeit des Arguments nicht beeinflusst, aber die Obergrenze für die Unsicherheit der Schlussfolgerung wird von 3/11 auf 4/11 angehoben, sodass die Schlussfolgerung unsicherer ist als ursprünglich Fall. Schließlich ist die durch Satz 2 bereitgestellte Obergrenze in dem Sinne optimal, dass (unter den richtigen Bedingungen) die Unsicherheit der Schlussfolgerung mit ihrer Obergrenze (sum U (gamma)) zusammenfallen kann:in dem Sinne, dass (unter den richtigen Bedingungen) die Unsicherheit der Schlussfolgerung mit ihrer Obergrenze (sum U (gamma)) zusammenfallen kann:in dem Sinne, dass (unter den richtigen Bedingungen) die Unsicherheit der Schlussfolgerung mit ihrer Obergrenze (sum U (gamma)) zusammenfallen kann:

Satz 3. Betrachten Sie ein gültiges Argument ((Gamma, \ phi)) und nehmen Sie an, dass die Prämissenmenge (Gamma) konsistent ist und dass jede Prämisse (gamma \ in \ Gamma) relevant ist (dh (Gamma - { gamma } not \ models \ phi)). Dann existiert eine Wahrscheinlichkeitsfunktion (P: \ mathcal {L} bis [0,1]), so dass

[U_P (phi) = \ sum _ { gamma \ in \ Gamma} U_P (gamma).)

Die durch Satz 2 bereitgestellte Obergrenze kann auch verwendet werden, um einen probabilistischen Begriff der Gültigkeit zu definieren. Ein Argument ((Gamma, \ phi)) soll genau dann Adams-probabilistisch gültig sein, geschrieben (Gamma \ models_a \ phi), wenn

für alle Wahrscheinlichkeitsfunktionen (P: \ mathcal {L} bis \ mathbb {R}): (U_P (phi) leq \ sum _ { gamma \ in \ Gamma} U_P (gamma)).

Die Adams-probabilistische Validität hat eine alternative, äquivalente Charakterisierung in Bezug auf Wahrscheinlichkeiten und nicht in Bezug auf Unsicherheiten. Diese Charakterisierung besagt, dass ((Gamma, \ phi)) genau dann Adams-probabilistisch gültig ist, wenn die Wahrscheinlichkeit der Schlussfolgerung willkürlich nahe an 1 heranreichen kann, wenn die Wahrscheinlichkeiten der Prämissen ausreichend hoch sind. Formal: (Gamma \ models_a \ phi) genau dann, wenn

für alle (epsilon> 0) existiert ein (delta> 0), so dass für alle Wahrscheinlichkeitsfunktionen (P):

wenn (P (gamma)> 1- \ delta) für alle (gamma \ in \ Gamma), dann (P (phi)> 1- \ epsilon).

Es kann gezeigt werden, dass die klassische Aussagenlogik in Bezug auf Adams 'probabilistische Semantik (stark) solide und vollständig ist:

) Gamma \ models_a \ phi \ text {genau dann, wenn} Gamma \ vdash \ phi.)

Adams (1998, 154) definiert auch eine andere Logik, für die seine probabilistische Semantik solide und vollständig ist. Dieses System beinhaltet jedoch einen nicht wahrheitsfunktionalen Zusammenhang (die Wahrscheinlichkeitsbedingung) und fällt daher nicht in den Geltungsbereich dieses Abschnitts. (Weitere Informationen zur probabilistischen Interpretation von Bedingungen finden Sie in den Einträgen zu Bedingungen und der Logik von Bedingungen dieser Enzyklopädie.)

Betrachten Sie das folgende Beispiel. Das Argument (A) mit Prämissen (p, q, r, s) und Schlussfolgerung (p \ wedge (q \ vee r)) ist gültig. Angenommen, (P (p) = 10/11 \, P (q) = P (r) = 9/11) und (P (s) = 7/11). Dann sagt Satz 2 das

) begin {align} & U (p \ wedge (q \ vee r)) leq \& \ quad \ frac {1} {11} + \ frac {2} {11} + \ frac {2} { 11} + \ frac {4} {11} = \ frac {9} {11}. \ end {align})

Diese Obergrenze für die Unsicherheit der Schlussfolgerung ist ziemlich enttäuschend und enthüllt die Hauptschwäche von Satz 2. Einer der Gründe, warum die Obergrenze so hoch ist, besteht darin, dass wir bei der Berechnung die Prämisse (s) berücksichtigt haben), die eine ziemlich hohe Unsicherheit aufweist ((4/11)). Diese Prämisse ist jedoch insofern irrelevant, als die Schlussfolgerung bereits aus den anderen drei Prämissen folgt. Daher können wir (p \ wedge (q \ vee r)) nicht nur als Schlussfolgerung des gültigen Arguments (A) betrachten, sondern auch als Schlussfolgerung des (gleichermaßen gültigen) Arguments (A ')., die Prämissen (p, q, r) hat. Im letzteren Fall ergibt Satz 2 eine Obergrenze von (1/11 + 2/11 + 2/11 = 5/11), die bereits viel niedriger ist.

Die Schwäche von Satz 2 besteht somit darin, dass irrelevante oder unwesentliche Prämissen (die Unsicherheit von) berücksichtigt werden. Um eine verbesserte Version dieses Theorems zu erhalten, ist ein feinkörnigerer Begriff von "Wesentlichkeit" erforderlich. Im Argument (A) im obigen Beispiel ist die Prämisse (s) absolut irrelevant. In ähnlicher Weise ist die Prämisse (p) absolut relevant in dem Sinne, dass ohne diese Prämisse die Schlussfolgerung (p \ Keil (q \ vee r)) nicht mehr ableitbar ist. Schließlich liegt die Prämissen-Teilmenge ({q, r }) 'dazwischen': Zusammen sind (q) und (r) relevant (wenn beide Prämissen weggelassen werden, ist die Schlussfolgerung nicht mehr ableitbar), aber jeder von ihnen kann separat weggelassen werden (wobei die Schlussfolgerung ableitbar bleibt).

Der Begriff der Wesentlichkeit wird wie folgt formalisiert:

Wesentliches Prämissenset. Bei einem gültigen Argument ((Gamma, \ phi)) ist eine Menge (Gamma '\ subseteq \ Gamma) wesentlich, wenn (Gamma - \ Gamma' \ not \ models \ phi).

Grad der Wesentlichkeit. Bei einem gültigen Argument ((Gamma, \ phi)) und einer Prämisse (gamma \ in \ Gamma) ist der Grad der Wesentlichkeit von (gamma) geschrieben (E (gamma)) ist (1 / | S_ \ gamma |), wobei (| S_ \ gamma |) die Kardinalität der kleinsten wesentlichen Prämissenmenge ist, die (gamma) enthält. Wenn (gamma) nicht zu einer minimalen wesentlichen Prämissenmenge gehört, ist der Grad der Wesentlichkeit von (gamma) 0.

Mit diesen Definitionen kann eine verfeinerte Version von Satz 2 erstellt werden:

Satz 4. Betrachten Sie ein gültiges Argument ((Gamma, \ phi)). Dann kann die Unsicherheit der Schlussfolgerung (phi) die gewichtete Summe der Unsicherheiten der Prämissen (gamma \ in \ Gamma) mit den Wesentlichkeitsgraden als Gewichten nicht überschreiten. Formal:

[U (phi) leq \ sum _ { gamma \ in \ Gamma} E (gamma) U (gamma).)

Der Beweis von Satz 4 ist wesentlich schwieriger als der von Satz 2: Satz 2 erfordert nur eine grundlegende Wahrscheinlichkeitstheorie, während Satz 4 mit Methoden der linearen Programmierung bewiesen wird (Adams und Levine 1975; Goldman und Tucker 1956). Satz 4 fasst Satz 2 als Sonderfall zusammen: Wenn alle Prämissen relevant sind (dh den Grad der Wesentlichkeit 1 haben), ergibt Satz 4 dieselbe Obergrenze wie Satz 2. Darüber hinaus berücksichtigt Satz 4 keine irrelevanten Prämissen (dh Prämissen) mit Grad der Wesentlichkeit 0) diese Obergrenze zu berechnen; Wenn also eine Prämisse für die Gültigkeit des Arguments irrelevant ist, wird ihre Unsicherheit nicht auf die Schlussfolgerung übertragen. Beachten Sie schließlich, dass (E (gamma) in [0,1]) für alle (gamma \ in \ Gamma) gilt

) sum _ { gamma \ in \ Gamma} E (gamma) U (gamma) leq \ sum _ { gamma \ in \ Gamma} U (gamma),)

dh Satz 4 ergibt im Allgemeinen eine engere Obergrenze als Satz 2. Um dies zu veranschaulichen, betrachten Sie noch einmal das Argument mit Prämissen (p, q, r, s) und Schlussfolgerung (p \ Keil (q \ vee r)).. Denken Sie daran, dass (P (p) = 10/11, P (q) = P (r) = 9/11) und (P (s) = 7/11). Man kann den Grad der Wesentlichkeit der Prämissen berechnen: (E (p) = 1, E (q) = E (r) = 1/2) und (E (s) = 0). Daher ergibt Satz 4 das

) begin {align} & U (p \ wedge (q \ vee r)) leq \& \ quad \ left (1 \ times \ frac {1} {11} right) + \ left (frac { 1} {2} times \ frac {2} {11} right) + \ left (frac {1} {2} times \ frac {2} {11} right) + \ left (0 \ times \ frac {4} {11} right) = \ frac {3} {11}, \ end {align})

Dies ist eine engere Obergrenze für die Unsicherheit von (p \ Wedge (q \ vee r)) als jede der oben über Satz 2 (nämlich (9/11) und (5/11) erhaltenen Grenzen)).

2.3 Weitere Verallgemeinerungen

Angesichts der Unsicherheiten (und Grade der Wesentlichkeit) der Prämissen eines gültigen Arguments erlauben uns Adams 'Theoreme, eine Obergrenze für die Unsicherheit der Schlussfolgerung zu berechnen. Natürlich können diese Ergebnisse auch eher als Wahrscheinlichkeiten als als Unsicherheiten ausgedrückt werden. Sie ergeben dann eine Untergrenze für die Wahrscheinlichkeit der Schlussfolgerung. Wenn Satz 4 beispielsweise eher als Wahrscheinlichkeiten als als als Unsicherheiten ausgedrückt wird, sieht er wie folgt aus:

[P (phi) geq 1 - \ sum _ { gamma \ in \ Gamma} E (gamma) (1 - P (gamma)).)

Adams 'Ergebnisse sind auf mindestens zwei Arten eingeschränkt:

  • Sie geben nur eine Untergrenze für die Wahrscheinlichkeit der Schlussfolgerung an (angesichts der Wahrscheinlichkeiten der Prämissen). In gewissem Sinne ist dies die wichtigste Grenze: Sie repräsentiert die Wahrscheinlichkeit der Schlussfolgerung im „Worst-Case-Szenario“, die in praktischen Anwendungen nützliche Informationen sein kann. In einigen Anwendungen kann es jedoch auch informativ sein, eine Obergrenze für die Wahrscheinlichkeit der Schlussfolgerung zu haben. Wenn man zum Beispiel weiß, dass diese Wahrscheinlichkeit eine Obergrenze von 0,4 hat, könnte man sich entscheiden, bestimmte Aktionen zu unterlassen (die man ausgeführt hätte, wenn diese Obergrenze 0,9 gewesen wäre).
  • Sie setzen voraus, dass die genauen Wahrscheinlichkeiten der Räumlichkeiten bekannt sind. In praktischen Anwendungen gibt es jedoch möglicherweise nur teilweise Informationen über die Wahrscheinlichkeit einer Prämisse (gamma): Ihr genauer Wert ist nicht bekannt, es ist jedoch bekannt, dass sie eine Untergrenze (a) und eine Obergrenze aufweist (b) (Walley 1991). In solchen Anwendungen wäre es nützlich, eine Methode zur Berechnung (optimaler) Unter- und Obergrenzen für die Wahrscheinlichkeit der Schlussfolgerung in Bezug auf die Ober- und Untergrenze der Wahrscheinlichkeiten der Räumlichkeiten zu haben.

Hailperin (1965, 1984, 1986, 1996) und Nilsson (1986) verwenden Methoden aus der linearen Programmierung, um zu zeigen, dass diese beiden Einschränkungen überwunden werden können. Ihr wichtigstes Ergebnis ist das Folgende:

Satz 5. Betrachten Sie ein Argument ((Gamma, \ phi)) mit (| \ Gamma | = n). Es gibt Funktionen (L _ { Gamma, \ phi}: \ mathbb {R} ^ {2n} bis \ mathbb {R}) und (U _ { Gamma, \ phi}: \ mathbb {R} ^ {2n} bis \ mathbb {R}), so dass für jede Wahrscheinlichkeitsfunktion (P) Folgendes gilt: if (a_i \ leq P (gamma_i) leq b_i) für (1 \ leq i \ leq n), dann:

  1. (L _ { Gamma, \ phi} (a_1, \ Punkte, a_n, b_1, \ Punkte, b_n) leq P (phi): \ leq) (U _ { Gamma, \ phi} (a_1), \ dots, a_n, b_1, \ dots, b_n)).
  2. Die Grenzen in Punkt 1 sind optimal in dem Sinne, dass es Wahrscheinlichkeitsfunktionen (P_L) und (P_U) gibt, so dass (a_i \ leq P_L (gamma_i),) (P_U (gamma_i) leq b_i) für (1 \ leq i \ leq n) und (L _ { Gamma, \ phi} (a_1, \ Punkte, a_n, b_1, \ Punkte, b_n) = P_L (phi)) und (P_U (phi) = U _ { Gamma, \ phi} (a_1, \ Punkte, a_n, b_1, \ Punkte, b_n)).
  3. Die Funktionen (L _ { Gamma, \ phi}) und (U _ { Gamma, \ phi}) sind effektiv aus der Booleschen Struktur der Sätze in (Gamma \ cup { phi } bestimmbar).

Dieses Ergebnis kann auch verwendet werden, um einen weiteren probabilistischen Begriff der Gültigkeit zu definieren, den wir als Hailperin-probabilistische Gültigkeit oder einfach als h-Gültigkeit bezeichnen werden. Dieser Begriff wird nicht in Bezug auf Formeln definiert, sondern in Bezug auf Paare, die aus einer Formel und einem Subintervall von ([0,1]) bestehen. Wenn (X_i) das Intervall ist, das der Prämisse (gamma_i \ in \ Gamma) zugeordnet ist, und (Y) das Intervall ist, das der Schlussfolgerung (phi) zugeordnet ist, dann ist das Argument ((Gamma), \ phi)) heißt h-ungültig, geschrieben (Gamma \ models_h \ phi), genau dann, wenn für alle Wahrscheinlichkeitsfunktionen (P):

) text {if} P (gamma_i) in X_i \ text {for} 1 \ leq i \ leq n, \ text {then} P (phi) in Y)

In Haenni et al. (2011) ist geschrieben als

) gamma_1 ^ {X_1}, \ dots, \ gamma_n ^ {X_n} | \! \! \! \ approx \ phi ^ Y)

und nannte die Standard probabilistische Semantik.

Nilssons Arbeit zur probabilistischen Logik (1986, 1993) hat viele Forschungen zum probabilistischen Denken in der künstlichen Intelligenz ausgelöst (Hansen und Jaumard 2000; Kapitel 2 von Haenni et al. 2011). Es sollte jedoch beachtet werden, dass, obwohl Satz 5 besagt, dass die Funktionen (L _ { Gamma, \ phi}) und (U _ { Gamma, \ phi}) aus den Sätzen in (Gamma) effektiv bestimmbar sind \ cup { phi }) ist die rechnerische Komplexität dieses Problems ziemlich hoch (Georgakopoulos et al. 1988, Kavvadias und Papadimitriou 1990), und daher wird das Auffinden dieser Funktionen in realen Anwendungen schnell rechnerisch unmöglich. Zeitgemäße Ansätze, die auf probabilistischen Argumentationssystemen und probabilistischen Netzwerken basieren, sind besser in der Lage, diese rechnerischen Herausforderungen zu bewältigen. Außerdem,probabilistische Argumentationssysteme sind eng mit der Dempster-Shafer-Theorie verwandt (Dempster 1968; Shafer 1976; Haenni und Lehmann 2003). Eine ausführliche Erörterung dieser Ansätze würde jedoch den Rahmen (der aktuellen Version) dieses Eintrags sprengen. siehe (Haenni et al. 2011) für eine aktuelle Umfrage.

3. Grundlegende Wahrscheinlichkeitsoperatoren

In diesem Abschnitt werden wir Wahrscheinlichkeitslogiken untersuchen, die die Satzsprache (mathcal {L}) mit eher einfachen Wahrscheinlichkeitsoperatoren erweitern. Sie unterscheiden sich von der Logik in Abschnitt 2 darin, dass die Logik hier Wahrscheinlichkeitsoperatoren in der Objektsprache beinhaltet. In Abschnitt 3.1 werden qualitative Wahrscheinlichkeitsoperatoren erörtert. In Abschnitt 3.2 werden quantitative Wahrscheinlichkeitsoperatoren erörtert.

3.1 Qualitative Darstellungen von Unsicherheit

Es gibt verschiedene Anwendungen, in denen qualitative Wahrscheinlichkeitstheorien nützlich oder sogar notwendig sein könnten. In einigen Situationen stehen keine Frequenzen zur Verfügung, die als Schätzungen für die Wahrscheinlichkeiten verwendet werden können, oder es ist praktisch unmöglich, diese Frequenzen zu erhalten. Darüber hinaus sind Menschen häufig bereit, die Wahrscheinlichkeiten zweier Aussagen zu vergleichen ('(phi) ist wahrscheinlicher als (psi)'), ohne jeder der Aussagen explizite Wahrscheinlichkeiten einzeln zuweisen zu können (Szolovits und Pauker 1978, Halpern und Rabin 1987). In solchen Situationen ist eine qualitative Wahrscheinlichkeitslogik nützlich.

Eine der frühesten qualitativen Wahrscheinlichkeitslogiken ist Hamblins (1959). Die Sprache wird um einen unären Operator (Box) erweitert, der als 'wahrscheinlich' zu lesen ist. Daher ist eine Formel wie (Box \ phi) als 'wahrscheinlich (phi)' zu lesen. Dieser Begriff von 'wahrscheinlich' kann als ausreichend hohe (numerische) Wahrscheinlichkeit (dh (P (phi) geq t) für einen bestimmten Schwellenwert (1/2 <t \ leq 1)) oder formalisiert werden alternativ in Bezug auf die Plausibilität, die eine nichtmetrische Verallgemeinerung der Wahrscheinlichkeit ist. Burgess (1969) entwickelt diese Systeme weiter und konzentriert sich dabei auf die Interpretation der "hohen numerischen Wahrscheinlichkeit". Sowohl Hamblin als auch Burgess führen zusätzliche Operatoren in ihre Systeme ein (die beispielsweise metaphysische Notwendigkeit und / oder Wissen ausdrücken) und untersuchen die Interaktion zwischen dem 'wahrscheinlich'-Operator und diesen anderen modalen Operatoren. Jedoch,Der 'wahrscheinlich'-Operator zeigt bereits einige interessante Funktionen an sich (unabhängig von anderen Operatoren). Wenn es als "ausreichend hohe Wahrscheinlichkeit" interpretiert wird, erfüllt es nicht das Prinzip ((Box \ phi \ wedge \ Box \ psi) to \ Box (phi \ wedge \ psi)). Dies bedeutet, dass es sich nicht um einen normalen Modaloperator handelt und keine Kripke-Semantik (relational) erhalten werden kann. Herzig und Longin (2003) und Arló Costa (2005) bieten schwächere Systeme der Nachbarschaftssemantik für solche "wahrscheinlich" -Operatoren, während Yalcin (2010) ihr Verhalten aus einer sprachlich orientierten Perspektive diskutiert. Dies bedeutet, dass es sich nicht um einen normalen Modaloperator handelt und keine Kripke-Semantik (relational) erhalten werden kann. Herzig und Longin (2003) und Arló Costa (2005) bieten schwächere Systeme der Nachbarschaftssemantik für solche "wahrscheinlich" -Operatoren, während Yalcin (2010) ihr Verhalten aus einer sprachlich orientierten Perspektive diskutiert. Dies bedeutet, dass es sich nicht um einen normalen Modaloperator handelt und keine Kripke-Semantik (relational) erhalten werden kann. Herzig und Longin (2003) und Arló Costa (2005) bieten schwächere Systeme der Nachbarschaftssemantik für solche "wahrscheinlich" -Operatoren, während Yalcin (2010) ihr Verhalten aus einer sprachlich orientierten Perspektive diskutiert.

Ein anderer Weg wird von Segerberg (1971) und Gärdenfors (1975a, 1975b) eingeschlagen, die auf früheren Arbeiten von de Finetti (1937), Kraft, Pratt und Seidenberg (1959) und Scott (1964) aufbauen. Sie führen einen binären Operator (geq) ein; Die Formel (phi \ geq \ psi) ist zu lesen, da '(phi) mindestens so wahrscheinlich ist wie (psi)' (formal: (P (phi) geq P. (psi))). Die Schlüsselidee ist, dass man das Verhalten von (geq) vollständig axiomatisieren kann, ohne die 'zugrunde liegenden' Wahrscheinlichkeiten der einzelnen Formeln verwenden zu müssen. Es ist zu beachten, dass man mit der Vergleichswahrscheinlichkeit (einem binären Operator) auch einige absolute probabilistische Eigenschaften (unäre Operatoren) ausdrücken kann. Zum Beispiel drückt (phi \ geq \ top) aus, dass (phi) die Wahrscheinlichkeit 1 hat, und (phi \ geq \ neg \ phi) drückt aus, dass (phi) mindestens eine Wahrscheinlichkeit hat 1/2. In jüngster ZeitDelgrande und Renne (2015) erweitern den qualitativen Ansatz weiter, indem sie zulassen, dass die Argumente von (geq) endliche Folgen von Formeln (möglicherweise unterschiedlicher Länge) sind. Die Formel ((phi_1, \ dots, \ phi_n) geq (psi_1, \ dots, \ psi_m)) ist informell als 'die Summe der Wahrscheinlichkeiten der (phi_i)' s zu lesen ist mindestens so hoch wie die Summe der Wahrscheinlichkeiten der (psi_j) 's'. Die resultierende Logik kann vollständig axiomatisiert werden und ist so ausdrucksstark, dass sie sogar quantitative probabilistische Logiken erfassen kann, auf die wir uns jetzt beziehen.\ psi_m)) ist informell zu lesen als 'die Summe der Wahrscheinlichkeiten der (phi_i)' s ist mindestens so hoch wie die Summe der Wahrscheinlichkeiten der (psi_j) 's'. Die resultierende Logik kann vollständig axiomatisiert werden und ist so ausdrucksstark, dass sie sogar quantitative probabilistische Logiken erfassen kann, auf die wir uns jetzt beziehen.\ psi_m)) ist informell zu lesen als 'die Summe der Wahrscheinlichkeiten der (phi_i)' s ist mindestens so hoch wie die Summe der Wahrscheinlichkeiten der (psi_j) 's'. Die resultierende Logik kann vollständig axiomatisiert werden und ist so ausdrucksstark, dass sie sogar quantitative probabilistische Logiken erfassen kann, auf die wir uns jetzt beziehen.

3.2 Beträge und Produkte von Wahrscheinlichkeitsbedingungen

Aussagenwahrscheinlichkeitslogiken sind Erweiterungen der Satzlogik, die numerische Beziehungen zwischen Wahrscheinlichkeitsausdrücken (P (varphi)) ausdrücken. Eine einfache Satzwahrscheinlichkeitslogik fügt Satzlogikformeln der Form (P (varphi) ge q) hinzu, wobei (varphi) eine Satzformel und (q) eine Zahl ist; Eine solche Formel besagt, dass die Wahrscheinlichkeit von (varphi) mindestens (q) beträgt. Die Semantik wird unter Verwendung von Modellen formalisiert, die aus einer Wahrscheinlichkeitsfunktion (mathcal {P}) über einer Menge (Omega) bestehen, deren Elemente jeweils eine Wahrheitszuordnung zu den atomaren Sätzen der Aussagenlogik erhalten. Somit ist eine Satzformel bei einem Element von (Omega) wahr, wenn die Wahrheitszuweisung für dieses Element die Satzformel wahr macht. Die Formel (P (varphi) ge q) ist im Modell genau dann wahr, wenn die Wahrscheinlichkeit (mathcal {P}) der Menge von Elementen von (Omega) für welche (varphi) ist wahr ist mindestens (q). Siehe Kapitel 3 von Ognjanović et al. (2016) für einen Überblick über eine solche Aussagenwahrscheinlichkeitslogik.

Einige Aussagenwahrscheinlichkeitslogiken enthalten andere Arten von Formeln in der Objektsprache, z. B. solche, die Summen und Produkte von Wahrscheinlichkeitsausdrücken beinhalten. Der Reiz der Einbeziehung von Summen kann durch die Additivitätsbedingung von Wahrscheinlichkeitsfunktionen (siehe Abschnitt 2.1) verdeutlicht werden, die ausgedrückt werden kann als (P (phi \ vee \ psi) = P (phi) + P (psi)) wann immer (neg (phi \ wedge \ psi)) eine Tautologie ist oder äquivalent als (P (phi \ wedge \ psi) + P (phi \ wedge \ neg \ psi) = P (phi)). Wahrscheinlichkeitslogiken, die explizit Summen von Wahrscheinlichkeiten beinhalten, umfassen im Allgemeinen lineare Kombinationen von Wahrscheinlichkeitsausdrücken, wie in Fagin et al. (1990). Hier wird die Aussagenlogik um Formeln der Form (a_1P (phi_1) + \ cdots + a_n P (phi_n) ge b) erweitert, wobei (n) eine positive ganze Zahl ist, die sich von Formel zu Formel unterscheiden kann Formel und (a_1, \ ldots, a_n),und (b) sind alle rationale Zahlen. Hier sind einige Beispiele dafür, was ausgedrückt werden kann.

  • (P (phi) le q) durch (- P (phi) ge -q),
  • (P (phi) <q) durch (neg (P (phi) ge q)),
  • (P (phi) = q) durch (P (phi) ge q \ Keil P (phi) le q).
  • (P (phi) ge P (psi)) durch (P (phi) -P (psi) ge 0).

Ausdruckskraft mit und ohne lineare Kombinationen: Obwohl lineare Kombinationen eine bequeme Möglichkeit bieten, zahlreiche Beziehungen zwischen Wahrscheinlichkeitsausdrücken auszudrücken, ist eine Sprache ohne Summe von Wahrscheinlichkeitsausdrücken immer noch sehr leistungsfähig. Betrachten Sie die Sprache, die auf Formeln der Form (P (phi) ge q) für einige Satzformeln (phi) und rational (q) beschränkt ist. Wir können definieren

[P (phi) le q \ text {von} P (neg \ phi) ge 1-q,)

Dies ist vernünftig, wenn man bedenkt, dass die Wahrscheinlichkeit des Komplements eines Satzes gleich 1 minus der Wahrscheinlichkeit des Satzes ist. Die Formeln (P (phi)[[P (phi \ wedge \ psi) = a \ wedge P (phi \ wedge \ neg \ psi) = b] bis P (phi) = a + b)

gibt an, dass wenn die Wahrscheinlichkeit von (phi \ wedge \ psi) (a) und die Wahrscheinlichkeit von (phi \ wedge \ neg \ psi) (b) ist, dann die Wahrscheinlichkeit von Die Disjunktion der Formeln (die (phi) entspricht) ist (a + b). Während die Verwendung von linearen Kombinationen es uns ermöglicht zu behaupten, dass die Wahrscheinlichkeiten von (varphi \ wedge \ psi) und (varphi \ wedge \ neg \ psi) unter Verwendung der Formel (P () additiv sind varphi \ wedge \ psi) + P (varphi \ wedge \ neg \ psi) = P (varphi)), die Formel ohne lineare Kombinationen oben tut dies nur, wenn wir die richtigen Zahlen (a) und (b). Ein formaler Vergleich der Ausdruckskraft der Aussagenwahrscheinlichkeitslogik mit und ohne lineare Kombinationen findet sich in Demey und Sack (2015). Während zwei beliebige Modelle in allen Formeln mit linearen Kombinationen genau dann übereinstimmen, wenn sie in allen Formeln ohne übereinstimmen (Lemma 4.1 von Demey und Sack (2015)) ist es nicht der Fall, dass eine Klasse von Modellen, die durch eine einzelne Formel mit linearen Kombinationen definiert werden kann, durch eine einzelne Formel ohne definiert werden kann (Lemma 4.2 von Demey und Sack (2015)). Insbesondere kann die durch die Formel (P (p) - P (q) ge 0) definierte Klasse von Modellen nicht durch eine einzelne Formel ohne die Potenz linearer Kombinationen definiert werden.

Wahrscheinlichkeiten, die zu einer bestimmten Teilmenge gehören: Ognjanović und Rašković (1999) erweitern die Sprache der Wahrscheinlichkeitslogik durch einen neuen Operatortyp: (Q_F). Intuitiv bedeutet die Formel (Q_F \ phi), dass die Wahrscheinlichkeit von (phi) für eine gegebene Menge (F \ subseteq [0,1]) zu (F) gehört. Dieser (Q_F) - Operator kann nicht in Formeln der Form (P (phi) ge a) definiert werden. Ognjanović und Rašković (1999) liefern eine solide und vollständige Axiomatisierung dieser Art von logischem System. Die Schlüsselbrückenprinzipien, die den (Q_F) - Operator mit dem Standardoperator ((P) - Operator verbinden, sind die Axiome (P (phi) = a \ mit Q_F \ phi) für alle (a \ in F) sowie die unendliche Regel, die angibt, dass von (P (phi) = a \ bis \ psi) für alle (a \ in F) auf (Q_F) geschlossen werden kann phi \ to \ psi).

Polynomgewichtsformeln : Logiken mit Polynomgewichtsformeln (die sowohl gewichtete Summen als auch Produkte von Wahrscheinlichkeitsausdrücken umfassen) können Formeln der Form (P (phi) P (psi) -P (phi \ wedge \ psi) zulassen. = 0), dh die Wahrscheinlichkeit von (phi) und (psi) ist gleich dem Produkt der Wahrscheinlichkeiten von (phi) und (psi). Diese Formel erfasst, was es bedeutet, dass (phi) und (psi) statistisch unabhängig sind. Solche Logiken wurden in Fagin et al. (1990), jedoch meistens mit Logikmerkmalen erster Ordnung, und dann wieder in einem einfacheren Kontext (ohne Quantifizierer) in Perović et al. (2008).

Kompaktheit und Vollständigkeit: Kompaktheit ist eine Eigenschaft einer Logik, bei der eine Menge von Formeln erfüllt werden kann, wenn jede endliche Teilmenge erfüllt werden kann. Aussagenwahrscheinlichkeitslogiken fehlt die Kompaktheitseigenschaft, da jede endliche Teilmenge von ({P (p)> 0 } cup {P (p) leq a \, | \, a> 0 }) erfüllt werden kann, aber das ganze Set ist nicht.

Ohne Kompaktheit kann eine Logik schwach vollständig sein (jede gültige Formel ist im axiomatischen System beweisbar), aber nicht stark vollständig (für jede Menge (Gamma) von Formeln ist jede logische Konsequenz von (Gamma) beweisbar von (Gamma) im axiomatischen System). In Fagin et al. (1990) wurde ein Beweissystem mit linearen Kombinationen angegeben, und es wurde gezeigt, dass die Logik sowohl solide als auch schwach vollständig ist. In Ognjanović und Rašković (1999) wird ein solides und stark vollständiges Beweissystem für die Aussagenwahrscheinlichkeitslogik ohne lineare Kombinationen angegeben. In Heifetz und Mongin (2001),Es wurde ein Beweissystem für eine Variation der Logik ohne lineare Kombinationen gegeben, das ein Typsystem verwendet, um die Iteration von Wahrscheinlichkeitsformeln zu ermöglichen (wir werden in Abschnitt 4 sehen, wie eine solche Iteration unter Verwendung möglicher Welten erreicht werden kann), und die Logik wurde gezeigt sei gesund und schwach vollständig. Sie stellen auch fest, dass kein endgültiges Beweissystem für eine solche Logik stark vollständig sein kann. Ognjanović et al. (2008) präsentieren einige qualitative probabilistische Logiken mit unendlichen Ableitungsregeln (die eine zählbar unendliche Anzahl von Prämissen erfordern) und beweisen eine starke Vollständigkeit. Goldblatt (2010) präsentiert ein stark vollständiges Beweissystem für eine verwandte kohlegebraische Logik. Perović et al. (2008) geben ein Beweissystem und einen Beweis für die starke Vollständigkeit der Aussagenwahrscheinlichkeitslogik mit Polynomgewichtsformeln. Schließlich,Eine andere Strategie zur Erzielung einer starken Vollständigkeit besteht darin, den Bereich der Wahrscheinlichkeitsfunktionen auf einen festen, endlichen Satz von Zahlen zu beschränken. Zum Beispiel haben Ognjanović et al. (2008) diskutieren eine qualitative probabilistische Logik, bei der der Bereich der Wahrscheinlichkeitsfunktionen nicht das vollständige reale Einheitsintervall ([0,1]) ist, sondern die 'diskretisierte' Version ({0, \ frac {1) } {n}, \ frac {2} {n}, \ dots, \ frac {n-1} {n}, 1 }) (für eine feste Zahl (n \ in \ mathbb {N})). Siehe Kapitel 7 von Ognjanović et al. (2016) für einen Überblick über die Vollständigkeitsergebnisse.sondern die 'diskretisierte' Version ({0, \ frac {1} {n}, \ frac {2} {n}, \ dots, \ frac {n-1} {n}, 1 }) (für eine feste Zahl (n \ in \ mathbb {N})). Siehe Kapitel 7 von Ognjanović et al. (2016) für einen Überblick über die Vollständigkeitsergebnisse.sondern die 'diskretisierte' Version ({0, \ frac {1} {n}, \ frac {2} {n}, \ dots, \ frac {n-1} {n}, 1 }) (für eine feste Zahl (n \ in \ mathbb {N})). Siehe Kapitel 7 von Ognjanović et al. (2016) für einen Überblick über die Vollständigkeitsergebnisse.

4. Modale Wahrscheinlichkeitslogik

Viele Wahrscheinlichkeitslogiken werden über einen einzelnen, aber willkürlichen Wahrscheinlichkeitsraum interpretiert. Die modale Wahrscheinlichkeitslogik verwendet viele Wahrscheinlichkeitsräume, die jeweils einer möglichen Welt oder einem möglichen Zustand zugeordnet sind. Dies kann als geringfügige Anpassung an die relationale Semantik der Modallogik angesehen werden: Anstatt jeder möglichen Welt eine Menge zugänglicher Welten zuzuordnen, wie dies in der Modallogik der Fall ist, ordnet die Modalwahrscheinlichkeitslogik jeder möglichen Welt eine Wahrscheinlichkeitsverteilung, einen Wahrscheinlichkeitsraum zu oder eine Reihe von Wahrscheinlichkeitsverteilungen. Die Sprache der modalen Wahrscheinlichkeitslogik ermöglicht die Einbettung von Wahrscheinlichkeiten in Wahrscheinlichkeiten, dh sie kann beispielsweise die Wahrscheinlichkeit begründen, dass (möglicherweise eine andere) Wahrscheinlichkeit (1/2) ist. Diese modale Einstellung mit mehreren Wahrscheinlichkeiten wurde im Allgemeinen (1) stochastisch interpretiert.in Bezug auf unterschiedliche Wahrscheinlichkeiten in den nächsten Zuständen, in die ein System übergehen könnte (Larsen und Skou 1991), und (2) eine subjektive Interpretation in Bezug auf unterschiedliche Wahrscheinlichkeiten, die verschiedene Agenten hinsichtlich einer Situation oder der Wahrscheinlichkeiten des jeweils anderen haben können (Fagin und Halpern 1988). Beide Interpretationen können genau den gleichen formalen Rahmen verwenden.

Eine grundlegende modale Wahrscheinlichkeitslogik ergänzt Aussagenlogikformeln der Form (P (phi) ge q), wobei (q) typischerweise eine rationale Zahl ist und (phi) eine beliebige Formel der ist Sprache, möglicherweise eine Wahrscheinlichkeitsformel. Das Lesen einer solchen Formel ist, dass die Wahrscheinlichkeit von (phi) mindestens (q) beträgt. Diese allgemeine Lesart der Formel spiegelt keinen Unterschied zwischen der modalen Wahrscheinlichkeitslogik und anderen Wahrscheinlichkeitslogiken mit derselben Formel wider. Der Unterschied liegt in der Fähigkeit, Wahrscheinlichkeiten in die Argumente der Wahrscheinlichkeitsausdrücke und in die Semantik einzubetten. Die folgenden Unterabschnitte geben einen Überblick über die Variationen der Modellierung der Modalwahrscheinlichkeitslogik. In einem Fall wird die Sprache geringfügig geändert (Abschnitt 4.2), in anderen FällenDie Logik wird erweitert, um Wechselwirkungen zwischen qualitativer und quantitativer Unsicherheit (Abschnitt 4.4) oder Dynamik (Abschnitt 4.5) zu untersuchen.

4.1 Grundlegende endliche modale Wahrscheinlichkeitsmodelle

Formal ist ein grundlegendes endliches modales probabilistisches Modell ein Tupel (M = (W, \ mathcal {P}, V)), wobei (W) eine endliche Menge möglicher Welten oder Zustände ist, (mathcal { P}) ist eine Funktion, die eine Verteilung (mathcal {P} _w) über (W) mit jeder Welt (w \ in W) verknüpft, und (V) ist eine 'Bewertungsfunktion'. Zuweisen von Atomsätzen aus einer Menge (Phi) zu jeder Welt. Die Verteilung wird additiv von einzelnen Welten auf Weltsätze erweitert: (mathcal {P} _w (S) = \ sum_ {s \ in S} mathcal {P} _w (s)). Die ersten beiden Komponenten eines grundlegenden modalen Wahrscheinlichkeitsmodells sind praktisch dieselben wie ein Kripke-Rahmen, dessen Beziehung mit Zahlen (Wahrscheinlichkeitswerten) verziert ist. Eine solche Struktur hat unterschiedliche Namen, wie beispielsweise einen gerichteten Graphen mit markierten Kanten in der Mathematik oder ein probabilistisches Übergangssystem in der Informatik. Die Bewertungsfunktion,Wie bei einem Kripke-Modell können wir den Welten Eigenschaften zuweisen.

Die Semantik für Formeln wird für Paare ((M, w)) angegeben, wobei (M) ein Modell und (w) ein Element des Modells ist. Eine Formel (P (phi) ge q) ist wahr für ein Paar ((M, w)), geschrieben ((M, w) Modelle P (phi) ge q), genau dann, wenn (mathcal {P} _w ({w '\ mid (M, w') models \ phi }) ge q).

4.2 Indizierung und Interpretation

Die erste Verallgemeinerung, die in Anwendungen der modalen probabilistischen Logik am häufigsten vorkommt, besteht darin, die Indizierung der Verteilungen durch zwei Mengen anstatt durch eine zu ermöglichen. Der erste Satz ist der Satz (W) der Welten (der Basissatz des Modells), der andere ist ein Indexsatz (A), der häufig als Satz von Aktionen, Agenten oder Spielern eines Spiel. Formal ordnet (mathcal {P}) eine Verteilung (mathcal {P} _ {a, w}) über (W) für jedes (w \ in W) und (a) zu in einem). Für die Sprache haben wir keine Formeln der Form (P (phi) ge q), sondern (P_a (phi) ge q) und ((M, w) Modelle P_a (phi) ge q) genau dann, wenn (mathcal {P} _ {a, w} ({w '\ mid (M, w') models \ phi }) ge q).

Beispiel: Angenommen, wir haben eine Indexmenge (A = {a, b }) und eine Menge (Phi = {p, q }) atomarer Sätze. Betrachten Sie ((W, \ mathcal {P}, V)), wo

  • (W = {w, x, y, z })
  • (mathcal {P} _ {a, w}) und (mathcal {P} _ {a, x}) ordnen (w) (1/2), (x) zu) bis (1/2), (y) bis (0) und (z) bis (0).

    (mathcal {P} _ {a, y}) und (mathcal {P} _ {a, z}) ordnen (y) (1/3), (z) bis (2/3), (w) bis (0) und (x) bis (0).

    (mathcal {P} _ {b, w}) und (mathcal {P} _ {b, y}) ordnen (w) (1/2), (y) zu) bis (1/2), (x) bis (0) und (z) bis (0).

    (mathcal {P} _ {b, x}) und (mathcal {P} _ {b, z}) ordnen (x) (1/4), (z) zu) bis (3/4), (w) bis (0) und (y) bis (0).

  • (V (p) = {w, x })

    (V (q) = {w, y }).

Wir zeigen dieses Beispiel mit dem folgenden Diagramm. Innerhalb jedes Kreises befindet sich eine Kennzeichnung der Wahrheit jedes Satzbuchstabens für die Welt, deren Name direkt außerhalb des Kreises gekennzeichnet ist. Die Pfeile geben die Wahrscheinlichkeiten an. Zum Beispiel zeigt ein Pfeil von Welt (x) zu Welt (z), der mit ((b, 3/4)) gekennzeichnet ist, an, dass von (x) das wahrscheinlich von (z) unter label (b) ist (3/4). Wahrscheinlichkeiten von 0 sind nicht gekennzeichnet.

Vier Kreise mit jeweils einem möglichen Zustand von p, q und Wahrscheinlichkeitspfeilen dazwischen
Vier Kreise mit jeweils einem möglichen Zustand von p, q und Wahrscheinlichkeitspfeilen dazwischen

Zahl

Stochastische Interpretation: Betrachten Sie die Elemente (a) und (b) von (A) als Aktionen, z. B. durch Drücken von Tasten auf einer Maschine. In diesem Fall hat das Drücken einer Taste kein bestimmtes Ergebnis. Befindet sich die Maschine beispielsweise im Zustand (x), besteht eine (1/2) Wahrscheinlichkeit, dass sie nach dem Drücken von (a) im gleichen Zustand bleibt, aber a (1/4) Wahrscheinlichkeit, nach Drücken von (b) im selben Zustand zu bleiben. Das ist, [(M, x) Modelle P_a (p \ Keil \ neg q) = 1/2 \ Keil P_b (p \ Keil \ neg q) = 1/4.)

Ein wesentliches Merkmal der Modallogik im Allgemeinen (und dies schließt die Modalwahrscheinlichkeitslogik ein) ist die Fähigkeit, das Denken höherer Ordnung zu unterstützen, dh das Denken über Wahrscheinlichkeiten von Wahrscheinlichkeiten. Die Bedeutung von Wahrscheinlichkeiten höherer Ordnung geht aus der Rolle hervor, die sie beispielsweise im Miller-Prinzip spielen, das besagt, dass (P_1 (phi \ mid P_2 (phi) = b) = b). Hier sind (P_1) und (P_2) Wahrscheinlichkeitsfunktionen, die verschiedene Interpretationen haben können, wie die Wahrscheinlichkeiten zweier Agenten, die logische und statistische Wahrscheinlichkeit oder die Wahrscheinlichkeiten eines Agenten zu unterschiedlichen Zeitpunkten (Miller 1966); Lewis 1980; van Fraassen 1984; Halpern 1991). Eine Wahrscheinlichkeit höherer Ordnung tritt beispielsweise auch beim Judy-Benjamin-Problem (van Fraassen 1981a) auf, bei dem man von probabilistischen Informationen abhängig ist. Unabhängig davon, ob man den in der Literatur vorgeschlagenen Prinzipien für Wahrscheinlichkeiten höherer Ordnung zustimmt oder nicht, zwingt die Fähigkeit, sie darzustellen, dazu, die für sie geltenden Prinzipien zu untersuchen.

Um das Denken höherer Ordnung konkreter zu veranschaulichen, kehren wir zu unserem Beispiel zurück und sehen, dass bei (x) eine (1/2) Wahrscheinlichkeit besteht, dass nach dem Drücken von (a) ein (1) vorliegt / 2) Wahrscheinlichkeit, dass nach dem Drücken von (b) (neg p) wahr ist, d. H.

[(M, x) Modelle P_a (P_b (neg p) = 1/2) = 1/2.)

Subjektive Interpretation: Angenommen, die Elemente (a) und (b) von (A) sind Spieler eines Spiels. (p) und (neg p) sind Strategien für Spieler (a) und (q) und (neg q) sind beide Strategien für Spieler (b). Im Modell ist sich jeder Spieler seiner eigenen Strategie sicher. Zum Beispiel ist bei (x) Spieler (a) sicher, dass sie (p) spielen wird, und Spieler (b) ist sicher, dass sie (neg q) spielen wird, das heißt

[(M, x) Modelle P_a (p) = 1 \ Keil P_b (neg q) = 1.)

Aber die Spieler randomisieren über ihre Gegner. Zum Beispiel ist bei (x) die Wahrscheinlichkeit, die (b) für (a) hat, dass (neg q) (1/2) (1/4) ist), das ist

[(M, x) Modelle P_b (P_a (q) = 1/2) = 1/4.)

4.3 Wahrscheinlichkeitsräume

Wahrscheinlichkeiten werden im Allgemeinen als Kennzahlen in einem Messbereich definiert. Ein Messraum ist eine Menge (Omega) (der Probenraum) zusammen mit einer (sigma) - Algebra (auch (sigma) - Feld genannt) (mathcal {A}) über (Omega), eine nicht leere Menge von Teilmengen von (Omega), so dass (A \ in \ mathcal {A}) impliziert, dass (Omega-A \ in \ mathcal { A}) und (A_i \ in \ mathcal {A}) für alle natürlichen Zahlen (i) implizieren, dass (bigcup_i A_i \ in \ mathcal {A}). Ein Maß ist eine Funktion (mu), die in der (sigma) - Algebra (mathcal {A}) definiert ist, so dass (mu (A) ge 0) für jede Menge (A \ in \ mathcal {A}) und (mu (bigcup_i A_i) = \ sum_i \ mu (A_i)) wann immer (A_i \ cap A_j = \ Emptyset) für jedes (i, j).

Die (sigma) - Algebra bewirkt, dass die Domäne so eingeschränkt wird, dass nicht jede Teilmenge von (Omega) eine Wahrscheinlichkeit haben muss. Dies ist entscheidend, damit einige Wahrscheinlichkeiten für unzählige unendliche Mengen definiert werden können. Beispielsweise kann eine gleichmäßige Verteilung über ein Einheitsintervall nicht für alle Teilmengen des Intervalls definiert werden, während gleichzeitig die zählbare Additivitätsbedingung für Wahrscheinlichkeitsmaße beibehalten wird.

Die gleiche Grundsprache, die für die grundlegende Logik der endlichen Wahrscheinlichkeit verwendet wurde, muss sich nicht ändern, aber die Semantik unterscheidet sich geringfügig: Für jeden Zustand (w \ in W) ist die Komponente (mathcal {P} _w) von a Das modale Wahrscheinlichkeitsmodell wird durch einen gesamten Wahrscheinlichkeitsraum ((Omega_w, \ mathcal {A} _w, \ mu_w)) ersetzt, so dass (Omega_w \ subseteq W) und (mathcal {A} _w) ist eine (sigma) - Algebra über (Omega_w). Der Grund, warum wir möchten, dass sich ganze Räume von einer Welt zur anderen unterscheiden, ist die Unsicherheit darüber, welcher Wahrscheinlichkeitsraum der richtige ist. Für die Semantik von Wahrscheinlichkeitsformeln gilt ((M, w) Modelle P (phi) ge q) genau dann, wenn (mu_w ({w '\ mid (M, w') Modelle) phi }) ge q). Eine solche Definition ist für den Fall, dass ({w '\ mid (M, w') models \ phi } not \ in \ mathcal {A} _w) nicht gut definiert ist. Daher werden den Modellen häufig Einschränkungen auferlegt, um sicherzustellen, dass sich solche Mengen immer in den (sigma) - Algebren befinden.

4.4 Quantitative und qualitative Unsicherheit kombinieren

Obwohl Wahrscheinlichkeiten die quantitative Unsicherheit auf einer Ebene widerspiegeln, kann es auch qualitative Unsicherheiten über Wahrscheinlichkeiten geben. Wir möchten möglicherweise qualitative und quantitative Unsicherheiten haben, weil wir in einigen Situationen so unsicher sind, dass wir den Wahrscheinlichkeiten ihrer Ereignisse keine Zahlen zuweisen möchten, während es andere Situationen gibt, in denen wir die Wahrscheinlichkeiten ihrer Ereignisse kennen;; und diese Situationen können interagieren.

Es gibt viele Situationen, in denen wir Unsicherheiten möglicherweise keine numerischen Werte zuweisen möchten. Ein Beispiel ist, wenn ein Computer ein Bit 0 oder 1 auswählt und wir nichts darüber wissen, wie dieses Bit ausgewählt wird. Ergebnisse von Münzwürfen hingegen werden häufig als Beispiele dafür verwendet, wo wir einzelnen Ergebnissen Wahrscheinlichkeiten zuweisen würden.

Ein Beispiel dafür, wie diese interagieren könnten, besteht darin, dass das Ergebnis des Bits bestimmt, ob eine faire Münze oder eine gewichtete Münze (z. B. Köpfe mit der Wahrscheinlichkeit (2/3)) für einen Münzwurf verwendet wird. Somit besteht qualitative Unsicherheit darüber, ob das Werfen einer Münze Köpfe mit der Wahrscheinlichkeit (1/2) oder (2/3) ergibt.

Eine Möglichkeit, die Wechselwirkung zwischen Wahrscheinlichkeit und qualitativer Unsicherheit zu formalisieren, besteht darin, der Sprache eine weitere Beziehung zum Modell und einen Modaloperator hinzuzufügen, wie dies in Fagin und Halpern (1988, 1994) der Fall ist. Formal fügen wir einem grundlegenden endlichen Wahrscheinlichkeitsmodell eine Beziehung (R \ subseteq W ^ 2) hinzu. Dann fügen wir der Sprache einen modalen Operator (Box) hinzu, so dass ((M, w) models \ Box \ phi) genau dann, wenn ((M, w ') models \ phi) wann immer (w R w ').

Betrachten Sie das folgende Beispiel:

  • (W = {(0, H), (0, T), (1, H), (1, T) }),
  • (Phi = {h, t }) ist die Menge der atomaren Sätze,
  • (R = W ^ 2),
  • (P) assoziiert mit ((0, H)) und ((0, T)) die Verteilungszuordnung ((0, H)) und ((0, T)) jeweils zu (1/2) und assoziiert mit ((1, H)) und ((1, T)) die Verteilungszuordnung ((1, H)) zu (2/3) und ((1, T)) bis (1/3),
  • (V) ordnet (h) der Menge ({(0, H), (1, H) }) und (t) der Menge ({(0, T) zu), (1, T) }).

Dann gilt die folgende Formel für ((0, H)): (neg \ Box h \ Keil (neg \ Box P (h) = 1/2) Keil (Diamond P (h) = 1/2)). Dies kann gelesen werden, da nicht bekannt ist, dass (h) wahr ist, und es nicht bekannt ist, dass die Wahrscheinlichkeit von (h) (1/2) ist, aber es ist möglich, dass die Wahrscheinlichkeit von (h) ist (1/2).

4.5 Dynamik

Wir haben zwei Ansichten der modalen Wahrscheinlichkeitslogik diskutiert. Eine ist zeitlich oder stochastisch, wobei die jedem Zustand zugeordnete Wahrscheinlichkeitsverteilung die Wahrscheinlichkeit des Übergangs in andere Zustände bestimmt; Ein anderer befasst sich mit subjektiven Perspektiven von Agenten, die möglicherweise über Wahrscheinlichkeiten anderer Agenten nachdenken. Ein stochastisches System ist insofern dynamisch, als es Wahrscheinlichkeiten verschiedener Übergänge darstellt, und dies kann durch die modalen Wahrscheinlichkeitsmodelle selbst vermittelt werden. Aus subjektiver Sicht sind die modalen Wahrscheinlichkeitsmodelle jedoch statisch: Die Wahrscheinlichkeiten befassen sich mit dem, was derzeit der Fall ist. Obwohl in ihrer Interpretation statisch, kann die modale probabilistische Einstellung in einen dynamischen Kontext gestellt werden.

Die Dynamik in einer modalen probabilistischen Umgebung befasst sich im Allgemeinen mit gleichzeitigen Änderungen der Wahrscheinlichkeiten in potenziell allen möglichen Welten. Intuitiv kann eine solche Änderung durch neue Informationen verursacht werden, die eine probabilistische Überarbeitung in jeder möglichen Welt hervorrufen. Die Dynamik subjektiver Wahrscheinlichkeiten wird häufig unter Verwendung bedingter Wahrscheinlichkeiten modelliert, wie in Kooi (2003), Baltag and Smets (2008) und van Benthem et al. (2009). Die Wahrscheinlichkeit von (E) abhängig von (F), geschrieben (P (E \ mid F)), ist (P (E \ cap F) / P (F)). Bei der Aktualisierung durch eine Menge (F) wird eine Wahrscheinlichkeitsverteilung (P) durch die Wahrscheinlichkeitsverteilung (P ') ersetzt, so dass (P' (E) = P (E \ mid F)), solange (P (F) neq 0). Nehmen wir für den Rest dieses Unterabschnitts Dynamik an, dass jede relevante Menge eine positive Wahrscheinlichkeit hat.

Unter Verwendung einer Wahrscheinlichkeitslogik mit linearen Kombinationen können wir die bedingte Wahrscheinlichkeit (P (phi \ mid \ psi) ge q) durch (P (phi \ wedge \ psi) - qP (psi) ge abkürzen 0). In einer modalen Einstellung kann der Sprache ein Operator ([! \ Psi]) hinzugefügt werden, so dass (M, w \ models [! \ Psi] phi) genau dann, wenn (M ', w \ models \ phi), wobei (M ') das Modell ist, das aus (M) erhalten wird, indem die Wahrscheinlichkeiten jeder Welt durch (psi) revidiert werden. Beachten Sie, dass sich ([! \ Psi] (P (phi) ge q)) von (P (phi \ mid \ psi) ge q) darin unterscheidet, dass in ((! \ Psi) (P (phi) ge q)) wird die Interpretation von Wahrscheinlichkeitsausdrücken innerhalb von (phi) durch die Überarbeitung durch (psi) beeinflusst, während in (P (phi \ mid \ psi)) ge q) sind sie nicht, weshalb sich (P (phi \ mid \ psi) ge q) gut in eine andere Wahrscheinlichkeitsformel entfaltet. ([! \ Psi] phi) entfaltet sich jedoch auch, jedoch in weiteren Schritten:

[[! \ psi] (P (phi) ge q) leftrightarrow (psi \ bis P ([! \ psi] phi \ mid \ psi) ge q).)

Weitere Übersichten über die Modalwahrscheinlichkeitslogik und ihre Dynamik finden Sie in Demey und Kooi (2014), Demey und Sack (2015) sowie in Anhang L zur probabilistischen Aktualisierung der dynamischen epistemischen Logik des Eintrags zur dynamischen epistemischen Logik.

5. Wahrscheinlichkeitslogik erster Ordnung

In diesem Abschnitt werden wir Wahrscheinlichkeitslogiken erster Ordnung diskutieren. Wie in Abschnitt 1 dieses Eintrags erläutert wurde, gibt es viele Möglichkeiten, wie eine Logik probabilistische Merkmale aufweisen kann. Die Modelle der Logik können probabilistische Aspekte haben, der Begriff der Konsequenz kann einen probabilistischen Charakter haben oder die Sprache der Logik kann probabilistische Operatoren enthalten. In diesem Abschnitt konzentrieren wir uns auf die logischen Operatoren, die einen Geschmack erster Ordnung haben. Das Aroma erster Ordnung unterscheidet diese Operatoren von den probabilistischen Modaloperatoren des vorherigen Abschnitts.

Betrachten Sie das folgende Beispiel aus Bacchus (1990):

Mehr als 75% aller Vögel fliegen.

Es gibt eine einfache probabilistische Interpretation dieses Satzes: Wenn man zufällig einen Vogel auswählt, beträgt die Wahrscheinlichkeit, dass der ausgewählte Vogel fliegt, mehr als 3/4. Probabilistische Operatoren erster Ordnung werden benötigt, um diese Art von Aussagen auszudrücken.

Es gibt eine andere Art von Satz, wie den folgenden in Halpern (1990) diskutierten Satz:

Die Wahrscheinlichkeit, dass Tweety fliegt, ist größer als (0,9).

Dieser Satz berücksichtigt die Wahrscheinlichkeit, dass Tweety (ein bestimmter Vogel) fliegen kann. Diese beiden Arten von Sätzen werden von zwei verschiedenen Arten von Semantik angesprochen, wobei die erstere Wahrscheinlichkeiten über eine Domäne beinhaltet, während die letztere Wahrscheinlichkeiten über eine Reihe möglicher Welten beinhaltet, die von der Domäne getrennt sind.

5.1 Ein Beispiel für eine Wahrscheinlichkeitslogik erster Ordnung

In diesem Unterabschnitt werden wir uns eine bestimmte Wahrscheinlichkeitslogik erster Ordnung genauer ansehen, deren Sprache so einfach wie möglich ist, um uns auf die probabilistischen Quantifizierer zu konzentrieren. Die Sprache ist der Sprache der klassischen Logik erster Ordnung sehr ähnlich, aber anstelle des bekannten universellen und existenziellen Quantifizierers enthält die Sprache einen probabilistischen Quantifizierer.

Die Sprache basiert auf einer Reihe einzelner Variablen (bezeichnet mit (x, y, z, x_1, x_2, \ ldots)), einer Reihe von Funktionssymbolen (bezeichnet mit (f, g, h, f_1,) ldots)) wobei jedem Symbol eine Arität zugeordnet ist (Nullfunktionssymbole werden auch als einzelne Konstanten bezeichnet), und eine Reihe von Prädikatbuchstaben (bezeichnet mit (R, P_1, \ ldots)), denen eine Arität zugeordnet ist jedes Symbol. Die Sprache enthält zwei Arten von syntaktischen Objekten, nämlich Begriffe und Formeln. Die Begriffe werden induktiv wie folgt definiert:

  • Jede einzelne Variable (x) ist ein Begriff.
  • Jedes Funktionssymbol (f) von arity (n) gefolgt von einem (n) - Tupel von Begriffen ((t_1, \ ldots, t_n)) ist ein Begriff.

Angesichts dieser Definition von Begriffen werden die Formeln induktiv wie folgt definiert:

  • Jeder Prädikatbuchstabe (R) der Arität (n) gefolgt von einem (n) - Tupel von Begriffen ((t_1, \ ldots, t_n)) ist eine Formel.
  • Wenn (phi) eine Formel ist, ist dies auch (neg \ phi).
  • Wenn (phi) und (psi) Formeln sind, ist dies auch ((phi \ wedge \ psi)).
  • Wenn (phi) eine Formel ist und (q) eine rationale Zahl im Intervall ([0,1]) ist, dann ist dies auch (Px (phi) geq q).

Formeln der Form (Px (phi) geq q) sollten wie folgt gelesen werden: „Die Wahrscheinlichkeit, ein (x) so auszuwählen, dass (x) (phi) erfüllt, beträgt mindestens (q)”. Die Formel (Px (phi) leq q) ist eine Abkürzung von (Px (neg \ phi) geq 1-q) und (Px (phi) = q) ist eine Abkürzung von (Px (phi) geq q \ Keil Px (phi) leq q). Jedes freie Vorkommen von (x) in (phi) ist vom Operator gebunden.

Diese Sprache wird auf sehr einfachen Modellen erster Ordnung interpretiert, die Tripel (M = (D, I, P)) sind, wobei die Domäne des Diskurses (D) eine endliche nicht leere Menge von Objekten ist, die Interpretation (I) ordnet jedem in der Sprache vorkommenden (n) - Funktionssymbol eine (n) - Funktion auf (D) und eine (n) - Funktion auf (D) zu) mit jedem (n) - Prädikatbuchstaben. (P) ist eine Wahrscheinlichkeitsfunktion, die jedem Element (d) in (D) eine Wahrscheinlichkeit (P (d)) zuweist, so dass (sum_ {d \ in D} P (d)) = 1).

Um Formeln zu interpretieren, die freie Variablen enthalten, benötigt man auch eine Zuweisung (g), die jeder Variablen ein Element von (D) zuweist. Die Interpretation ()! [T] !] _ {M, g}) eines Terms (t) bei gegebenem Modell (M = (D, I, P)) und einer Zuordnung (g) ist induktiv wie folgt definiert:

  • ()! [x] !] _ {M, g} = g (x))
  • ()! [f (t_1, \ ldots, t_n)] !] _ {M, g} = I (f) ()! [t_1] !], \ ldots,)! [t_n] !]))

Wahrheit ist definiert als eine Beziehung (Modelle) zwischen Modellen mit Zuordnungen und Formeln:

  • (M, g \ Modelle R (t_1, \ ldots, t_n)) iff (()! [T_1] !], \ Ldots,)! [T_n] !]) In I (R.))
  • (M, g \ models \ neg \ phi) iff (M, g \ not \ models \ phi)
  • (M, g \ Modelle (phi \ wedge \ psi)) iff (M, g \ Modelle \ phi) und (M, g \ Modelle \ psi)
  • (M, g \ Modelle Px (phi) geq q) iff (sum_ {d: M, g [x \ mapsto d] Modelle \ phi} P (d) geq q)

Betrachten Sie als Beispiel ein Modell einer Vase mit neun Murmeln: fünf sind schwarz und vier sind weiß. Nehmen wir an, dass (P) jedem Marmor eine Wahrscheinlichkeit von 1/9 zuweist, was die Idee erfasst, dass man mit gleicher Wahrscheinlichkeit einen Marmor auswählt. Angenommen, die Sprache enthält ein unäres Prädikat (B), dessen Interpretation die Menge der schwarzen Murmeln ist. Der Satz (Px (B (x)) = 5/9) ist in diesem Modell unabhängig von der Zuordnung wahr.

Die Logik, die wir gerade vorgestellt haben, ist zu einfach, um viele Arten von Überlegungen zu Wahrscheinlichkeiten zu erfassen. Wir werden hier drei Erweiterungen diskutieren.

5.1.1 Quantifizierung über mehr als eine Variable

Zunächst möchte man über Fälle nachdenken, in denen mehr als ein Objekt aus der Domäne ausgewählt ist. Betrachten Sie zum Beispiel die Wahrscheinlichkeit, zuerst einen schwarzen Marmor zu pflücken, ihn zurückzulegen und dann einen weißen Marmor aus der Vase zu holen. Diese Wahrscheinlichkeit ist 5/9 (times) 4/9 = 20/81, aber wir können dies nicht in der obigen Sprache ausdrücken. Dazu benötigen wir einen Operator, der mehrere Variablen gleichzeitig behandelt und als (Px_1, \ ldots x_n (phi) geq q) geschrieben ist. Die Semantik für solche Operatoren muss dann ein Wahrscheinlichkeitsmaß für Teilmengen von (D ^ n) bereitstellen. Der einfachste Weg, dies zu tun, besteht darin, einfach das Produkt der Wahrscheinlichkeitsfunktion (P) auf (D) zu nehmen, das als Erweiterung von (P) auf Tupel genommen werden kann, wobei (P (d_1), \ ldots d_n) = P (d_1) times \ cdots \ times P (d_n)), was die folgende Semantik ergibt:

  • (M, g \ Modelle Px_1 \ ldots x_n (phi) geq q) iff (sum _ {(d_1, \ ldots, d_n): M, g [x_1 \ mapsto d_1, \ ldots, x_n \ mapsto d_n] models \ phi} P (d_1, \ ldots, d_n) geq q)

Dieser Ansatz wird von Bacchus (1990) und Halpern (1990) verfolgt, was der Idee entspricht, dass die Auswahl unabhängig ist und ersetzt wird. Mit dieser Semantik kann das obige Beispiel als (Px, y (B (x) Keil \ neg B (y)) = 20/81) formalisiert werden. Es gibt auch allgemeinere Ansätze zur Ausweitung der Maßnahme auf die Domäne auf Tupel aus der Domäne, wie beispielsweise von Hoover (1978) und Keisler (1985).

5.1.2 Bedingte Wahrscheinlichkeit

Wenn man das erste Beispiel betrachtet, dass mehr als 75% aller Vögel fliegen, stellt man fest, dass dies in einem Modell, in dem die Domäne Objekte enthält, die keine Vögel sind, nicht angemessen erfasst werden kann. Diese Objekte sollten keine Rolle spielen, was man ausdrücken möchte, sondern die Wahrscheinlichkeitsquantifizierer werden über die gesamte Domäne quantifiziert. Um die Quantifizierung einzuschränken, müssen bedingte Wahrscheinlichkeitsoperatoren (Px (phi | \ psi) geq q) mit der folgenden Semantik hinzugefügt werden:

  • (M, g \ Modelle Px (phi | \ psi) geq q) iff wenn es ein (d \ in D) gibt, so dass (M, g [x \ mapsto d] Modelle \ psi) dann

    ) frac { sum_ {d: M, g [x \ mapsto d] models \ phi \ wedge \ psi} P (d)} { sum_ {d: M, g [x \ mapsto d] models \ psi} P (d)} geq q.)

Mit diesen Operatoren drückt die Formel (Px (F (x) mid B (x))> 3/4) aus, dass mehr als 75% aller Vögel fliegen.

5.1.3 Wahrscheinlichkeiten als Begriffe

Wenn man die Wahrscheinlichkeit verschiedener Ereignisse vergleichen möchte, beispielsweise die Auswahl eines schwarzen Balls und die Auswahl eines weißen Balls, kann es bequemer sein, Wahrscheinlichkeiten als eigenständige Begriffe zu betrachten. Das heißt, ein Ausdruck (Px (phi)) wird so interpretiert, dass er sich auf eine rationale Zahl bezieht. Dann kann man die Sprache mit arithmetischen Operationen wie Addition und Multiplikation und mit Operatoren wie Gleichheit und Ungleichung erweitern, um Wahrscheinlichkeitsausdrücke zu vergleichen. Man kann dann sagen, dass man im Vergleich zu einem weißen Ball doppelt so häufig einen schwarzen Ball auswählt wie (Px (B (x)) = 2 \ mal Px (W (x))). Eine solche Erweiterung erfordert, dass die Sprache zwei separate Klassen von Begriffen enthält: eine für Wahrscheinlichkeiten, Zahlen und die Ergebnisse von arithmetischen Operationen mit solchen Begriffen,und eine für den Bereich des Diskurses, über den die Wahrscheinlichkeitsoperatoren quantifizieren. Wir werden eine solche Sprache und Semantik hier nicht im Detail vorstellen. Ein solches System findet man in Bacchus (1990).

5.2 Mögliche Wahrscheinlichkeitslogik erster Welt

In diesem Unterabschnitt betrachten wir eine Wahrscheinlichkeitslogik erster Ordnung mit einer möglichen Weltsemantik (die wir als FOPL abkürzen). Die Sprache von FOPL ähnelt dem Beispiel in Abschnitt 5.1, das sich auf das von Bacchus bezieht, außer dass wir hier vollständige Quantifiziererformeln der Form ((forall x) phi) für jede Formel (phi) haben. und anstelle von Wahrscheinlichkeitsformeln der Form (Px (phi) ge q) haben wir Wahrscheinlichkeitsformeln der Form (P (phi) ge q) (ähnlich den Wahrscheinlichkeitsformeln in der Satzwahrscheinlichkeit Logik).

Die Modelle von FOPL haben die Form (M = (W, D, I, P)), wobei (W) eine Menge möglicher Welten ist, (D) eine Diskursdomäne ist, (I) ist eine lokalisierte Interpretationsfunktion, die jedes (w \ in W) einer Interpretationsfunktion (I (w)) zuordnet, die jeder Funktion und jedem Prädikatsymbol eine Funktion oder ein Prädikat geeigneter Arität zuordnet, und (P) ist eine Wahrscheinlichkeitsfunktion, die jedem (w) in (W) eine Wahrscheinlichkeit (P (w)) zuweist.

Ähnlich wie im vorherigen einfachen Beispiel wird eine Zuweisungsfunktion (g) verwendet, die jede Variable einem Element der Domäne (D) zuordnet. Um Begriffe zu interpretieren, ordnen wir für jedes Modell (M), jede Welt (w \ in W) und jede Zuweisungsfunktion (g) jeden Begriff (t) Domänenelementen wie folgt zu:

  • ()! [x] !] _ {M, w, g} = g (x))
  • ()! [f (t_1, \ ldots, t_n)] !] _ {M, w, g} = I (w) (f) ()! [t_1] !], \ ldots, [! [t_n] !]))

Die Wahrheit wird definiert durch eine Beziehung (Modelle) zwischen spitzen Modellen (Modelle mit bestimmten Welten) mit Zuordnungen und Formeln wie folgt:

  • (M, w, g \ Modelle R (t_1, \ ldots, t_n)) iff (()! [T_1] !], \ Ldots,)! [T_n] !]) In I. (w) (R))
  • (M, w, g \ Modelle \ neg \ phi) iff (M, w, g \ nicht \ Modelle \ phi)
  • (M, w, g \ Modelle (phi \ wedge \ psi)) iff (M, w, g \ Modelle \ phi) und (M, w, g \ Modelle \ psi)
  • (M, w, g \ Modelle (für alle x) varphi) iff (M, w, g [x / d] Modelle \ varphi) für alle (d \ in D), wobei (g [x / d]) ist dasselbe wie (g), außer dass es (x) (d) zuordnet.
  • (M, w, g \ Modelle P (varphi) ge q) iff (P ({w '\ mid (M, w', g) Modelle \ varphi }) ge q).

Stellen Sie sich als Beispiel ein Modell vor, bei dem es zwei mögliche Vasen gibt: 4 weiße Murmeln und 4 schwarze Murmeln wurden in beide möglichen Vasen gestellt. Aber dann wurde ein anderer Marmor, genannt, in die Vase gestellt, aber in einer möglichen Vase war er weiß und in der anderen war er schwarz. Somit gibt es am Ende zwei mögliche Vasen: eine mit 5 schwarzen Murmeln und 4 weißen Murmeln und die andere mit 4 schwarzen Murmeln und 5 weißen Murmeln. Angenommen, (P) weist den beiden möglichen Vasen eine (1/2) Wahrscheinlichkeit zu. Dann gilt (P (B (mathsf {last})) = 1/2) für diese Variablenzuweisung, und wenn eine andere Variablenzuweisung gewählt wurde, lautet die Formel ((existiert x) P (B (x))) = 1/2) wäre immer noch wahr.

5.3 Metalogic

Im Allgemeinen ist es schwierig, Beweissysteme für Wahrscheinlichkeitslogiken erster Ordnung bereitzustellen, da das Gültigkeitsproblem für diese Logiken im Allgemeinen unentscheidbar ist. Es ist sogar nicht der Fall, wie es in der klassischen Logik erster Ordnung der Fall ist, dass man, wenn eine Folgerung gültig ist, in endlicher Zeit herausfinden kann (siehe Abadi und Halpern (1994)).

Dennoch gibt es viele Ergebnisse für die Wahrscheinlichkeitslogik erster Ordnung. Zum Beispiel untersuchen Hoover (1978) und Keisler (1985) die Ergebnisse der Vollständigkeit. Bacchus (1990) und Halpern (1990) bieten auch vollständige Axiomatisierungen sowie Kombinationen von Wahrscheinlichkeitslogiken erster Ordnung und Wahrscheinlichkeitslogiken erster Ordnung möglicher Welt. In Ognjanović und Rašković (2000) wird eine unendliche vollständige Axiomatisierung für eine allgemeinere Version der hier vorgestellten Wahrscheinlichkeitslogik erster Ordnung möglicher Welt angegeben.

Literaturverzeichnis

  • Abadi, M. und Halpern, JY, 1994, „Entscheidbarkeit und Ausdruckskraft für Wahrscheinlichkeitslogiken erster Ordnung“, Information and Computation, 112: 1–36.
  • Adams, EW und Levine, HP, 1975, „Über die Unsicherheiten, die von Prämissen zu Schlussfolgerungen in deduktiven Schlussfolgerungen übertragen werden“, Synthese, 30: 429–460.
  • Adams, EW, 1998, Eine Einführung in die Wahrscheinlichkeitslogik, Stanford, CA: CSLI Publications.
  • Arló Costa, H., 2005, „Non-Adjunctive Inference and Classical Modalities“, Journal of Philosophical Logic, 34: 581–605.
  • Bacchus, F., 1990, Repräsentieren und Denken mit probabilistischem Wissen, Cambridge, MA: The MIT Press.
  • Baltag, A. und Smets, S., 2008, „Probabilistic Dynamic Belief Revision“, Synthese, 165: 179–202.
  • van Benthem, J., 2017, „Gegen alle Widrigkeiten: Wenn Logik auf Wahrscheinlichkeit trifft“, in ModelEd, TestEd, TrustEd. Essays, die Ed Brinksma anlässlich seines 60. Geburtstages gewidmet sind, JP Katoen, R. Langerak und A. Rensink (Hrsg.), Cham: Springer, S. 239–253.
  • van Benthem, J., Gerbrandy, J. und Kooi, B., 2009, „Dynamic Update with Probabilities“, Studia Logica, 93: 67–96.
  • Boole, G., 1854, Eine Untersuchung der Denkgesetze, auf denen die mathematischen Theorien der Logik und Wahrscheinlichkeiten beruhen, London: Walton und Maberly.
  • Burgess, J., 1969, "Probability Logic", Journal of Symbolic Logic, 34: 264–274.
  • Carnap, R., 1950, Logische Grundlagen der Wahrscheinlichkeit, Chicago, IL: University of Chicago Press.
  • Cross, C., 1993, „Von Welten zu Wahrscheinlichkeiten: Eine probabilistische Semantik für die Modallogik“, Journal of Philosophical Logic, 22: 169–192.
  • Delgrande, J. und Renne, B., 2015, „The Logic of Qualitative Probability“, in Proceedings der vierundzwanzigsten internationalen gemeinsamen Konferenz über künstliche Intelligenz (IJCAI 2015), Q. Yang und M. Wooldridge (Hrsg.), Palo Alto, CA: AAAI Press, S. 2904–2910.
  • Demey, L. und Kooi, B., 2014, „Logic and Probabilistic Update“, in A. Baltag und S. Smets (Hrsg.), Johan van Benthem über Logik und Informationsdynamik, S. 381–404.
  • Demey, L. und Sack, J., 2015, "Epistemic Probabilistic Logic", im Handbook of Epistemic Logic. H. van Ditmarsch, J. Halpern, W. van der Hoek und B. Kooi (Hrsg.), London: College Publications, S. 147–202.
  • Dempster, A., 1968, "A Generalization of Bayesian Inference", Journal der Royal Statistical Society, 30: 205–247.
  • De Morgan, A., 1847, Formal Logic, London: Taylor und Walton.
  • de Finetti, B., 1937, „La Prévision: Ses Lois Logiques, Ses Sources Subjectives“, Annales de l'Institut Henri Poincaré, 7: 1–68; übersetzt als „Voraussicht. Seine logischen Gesetze, seine subjektiven Quellen “in Studies in Subjective Probability, HE Kyburg, Jr. und HE Smokler (Hrsg.), Malabar, FL: RE Krieger Publishing Company, 1980, S. 53–118.
  • Douven, I. und Rott, H., 2018, „Von Wahrscheinlichkeiten zu kategorialen Überzeugungen: Über Spielzeugmodelle hinausgehen“, Journal of Logic and Computation, 28: 1099–1124.
  • Eagle, A., 2010, Wahrscheinlichkeitsphilosophie: Zeitgenössische Lesungen, London: Routledge.
  • Fagin, R. und Halpern, JY, 1988, "Reasoning about Knowledge and Probability", in Proceedings der 2. Konferenz über theoretische Aspekte des Denkens über Wissen, MY Vardi (Hrsg.), Pacific Grove, CA: Morgan Kaufmann, pp. 277–293.
  • –––, 1994, „Argumentation über Wissen und Wahrscheinlichkeit“, Journal of the ACM, 41: 340–367.
  • Fagin, R., Halpern, JY, und Megiddo, N., 1990, „Eine Logik zum Nachdenken über Wahrscheinlichkeiten“, Information and Computation, 87: 78–128.
  • Fitelson, B., 2006, „Inductive Logic“, in The Philosophy of Science: Eine Enzyklopädie, J. Pfeifer und S. Sarkar (Hrsg.), New York, NY: Routledge, S. 384–394.
  • van Fraassen, B., 1981a, „Ein Problem für Minimierer relativer Informationen in der Wahrscheinlichkeitskinematik“, British Journal for the Philosophy of Science, 32: 375–379.
  • –––, 1981b, „Probabilistische Semantik objektiviert: I. Postulate und Logik“, Journal of Philosophical Logic, 10: 371–391.
  • –––, 1983, „Gentlemen's Wagers: Relevante Logik und Wahrscheinlichkeit“, Philosophical Studies, 43: 47–61.
  • –––, 1984, „Glaube und der Wille“, Journal of Philosophy, 81: 235–256.
  • Gärdenfors, P., 1975a, „Qualitative Wahrscheinlichkeit als intensive Logik“, Journal of Philosophical Logic, 4: 171–185.
  • –––, 1975b, „Einige grundlegende Theoreme der qualitativen Wahrscheinlichkeit“, Studia Logica, 34: 257–264.
  • Georgakopoulos, G., Kavvadias, D. und Papadimitriou, CH, 1988, „Probabilistic Satisfiability“, Journal of Complexity, 4: 1–11.
  • Gerla, G., 1994, „Inferences in Probability Logic“, Aritificial Intelligence, 70: 33–52.
  • Gillies, D., 2000, Philosophische Theorien der Wahrscheinlichkeit, London: Routledge.
  • Goldblatt, R. (2010) „Abzugssysteme für Kohlegebren über messbare Räume.“Journal of Logic and Computation 20 (5): 1069–1100
  • Goldman, AJ und Tucker, AW, 1956, "Theory of Linear Programming", in linearen Ungleichungen und verwandten Systemen. Annals of Mathematics Studies 38, HW Kuhn und AW Tucker (Hrsg.), Princeton: Princeton University Press, S. 53–98.
  • Goosens, WK, 1979, „Alternative Axiomatisierungen der Elementarwahrscheinlichkeitstheorie“, Notre Dame Journal of Formal Logic, 20: 227–239.
  • Hájek, A., 2001, „Wahrscheinlichkeit, Logik und Wahrscheinlichkeitslogik“, im Blackwell-Leitfaden zur philosophischen Logik, L. Goble (Hrsg.), Oxford: Blackwell, S. 362–384.
  • Hájek, A. und Hartmann, S., 2010, „Bayesian Epistemology“, in A Companion to Epistemology, J. Dancy, E. Sosa und M. Steup (Hrsg.), Oxford: Blackwell, S. 93–106.
  • Haenni, R. und Lehmann, N., 2003, „Probabilistische Argumentationssysteme: Eine neue Perspektive auf die Dempster-Shafer-Theorie“, International Journal of Intelligent Systems, 18: 93–106.
  • Haenni, R., Romeijn, J.-W., Wheeler, G. und Williamson, J., 2011, Probabilistic Logics and Probabilistic Networks, Dordrecht: Springer.
  • Hailperin, T., 1965, „Bestmögliche Ungleichungen für die Wahrscheinlichkeit einer logischen Funktion von Ereignissen“, American Mathematical Monthly, 72: 343–359.
  • –––, 1984, „Probability Logic“, Notre Dame Journal of Formal Logic, 25: 198–212.
  • –––, 1986, Booles Logik und Wahrscheinlichkeit, Amsterdam: Nordholland.
  • –––, 1996, Sentential Probability Logic: Ursprung, Entwicklung, aktueller Status und technische Anwendungen, Bethlehem, PA: Lehigh University Press.
  • Halpern, JY und Rabin, MO, 1987, „Eine Logik zur Vernunft über die Wahrscheinlichkeit“, Artificial Intelligence, 32: 379–405.
  • Halpern, JY, 1990, „Eine Analyse der Wahrscheinlichkeitslogiken erster Ordnung“, Artificial Intelligence, 46: 311–350.
  • –––, 1991, „Die Beziehung zwischen Wissen, Glauben und Gewissheit“, Annals of Mathematics and Artificial Intelligence, 4: 301–322. Errata erschien in Annals of Mathematics and Artificial Intelligence, 26 (1999): 59–61.
  • –––, 2003, Argumentation über Unsicherheit, Cambridge, MA: The MIT Press.
  • Hamblin, CL, 1959, "The modal 'wahrscheinlich'", Mind, 68: 234–240.
  • Hansen, P. und Jaumard, B., 2000, "Probabilistic Satisfiability", in Handbook of Defeasible Reasoning and Uncertainty Management Systems. Band 5: Algorithmen für Unsicherheit und durchführbares Denken, J. Kohlas und S. Moral (Hrsg.), Dordrecht: Kluwer, S. 321–367.
  • Harrison-Trainor M., Holliday, WH, und Icard, T., 2016, „Ein Hinweis zu Aufhebungsaxiomen für die vergleichende Wahrscheinlichkeit“, Theory and Decision, 80: 159–166.
  • –––, 2018, „Ableiten von Wahrscheinlichkeitsvergleichen“, Mathematical Social Sciences, 91: 62–70.
  • Hartmann, S. und Sprenger J., 2010, „Bayesian Epistemology“, in Routledge Companion to Epistemology, S. Bernecker und D. Pritchard (Hrsg.), London: Routledge, S. 609–620.
  • Heifetz, A. und Mongin, P., 2001, „Wahrscheinlichkeitslogik für Typräume“, Spiele und wirtschaftliches Verhalten, 35: 31–53.
  • Herzig, A. und Longin, D., 2003, "On Modal Probability and Belief", in Proceedings der 7. Europäischen Konferenz über symbolische und quantitative Ansätze für das Denken mit Unsicherheit (ECSQARU 2003), TD Nielsen und NL Zhang (Hrsg.), Lecture Notes in Computer Science 2711, Berlin: Springer, S. 62–73.
  • Hoover, DN, 1978, „Probability Logic“, Annals of Mathematical Logic, 14: 287–313.
  • Howson, C., 2003, „Probability and Logic“, Journal of Applied Logic, 1: 151–165.
  • –––, 2007, „Logik mit Zahlen“, Synthese, 156: 491–512.
  • –––, 2009, „Kann Logik mit Wahrscheinlichkeit kombiniert werden? Wahrscheinlich “, Journal of Applied Logic, 7: 177–187.
  • Ilić-Stepić, Ognjanović, Z., Ikodinović, N., Perović, A. (2012), „A (p) - adische Wahrscheinlichkeitslogik“, Mathematical Logic Quarterly 58 (4–5): 63–280.
  • Jaynes, ET, 2003, Wahrscheinlichkeitstheorie: Die Logik der Wissenschaft, Cambridge: Cambridge University Press.
  • Jeffrey, R., 1992, Wahrscheinlichkeit und die Kunst des Urteils, Cambridge: Cambridge University Press.
  • Jonsson, B., Larsen, K. und Yi, W., 2001 "Probabilistic Extensions of Process Algebras", im Handbuch der Prozessalgebra, JA Bergstra, A. Ponse und SA Smolka (Hrsg.), Amsterdam: Elsevier, S. 685–710.
  • Kavvadias, D. und Papadimitriou, CH, 1990, „Ein linearer Programmieransatz zum Denken über Wahrscheinlichkeiten“, Annals of Mathematics and Artificial Intelligence, 1: 189–205.
  • Keisler, HJ, 1985, "Probability Quantifiers", in Model-Theoretic Logics, J. Barwise und S. Feferman (Hrsg.), New York, NY: Springer, S. 509–556.
  • Kooi BP, 2003, „Probabilistic Dynamic Epistemic Logic“, Journal of Logic, Language and Information, 12: 381–408.
  • Kraft, CH, Pratt, JW und Seidenberg, A., 1959, „Intuitive Wahrscheinlichkeit auf endlichen Mengen“, Annals of Mathematical Statistics, 30: 408–419.
  • Kyburg, HE, 1965, "Wahrscheinlichkeit, Rationalität und die Regel der Ablösung", in Proceedings des Internationalen Kongresses für Logik, Methodik und Wissenschaftstheorie von 1964, Y. Bar-Hillel (Hrsg.), Amsterdam: Nordholland S. 301–310.
  • –––, 1994, „Uncertainty Logics“, im Handbuch der Logik für künstliche Intelligenz und Logikprogrammierung, DM Gabbay, CJ Hogger und JA Robinson (Hrsg.), Oxford: Oxford University Press, S. 397–438.
  • Larsen, K. und Skou, A., 1991, „Bisimulation durch probabilistische Tests“, Information and Computation, 94: 1–28.
  • Leblanc, H., 1979, „Probabilistische Semantik für Logik erster Ordnung“, Zeitschrift für mathematische Logik und Grundlagen der Mathematik, 25: 497–509.
  • –––, 1983, „Alternativen zur Standardsemantik erster Ordnung“, in Handbook of Philosophical Logic, Band I, D. Gabbay und F. Guenthner (Hrsg.), Dordrecht: Reidel, S. 189–274.
  • Leitgeb, H., 2013, „Den Glaubensvereinfacher auf Glaubensgrade reduzieren“, Annals of Pure and Applied Logic, 164: 1338–1389.
  • –––, 2014, „Die Stabilitätstheorie des Glaubens“, Philosophical Review, 123: 131–171.
  • –––, 2017, Die Stabilität des Glaubens. Wie rationaler Glaube mit Wahrscheinlichkeit zusammenhält, Oxford: Oxford University Press.
  • Lewis, D., 1980, "A Subjectivist's Guide to Objective Chance", in Studien zu induktiver Logik und Wahrscheinlichkeit. Band 2, RC Jeffrey (Hrsg.), Berkeley, CA: University of California Press, S. 263–293; Nachdruck in Philosophical Papers. Band II, Oxford: Oxford University Press, 1987, S. 83–113.
  • Lin, H. und Kelly, KT, 2012a, „Eine geologische Lösung des Lotterieparadoxons mit Anwendungen auf die bedingte Logik“, Synthese, 186: 531–575.
  • –––, 2012b, „Propositional Reasoning, das probabilistisches Denken verfolgt“, Journal of Philosophical Logic, 41: 957–981.
  • Miller, D., 1966, „Ein Paradox der Information“, British Journal for the Philosophy of Science, 17: 59–61.
  • Morgan, C., 1982a, „Es gibt eine probabilistische Semantik für jede Erweiterung der klassischen Satzlogik“, Journal of Philosophical Logic, 11: 431–442.
  • –––, 1982b, „Einfache probabilistische Semantik für Satz K, T, B, S4 und S5“, Journal of Philosophical Logic, 11: 443–458.
  • –––, 1983, „Probabilistische Semantik für Aussagenmodallogik“. in Essays in Epistemology and Semantics, H. Leblanc, R. Gumb und R. Stern (Hrsg.), New York, NY: Haven Publications, S. 97–116.
  • Morgan, C. und Leblanc, H., 1983, „Probabilistic Semantics for Intuitionistic Logic“, Notre Dame Journal of Formal Logic, 24: 161–180.
  • Nilsson, N., 1986, "Probabilistic Logic", Artificial Intelligence, 28: 71–87.
  • –––, 1993, „Probabilistic Logic Revisited“, Artificial Intelligence, 59: 39–42.
  • Ognjanović, Z. und Rašković, M., 1999, „Einige Wahrscheinlichkeitslogiken mit neuen Arten von Wahrscheinlichkeitsoperatoren“, Journal of Logic and Computation 9 (2): 181–195.
  • Ognjanović, Z. und Rašković, M., 2000, „Einige Wahrscheinlichkeitslogiken erster Ordnung“, Theoretical Computer Science 247 (1–2): 191–212.
  • Ognjanović, Z., Rašković, M. und Marković, Z., 2016, Wahrscheinlichkeitslogik: Wahrscheinlichkeitsbasierte Formalisierung unsicherer Argumentation, Springer International Publishing AG.
  • Ognjanović, Z., Perović, A. und Rašković, M., 2008, „Logik mit dem qualitativen Wahrscheinlichkeitsoperator“, Logic Journal der IGPL 16 (2): 105–120.
  • Paris, JB, 1994, The Uncertain Reasoner's Companion, Eine mathematische Perspektive, Cambridge: Cambridge University Press.
  • Parma, A. und Segala, R., 2007, "Logische Charakterisierungen von Bisimulationen für diskrete probabilistische Systeme", in Proceedings der 10. Internationalen Konferenz über Grundlagen der Softwarewissenschaft und Computerstrukturen (FOSSACS), H. Seidl (Hrsg.), Lecture Notes in Computer Science 4423, Berlin: Springer, S. 287–301.
  • Pearl, J., 1991, „Probabilistic Semantics for Nonmonotonic Reasoning“, in Philosophy and AI: Essays at the Interface, R. Cummins und J. Pollock (Hrsg.), Cambridge, MA: The MIT Press, S. 157–188.
  • Perović, A., Ognjanović, Z., Rašković, M., Marković, Z., 2008, „Eine probabilistische Logik mit Polynomgewichtsformeln“. In Hartmann, S., Kern-Isberner, G. (Hrsg.) Tagungsband des Fünften Internationalen Symposiums Grundlagen von Informations- und Wissenssystemen, FoIKS 2008, Pisa, Italien, 11.-15. Februar 2008. Lecture Notes in Computer Science, vol. 4932, S. 239–252. Springer.
  • Ramsey, FP, 1926, „Truth and Probability“, in Foundations of Mathematics und anderen Essays, RB Braithwaite (Hrsg.), London: Routledge und Kegan Paul, 1931, S. 156–198; Nachdruck in Studies in Subjective Probability, HE Kyburg, Jr. und HE Smokler (Hrsg.), 2. Aufl., Malabar, FL: RE Krieger Publishing Company, 1980, S. 23–52; Nachdruck in Philosophical Papers, DH Mellor (Hrsg.) Cambridge: Cambridge University Press, 1990, S. 52–94.
  • Reichenbach, H., 1949, Wahrscheinlichkeitstheorie, Berkeley, CA: University of California Press.
  • Romeijn, J.-W., 2011, "Statistik als induktive Logik", im Handbuch für die Philosophie der Wissenschaft. Vol. 7: Philosophy of Statistics, P. Bandyopadhyay und M. Forster (Hrsg.), Amsterdam: Elsevier, S. 751–774.
  • Scott, D., 1964, „Messstrukturen und lineare Ungleichungen“, Journal of Mathematical Psychology, 1: 233–247.
  • Segerberg, K., 1971, „Qualitative Wahrscheinlichkeit in einer modalen Umgebung“, in Proceedings 2nd Scandinavian Logic Symposium, E. Fenstad (Hrsg.), Amsterdam: Nordholland, S. 341–352.
  • Shafer, G., 1976, Eine mathematische Evidenztheorie, Princeton, NJ: Princeton University Press.
  • Suppes, P., 1966, „Probabilistic Inference and the Concept of Total Evidence“, Aspekte der induktiven Logik, J. Hintikka und P. Suppes (Hrsg.), Amsterdam: Elsevier, S. 49–65.
  • Szolovits, P. und Pauker SG, 1978, „Kategoriales und probabilistisches Denken in der medizinischen Diagnose“, Artificial Intelligence, 11: 115–144.
  • Tarski, A., 1936, „Wahrscheinlichkeitslehre und mehrwertige Logik“, Erkenntnis, 5: 174–175.
  • Vennekens, J., Denecker, M. und Bruynooghe, M., 2009, „CP-Logik: Eine Sprache kausaler probabilistischer Ereignisse und ihre Beziehung zur Logikprogrammierung“, Theorie und Praxis der Logikprogrammierung, 9: 245–308.
  • Walley, P., 1991, Statistisches Denken mit ungenauen Wahrscheinlichkeiten, London: Chapman and Hall.
  • Williamson, J., 2002, "Probability Logic", im Handbuch der Logik des Arguments und der Folgerung: Die Wende zum Praktischen, D. Gabbay, R. Johnson, HJ Ohlbach und J. Woods (Hrsg.), Amsterdam: Elsevier, S. 397–424.
  • Yalcin, S., 2010, „Probability Operators“, Philosophy Compass, 5: 916–937.

Akademische Werkzeuge

Sep Mann Symbol
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

[Bitte kontaktieren Sie den Autor mit Vorschlägen.]

Beliebt nach Thema