Beweis-theoretische Semantik

Inhaltsverzeichnis:

Beweis-theoretische Semantik
Beweis-theoretische Semantik

Video: Beweis-theoretische Semantik

Video: Beweis-theoretische Semantik
Video: Semantik: Prädikation und Prädikatenlogik 2024, March
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Beweis-theoretische Semantik

Erstveröffentlichung Mi 5. Dezember 2012; inhaltliche Überarbeitung Do 1. Februar 2018

Die beweistheoretische Semantik ist eine Alternative zur Wahrheitsbedingungssemantik. Es basiert auf der Grundannahme, dass der zentrale Begriff, in dem bestimmten Ausdrücken unserer Sprache, insbesondere logischen Konstanten, Bedeutungen zugewiesen werden, eher der Beweis als die Wahrheit ist. In diesem Sinne ist die beweistheoretische Semantik eine beweissemantische Semantik. Beweis-theoretische Semantik bedeutet auch die Semantik von Beweisen, dh die Semantik von Entitäten, die beschreiben, wie wir unter bestimmten Annahmen zu bestimmten Aussagen gelangen. Beide Aspekte der beweistheoretischen Semantik können miteinander verflochten sein, dh die Semantik von Beweisen wird oft selbst in Form von Beweisen angegeben.

Die beweistheoretische Semantik hat mehrere Wurzeln, die spezifischste ist Gentzens Bemerkung, dass die Einführungsregeln in seinem Kalkül der natürlichen Deduktion die Bedeutung logischer Konstanten definieren, während die Eliminierungsregeln als Folge dieser Definition erhalten werden können (siehe Abschnitt 2.2. 1). Im weiteren Sinne gehört es zu dem, was Prawitz als allgemeine Beweistheorie bezeichnet (siehe Abschnitt 1.1). Noch allgemeiner ist es Teil der Tradition, nach der die Bedeutung eines Begriffs unter Bezugnahme auf die Art und Weise erklärt werden sollte, wie er in unserer Sprache verwendet wird.

Innerhalb der Philosophie ist die beweistheoretische Semantik meist unter der Überschrift „Bedeutungstheorie“zusammengefasst. Diese Terminologie folgt Dummett, der behauptete, die Bedeutungstheorie sei die Grundlage der theoretischen Philosophie, eine Ansicht, die er Frege zuschrieb. Der Begriff „beweistheoretische Semantik“wurde von Schröder-Heister (1991; bereits 1987 in Stockholm verwendet) vorgeschlagen, um den Begriff „Semantik“nicht allein dem Denotationalismus zu überlassen - schließlich ist „Semantik“der Standardbegriff für Untersuchungen zur Bedeutung sprachlicher Ausdrücke. Im Gegensatz zur „Bedeutungstheorie“deckt der Begriff „beweistheoretische Semantik“auch philosophische und technische Aspekte ab. 1999 fand in Tübingen die erste Konferenz mit diesem Titel statt, die zweite 2013. Das erste Lehrbuch mit diesem Titel erschien 2015.

  • 1. Hintergrund

    • 1.1 Allgemeine Beweistheorie: Konsequenz vs. Beweise
    • 1.2 Inferentialismus, Intuitionismus, Anti-Realismus
    • 1.3 Gentzen-artige Beweistheorie: Reduktion, Normalisierung, Schnitteliminierung
  • 2. Einige Versionen der beweistheoretischen Semantik

    • 2.1 Die Semantik der Implikationen: Zulässigkeit, Ableitbarkeit, Regeln

      • 2.1.1 Betriebslogik
      • 2.1.2 Gentzen-Semantik
      • 2.1.3 Natürlicher Abzug mit übergeordneten Regeln
    • 2.2 Die Semantik von Ableitungen basierend auf Einführungsregeln

      • 2.2.1 Inversionsprinzipien und Harmonie
      • 2.2.2 Beweis-theoretische Gültigkeit
      • 2.2.3 Konstruktive Typentheorie
    • 2.3 Klauseldefinitionen und Begründung

      • 2.3.1 Die Herausforderung der Logikprogrammierung
      • 2.3.2 Definitionsreflexion
    • 2.4 Strukturelle Charakterisierung logischer Konstanten
    • 2.5 Kategoriale Beweistheorie
  • 3. Erweiterungen und Alternativen zur standardmäßigen beweistheoretischen Semantik

    • 3.1 Eliminierungsregeln als Grundregeln
    • 3.2 Verneinung und Verleugnung
    • 3.3 Harmonie und Reflexion im sequentiellen Kalkül
    • 3.4 Subatomare Struktur und natürliche Sprache
    • 3.5 Klassische Logik
    • 3.6 Hypothetisches Denken
    • 3.7 Intensionsbeweis-theoretische Semantik
  • 4. Fazit und Ausblick
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

Dieser Eintrag enthält auch die folgenden ergänzenden Dokumente, die mit dem Text verknüpft sind:

  • Beispiele für beweistheoretische Gültigkeit
  • Definitionsreflexion und Paradoxien

1. Hintergrund

1.1 Allgemeine Beweistheorie: Konsequenz vs. Beweise

Der Begriff „allgemeine Beweistheorie“wurde von Prawitz geprägt. In der allgemeinen Beweistheorie werden „Beweise in der Hoffnung, ihre Natur zu verstehen, eigenständig untersucht“, im Gegensatz zur „reduktiven Beweistheorie“nach Hilbert, bei der es sich um den „Versuch handelt, die Beweise mathematischer Theorien mit der Absicht zu analysieren Reduzieren Sie sie auf einen elementareren Teil der Mathematik wie die finitistische oder konstruktive Mathematik “(Prawitz, 1972, S. 123). In ähnlicher Weise fordert Kreisel (1971) eine Neuorientierung der Beweistheorie. Er möchte „die jüngsten Arbeiten in der Beweistheorie unter einem vernachlässigten Gesichtspunkt erklären. Beweise und ihre Darstellung durch formale Ableitungen werden als Hauptstudienobjekte behandelt und nicht als bloße Werkzeuge zur Analyse der Konsequenzbeziehung. “(Kreisel, 1971, p.109) Während sich Kreisel auf die Dichotomie zwischen einer Beweistheorie und einer Beweisbarkeitstheorie konzentriert, konzentriert sich Prawitz auf die verschiedenen Ziele, die die Beweistheorie verfolgen kann. Beide betonen jedoch die Notwendigkeit, Beweise als grundlegende Einheiten zu untersuchen, mit denen wir demonstratives (insbesondere mathematisches) Wissen erwerben. Dies bedeutet insbesondere, dass Beweise epistemische Einheiten sind, die nicht mit formalen Beweisen oder Ableitungen in Konflikt gebracht werden sollten. Sie sind eher das, was Ableitungen bezeichnen, wenn sie als Repräsentationen von Argumenten betrachtet werden. (Im Folgenden verwenden wir jedoch häufig „Beweis“synonym mit „Ableitung“, wobei es dem Leser überlassen bleibt, zu bestimmen, ob formale Beweise oder Beweise als epistemische Einheiten gemeint sind.) Bei der Erörterung der Umfrage von Prawitz (1971), Kreisel (1971, p.111) spricht ausdrücklich von einer „Abbildung“zwischen Ableitungen und mentalen Handlungen und betrachtet es als Aufgabe der Beweistheorie, diese Abbildung zu klären, einschließlich der Untersuchung der Identität von Beweisen, ein Thema, das Prawitz und Martin-Löf auf die Tagesordnung gesetzt hatten.

Dies bedeutet, dass wir in der allgemeinen Beweistheorie nicht nur daran interessiert sind, ob B aus A folgt, sondern auf welche Weise wir ausgehend von A zu B gelangen. In diesem Sinne hat die allgemeine Beweistheorie einen intensiven und erkenntnistheoretischen Charakter, während die Modelltheorie, die an der Konsequenzbeziehung und nicht an ihrer Etablierung interessiert ist, extensional und metaphysisch ist.

1.2 Inferentialismus, Intuitionismus, Anti-Realismus

Die beweistheoretische Semantik ist von Natur aus inferentiell, da sich die inferentielle Aktivität in Beweisen manifestiert. Es gehört somit zum Inferentialismus (siehe Brandom, 2000), nach dem Inferenzen und Inferenzregeln im Gegensatz zum Denotationalismus die Bedeutung von Ausdrücken festlegen, nach denen Bezeichnungen die primäre Art von Bedeutung sind. Inferentialismus und die "Sinn-als-Gebrauch" -Ansicht der Semantik bilden den breiten philosophischen Rahmen der beweistheoretischen Semantik. Diese allgemeine philosophische und semantische Perspektive verschmolz mit konstruktiven Ansichten, die aus der Philosophie der Mathematik, insbesondere aus dem mathematischen Intuitionismus, stammten. Die meisten Formen der beweistheoretischen Semantik sind intuitionistisch im Geist,Dies bedeutet insbesondere, dass Prinzipien der klassischen Logik wie das Gesetz der ausgeschlossenen Mitte oder das Gesetz der doppelten Negation abgelehnt oder zumindest als problematisch angesehen werden. Dies ist teilweise auf die Tatsache zurückzuführen, dass das Hauptwerkzeug der beweistheoretischen Semantik, der Kalkül der natürlichen Deduktion, in Richtung intuitionistischer Logik voreingenommen ist, in dem Sinne, dass die einfache Formulierung ihrer Eliminierungsregeln die intuitionistische ist. Dort ist die klassische Logik nur durch eine Regel des indirekten Beweises verfügbar, die die Symmetrie der Argumentationsprinzipien zumindest teilweise zerstört (siehe Abschnitt 3.5). Wenn man den Standpunkt der natürlichen Deduktion einnimmt, dann ist die intuitionistische Logik ein natürliches logisches System. Auch die BHK-Interpretation (Brouwer-Heyting-Kolmogorov) der logischen Zeichen spielt eine bedeutende Rolle. Diese Interpretation ist kein einzigartiger Ansatz für die Semantik, sondern umfasst verschiedene Ideen, die oft informeller als formal beschrieben sind. Von besonderer Bedeutung ist seine funktionale Sicht der Implikation, wonach ein Beweis von A → B eine konstruktive Funktion ist, die, wenn sie auf einen Beweis von A angewendet wird, einen Beweis von B ergibt. Diese funktionale Perspektive liegt vielen Konzepten der beweistheoretischen Semantik zugrunde, insbesondere denen von Lorenzen, Prawitz und Martin Löf (siehe Abschnitte 2.1.1, 2.2.2, 2.2.3). Diese funktionale Perspektive liegt vielen Konzepten der beweistheoretischen Semantik zugrunde, insbesondere denen von Lorenzen, Prawitz und Martin Löf (siehe Abschnitte 2.1.1, 2.2.2, 2.2.3). Diese funktionale Perspektive liegt vielen Konzepten der beweistheoretischen Semantik zugrunde, insbesondere denen von Lorenzen, Prawitz und Martin Löf (siehe Abschnitte 2.1.1, 2.2.2, 2.2.3).

Nach Dummett entspricht die logische Position des Intuitionismus der philosophischen Position des Antirealismus. Die realistische Sichtweise einer anerkennungsunabhängigen Realität ist das metaphysische Gegenstück zur Sichtweise, dass alle Sätze entweder wahr oder falsch sind, unabhängig von unseren Mitteln, sie zu erkennen. Nach Dummett sind große Teile der beweistheoretischen Semantik mit Antirealismus verbunden.

1.3 Gentzen-artige Beweistheorie: Reduktion, Normalisierung, Schnitteliminierung

Gentzens Kalkül der natürlichen Deduktion und seine Darstellung durch Prawitz bilden den Hintergrund für die meisten Ansätze zur beweistheoretischen Semantik. Der natürliche Abzug basiert auf mindestens drei Hauptideen:

  • Entlastung von Annahmen: Annahmen können im Verlauf einer Ableitung „entladen“oder „beseitigt“werden, daher ist der zentrale Begriff des natürlichen Abzugs der einer Ableitung in Abhängigkeit von Annahmen.
  • Trennung: Jedes primitive Regelschema enthält nur eine einzige logische Konstante.
  • Einführungen und Eliminierungen: Die Regeln für logische Konstanten kommen paarweise. Die Einführungsregel (en) erlauben es (n), auf eine Formel mit der fraglichen Konstante als Hauptoperator zu schließen, die Eliminierungsregel (n) erlauben es (n), Konsequenzen aus einer solchen Formel zu ziehen.

In Gentzens natürlichem Abzugssystem für logische Ableitungen erster Ordnung werden sie in Baumform geschrieben und basieren auf den bekannten Regeln. Für die Implikation gelten beispielsweise die folgenden Einführungs- und Eliminierungsregeln

[EIN]
B. → I.
A → B.
A → BA → E.
B.

wobei die Klammern die Möglichkeit angeben, Vorkommen der Annahme A zu entladen. Die offenen Annahmen einer Ableitung sind diejenigen Annahmen, von denen die Endformel abhängt. Eine Ableitung heißt geschlossen, wenn sie keine offene Annahme hat, andernfalls heißt sie offen. Wenn wir uns mit Quantifizierern befassen, müssen wir auch offene Einzelvariablen (manchmal auch als „Parameter“bezeichnet) berücksichtigen. Zu den metallogischen Merkmalen, die für die beweistheoretische Semantik von entscheidender Bedeutung sind und erstmals von Prawitz (1965) systematisch untersucht und veröffentlicht wurden, gehören:

Reduktion: Für jeden Umweg, der aus einer Einführung unmittelbar gefolgt von einer Eliminierung besteht, wird dieser Umweg durch einen Reduktionsschritt entfernt.

Normalisierung: Durch sukzessive Anwendung von Reduktionen können Ableitungen in normale Formen umgewandelt werden, die keine Umwege enthalten.

Folglich ist der Standard-Reduktionsschritt zum Entfernen von Umwegen der folgende:

[EIN]
B. |
A → B. EIN
B.
reduziert zu

|

A

B.

Eine einfache, aber sehr wichtige Folge der Normalisierung ist die folgende: Jede geschlossene Ableitung in der intuitionistischen Logik kann im letzten Schritt unter Verwendung einer Einführungsregel auf eine Ableitung reduziert werden. Wir sagen auch, dass die intuitionistische natürliche Deduktion die „Eigenschaft der Einführungsform“erfüllt. In der beweistheoretischen Semantik spielt dieses Ergebnis eine herausragende Rolle unter der Überschrift „Grundannahme“(Dummett, 1991, S. 254). Die „Grundannahme“ist ein typisches Beispiel für eine philosophische Neuinterpretation eines technischen beweistheoretischen Ergebnisses.

Weiterführende Literatur:

Zur allgemeinen Orientierung der beweistheoretischen Semantik die Sonderausgabe Synthese (Kahle und Schroeder-Heister, 2006), herausgegeben von Piecha und Schroeder-Heister (2016b), das Lehrbuch von Francez (2015), Schroeder-Heister (2008b, 2016a) und Wansing (2000).

Für die philosophische Position und Entwicklung der Beweistheorie die Einträge zu Hilberts Programm und die Entwicklung der Beweistheorie sowie Prawitz (1971).

Für den Intuitionismus die Einträge zur intuitionistischen Logik, zum Intuitionismus in der Philosophie der Mathematik und zur Entwicklung der intuitionistischen Logik.

Für den Anti-Realismus der Einstieg in Herausforderungen an den metaphysischen Realismus sowie Tennant (1987); Tennant (1997), Tranchini (2010); Tranchini (2012a).

Für die Gentzen-artige Beweistheorie und die Theorie der natürlichen Deduktion: Neben Gentzens (1934/35) Originalpräsentation Jaśkowskis (1934) Theorie der Vermutungen und Prawitz '(1965) klassischer Monographie Tennant (1978), Troelstra und Schwichtenberg (2000) und Negri und von Plato (2001).

2. Einige Versionen der beweistheoretischen Semantik

2.1 Die Semantik der Implikationen: Zulässigkeit, Ableitbarkeit, Regeln

Die Semantik der Implikation liegt im Zentrum der beweistheoretischen Semantik. Im Gegensatz zur klassischen Semantik der Wahrheitsbedingung ist die Implikation eine logische Konstante für sich. Es hat auch das charakteristische Merkmal, dass es an das Konzept der Konsequenz gebunden ist. Es kann als Ausdruck einer Konsequenz auf sententialer Ebene aufgrund des Modus ponens und aufgrund dessen angesehen werden, was in Hilbert-Systemen als Abzugssatz bezeichnet wird, dh der Äquivalenz von Γ, A ⊢ B und Γ Γ A → B.

Ein sehr natürliches Verständnis einer Implikation A → B besteht darin, sie als Ausdruck der Inferenzregel zu lesen, die es einem ermöglicht, von A nach B überzugehen. Die Lizenzierung des Schrittes von A nach B auf der Basis von A → B ist genau das, was modus ponens sagt. Und der Abzugssatz kann als Mittel zur Festlegung einer Regel angesehen werden: Nachdem gezeigt wurde, dass B von A abgeleitet werden kann, rechtfertigt dies die Regel, dass wir von A zu B übergehen können. Eine regelbasierte Implikationssemantik in dieser Richtung liegt mehreren Konzepten der beweistheoretischen Semantik zugrunde, insbesondere denen von Lorenzen, von Kutschera und Schroeder-Heister.

2.1.1 Betriebslogik

Lorenzen beginnt in seiner Einführung in die operative Logik und Mathematik (1955) mit logikfreien (atomaren) Kalkülen, die Produktionssystemen oder Grammatiken entsprechen. Er nennt eine Regel, die in einem solchen System zulässig ist, wenn sie hinzugefügt werden kann, ohne die Menge seiner ableitbaren Atome zu vergrößern. Der Implikationspfeil → wird als Ausdruck der Zulässigkeit interpretiert. Eine Implikation A → B gilt als gültig, wenn sie in der Regel (in Bezug auf den zugrunde liegenden Kalkül) zulässig ist. Für iterierte Implikationen (= Regeln) entwickelt Lorenzen eine Theorie der Zulässigkeitserklärungen höherer Ebenen. Bestimmte Aussagen wie A → A oder ((A → B), (B → C)) → (A → C) gelten unabhängig vom zugrunde liegenden Kalkül. Sie werden als allgemeinzulässig bezeichnet und bilden ein System positiver Implikationslogik. In ähnlicher WeiseGesetze zur universellen Quantifizierung ∀ werden mit Zulässigkeitserklärungen für Regeln mit schematischen Variablen begründet.

Zur Rechtfertigung der Gesetze für die logischen Konstanten ∧, ∨, ∃ und ⊥ verwendet Lorenzen ein Inversionsprinzip (ein Begriff, den er geprägt hat). In einer sehr vereinfachten Form, ohne Variablen in Regeln zu berücksichtigen, besagt das Inversionsprinzip, dass alles, was aus jeder definierenden Bedingung von A erhalten werden kann, aus A selbst erhalten werden kann. Zum Beispiel sei im Fall einer Disjunktion A und B jeweils eine definierende Bedingung von A ∨ B, wie sie durch die primitiven Regeln A → A ∨ B und B → A ∨ B ausgedrückt wird. Das Inversionsprinzip besagt dann, dass A ∨ B → C unter der Annahme von A → C und B → C zulässig ist, was die Eliminierungsregel für die Disjunktion rechtfertigt. Die übrigen Konnektiva werden auf ähnliche Weise behandelt. Im Fall von ⊥ ergibt sich die Absurditätsregel ⊥ → A aus der Tatsache, dass es für ⊥ keine definierende Bedingung gibt.

2.1.2 Gentzen-Semantik

In seiner sogenannten „Gentzen-Semantik“gibt von Kutschera (1968) als Lorenzen eine Semantik logisch komplexer implikationsähnlicher Aussagen A 1,…, A n → B in Bezug auf Kalküle K an, die das Denken mit Atomsätzen bestimmen. Der grundlegende Unterschied zu Lorenzen besteht darin, dass A 1,…, A n → B nun eher eine Ableitbarkeit als eine Zulässigkeitserklärung ausdrückt.

Um dies in eine Semantik der logischen Konstanten der Aussagenlogik umzuwandeln, argumentiert von Kutschera wie folgt: Wenn wir die Bivalenz aufgeben, können wir klassische Wahrheitswertzuweisungen für Atomformeln nicht mehr verwenden. Stattdessen können wir Kalküle verwenden, die Atomsätze beweisen oder widerlegen. Da Kalküle nicht nur Beweise oder Widerlegungen, sondern auch willkürliche Ableitbarkeitsrelationen erzeugen, besteht die Idee darin, direkt mit der Ableitbarkeit in einem atomaren System zu beginnen und sie mit Regeln zu erweitern, die die logischen Verknüpfungen charakterisieren. Dafür gibt von Kutschera einen sequentiellen Kalkül mit Regeln für die Einführung von n-ten Satzkonnektiven in den Sukzessiven und Antezedenten an, wobei ein sequentielles System für verallgemeinerte Satzkonnektive erhalten wird. Von Kutschera zeigt dann weiter, dass die so definierten verallgemeinerten Konnektiva alle durch die Standardkonnektiva der intuitionistischen Logik (Konjunktion, Disjunktion, Implikation, Absurdität) ausgedrückt werden können.

2.1.3 Natürlicher Abzug mit übergeordneten Regeln

Im Rahmen eines Programms zur Entwicklung eines allgemeinen Schemas für Regeln für beliebige logische Konstanten schlug Schroeder-Heister (1984) vor, dass eine logisch komplexe Formel den Inhalt oder den gemeinsamen Inhalt von Regelsystemen ausdrücken sollte. Dies bedeutet, dass nicht die Einführungsregeln als grundlegend angesehen werden, sondern die Konsequenzen der Definition von Bedingungen. Eine Regel R ist entweder eine Formel A oder hat die Form R 1,…, R n ⇒ A, wobei R 1,…, R nsind selbst Regeln. Diese sogenannten „übergeordneten Regeln“verallgemeinern die Idee, dass Regeln Annahmen auf den Fall übertragen können, in dem diese Annahmen selbst Regeln sein können. Für die logischen Standardkonstanten bedeutet dies, dass A ∧ B den Inhalt des Paares (A, B) ausdrückt; A → B drückt den Inhalt der Regel A ⇒ B aus; A ∨ B drückt den gemeinsamen Inhalt von A und B aus; und Absurdität ⊥ drückt den gemeinsamen Inhalt der leeren Familie von Regelsystemen aus. Im Fall von willkürlichen n -ary-Satzverbindungen führt dies zu einem natürlichen Abzugssystem mit verallgemeinerten Einführungs- und Eliminierungsregeln. Es wird gezeigt, dass diese allgemeinen Konnektiva in Bezug auf die Standardkonnektiva definierbar sind, was die Ausdrucksvollständigkeit der intuitionistischen Standardkonnektiva belegt.

Weiterführende Literatur:

Für Lorenzens Ansatz in Bezug auf die beweistheoretische Semantik nach Prawitz: Schroeder-Heister (2008a). Für Erweiterungen der Ausdrucksvollständigkeit im Stil von Kutschera: Wansing (1993a).

2.2 Die Semantik von Ableitungen basierend auf Einführungsregeln

2.2.1 Inversionsprinzipien und Harmonie

In seinen Untersuchungen zur logischen Deduktion macht Gentzen einige heutzutage sehr häufig zitierte programmatische Bemerkungen zur semantischen Beziehung zwischen Einführung und Eliminierung von Schlussfolgerungen in der natürlichen Deduktion.

Die Einführungen stellen sozusagen die „Definitionen“der betreffenden Symbole dar, und die Eliminierungen sind letztendlich nicht mehr als die Konsequenzen dieser Definitionen. Diese Tatsache kann wie folgt ausgedrückt werden: Bei der Eliminierung eines Symbols können wir die Formel verwenden, mit deren Endsymbol wir es nur "in dem Sinne tun, wie es durch die Einführung dieses Symbols möglich ist". (Gentzen, 1934/35, S. 80)

Dies kann natürlich nicht bedeuten, dass die Eliminierungsregeln von den Einführungsregeln im wörtlichen Sinne des Wortes ableitbar sind; in der Tat sind sie nicht. Es kann nur bedeuten, dass sie auf irgendeine Weise von ihnen gerechtfertigt werden können.

Indem diese Ideen präzisiert werden, sollte es möglich sein, die E-Inferenzen auf der Grundlage bestimmter Anforderungen als eindeutige Funktionen ihrer entsprechenden I-Inferenzen anzuzeigen. (ibid., S. 81)

Die Idee, die Gentzens Programm zugrunde liegt, ist, dass wir „Definitionen“in Form von Einführungsregeln und einer Art semantischem Denken haben, die durch die Verwendung „bestimmter Anforderungen“die Eliminierungsregeln validieren.

Indem Prawitz (1965) Lorenzens Begriff übernahm und seine zugrunde liegende Idee an den Kontext der natürlichen Deduktion anpasste, formulierte er ein „Inversionsprinzip“, um Gentzens Bemerkungen genauer zu machen:

Sei α eine Anwendung einer Eliminierungsregel, die B als Konsequenz hat. Dann enthalten Abzüge, die die ausreichende Bedingung […] erfüllen, um die Hauptprämisse von α abzuleiten, in Kombination mit Abzügen der Nebenprämisse von α (falls vorhanden) bereits einen Abzug von B; Der Abzug von B ist somit direkt aus den gegebenen Abzügen ohne Addition von α erhältlich. (S. 33)

Hier sind die ausreichenden Bedingungen durch die Prämissen der entsprechenden Einführungsregeln gegeben. Das Inversionsprinzip besagt also, dass eine Ableitung der Schlussfolgerung einer Eliminierungsregel ohne Anwendung der Eliminierungsregel erhalten werden kann, wenn ihre Hauptprämisse unter Verwendung einer Einführungsregel im letzten Schritt abgeleitet wurde, was bedeutet, dass eine Kombination

Ich-Folgerung
EIN
{D i } E-Inferenz
B.

von Schritten, bei denen {D i } für eine (möglicherweise leere) Liste von Abzügen kleinerer Prämissen steht, kann vermieden werden.

Die Beziehung zwischen Einführungs- und Eliminierungsregeln wird oft als „Harmonie“beschrieben oder als durch ein „Prinzip der Harmonie“geregelt (siehe z. B. Tennant, 1978, S. 74). Diese Terminologie ist nicht einheitlich und manchmal nicht einmal ganz klar. Es drückt im Wesentlichen aus, was auch unter „Inversion“zu verstehen ist. Selbst wenn „Harmonie“ein Begriff ist, der auf eine symmetrische Beziehung hindeutet, wird er häufig so verstanden, dass er eine Konzeption ausdrückt, die auf Einführungsregeln basiert, wie z. B. in Reads (2010) „Allgemeine Eliminierungsharmonie“(obwohl gelegentlich auch Eliminierungskonzepte enthalten sind)). Manchmal soll Harmonie bedeuten, dass Konnektiva in gewissem Sinne aufgrund ihrer Einführung oder ihrer Eliminierungsregeln am stärksten oder am schwächsten sind. Diese Idee liegt Tennants (1978) Harmonieprinzip zugrunde,sowie die strukturellen Charakterisierungen von Popper und Koslow (siehe Abschnitt 2.4). Die spezifische Beziehung zwischen Einführungs- und Eliminierungsregeln, wie sie in einem Inversionsprinzip formuliert ist, schließt angebliche inferentielle Definitionen wie die des konnektiven Tonks aus, der eine Einführungsregel für die Disjunktion mit einer Eliminierungsregel für die Konjunktion kombiniert und zu einer noch andauernden Debatte geführt hat zum Format von Inferenzdefinitionen (siehe Humberstone, 2010).und was zu einer noch andauernden Debatte über das Format von Inferenzdefinitionen geführt hat (siehe Humberstone, 2010).und was zu einer noch andauernden Debatte über das Format von Inferenzdefinitionen geführt hat (siehe Humberstone, 2010).

2.2.2 Beweis-theoretische Gültigkeit

Die beweistheoretische Validität ist der dominierende Ansatz zur beweistheoretischen Semantik. Als technisches Konzept wurde es von Prawitz (1971; 1973; 1974) entwickelt, indem ein beweistheoretischer Validitätsbegriff, der auf Ideen von Tait (1967) basiert und ursprünglich zum Nachweis einer starken Normalisierung verwendet wurde, in ein semantisches Konzept umgewandelt wurde. Dummett lieferte viel philosophische Grundlage für diesen Begriff (siehe Dummett, 1991). Die Objekte, die in erster Linie gültig sind, sind Beweise als Repräsentationen von Argumenten. In einem sekundären Sinne können einzelne Regeln gültig sein, wenn sie von gültigen Beweisen zu gültigen Beweisen führen. In diesem Sinne ist Gültigkeit eher ein globaler als ein lokaler Begriff. Es gilt für beliebige Ableitungen über ein gegebenes Atomsystem, das die Ableitbarkeit für Atome definiert. Das Aufrufen eines Beweises, der im letzten kanonischen Schritt eine Einführungsregel verwendet, basiert auf den folgenden drei Ideen:

  1. Die Priorität geschlossener kanonischer Beweise.
  2. Die Reduktion geschlossener nicht-kanonischer Beweise auf kanonische.
  3. Die Substitutionssicht offener Beweise.

Anzeige 1: Die Definition der Gültigkeit basiert auf Gentzens Idee, dass Einführungsregeln sich selbst rechtfertigen und den logischen Konstanten ihre Bedeutung geben. Diese selbstbegründende Funktion wird nur für geschlossene Beweise verwendet, die als primär gegenüber offenen gelten.

Anzeige 2: Nichtkanonische Beweise werden gerechtfertigt, indem sie auf kanonische Beweise reduziert werden. Daher spielen Reduktionsverfahren (Umleitungsreduktionen), wie sie in Normalisierungsnachweisen verwendet werden, eine entscheidende Rolle. Da sie Argumente rechtfertigen, werden sie von Prawitz auch als „Rechtfertigungen“bezeichnet. Diese Definition gilt wiederum nur für geschlossene Beweise, die der Eigenschaft der Einführungsform geschlossener normaler Ableitungen im natürlichen Abzug entsprechen (siehe Abschnitt 1.3).

Anzeige 3: Offene Beweise sind gerechtfertigt, wenn ihre geschlossenen Instanzen berücksichtigt werden. Diese geschlossenen Instanzen werden erhalten, indem ihre offenen Annahmen durch geschlossene Beweise und ihre offenen Variablen durch geschlossene Begriffe ersetzt werden. Zum Beispiel wird ein Beweis von B aus A als gültig angesehen, wenn jeder geschlossene Beweis, der durch Ersetzen der offenen Annahme A durch einen geschlossenen Beweis von A erhalten wird, gültig ist. Auf diese Weise werden offene Annahmen als Platzhalter für geschlossene Beweise betrachtet, weshalb wir von einer Ersatzinterpretation offener Beweise sprechen können.

Dies ergibt die folgende Definition der beweistheoretischen Gültigkeit:

  1. Jeder geschlossene Beweis im zugrunde liegenden Atomsystem ist gültig.
  2. Ein geschlossener kanonischer Beweis gilt als gültig, wenn seine unmittelbaren Unterbeweise gültig sind.
  3. Ein geschlossener nichtkanonischer Beweis gilt als gültig, wenn er sich auf einen gültigen geschlossenen kanonischen Beweis oder auf einen geschlossenen Beweis im Atomsystem reduziert.
  4. Ein offener Beweis gilt als gültig, wenn jeder geschlossene Beweis gültig ist, der durch Ersetzen seiner offenen Annahmen durch geschlossene Beweise und seiner offenen Variablen durch geschlossene Begriffe erhalten wird.

Formal muss diese Definition auf das betrachtete Atomsystem und auf die berücksichtigten Rechtfertigungen (Beweisreduktionen) relativiert werden. Darüber hinaus werden Beweise hier als Kandidaten für gültige Beweise verstanden, was bedeutet, dass die Regeln, aus denen sie bestehen, nicht festgelegt sind. Sie sehen aus wie Beweisbäume, aber ihre einzelnen Schritte können eine beliebige (endliche) Anzahl von Prämissen haben und beliebige Annahmen eliminieren. Die Definition der Gültigkeit hebt diejenigen Beweisstrukturen hervor, die auf der Grundlage der gegebenen Reduktionsverfahren „echte“Beweise sind.

Die Gültigkeit in Bezug auf jede Wahl eines Atomsystems kann als verallgemeinerter Begriff der logischen Gültigkeit angesehen werden. Wenn wir die Standardreduktionen der intuitionistischen Logik betrachten, sind alle Ableitungen in der intuitionistischen Logik unabhängig vom betrachteten Atomsystem gültig. Dies ist semantische Korrektheit. Wir können fragen, ob das Gegenteil zutrifft, nämlich. ob angesichts der Tatsache, dass eine Ableitung für jedes Atomsystem gültig ist, eine entsprechende Ableitung in der intuitionistischen Logik vorliegt. Dass die intuitionistische Logik in diesem Sinne vollständig ist, wird als Prawitz-Vermutung bezeichnet (siehe Prawitz, 1973; Prawitz, 2013). Es wurde jedoch kein zufriedenstellender Beweis dafür erbracht. Es gibt erhebliche Zweifel an der Gültigkeit dieser Vermutung für Systeme, die über die implizite Logik hinausgehen. In jedem Fall wird es von der genauen Formulierung des Gültigkeitsbegriffs abhängen, insbesondere von seiner Handhabung atomarer Systeme.

Für eine formellere Definition und detaillierte Beispiele, die die Gültigkeit demonstrieren, sowie einige Anmerkungen zu Prawitz 'Vermutung siehe die

Ergänzung zu Beispielen beweistheoretischer Gültigkeit.

2.2.3 Konstruktive Typentheorie

Die Typentheorie von Martin-Löf (Martin-Löf, 1984) ist ein führender Ansatz in der konstruktiven Logik und Mathematik. Philosophisch teilt es mit Prawitz die drei in Abschnitt 2.2.2 erwähnten Grundannahmen der standardbeweistheoretischen Semantik: die Priorität geschlossener kanonischer Beweise, die Reduktion geschlossener nichtkanonischer Beweise auf kanonische und die Substitutionssicht offener Beweise. Die Typentheorie von Martin-Löf weist jedoch mindestens zwei charakteristische Merkmale auf, die über andere Ansätze in der beweistheoretischen Semantik hinausgehen:

  1. Die Berücksichtigung von Beweisobjekten und die entsprechende Unterscheidung zwischen Beweisen als Objekte und Beweisen als Demonstrationen.
  2. Die Auffassung von Formationsregeln als dem Beweissystem innewohnend und nicht als externe Regeln.

Die erste Idee geht auf die Curry-Howard-Korrespondenz zurück (siehe de Groote, 1995; Sørensen und Urzyczyn, 2006), wonach die Tatsache, dass eine Formel A einen bestimmten Beweis hat, als die Tatsache kodifiziert werden kann, dass ein bestimmter Begriff t ist vom Typ A, wobei die Formel A mit dem Typ A identifiziert wird. Dies kann in einem Kalkül für die Typzuweisung formalisiert werden, dessen Aussagen die Form t: A haben. Ein Beweis von t: A in diesem System kann so gelesen werden, dass t ein Beweis von A ist. Martin-Löf (1995; 1998) hat dies in eine philosophische Perspektive gebracht, indem er diesen zweifachen Beweis auf folgende Weise unterschied. Zuerst haben wir Beweise für Aussagen der Form t: A. Diese Aussagen werden als Urteile bezeichnet, ihre Beweise als Demonstrationen. Innerhalb solcher Urteile stellt der Ausdruck t einen Beweis für den Satz A dar. Ein Beweis im letzteren Sinne wird auch als Beweisobjekt bezeichnet. Wenn wir ein Urteil t: A demonstrieren, zeigen wir, dass t ein Beweis (Objekt) für den Satz A ist. Innerhalb dieses Zweischichtsystems ist die Demonstrationsschicht die Argumentationsschicht. Im Gegensatz zu Beweisobjekten haben Demonstrationen epistemische Bedeutung. Ihre Urteile haben eine durchsetzungsfähige Kraft. Die Beweisschicht ist die Schicht, auf der Bedeutungen erklärt werden: Die Bedeutung eines Satzes A wird erklärt, indem erklärt wird, was als Beweis (Objekt) für A zählt. Die Unterscheidung zwischen kanonischen und nichtkanonischen Beweisen ist eine Unterscheidung auf der Satz- und nicht auf der Urteilsebene. Dies impliziert eine gewisse explizite Anforderung. Wenn ich etwas bewiesen habe, muss ich nicht nur eine Rechtfertigung für meinen Beweis zur Verfügung haben, wie in Prawitz 'Begriff der Gültigkeit,Gleichzeitig muss aber sicher sein, dass diese Rechtfertigung ihren Zweck erfüllt. Diese Gewissheit wird durch eine Demonstration garantiert. Mathematisch gesehen entwickelt dieser zweifache Beweis nur dann seine wahre Kraft, wenn die Typen selbst von Begriffen abhängen können. Abhängige Typen sind ein grundlegender Bestandteil der Typentheorie von Martin-Löf und verwandter Ansätze.

Die zweite Idee unterscheidet Martin-Löfs Ansatz stark von allen anderen Definitionen der beweistheoretischen Gültigkeit. Der entscheidende Unterschied zu Prawitz 'Verfahren besteht zum Beispiel darin, dass es keinen metalinguistischen Charakter hat, wobei „metalinguistisch“bedeutet, dass Sätze und Beweiskandidaten zuerst spezifiziert werden und dann mittels einer Definition in der Metasprache festgelegt wird, welche von sie sind gültig und welche nicht. Vielmehr kommen Sätze und Beweise nur im Rahmen von Demonstrationen ins Spiel. Wenn wir zum Beispiel annehmen, dass etwas ein Beweis für eine Implikation A → B ist, müssen wir nicht unbedingt zeigen, dass sowohl A als auch B wohlgeformte Sätze sind, aber zusätzlich zu dem Wissen, dass A ein Satz ist, brauchen wir nur zu wissen, dass B ein Satz ist, vorausgesetzt, A wurde bewiesen. Ein Satz zu sein, wird durch eine bestimmte Form des Urteils ausgedrückt, die in demselben Demonstrationssystem festgelegt ist, mit dem festgestellt wird, dass ein Beweis für einen Satz erbracht wurde.

In Martin-Löfs Theorie erhält die beweistheoretische Semantik eine stark ontologische Komponente. Eine aktuelle Debatte befasst sich mit der Frage, ob Beweisobjekte einen rein ontologischen Status haben oder ob sie Wissen kodifizieren, auch wenn sie selbst keine epistemischen Handlungen sind.

Weiterführende Literatur:

Zu Inversionsprinzipien siehe Schroeder-Heister (2007).

Für Varianten der beweistheoretischen Harmonie siehe Francez (2015) und Schroeder-Heister (2016a). Zur Definition der beweistheoretischen Gültigkeit durch Prawitz siehe Schroeder-Heister (2006).

Zur Matin-Löf-Typentheorie siehe den Eintrag zur Typentheorie sowie Sommaruga (2000).

2.3 Klauseldefinitionen und Begründung

Die beweistheoretische Semantik konzentriert sich normalerweise auf logische Konstanten. Dieser Fokus wird praktisch nie in Frage gestellt, anscheinend weil er als so offensichtlich angesehen wird. In der Beweistheorie wurde atomaren Systemen wenig Aufmerksamkeit geschenkt, obwohl es Lorenzens frühe Arbeiten (siehe Abschnitt 2.1.1) gab, in denen die Rechtfertigung logischer Regeln in eine Theorie willkürlicher Regeln eingebettet ist, und Martin-Löfs (1971) Theorie iterierter induktiver Definitionen, in der Einführungs- und Eliminierungsregeln für Atomformeln vorgeschlagen werden. Der Aufstieg der Logikprogrammierung hat diese Perspektive erweitert. Aus beweistheoretischer Sicht ist die Logikprogrammierung eine Theorie des atomaren Denkens in Bezug auf klausale Definitionen von Atomen. Definitionsreflexion ist ein Ansatz zur beweistheoretischen Semantik, der diese Herausforderung aufgreift und versucht, eine Theorie zu erstellen, deren Anwendungsbereich über logische Konstanten hinausgeht.

2.3.1 Die Herausforderung der Logikprogrammierung

In der Logikprogrammierung handelt es sich um Programmklauseln der Form

A ⇐ B 1,…, B m

die Atomformeln definieren. Solche Klauseln können natürlich so interpretiert werden, dass sie Einführungsregeln für Atome beschreiben. Unter dem Gesichtspunkt der beweistheoretischen Semantik sind die folgenden zwei Punkte wesentlich:

(1) Einführungsregeln (Klauseln) für logisch zusammengesetzte Formeln unterscheiden sich grundsätzlich nicht von Einführungsregeln (Klauseln) für Atome. Die Interpretation der logischen Programmierung beweistheoretisch motiviert eine Ausweitung der beweistheoretischen Semantik auf beliebige Atome, was eine Semantik mit einem viel breiteren Anwendungsbereich ergibt.

(2) Programmklauseln sind nicht unbedingt begründet. Beispielsweise kann der Kopf einer Klausel in ihrem Hauptteil vorkommen. Begründete Programme sind nur eine bestimmte Art von Programmen. Die Verwendung von willkürlichen Klauseln ohne weitere Anforderungen in der Logikprogrammierung ist eine Motivation, dieselbe Idee in der beweistheoretischen Semantik zu verfolgen und nur jede Art von Einführungsregeln zuzulassen und nicht nur solche einer speziellen Form, insbesondere nicht unbedingt solche, die gut sind -Gegründet. Dies überträgt die Idee der Definitionsfreiheit, die ein Eckpfeiler der Logikprogrammierung ist, auf die Semantik und erweitert erneut den Anwendungsbereich der beweistheoretischen Semantik.

Die Idee, Einführungsregeln als bedeutungsgebende Regeln für Atome zu betrachten, ist eng mit der Theorie der induktiven Definitionen in ihrer allgemeinen Form verbunden, nach der induktive Definitionen Regelsysteme sind (siehe Aczel, 1977).

2.3.2 Definitionsreflexion

Die Theorie der definitiven Reflexion (Hallnäs, 1991; Hallnäs, 2006; Hallnäs und Schroeder-Heister, 1990/91; Schroeder-Heister, 1993) nimmt die Herausforderung der Logikprogrammierung auf und liefert eine beweistheoretische Semantik nicht nur für logische Konstanten, sondern für beliebige Ausdrücke, für die eine klausale Definition gegeben werden kann. Formal beginnt dieser Ansatz mit einer Liste von Klauseln, die als Definition betrachtet werden. Jede Klausel hat die Form

A ⇐ Δ

wobei der Kopf A eine Atomformel (Atom) ist. Im einfachsten Fall ist der Körper Δ eine Liste der Atome B 1,…, B m. In diesem Fall sieht eine Definition wie ein bestimmtes Logikprogramm aus. Wir betrachten oft einen erweiterten Fall, in dem Δ auch eine strukturelle Implikation '⇒' und manchmal sogar eine strukturelle universelle Implikation enthalten kann, die im Wesentlichen durch Einschränkung der Substitution behandelt wird. Wenn die Definition von A die Form hat

dann hat A die folgenden Einführungs- und Eliminierungsregeln

Δ 1 · · · Δ n A A.

1] n]
EIN C. · · · C.
C.

Die Einführungsregeln, auch Regeln für den endgültigen Abschluss genannt, drücken die Argumentation „entlang“der Klauseln aus. Die Eliminierungsregel wird als Prinzip der Definitionsreflexion bezeichnet, da sie die Definition als Ganzes widerspiegelt. Wenn Δ 1,…, Δ nErschöpfen Sie alle möglichen Bedingungen, um A gemäß der gegebenen Definition zu erzeugen, und wenn jede dieser Bedingungen dieselbe Schlussfolgerung C beinhaltet, dann bringt A selbst diese Schlussfolgerung mit sich. Wenn die Klauseldefinition als induktive Definition angesehen wird, kann dieses Prinzip als Ausdruck der Extremklausel in induktiven Definitionen angesehen werden: Nichts anderes als die angegebenen Klauseln definiert A. Offensichtlich ist die definitive Reflexion eine verallgemeinerte Form der diskutierten Inversionsprinzipien. Es entwickelt seine wahre Kraft in Definitionskontexten mit freien Variablen, die über das reine Aussagendenken hinausgehen, und in Kontexten, die nicht begründet sind. Ein Beispiel für eine nicht fundierte Definition ist die Definition eines Atoms R durch seine eigene Negation:

D R {R | )
D R {R | )

Dieses Beispiel wird ausführlich in der

Ergänzung zu Definitionsreflexion und Paradoxien.

Weiterführende Literatur:

Informationen zu Unbegründetheit und Paradoxien finden Sie in den Einträgen zu Selbstreferenz und Russells Paradoxon sowie in den Verweisen, die in der mit verknüpften Beilage zitiert sind.

2.4 Strukturelle Charakterisierung logischer Konstanten

Es gibt ein großes Feld von Ideen und Ergebnissen bezüglich der sogenannten "strukturellen Charakterisierung" logischer Konstanten, wobei "strukturell" hier sowohl im beweistheoretischen Sinne von "strukturellen Regeln" als auch im Sinne eines Rahmens gemeint ist trägt eine bestimmte Struktur, in der dieser Rahmen erneut beweistheoretisch beschrieben wird. Einige seiner Autoren verwenden ein semantisches Vokabular und schlagen zumindest implizit vor, dass ihr Thema zur beweistheoretischen Semantik gehört. Andere bestreiten diese Konnotationen ausdrücklich und betonen, dass sie an einer Charakterisierung interessiert sind, die die Logik einer Konstanten festlegt. Die Frage "Was ist eine logische Konstante?" kann in beweistheoretischen Begriffen beantwortet werden, auch wenn die Semantik der Konstanten selbst wahrheitsbedingt ist:Das heißt, indem verlangt wird, dass die (möglicherweise wahrheitsbedingten) Konstanten ein bestimmtes Inferenzverhalten zeigen, das in beweistheoretischen Begriffen beschrieben werden kann. Da jedoch einige der Autoren ihre Charakterisierung gleichzeitig mit einer Semantik betrachten, ist es angebracht, einige dieser Ansätze hier zu erwähnen.

Der ausgesprochenste Strukturalist in Bezug auf logische Konstanten, der sich ausdrücklich als solcher versteht, ist Koslow. In seiner Strukturalistischen Theorie der Logik (1992) entwickelt er eine Theorie der logischen Konstanten, in der er sie durch bestimmte „Implikationsrelationen“charakterisiert, wobei eine Implikationsrelation in etwa einer endlichen Konsequenzrelation im Sinne von Tarski entspricht (die wiederum beschrieben werden kann durch bestimmte strukturelle Regeln eines sequentiellen Systems). Koslow entwickelt eine Strukturtheorie im präzisen metamathematischen Sinne, die den Bereich der Objekte in keiner Weise über die angegebenen Axiome hinaus spezifiziert. Wenn eine Sprache oder eine andere Domäne von Objekten angegeben ist, die mit einer Implikationsbeziehung ausgestattet sind, kann der strukturelle Ansatz verwendet werden, um logische Verbindungen durch Überprüfen ihrer Implikationseigenschaften herauszufinden.

In seinen frühen Arbeiten zu den Grundlagen der Logik gibt Popper (1947a; 1947b) inferentielle Charakterisierungen logischer Konstanten in beweistheoretischen Begriffen. Er verwendet eine Berechnung von Sequenzen und charakterisiert logische Konstanten durch bestimmte Ableitbarkeitsbedingungen solcher Sequenzen. Seine Terminologie deutet eindeutig darauf hin, dass er eine beweistheoretische Semantik logischer Konstanten beabsichtigt, da er von „inferentiellen Definitionen“und der „Trivialisierung der mathematischen Logik“spricht, die durch die Definition von Konstanten auf die beschriebene Weise erreicht werden. Obwohl seine Präsentation nicht frei von konzeptuellen Ungenauigkeiten und Fehlern ist, war er der erste, der das sequentielle Inferenzverhalten logischer Konstanten in Betracht zog, um sie zu charakterisieren. Dies ist umso bemerkenswerter, als er wahrscheinlich überhaupt nicht war,und definitiv nicht vollständig über Gentzens sequentiellen Kalkül und Gentzens weitere Errungenschaften informiert (er stimmte jedoch mit Bernays überein). Gegen seine eigene Meinung kann seine Arbeit jedoch besser als Versuch verstanden werden, die Logik von Konstanten zu definieren und strukturell zu charakterisieren, als als beweistheoretische Semantik im eigentlichen Sinne. Er nahm jedoch viele Ideen vorweg, die heute in der beweistheoretischen Semantik üblich sind, wie beispielsweise die Charakterisierung logischer Konstanten durch bestimmte Minimal- oder Maximalitätsbedingungen in Bezug auf Einführungs- oder Eliminierungsregeln.als als beweistheoretische Semantik im eigentlichen Sinne. Er nahm jedoch viele Ideen vorweg, die heute in der beweistheoretischen Semantik üblich sind, wie beispielsweise die Charakterisierung logischer Konstanten durch bestimmte Minimal- oder Maximalitätsbedingungen in Bezug auf Einführungs- oder Eliminierungsregeln.als als beweistheoretische Semantik im eigentlichen Sinne. Er nahm jedoch viele Ideen vorweg, die heute in der beweistheoretischen Semantik üblich sind, wie beispielsweise die Charakterisierung logischer Konstanten durch bestimmte Minimal- oder Maximalitätsbedingungen in Bezug auf Einführungs- oder Eliminierungsregeln.

Wichtige Beiträge zur Logikdebatte, die logische Konstanten in Bezug auf sequentielle Kalkülregeln inferentiell charakterisieren, sind die von Kneale (1956) und Hacking (1979). Eine gründliche Darstellung der Logik wird von Došen (1980; 1989) in seiner Theorie der logischen Konstanten als „Satzzeichen“vorgeschlagen, die strukturelle Merkmale auf der logischen Ebene ausdrücken. Er versteht logische Konstanten als durch bestimmte Doppellinienregeln für Sequenzen gekennzeichnet, die in beide Richtungen gelesen werden können. Zum Beispiel sind Konjunktion und Disjunktion (in der klassischen Logik mit Sukzedenten mit mehreren Formeln) durch die Regeln für doppelte Linien gekennzeichnet

Γ⊢ A, Δ Γ⊢ B, Δ
Γ⊢ A ∧ B, Δ
Γ, A ⊢ Δ Γ, B ⊢ Δ
Γ⊢ A ∨ B, Δ

Došen kann Charakterisierungen geben, die modale Logiksysteme umfassen. Er betrachtet seine Arbeit ausdrücklich als einen Beitrag zur Logikdebatte und nicht zu einer Konzeption der beweistheoretischen Semantik. Sambin et al. Verstehen in ihrer Grundlogik (Sambin, Battilotti und Faggian, 2000) ausdrücklich, was Došen Doppellinienregeln als grundlegende Bedeutungsregeln nennt. Die zweizeiligen Regeln für Konjunktion und Disjunktion werden als implizite Definitionen dieser Konstanten gelesen, die durch eine Prozedur in die expliziten Regeln im sequentiellen Stil umgewandelt werden können, die wir gewohnt sind. So haben Sambin et al. Verwenden Sie denselben Ausgangspunkt wie Došen, interpretieren Sie ihn jedoch nicht als strukturelle Beschreibung des Verhaltens von Konstanten, sondern semantisch als implizite Definition (siehe Schroeder-Heister, 2013).

Es gibt mehrere andere Ansätze für eine einheitliche beweistheoretische Charakterisierung logischer Konstanten, die alle zumindest Fragen der beweistheoretischen Semantik berühren. Solche Theorien sind Belnaps Display Logic (Belnap, 1982), Wansings Logic of Information Structures (Wansing, 1993b), generische Proof-Editing-Systeme und deren Implementierungen wie das Edinburgh Logical Framework (Harper, Honsell und Plotkin, 1987) und viele Nachfolger, die ermöglichen die Spezifikation einer Vielzahl von logischen Systemen. Seit dem Aufkommen der linearen und allgemeiner der Substrukturlogik (Di Cosmo und Miller, 2010; Restall, 2009) gibt es verschiedene Ansätze, die sich mit Logik befassen und sich hinsichtlich der Einschränkungen ihrer Strukturregeln unterscheiden. Eine kürzliche Bewegung weg von der Hervorhebung einer bestimmten Logik als der wahren hin zu einer pluralistischeren Haltung (siehe z. Beall und Restall, 2006), die sich dafür interessieren, was verschiedene Logiken gemeinsam haben, ohne eine bestimmte Logik zu bevorzugen, können als Abkehr von der semantischen Rechtfertigung hin zur strukturellen Charakterisierung angesehen werden.

2.5 Kategoriale Beweistheorie

Es gibt eine beträchtliche Literatur zur Kategorietheorie in Bezug auf die Beweistheorie, und nach wegweisenden Arbeiten von Lawvere, Lambek und anderen (siehe Lambek und Scott, 1986, und die darin enthaltenen Referenzen) kann die Kategorie selbst als eine Art abstrakter Beweis angesehen werden Theorie. Wenn man einen Pfeil A → B in einer Kategorie als eine Art abstrakten Beweis von B von A betrachtet, haben wir eine Darstellung, die über die reine Ableitbarkeit von B von A hinausgeht (da der Pfeil seine Individualität hat), sich aber nicht damit befasst die besondere syntaktische Struktur dieses Beweises. Für intuitionistische Systeme kommt die beweistheoretische Semantik in kategorialer Form wahrscheinlich der Denotationssemantik im klassischen Fall am nächsten.

Einer der am weitesten entwickelten Ansätze zur kategorialen Beweistheorie geht auf Došen zurück. Er hat nicht nur die Anwendung kategorialer Methoden in der Beweistheorie vorangetrieben (z. B. Došen und Petrić, 2004), sondern auch gezeigt, wie beweistheoretische Methoden in der Kategorietheorie selbst eingesetzt werden können (Došen, 2000). Das Wichtigste für die kategoriale Logik in Bezug auf die beweistheoretische Semantik ist, dass in der kategorialen Logik Pfeile immer mit einer Identitätsbeziehung zusammenkommen, die in der Beweistheorie der Identität von Beweisen entspricht. Auf diese Weise beziehen sich Ideen und Ergebnisse der kategorialen Beweistheorie auf die sogenannte Intensionsbeweis-theoretische Semantik, dh die Untersuchung von Beweisen als eigenständige Einheiten, nicht nur als Mittel zur Feststellung von Konsequenzen (Došen, 2006, 2016)). Ein weiteres Merkmal der kategorialen Beweistheorie ist, dass sie von Natur aus hypothetisch ist, was bedeutet, dass sie von hypothetischen Entitäten ausgeht. Auf diese Weise überwindet es ein Paradigma der Standard-, insbesondere der validitätsbasierten, beweistheoretischen Semantik (siehe Abschnitt 3.6 unten).

Weiterführende Literatur:

Für Poppers Theorie der logischen Konstanten siehe Schroeder-Heister (2005).

Informationen zu logischen Konstanten und ihrer Logik finden Sie im Eintrag zu logischen Konstanten.

Für kategoriale Ansätze siehe den Eintrag zur Kategorietheorie.

3. Erweiterungen und Alternativen zur standardmäßigen beweistheoretischen Semantik

3.1 Eliminierungsregeln als Grundregeln

Die meisten Ansätze zur beweistheoretischen Semantik betrachten Einführungsregeln als grundlegend, dh gebend oder selbstbegründend, während die Eliminierungsschlussfolgerungen in Bezug auf die gegebenen Einführungsregeln als gültig gerechtfertigt sind. Diese Konzeption hat mindestens drei Wurzeln: Die erste ist eine verifikationistische Bedeutungstheorie, nach der die Durchsetzbarkeitsbedingungen eines Satzes seine Bedeutung ausmachen. Das zweite ist die Idee, dass wir unterscheiden müssen, was die Bedeutung gibt und was die Konsequenzen dieser Bedeutung sind, da nicht jedes inferentielle Wissen aus Anwendungen von Definitionen bestehen kann. Der dritte ist der Vorrang der Behauptung gegenüber anderen Sprechhandlungen wie Annehmen oder Verleugnen, der in allen bisher betrachteten Ansätzen impliziert ist.

Man könnte untersuchen, wie weit man kommt, indem man Eliminierungsregeln anstelle von Einführungsregeln als Grundlage für die beweistheoretische Semantik betrachtet. Einige Ideen zu einer beweistheoretischen Semantik, die eher auf Eliminierung als auf Einführungsregeln basiert, wurden von Dummett (1991, Kap. 13) skizziert, wenn auch in einer sehr rudimentären Form. Eine genauere Definition der Gültigkeit auf der Grundlage von Eliminationsinferenzen geht auf Prawitz (1971; 2007; siehe auch Schroeder-Heister 2015) zurück. Seine wesentliche Idee ist, dass ein geschlossener Beweis als gültig angesehen wird, wenn das Ergebnis der Anwendung einer Eliminierungsregel auf seine Endformel ein gültiger Beweis ist oder sich auf einen reduziert. Zum Beispiel ist ein geschlossener Beweis einer Implikation A → B gültig, wenn für einen gegebenen geschlossenen Beweis von A das Ergebnis der Anwendung von Modus Ponens ist

A → BA
B.

zu diesen beiden Beweisen ist ein gültiger Beweis von B oder reduziert sich auf einen solchen Beweis. Diese Konzeption enthält zwei der drei Grundbestandteile der beweistheoretischen Semantik nach Prawitz-Art (siehe Abschnitt 2.2.2): die Rolle der Beweisreduktion und die Substitutionsansicht von Annahmen. Nur die Kanonizität von Beweisen, die mit Einführungen enden, wird in die Kanonizität von Beweisen geändert, die mit Eliminierungen enden.

3.2 Verneinung und Verleugnung

Die standardmäßige beweistheoretische Semantik ist dahingehend zentriert, dass die Assertibilitätsbedingungen die Bedeutung logischer Konstanten bestimmen. Entsprechend der intuitionistischen Vorgehensweise wird die Negation ¬ A einer Formel A normalerweise als Absurdität A → ⊥ verstanden, wobei ⊥ eine Konstante ist, die nicht behauptet werden kann, dh für die keine Durchsetzbarkeitsbedingung definiert ist. Dies ist eine "indirekte" Art, Negation zu verstehen. In der Literatur wurde diskutiert, was nach von Kutschera (1969) als "direkte" Negation bezeichnet werden könnte. Darunter versteht man einen primitiven Ein-Ort-Operator der Negation, der nicht auf Absurdität reduziert werden kann oder zumindest nicht reduziert werden kann. Es ist auch keine klassische Negation. Es gehorcht eher Regeln, die die üblichen Regeln für die logischen Konstanten verdoppeln. Manchmal wird es die "Verleugnung" eines Satzes genannt,manchmal auch „starke Verneinung“(siehe Odintsov, 2008). Typische Regeln für die Verweigerung von A sind

~ A ~ B. ~ A. ~ B.
~ (A ∨ B) ~ (A ∧ B) ~ (A ∧ B)

Im Wesentlichen entsprechen die Ablehnungsregeln für einen Operator den Assertionsregeln für den Doppeloperator. Es wurden mehrere Verweigerungslogiken untersucht, insbesondere Nelsons Logik der „konstruierbaren Falschheit“, die zuerst von Nelson (1949) in Bezug auf eine bestimmte Realisierbarkeitssemantik motiviert wurde. Das Hauptaugenmerk lag auf seinen später als N3 und N4 bezeichneten Systemen, die sich hinsichtlich der Behandlung von Widersprüchen unterscheiden (N4 ist N3 ohne Ex-Widerspruch quodlibet). Mit der Verweigerung kann jeder Ansatz zur beweistheoretischen Semantik dualisiert werden, indem nur Behauptung und Verleugnung ausgetauscht und von logischen Konstanten zu ihren Dualen übergegangen werden. Auf diese Weise erhält man ein System, das eher auf Widerlegung (= Beweis der Verweigerung) als auf Beweis basiert. Es kann so verstanden werden, dass eine popperianische Sichtweise auf die beweistheoretische Semantik angewendet wird.

Ein anderer Ansatz wäre, nicht nur die assertionszentrierte beweistheoretische Semantik zugunsten einer leugnungszentrierten widerlegungstheoretischen Semantik zu dualisieren, sondern auch die Beziehung zwischen den Regeln für die Behauptung und für die Ablehnung als durch ein Inversionsprinzip oder ein Prinzip der Definitionsreflexion geregelt zu sehen für sich. Dies wäre ein Prinzip dessen, was man als "Behauptung-Verleugnung-Harmonie" bezeichnen könnte. Während in der beweistheoretischen Standardsemantik Inversionsprinzipien die Beziehung zwischen Behauptungen und Annahmen (oder Konsequenzen) steuern, würde ein solches Prinzip nun die Beziehung zwischen Behauptung und Ablehnung bestimmen. Bei bestimmten Definitionsbedingungen von A würde es heißen, dass die Ablehnung jeder Definitionsbedingung von A zur Ablehnung von A selbst führt. Für Konjunktion und Disjunktion führt dies zu den gemeinsamen Paaren von Behauptungen und Ablehnungsregeln

EIN B. ~ A ~ B.
A ∨ B. A ∨ B. ~ (A ∨ B)
AB ~ A. ~ B.
A ∧ B. ~ (A ∧ B) ~ (A ∧ B)

Diese Idee kann leicht auf definitive Reflexion verallgemeinert werden, was ein Argumentationssystem ergibt, in dem Behauptung und Verleugnung miteinander verflochten sind. Es weist Parallelen zu den deduktiven Beziehungen zwischen den auf dem traditionellen Oppositionsplatz untersuchten Urteilsformen auf (Schroeder-Heister, 2012a; Zeilberger, 2008). Es sollte betont werden, dass der Verweigerungsoperator hier ein externes Zeichen ist, das eine Form der Beurteilung anzeigt, und nicht als logischer Operator. Dies bedeutet insbesondere, dass es nicht iteriert werden kann.

3.3 Harmonie und Reflexion im sequentiellen Kalkül

Gentzens sequentieller Kalkül weist eine Symmetrie zwischen rechten und linken Einführungsregeln auf, die darauf hindeuten, nach einem Harmonieprinzip zu suchen, das diese Symmetrie für die beweistheoretische Semantik von Bedeutung macht. Es wurden mindestens drei Linien verfolgt, um dieses Phänomen zu behandeln. (i) Entweder die Regeln für die rechte Einführung oder die Regeln für die linke Einführung gelten als Einführungsregeln. Die entgegengesetzten Regeln (Links-Einführungen bzw. Rechts-Einführungen) werden dann unter Verwendung der entsprechenden Eliminierungsregeln begründet. Dies bedeutet, dass die zuvor diskutierten Methoden eher auf ganze Sequenzen als auf Formeln innerhalb von Sequenzen angewendet werden. Im Gegensatz zu diesen Formeln sind die Sequenzen nicht logisch strukturiert. Daher baut dieser Ansatz auf definitorischer Reflexion auf. Dies wendet Harmonie und Inversion auf Regeln für willkürlich strukturierte Entitäten an und nicht nur für logische Verbundwerkstoffe. Es wurde von de Campos Sanz und Piecha (2009) verfolgt. (ii) Die Regeln für die Einleitung nach rechts und links werden aus einer Charakterisierung im Sinne von Došens Regeln für doppelte Linien (Abschnitt 2.4) abgeleitet, die dann als eine Art Definition gelesen wird. Die Top-Down-Richtung einer Doppellinienregel ist bereits eine Rechts- oder Linkseinführungsregel. Die andere kann durch bestimmte Prinzipien aus der Bottom-up-Richtung abgeleitet werden. Dies ist der grundlegende bedeutungstheoretische Bestandteil der Grundlogik von Sambin et al. (Sambin, Battilotti und Faggian, 2000). (iii) Die Regeln für die Einführung nach rechts und links werden als Ausdruck einer Interaktion zwischen Sequenzen unter Verwendung der Schnittregel angesehen. Gegeben entweder die rechten oder die linken Regeln,Die ergänzenden Regeln drücken aus, dass alles, was auf bestimmte Weise mit seinen Prämissen interagiert, auch mit seiner Schlussfolgerung. Diese Idee der Interaktion ist ein verallgemeinertes symmetrisches Prinzip der Definitionsreflexion. Es kann als Verallgemeinerung des Inversionsprinzips angesehen werden, bei dem eher der Begriff der Interaktion als die Ableitbarkeit von Konsequenzen verwendet wird (siehe Schroeder-Heister, 2013). Alle drei Ansätze gelten für den Sequenzkalkül in seiner klassischen Form, wobei möglicherweise mehr als eine Formel als Folge einer Sequenz vorliegt, einschließlich strukturell eingeschränkter Versionen, wie sie in linearen und anderen Logiken untersucht wurden. Es kann als Verallgemeinerung des Inversionsprinzips angesehen werden, bei dem eher der Begriff der Interaktion als die Ableitbarkeit von Konsequenzen verwendet wird (siehe Schroeder-Heister, 2013). Alle drei Ansätze gelten für den Sequenzkalkül in seiner klassischen Form, wobei möglicherweise mehr als eine Formel als Folge einer Sequenz vorliegt, einschließlich strukturell eingeschränkter Versionen, wie sie in linearen und anderen Logiken untersucht wurden. Es kann als Verallgemeinerung des Inversionsprinzips angesehen werden, bei dem eher der Begriff der Interaktion als die Ableitbarkeit von Konsequenzen verwendet wird (siehe Schroeder-Heister, 2013). Alle drei Ansätze gelten für den Sequenzkalkül in seiner klassischen Form, wobei möglicherweise mehr als eine Formel als Folge einer Sequenz vorliegt, einschließlich strukturell eingeschränkter Versionen, wie sie in linearen und anderen Logiken untersucht wurden.

3.4 Subatomare Struktur und natürliche Sprache

Selbst wenn wir wie bei der Definitionsreflexion Definitionsregeln für Atome in Betracht ziehen, zersetzen ihre Definitionsbedingungen diese Atome normalerweise nicht. Ein beweistheoretischer Ansatz, der die interne Struktur von Atomsätzen berücksichtigt, wurde von Wieckowski (2008; 2011; 2016) vorgeschlagen. Er verwendet Einführungs- und Eliminierungsregeln für Atomsätze, wobei diese Atomsätze nicht nur auf andere Atomsätze reduziert werden, sondern auch auf subatomare Ausdrücke, die die Bedeutung von Prädikaten und einzelnen Namen darstellen. Dies kann als erster Schritt in Richtung natürlicher Anwendungen der beweistheoretischen Semantik angesehen werden. Ein weiterer Schritt in diese Richtung wurde von Francez unternommen, der eine beweistheoretische Semantik für mehrere Fragmente des Englischen entwickelte (siehe Francez, Dyckhoff und Ben-Avi, 2010; Francez und Dyckhoff, 2010). Francez und Ben-Avi 2015).

3.5 Klassische Logik

Die beweistheoretische Semantik ist intuitionistisch voreingenommen. Dies liegt an der Tatsache, dass die natürliche Deduktion als bevorzugter Rahmen bestimmte Merkmale aufweist, die sie besonders für die intuitionistische Logik geeignet machen. Im klassischen natürlichen Abzug das Ex-Falso-Quodlibet

EIN

wird durch die Regel der klassischen reductio ad absurdum ersetzt

[A → ⊥]
EIN

Indem diese Regel A → ⊥ entladen lässt, um auf A zu schließen, untergräbt sie das Subformelprinzip. Wenn sowohl ⊥ als auch A → ⊥ enthalten sind, bezieht es sich außerdem auf zwei verschiedene logische Konstanten in einer einzigen Regel, sodass keine Trennung der logischen Konstanten mehr erfolgt. Schließlich folgt es als Eliminierungsregel für ⊥ nicht dem allgemeinen Muster von Einführungen und Eliminierungen. Infolgedessen wird die Eigenschaft der Einführungsform zerstört, dass jede geschlossene Ableitung auf eine reduziert werden kann, die im letzten Schritt eine Einführungsregel verwendet.

Die klassische Logik passt sehr gut zum mehrfach aufeinanderfolgenden sequentiellen Kalkül. Dort brauchen wir keine zusätzlichen Prinzipien, die über die im intuitionistischen Fall angenommenen hinausgehen. Nur das strukturelle Merkmal, mehr als eine Formel in der Folge zuzulassen, reicht aus, um die klassische Logik zu erhalten. Da es plausible Ansätze gibt, um eine Harmonie zwischen Rechtseinführungen und Linkseinführungen in der Sequenzrechnung herzustellen (siehe Abschnitt 3.3), scheint die klassische Logik vollkommen gerechtfertigt zu sein. Dies ist jedoch nur dann überzeugend, wenn die Argumentation angemessen als Prozess mit mehreren Schlussfolgerungen definiert wird, auch wenn dies nicht unserer Standardpraxis entspricht, bei der wir uns auf einzelne Schlussfolgerungen konzentrieren. Man könnte versuchen, eine angemessene Intuition zu entwickeln, indem man argumentiert, dass die Argumentation zu mehreren Schlussfolgerungen den Bereich abgrenzt, in dem die Wahrheit liegt, anstatt einen einzigen Satz als wahr zu etablieren. Diese Intuition ist jedoch schwer aufrechtzuerhalten und kann nicht ohne ernsthafte Schwierigkeiten formal erfasst werden. Philosophische Ansätze wie die von Shoesmith und Smiley (1978) und beweistheoretische Ansätze wie Beweisnetze (siehe Girard, 1987; Di Cosmo und Miller, 2010) sind Versuche in diese Richtung.

Ein grundlegender Grund für das Versagen der Eigenschaft der Einführungsform in der klassischen Logik ist der Indeterminismus, der den Gesetzen zur Disjunktion innewohnt. A ∨ B kann sowohl aus A als auch aus B abgeleitet werden. Wenn daher die Disjunktionsgesetze die einzige Möglichkeit wären, auf A ∨ B zu schließen, würde die Ableitbarkeit von A ∨ A, die ein Schlüsselprinzip der klassischen Logik ist, entweder die von A oder von A, was absurd ist. Ein Ausweg aus dieser Schwierigkeit besteht darin, die unbestimmte Disjunktion aufzuheben und stattdessen das klassische De-Morgan-Äquivalent ¬ (¬A ∧¬B) zu verwenden. Dies führt im Wesentlichen zu einer Logik ohne ordnungsgemäße Disjunktion. Im Quantifiziererfall würde es auch keinen geeigneten existenziellen Quantifizierer geben, da ∃ xA im Sinne von ¬∀ x ¬ A verstanden würde. Wenn man bereit ist, diese Einschränkung zu akzeptieren, können bestimmte Harmonieprinzipien für die klassische Logik formuliert werden.

3.6 Hypothetisches Denken

Standardansätze zur beweistheoretischen Semantik, insbesondere Prawitz 'validitätsbasierter Ansatz (Abschnitt 2.2.2), verwenden geschlossene Ableitungen als Grundlage. Die Gültigkeit offener Ableitungen ist definiert als die Übertragung der Gültigkeit von geschlossenen Ableitungen der Annahmen zu einer geschlossenen Ableitung der Behauptung, wobei letztere durch Ersetzen einer offenen Annahme durch eine geschlossene Ableitung erhalten wird. Wenn man geschlossene Ableitungen als "kategorisch" und offene Ableitungen als "hypothetisch" bezeichnet, kann man diesen Ansatz als zwei grundlegende Ideen charakterisieren: (I) Das Primat des Kategorischen gegenüber dem Hypothetischen, (II) die Übertragungsansicht der Konsequenz. Diese beiden Annahmen (I) und (II) können als Dogmen der Standardsemantik angesehen werden (siehe Schroeder-Heister 2012c). "Standardsemantik" bedeutet hier nicht nur standardmäßige beweistheoretische Semantik,aber auch die klassische modelltheoretische Semantik, bei der auch diese Dogmen angenommen werden. Dort beginnt man mit der Definition der Wahrheit, die das kategoriale Konzept ist, und definiert die Konsequenz, das hypothetische Konzept, als die Übertragung der Wahrheit von den Bedingungen auf die Konsequenz. Unter diesem Gesichtspunkt tauscht die konstruktive Semantik, einschließlich der beweistheoretischen Semantik, den Begriff der Wahrheit mit einem Begriff der Konstruktion oder des Beweises aus und interpretiert „Übertragung“als konstruktive Funktion oder Prozedur, lässt aber den Rahmen ansonsten unberührt. Die konstruktive Semantik, einschließlich der beweistheoretischen Semantik, tauscht den Begriff der Wahrheit mit einem Begriff der Konstruktion oder des Beweises aus und interpretiert „Übertragung“als konstruktive Funktion oder Prozedur, lässt aber ansonsten den Rahmen unberührt. Die konstruktive Semantik, einschließlich der beweistheoretischen Semantik, tauscht den Begriff der Wahrheit mit einem Begriff der Konstruktion oder des Beweises aus und interpretiert „Übertragung“als konstruktive Funktion oder Prozedur, lässt aber ansonsten den Rahmen unberührt.

An diesen Dogmen ist im Prinzip nichts auszusetzen. Es gibt jedoch Phänomene, mit denen im Standardrahmen nur schwer umzugehen ist. Ein solches Phänomen ist Unbegründetheit, insbesondere Zirkularität, wo wir Konsequenzen haben können, ohne Wahrheit und Beweisbarkeit zu übermitteln. Ein weiteres Phänomen sind Unterstrukturunterscheidungen, bei denen es entscheidend ist, die Strukturierung von Annahmen von Anfang an einzubeziehen. Darüber hinaus, und dies ist äußerst wichtig, können wir die Dinge auf eine bestimmte Weise definieren, ohne vorher zu wissen, ob unsere Definition oder Definitionskette begründet ist oder nicht. Wir beschäftigen uns nicht zuerst mit der metalinguistischen Untersuchung der Definition, mit der wir beginnen, sondern möchten sofort mit der Vernunft beginnen. Dieses Problem tritt nicht auf, wenn wir uns auf den Fall logischer Konstanten beschränken.wo die definierenden Regeln trivial begründet sind. Das Problem tritt jedoch sofort auf, wenn wir kompliziertere Fälle betrachten, die über logische Konstanten hinausgehen.

Dies macht es sinnvoll, in die andere Richtung zu gehen und mit dem hypothetischen Konzept der Konsequenz zu beginnen, dh die Konsequenz direkt zu charakterisieren, ohne sie auf den kategorialen Fall zu reduzieren. Philosophisch bedeutet dies, dass das kategoriale Konzept ein begrenzendes Konzept des hypothetischen ist. Im klassischen Fall wäre die Wahrheit ein begrenzender Konsequenzfall, nämlich eine Konsequenz ohne Hypothesen. Dieses Programm ist eng mit dem Ansatz der kategorialen Beweistheorie (Abschnitt 2.5) verbunden, der auf dem Primat hypothetischer Entitäten („Pfeile“) basiert. Formal würde der sequentielle Kalkül dem natürlichen Abzug den Vorzug geben, da der sequentielle Kalkül die Manipulation der Annahmeseite einer Sequenz mittels Regeln für die linke Einführung ermöglicht.

3.7 Intensionsbeweis-theoretische Semantik

Wie im ersten Abschnitt (1.1) erwähnt, ist die beweistheoretische Semantik im Geiste intensiv, da sie an Beweisen und nicht nur an Beweisbarkeit interessiert ist. Für die beweistheoretische Semantik ist es nicht nur relevant, ob B aus A folgt, sondern auch, auf welche Weise wir feststellen können, dass B aus A folgt. Mit anderen Worten, die Identität von Beweisen ist ein wichtiges Thema. Obwohl dies auf den ersten Blick offensichtlich ist und beweistheoretische Semantiker normalerweise dieser abstrakten Behauptung zustimmen würden, ist die Praxis der beweistheoretischen Semantik oft anders, und das Thema der Identität von Beweisen ist ein stark vernachlässigtes Thema. Es kommt sehr häufig vor, dass gleichermaßen mächtige Regeln identifiziert werden. Zum Beispiel, wenn Prinzipien der Harmonie diskutiert werden und man die Standardeinführungsregel für die Konjunktion betrachtet

AB
A ∧ B.

Viele beweistheoretische Semantiker würden es für irrelevant halten, ob man das Projektionspaar wählt

A ∧ B. A ∧ B.
EIN B.

oder das Paar

A ∧ B. A ∧ BA
EIN B.

als Eliminierungsregeln für die Konjunktion. Das zweite Regelpaar wird oft als eine kompliziertere Variante des Projektionspaars angesehen. Aus intensiver Sicht sind diese beiden Regelpaare jedoch nicht identisch. Ihre Identifizierung entspricht der Identifizierung von A ∧ B und A ∧ (A → B), die nur in der Erweiterung, aber nicht in der Intensität korrekt ist. Wie Došen häufig argumentiert hat (z. B. Došen 1997, 2006), sind Formeln wie A ∧ B und A ∧ (A → B) äquivalent, aber nicht isomorph. Hier bedeutet „isomorph“, dass wir durch Beweisen einer Formel von der anderen und umgekehrt durch Identifizieren dieser beiden Beweise den Identitätsnachweis erhalten. Dies ist in diesem Beispiel nicht der Fall.

Die Verfolgung dieser Idee führt zu Prinzipien der Harmonie und Inversion, die sich von den Standardprinzipien unterscheiden. Da Harmonie und Inversion im Zentrum der beweistheoretischen Semantik stehen, werden viele ihrer Themen berührt. Wenn man das Thema Intensionalität ernst nimmt, kann dies viele Bereiche der beweistheoretischen Semantik verändern. Und da die Identität von Beweisen ein Grundthema der kategorialen Beweistheorie ist, muss letztere in der beweistheoretischen Semantik stärker berücksichtigt werden als dies derzeit der Fall ist.

Weiterführende Literatur

Zur Verneinung und Verleugnung siehe Tranchini (2012b); Wansing (2001).

Zur Semantik natürlicher Sprache siehe Francez (2015).

Zur klassischen Logik siehe den Eintrag zur klassischen Logik.

Für hypothetisches Denken und intensive theoretische Semantik siehe Došen (2003, 2016) und Schroeder-Heister (2016a).

4. Fazit und Ausblick

Die standardmäßige beweistheoretische Semantik wurde praktisch ausschließlich mit logischen Konstanten beschäftigt. Logische Konstanten spielen eine zentrale Rolle beim Denken und Schließen, sind aber definitiv nicht die ausschließliche und vielleicht nicht einmal die typischste Art von Entitäten, die inferentiell definiert werden können. Es wird ein Framework benötigt, das sich mit Inferenzdefinitionen im weiteren Sinne befasst und sowohl logische als auch extralogische Inferenzdefinitionen gleichermaßen abdeckt. Die Idee der Definitionsreflexion in Bezug auf willkürliche Definitionsregeln (siehe 2.3.2) und auch Anwendungen in natürlicher Sprache (siehe 3.4) weisen in diese Richtung, aber man kann sich weiterreichende Konzepte vorstellen. Darüber hinaus ist die Konzentration auf Harmonie, Inversionsprinzipien, definitive Reflexion und dergleichen etwas irreführend.wie es vermuten lässt, dass die beweistheoretische Semantik nur daraus besteht. Es sollte betont werden, dass bereits in Bezug auf die Arithmetik neben der Inversion stärkere Prinzipien erforderlich sind. Trotz dieser Einschränkungen hat die beweistheoretische Semantik bereits sehr bedeutende Erfolge erzielt, die mit weiter verbreiteten Ansätzen der Semantik konkurrieren können.

Literaturverzeichnis

  • Aczel, Peter (1977). "Eine Einführung in induktive Definitionen", in Handbook of Mathematical Logic, John Barwise (Hrsg.), Amsterdam: Nordholland, S. 739–782.
  • Beall, JC und Greg Restall (2006). Logischer Pluralismus, Oxford: Oxford University Press.
  • Belnap, Nuel D. (1982). „Display Logic“, Journal of Philosophical Logic, 11: 375–417.
  • Brandom, Robert B. (2000). Gründe ausdrücken: Eine Einführung in den Inferentialismus, Cambridge Mass.: Harvard University Press.
  • de Campos Sanz, Wagner und Thomas Piecha (2009). „Inversion durch Definitionsreflexion und Zulässigkeit logischer Regeln“, Review of Symbolic Logic, 2: 550–569.
  • –––, Thomas Piecha und Peter Schroeder-Heister (2014). „Konstruktive Semantik, Zulässigkeit von Regeln und die Gültigkeit des Peirce-Gesetzes“, Logic Journal der IGPL, 22: 297–308.
  • de Groote, Philippe, hrsg. (1995). Der Curry-Howard-Isomorphismus, Band 8 von Cahiers du Centre de Logique, Academia-Bruyland.
  • Di Cosmo, Roberto und Dale Miller (2010). "Lineare Logik", The Stanford Encyclopedia of Philosophy (Ausgabe Herbst 2010), Edward N. Zalta (Hrsg.), URL =
  • Došen, Kosta (1980). Logische Konstanten: Ein Essay in Proof Theory, D. Phil. Diplomarbeit, Abteilung für Philosophie, Universität Oxford.
  • ––– (1989). „Logische Konstanten als Interpunktionszeichen“, Notre Dame Journal of Formal Logic, 30: 362–381.
  • ––– (1997). "Logische Konsequenz: Eine Wende im Stil", in: Dalla Chiara, ML, K. Doets, D. Mundici, J. van Benthem (Hrsg.), Logik und wissenschaftliche Methoden: Band 1 des 10. Internationalen Kongresses für Logik, Methodik und Wissenschaftstheorie, Florenz, August 1995, Dordrecht: Kluwer, 289–311.
  • ––– (2000). Schnitteliminierung in Kategorien, Berlin: Springer.
  • ––– (2003). „Identität von Beweisen basierend auf Normalisierung und Allgemeinheit“, Bulletin of Symbolic Logic, 9: 477–503.
  • ––– (2006). "Modelle des Abzugs", in: Kahle und Schroeder-Heister, Hrsg. (2006), S. 639–657.
  • ––– (2016). "Auf den Wegen der Kategorien", in: Piecha und Schroeder-Heister, Hrsg. (2016b), S. 65–77.
  • ––– und Zoran Petrić (2004). Proof-Theoretische Kohärenz, London: College Publications.
  • Dummett, Michael (1991). Die logische Basis der Metaphysik, London: Duckworth.
  • Francez, Nissim (2015). Proof-theoretische Semantik, London: College Publications.
  • ––– und Gilad Ben-Avi (2015). „Eine beweistheoretische Rekonstruktion verallgemeinerter Quantifizierer“, Journal of Semantics, 32: 313–371.
  • ––– und Roy Dyckhoff (2010). „Beweis-theoretische Semantik für ein natürliches Sprachfragment“, Linguistik und Philosophie, 33: 447–477.
  • –––, Roy Dyckhoff und Gilad Ben-Avi (2010). „Proof-Theoretic Semantics for Subsentential Phrases“, Studia Logica, 94: 381–401.
  • Gentzen, Gerhard (1934/35). „Untersuchungen über das logische Rechte“, Mathematische Zeitschrift, 39: 176–210, 405–431; Englische Übersetzung in The Collected Papers von Gerhard Gentzen, ME Szabo (Hrsg.), Amsterdam: Nordholland, 1969, S. 68–131.
  • Girard, Jean-Yves (1987). „Lineare Logik“, Theoretische Informatik, 50: 1–102.
  • Hacking, Ian (1979). „Was ist Logik?“, Journal of Philosophy, 76: 285–319.
  • Hallnäs, Lars (1991). "Partial Inductive Definitions", Theoretical Computer Science, 87: 115–142.
  • ––– (2006). „Auf der beweistheoretischen Grundlage der allgemeinen Definitionstheorie“, Synthese, 148: 589–602.
  • Hallnäs, Lars und Peter Schroeder-Heister (1990/91). „Ein beweistheoretischer Ansatz zur Logikprogrammierung: I. Klauseln als Regeln. II. Programme als Definitionen “, Journal of Logic and Computation, 1: 261–283, 635–660.
  • Harper, Robert, Furio Honsell und Gordon Plotkin (1987). „Ein Rahmen für die Definition von Logik“, Journal der Association for Computing Machinery, 40: 194–204.
  • Humberstone, Lloyd (2010). "Satzverbindungen in der formalen Logik", The Stanford Encyclopedia of Philosophy (Ausgabe Sommer 2010), Edward N. Zalta (Hrsg.), URL =
  • Jaśkowski, Stanisław (1934). "Über die Regeln der Vermutungen in der formalen Logik", Studia Logica, 1: 5–32 (abgedruckt in S. McCall (Hrsg.), Polish Logic 1920-1939, Oxford 1967, S. 232–258.
  • Jäger, Gerhard und Robert F. Stärk (1998). „Ein Beweis-theoretischer Rahmen für die Logikprogrammierung“, Handbuch der Beweis-Theorie, Samuel R. Buss (Hrsg.), Amsterdam: Elsevier, S. 639–682.
  • Kahle, Reinhard und Peter Schroeder-Heister, Hrsg. (2006). Proof-Theoretic Semantics, Sonderausgabe von Synthese, Band 148.
  • Kneale, William (1956). "The Province of Logic", Zeitgenössische britische Philosophie, HD Lewis (Hrsg.), London: Allen und Unwin, S. 237–261.
  • Koslow, Arnold (1992). Eine strukturalistische Theorie der Logik, Cambridge: Cambridge University Press.
  • Kreisel, Georg (1971). "A Survey of Proof Theory II", Proceedings of the Second Scandinavian Logic Symposium, JE Renstad (Hrsg.), Amsterdam: Nordholland, S. 109–170.
  • Kremer, Philip (2009). "Die Revisionstheorie der Wahrheit", The Stanford Encyclopedia of Philosophy (Ausgabe Frühjahr 2009), Edward N. Zalta (Hrsg.), URL =
  • Kreuger, Per (1994). "Axiome in Definitional Calculi", Erweiterungen der Logikprogrammierung: Proceedings of the 4th International Workshop, ELP'93, St. Andrews, Großbritannien, März / April 1993 (Lecture Notes in Computer Science, Voluem 798), Roy Dyckhoff (Hrsg.), Berlin: Springer, S. 196–205.
  • Lambek, J. und PJ Scott (1986). Einführung in die kategoriale Logik höherer Ordnung, Cambridge: Cambridge University Press.
  • Lorenzen, Paul (1955). Einführung in die operative Logik und Mathematik, Berlin: Springer; 2. Auflage, 1969.
  • Martin-Löf, Per (1971). „Hauptsatz für die intuitionistische Theorie iterierter induktiver Definitionen“, Proceedings of the Second Scandinavian Logic Symposium, JE Fenstad (Hrsg.), Amsterdam: Nordholland, S. 179–216.
  • ––– (1984). Intuitionistische Typentheorie, Napoli: Bibliopolis.
  • ––– (1995). „Verifikationismus damals und heute“, Die Grunddebatte: Komplexität und Konstruktivität in Mathematik und Physik, Werner DePauli-Schimanovich, Eckehart Köhler und Friedrich Stadler (Hrsg.), Dordrecht: Kluwer, S. 187–196.
  • ––– (1998). „Wahrheit und Erkennbarkeit: Nach den Prinzipien C und K von Michael Dummett“, Truth in Mathematics, Harold G. Dales und Gianluigi Oliveri (Hrsg.), Oxford: Clarendon Press, S. 105–114.
  • Negri, Sara und Jan von Plato (2001). Strukturbeweis-Theorie, Cambridge: Cambridge University Press.
  • Nelson, David (1949). „Konstruierbare Falschheit“, Journal of Symbolic Logic, 14: 16–26.
  • Odintsov, Sergei P. (2008). Konstruktive Negationen und Parakonsistenz, Berlin: Springer.
  • Piecha, Thomas (2016). "Vollständigkeit in der beweistheoretischen Semantik". In: Piecha und Schroeder-Heister, Hrsg. (2016b), S. 231–251.
  • –––, Wagner de Campos Sanz und Peter Schroeder-Heister (2015). „Fehler der Vollständigkeit in der beweistheoretischen Semantik“, Journal of Philosophical Logic, 44: 321–335.
  • ––– und Peter Schroeder-Heister (2016a). "Atomsysteme in der beweistheoretischen Semantik: Zwei Ansätze", in: Redmond, J., OP Martins, Á. N. Fernández Erkenntnistheorie, Wissen und die Auswirkungen von Interaktionen, Cham: Springer, S. 47–62.
  • ––– und Peter Schroeder-Heister, Hrsg. (2016b). Fortschritte in der beweistheoretischen Semantik, Cham: Springer (Open Access)
  • Popper, Karl Raimund (1947a). „Logik ohne Annahmen“, Proceedings of the Aristotelian Society, 47: 251–292.
  • ––– (1947b). „Neue Grundlagen für die Logik“, Mind, 56: 193–235; Korrekturen, Mind, 57: 69–70.
  • Prawitz, Dag (1965). Natürlicher Abzug: Eine beweistheoretische Studie, Stockholm: Almqvist & Wiksell; Nachdruck Mineola, NY: Dover Publications, 2006.
  • ––– (1971). „Ideen und Ergebnisse in der Beweistheorie“, Proceedings of the Second Scandinavian Logic Symposium (Oslo 1970), Jens E. Fenstad (Hrsg.), Amsterdam: Nordholland, S. 235–308.
  • ––– (1972). „Die philosophische Position der Beweistheorie“, Zeitgenössische Philosophie in Skandinavien, RE Olson und AM Paul (Hrsg.), Baltimore, London: John Hopkins Press, S. 123–134.
  • ––– (1973). "Auf dem Weg zu einer Grundlage einer allgemeinen Beweistheorie", Logik, Methodik und Wissenschaftstheorie IV, Patrick Suppes et al. (Hrsg.), Amsterdam: Nordholland, S. 225–250.
  • ––– (1974). „Über die Idee einer allgemeinen Beweistheorie“, Synthese, 27: 63–77.
  • ––– (1985). „Anmerkungen zu einigen Ansätzen zum Konzept der logischen Konsequenz“, Synthese, 62: 152–171.
  • ––– (2006). „Über Beweise näherte Bedeutung“, Synthese, 148: 507–524.
  • ––– (2007). „Pragmatistische und verifikationistische Bedeutungstheorien“, Die Philosophie von Michael Dummett, Randall E. Auxier und Lewis Edwin Hahn (Hrsg.), La Salle: Open Court, S. 455–481.
  • ––– (2013). "Ein Ansatz zur allgemeinen Beweistheorie und eine Vermutung einer Art Vollständigkeit der intuitionistischen Logik überarbeitet", Fortschritte in der natürlichen Deduktion, Edward Hermann Haeusler, Luiz Carlos Pereira und Valeria de Paiva (Hrsg.), Berlin: Springer.
  • Lesen Sie, Stephen (2010). „Harmonie der allgemeinen Beseitigung und die Bedeutung der logischen Konstanten“, Journal of Philosophical Logic, 39: 557–576.
  • Restall, Greg (2009). "Substructural Logics", The Stanford Encyclopedia of Philosophy (Ausgabe Sommer 2009), Edward N. Zalta (Hrsg.), URL =.
  • Sambin, Giovanni, Giulia Battilotti und Claudia Faggian (2000). „Grundlegende Logik: Reflexion, Symmetrie, Sichtbarkeit“, Journal of Symbolic Logic, 65: 979–1013.
  • Sandqvist, Tor (2009). „Klassische Logik ohne Bivalenz“, Analysis, 69: 211–218.
  • Schröder-Heister, Peter (1984). „Eine natürliche Erweiterung des natürlichen Abzugs“, Journal of Symbolic Logic, 49: 1284–1300.
  • ––– (1991). "Uniform Proof-Theoretic Semantics for Logical Constants (Abstract)", Journal of Symbolic Logic, 56: 1142.
  • ––– (1992). "Cut Elimination in Logics with Definition Reflection", Nichtklassische Logik und Informationsverarbeitung: Proceedings of the International Workshop, Berlin, November 1990 (Lecture Notes in Computer Science: Band 619). David Pearce und Heinrich Wansing (Hrsg.), Berlin: Springer, S. 146–171.
  • ––– (1993). „Rules of Definitional Reflection“, Proceedings des 8. jährlichen IEEE-Symposiums für Logik in der Informatik, Los Alamitos: IEEE Press, S. 222–232.
  • ––– (2004). "Über den Begriff der Annahme in logischen Systemen", Ausgewählte Artikel zu den Abschnitten von GAP5 (Fünfter Internationaler Kongress der Gesellschaft für Analytische Philosophie, Bielefeld, 22.-26. September 2003), R. Bluhm und C. Nimtz (Hrsg.), Paderborn: Mentis online verfügbar), S. 27–48.
  • ––– (2005). "Poppers strukturalistische Theorie der Logik", Karl Popper: Eine hundertjährige Bewertung. Vol. III: Science, Ian Jarvie, Karl Milford und David Miller (Hrsg.), Aldershot: Ashgate, S. 17–36.
  • ––– (2006). „Gültigkeitskonzepte in der beweistheoretischen Semantik“, Synthese, 148: 525–571.
  • ––– (2007). „Verallgemeinerte Definitionsreflexion und das Inversionsprinzip“, Logica Universalis, 1: 355–376.
  • ––– (2008a). "Lorenzens operative Rechtfertigung intuitionistischer Logik", Hundert Jahre Intuitionismus (1907-2007): Die Cerisy-Konferenz, Mark van Atten et al. (Hrsg.), Basel: Birkhäuser, 214–240 [Referenzen für den gesamten Band: 391–416].
  • ––– (2008b). „Proof-Theoretic versus Model-Theoretic Consequence“, Logica Yearbook 2007, M. Peliš (Hrsg.), Prag: Filosofia, S. 187–200.
  • ––– (2012a). „Definitionsdenken in der beweistheoretischen Semantik und im Quadrat der Opposition“, Das Quadrat der Opposition: Ein allgemeiner Rahmen für die Erkenntnis, Jean-Yves Béziau und Gillman Payette (Hrsg.), Bern: Peter Lang, S. 323–349.
  • ––– (2012b). "Beweis-theoretische Semantik, Selbstwiderspruch und das Format des deduktiven Denkens". In: Topoi 31, S. 77–85.
  • ––– (2012c). "Das Kategorische und das Hypothetische: Eine Kritik einiger grundlegender Annahmen der Standardsemantik". In: Synthese 187, S. 925–942.
  • ––– (2012d). "Paradoxe und Strukturregeln". In: Dutilh Novaes, Catarina und Ole T. Hjortland, Hrsg., Insolubles and Consequences. Essays zu Ehren von Stephen Read. London: College Publications, S. 203–211.
  • ––– (2013). „Definitionsreflexion und Grundlogik“, Annals of Pure and Applied Logic, 164 (4): 491–501.
  • ––– (2015). "Proof-theeoretische Validität basierend auf Eliminierungsregeln". In: Haeusler, Edward Hermann, Wagner de Campos Sanz und Bruno Lopes, Hrsg., Warum ist das ein Beweis? Festschrift für Luiz Carlos Pereira. London: College Publications, S. 159–176.
  • ––– (2016a). "Offene Probleme in der beweistheoretischen Semantik". In: Piecha und Schroeder-Heister, Hrsg. (2016b), S. 253–283.
  • ––– (2016b). "Einschränkung der Anfangssequenzen: Die Kompromisse zwischen Identität, Kontraktion und Schnitt". In: Kahle, Reinhard, Thomas Strahm und Thomas Studer, Hrsg., Fortschritte in der Beweistheorie Basel: Birkhäuser, S. 339–351.
  • Schuhschmied, DJ und Timothy J. Smiley (1978). Multiple-Conclusion Logic, Cambridge: Cambridge University Press.
  • Sommaruga, Giovanni (2000). Geschichte und Philosophie der konstruktiven Typentheorie, Dordrecht: Kluwer.
  • Sørensen, Morten Heine B. und Pawel Urzyczyn (2006). Vorträge zum Curry-Howard-Isomorphismus, Amsterdam: Elsevier.
  • Tait, W. W.: (1967). „Intensive Interpretationen von Funktionen des endlichen Typs I“, Journal of Symbolic Logic, 32: 198–212.
  • Tennant, Neil (1978). Natürliche Logik, Edinburgh: Edinburgh University Press.
  • ––– (1982). „Beweis und Paradoxon“, Dialectica, 36: 265–296.
  • ––– (1987). Anti-Realismus und Logik: Wahrheit als ewig, Oxford: Clarendon Press.
  • ––– (1997). Die Zähmung des Wahren, Oxford: Clarendon Press.
  • Tranchini, Luca (2010). Beweis und Wahrheit: Eine anti-realistische Perspektive, Mailand: Edizioni ETS, 2013; Nachdruck von Ph. D. Dissertation, Institut für Philosophie, Universität Tübingen, 2010, online verfügbar.
  • ––– (2012a). "Wahrheit aus einer beweistheoretischen Perspektive". In: Topoi 31, S. 47–57.
  • ––– (2012b). „Natürlicher Abzug für duale intuitionistische Logik“, Studia Logica, 100: 631–648.
  • ––– (2016). „Beweis-theoretische Semantik, Paradoxe und die Unterscheidung zwischen Sinn und Bezeichnung“, Journal of Logic and Computation, 26, S. 495–512.
  • Troelstra, Anne S. und Dirk van Dalen (1988). Konstruktivismus in der Mathematik: Eine Einführung, Amsterdam: Nordholland.
  • Troelstra, AS und H. Schwichtenberg (2000). Basic Proof Theory, Cambridge University Press, zweite Ausgabe.
  • von Kutschera, Franz (1968). „Die Vollständigkeit des Operatorensystems für die intuitionistische Beziehungslogik im Rahmen der Gentzensemantik“, Archiv für mathematische Logik und Grundlagenforschung, 11: 3–16.
  • ––– (1969). „Ein verallgemeinerter Widerlegungsbegrifff für Gentzenkalküle“, Archiv für mathematische Logik und Grundlagenforschung, 12: 104–118.
  • Wansing, Heinrich (1993a). „Funktionale Vollständigkeit für Subsysteme der intuitionistischen Aussagenlogik“, Journal of Philosophical Logic, 22: 303–321.
  • ––– (1993b). Die Logik der Informationsstrukturen (Lecture Notes in Artificial Intelligence, Band 681), Berlin: Springer Springer.
  • ––– (2000). „Die Idee einer beweistheoretischen Semantik“, Studia Logica, 64: 3–20.
  • ––– (2001). "Negation", Der Blackwell-Leitfaden zur philosophischen Logik, L. Goble (Hrsg.), Cambridge, MA: Blackwell, S. 415–436.
  • Wieckowski, Bartosz (2008). „Predication in Fiction“, im Logica-Jahrbuch 2007, M. Peliš (Hrsg.), Prag: Filosofia, S. 267–285.
  • ––– (2011). „Regeln für die subatomare Ableitung“, Review of Symbolic Logic, 4: 219–236.
  • ––– (2016). „Subatomare natürliche Deduktion für eine naturalistische Sprache erster Ordnung mit nicht primitiver Identität“, Journal of Logic, Language and Information, 25: 215–268.
  • Zeilberger, Noam (2008). „Über die Einheit der Dualität“, Annals of Pure and Applied Logic, 153: 66–96.

Akademische Werkzeuge

Sep Mann Symbol
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • de Campos Sanz, Wagner und Thomas Piecha (2012). "Anmerkungen zur konstruktiven Semantik für die klassische und intuitionistische Logik", Online-Manuskript.
  • Tranchini, Luca (2012b). "Proof-Theoretic Semantics, Paradoxes und die Unterscheidung zwischen Sinn und Bezeichnung", Online-Manuskript.

Empfohlen: