Nicht-deduktive Methoden In Der Mathematik

Inhaltsverzeichnis:

Nicht-deduktive Methoden In Der Mathematik
Nicht-deduktive Methoden In Der Mathematik

Video: Nicht-deduktive Methoden In Der Mathematik

Video: Nicht-deduktive Methoden In Der Mathematik
Video: Induktion und Deduktion mit Beispielen erklärt (Superschnelles 5-Minuten-Tutorial) 🔬 2023, Dezember
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Nicht-deduktive Methoden in der Mathematik

Erstveröffentlichung Montag, 17. August 2009; inhaltliche Überarbeitung Di 21. April 2020

Derzeit gibt es kein einzelnes, genau definiertes philosophisches Teilgebiet, das sich mit dem Studium nicht deduktiver Methoden in der Mathematik befasst. Da der Begriff hier verwendet wird, umfasst er eine Gruppe verschiedener philosophischer Positionen, Ansätze und Forschungsprogramme, deren gemeinsame Motivation die Ansicht ist, dass (i) es nicht deduktive Aspekte der mathematischen Methodik gibt und dass (ii) die Identifizierung und Analyse dieser Aspekte hat das Potenzial, philosophisch fruchtbar zu sein.

  • 1. Einleitung

    • 1.1 Entdeckung versus Rechtfertigung
    • 1.2 Abzug und Formalisierung
    • 1.3 Deduktivismus und Grundlagen
  • 2. Nicht deduktive Aspekte der deduktiven Methode

    • 2.1 Aspekte der Informalität

      • 2.1.1 Semi-formale Beweise
      • 2.1.2 Beweislücken
      • 2.1.3 Diagramme
    • 2.2 Rechtfertigung des Abzugs

      • 2.2.1 Begründung der Regeln
      • 2.2.2 Der Status von Axiomen
    • 2.3 Gödels Ergebnisse
  • 3. Alternative nicht deduktive Methoden

    • 3.1 Experimentelle Mathematik
    • 3.2 Aufzählungsinduktion
    • 3.3 Computerprüfungen
    • 3.4 Probabilistische Beweise
  • 4. Zusammenfassung / Schlussfolgerungen
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Einleitung

Philosophische Ansichten zur Ontologie der Mathematik reichen vom Platonismus (Mathematik handelt von einem Bereich abstrakter Objekte) über Fiktionalismus (Mathematik ist eine Fiktion, deren Gegenstand nicht existiert) bis zum Formalismus (mathematische Aussagen sind bedeutungslose, formal formulierte Zeichenfolgen) Regeln), ohne Konsens darüber, welche richtig ist. Im Gegensatz dazu scheint es fair zu sein zu sagen, dass es eine philosophisch fundierte Sicht auf die grundlegende Methodik der Mathematik gibt. Es ist ungefähr so, dass Mathematiker darauf abzielen, mathematische Behauptungen verschiedener Art zu beweisen, und dass der Beweis aus der logischen Ableitung einer gegebenen Behauptung aus Axiomen besteht. Diese Ansicht hat eine lange Geschichte;So schreibt Descartes in seinen Regeln für die Richtung des Geistes (1627–28), dass ein mathematischer Satz „aus wahren und bekannten Prinzipien durch die kontinuierliche und ununterbrochene Handlung eines Geistes abgeleitet werden muss, der eine klare Vision von jedem Schritt im Prozess hat”(47). Eine wichtige Implikation dieser Ansicht ist, dass in der Mathematik zumindest im Idealfall kein Raum für nicht deduktive Methoden vorhanden ist. Frege stellt zum Beispiel fest, dass „es in der Natur der Mathematik liegt, Beweise, wo Beweise möglich sind, immer einer Bestätigung durch Induktion vorzuziehen“(1884, 2). Berry (2016) bietet eine neuere Beweisverteidigung als Förderung der Schlüsseltugenden der gemeinsamen Untersuchung innerhalb der mathematischen Gemeinschaft. Zumindest idealerweise in der Mathematik für nicht deduktive Methoden. Frege stellt zum Beispiel fest, dass „es in der Natur der Mathematik liegt, Beweise, wo Beweise möglich sind, immer einer Bestätigung durch Induktion vorzuziehen“(1884, 2). Berry (2016) bietet eine neuere Beweisverteidigung als Förderung der Schlüsseltugenden der gemeinsamen Untersuchung innerhalb der mathematischen Gemeinschaft. Zumindest idealerweise in der Mathematik für nicht deduktive Methoden. Frege stellt zum Beispiel fest, dass „es in der Natur der Mathematik liegt, Beweise, wo Beweise möglich sind, immer einer Bestätigung durch Induktion vorzuziehen“(1884, 2). Berry (2016) bietet eine neuere Beweisverteidigung als Förderung der Schlüsseltugenden der gemeinsamen Untersuchung innerhalb der mathematischen Gemeinschaft.

In der philosophischen Literatur kam die vielleicht berühmteste Herausforderung für diese erhaltene Ansicht von Imre Lakatos in seinem einflussreichen (posthum veröffentlichten) 1976 erschienenen Buch Proofs and Refutations:

Die euklidische Methodik hat einen bestimmten obligatorischen Präsentationsstil entwickelt. Ich werde dies als "deduktivistischen Stil" bezeichnen. Dieser Stil beginnt mit einer sorgfältig angegebenen Liste von Axiomen, Deckspelzen und / oder Definitionen. Die Axiome und Definitionen wirken häufig künstlich und mystifizierend kompliziert. Man wird nie erzählt, wie diese Komplikationen entstanden sind. Der Liste der Axiome und Definitionen folgen die sorgfältig formulierten Sätze. Diese sind mit schweren Bedingungen beladen; es scheint unmöglich, dass irgendjemand sie jemals erraten hätte. Dem Satz folgt der Beweis.

Im deduktivistischen Stil sind alle Aussagen wahr und alle Schlussfolgerungen gültig. Die Mathematik wird als eine ständig wachsende Menge ewiger, unveränderlicher Wahrheiten dargestellt.

Deduktivistischer Stil verbirgt den Kampf, verbirgt das Abenteuer. Die ganze Geschichte verschwindet, die aufeinanderfolgenden vorläufigen Formulierungen des Satzes im Verlauf des Beweisverfahrens sind in Vergessenheit geraten, während das Endergebnis in heilige Unfehlbarkeit erhoben wird (Lakatos 1976, 142).

Bevor Sie fortfahren, sollten Sie einige Unterscheidungen treffen, um die Themen der nachfolgenden Diskussion zu fokussieren.

1.1 Entdeckung versus Rechtfertigung

Die allgemeine Behauptung, dass es einige nicht deduktive Aspekte der mathematischen Aktivität gibt, scheint relativ unumstritten. Denn dies läuft lediglich auf die Behauptung hinaus, dass nicht alles, was Mathematiker in der Mathematik tun, darin besteht, Aussagen aus anderen Aussagen abzuleiten. Wie James Franklin es ausdrückt:

Mathematik kann nicht nur aus Vermutungen, Widerlegungen und Beweisen bestehen. Jeder kann Vermutungen anstellen, aber welche sind es wert, untersucht zu werden? … Was könnte durch eine Methode im Repertoire des Mathematikers bewiesen werden? … Welche werden wahrscheinlich erst nach der nächsten Überprüfung der Amtszeit beantwortet? Der Mathematiker muss diese Fragen beantworten, um seine Zeit und Mühe zu verteilen. (Franklin 1987, 2)

Eine Möglichkeit, den allgemeinen Anspruch einzugrenzen, um ihn inhaltlicher zu gestalten, besteht darin, die bekannte (wenn auch nicht völlig unproblematische) Unterscheidung zwischen „Kontext der Entdeckung“und „Kontext der Rechtfertigung“zu verwenden. Einerseits könnte diese Unterscheidung es ermöglichen, die traditionelle deduktivistische Sichtweise angesichts von Lakatos 'Kritik aufrechtzuerhalten, indem argumentiert wird, dass das, worauf Lakatos hinweist, den Kontext der Entdeckung in der Mathematik betrifft. Im Rahmen der Rechtfertigung kann die Ableitung von Ergebnissen aus Axiomen immer noch die richtige und vollständige Geschichte sein. Einige der Reaktionen von Mathematikern auf Lakatos 'Ansichten haben diesen Charakter, zum Beispiel die folgende Bemerkung von Morris Kline in einem Brief an Lakatos:

Ich glaube, wir brauchen viel mehr Literatur, die die Entdeckungsseite der Mathematik betont. Wie Sie wissen und implizieren, liegt der Schwerpunkt auf der deduktiven Struktur der Mathematik, und den Studenten wird der Eindruck vermittelt, dass man aus alten neue Schlussfolgerungen ableitet. [1]

Es ist auch möglich, Passagen in ähnlicher Weise in der Arbeit von Pólya zu finden, der einen großen Einfluss auf Lakatos hatte:

Wenn wir die Methoden zur Lösung von Problemen studieren, nehmen wir ein anderes Gesicht der Mathematik wahr. Ja, Mathematik hat zwei Gesichter; Es ist die strenge Wissenschaft von Euklid, aber es ist auch etwas anderes. Die auf euklidische Weise präsentierte Mathematik erscheint als systematische, deduktive Wissenschaft, aber die Mathematik im Entstehen erscheint als experimentelle, induktive Wissenschaft. (Pólya 1945, vii) [kursiv im Original]

Umgekehrt muss die Gegenforderung, dass nicht-deduktive Methoden eine Rolle bei der Rechtfertigung mathematischer Ergebnisse spielen, um die bekannte deduktivistische Position wirklich in Frage zu stellen (Paseau 2015). Es werden daher in erster Linie begründete Kontexte sein, auf die sich der Rest dieser Umfrage konzentrieren wird. [2]

1.2 Abzug und Formalisierung

Dies ist nicht der Ort für eine detaillierte Analyse des Abzugs. Für die vorliegenden Zwecke wird davon ausgegangen, dass dieser Begriff zumindest im Prinzip ziemlich einfach ist. Ein Abzug ist eine beliebige Folge von Anweisungen, von denen jede aus einem anfänglichen Satz von Anweisungen (den Prämissen) oder aus einer vorherigen Anweisung in der Folge abgeleitet wird. Ein Problem, das angegangen werden muss, ist jedoch die Beziehung zwischen Abzug und Formalisierung (siehe z. B. Azzouni 2013).

Ein Argument kann deduktiv sein, ohne formal zu sein. Obwohl die Paradigmenfälle des Abzugs in hoch formalisierten Systemen auftreten, ist dies nicht erforderlich. „Alle geraden Zahlen größer als 2 sind zusammengesetzt. 1058 ist größer als 2; 1058 ist gerade; daher ist 1058 zusammengesetzt “ist ein vollkommen guter Abzug, obwohl er nicht formalisiert wurde. Im Gegensatz zu dem, was manchmal in Diskussionen über diese Themen angenommen wird, ist es daher nicht wahr, dass alle informellen Aspekte der mathematischen Praxis dadurch nicht deduktiv sind.

Andererseits war die Entwicklung der formalen Logik eng mit der Bereitstellung einer klaren Sprache für die Darstellung (und Bewertung) des deduktiven mathematischen Denkens verbunden. Wie John Burgess in seinem (1992) argumentiert, entwickelte sich die moderne klassische Logik weitgehend als Grundlage für mathematisches Denken, insbesondere für Beweise. Die Zunahme der Strenge innerhalb der Mathematik im 19. th Century richtig als Ursache betrachtet, nicht ein Effekt, der logischen Revolution durch Freges Arbeit los. Logik ist nach Ansicht von Burgess beschreibend: Ihr Ziel ist es, mathematische Denkmodelle zu konstruieren. Die klassische Logik ist eine idealisierte Beschreibung des klassischen mathematischen Beweises.

Es kann auch wichtig sein, informelle Elemente eines bestimmten mathematischen Beweises von nicht formulierbaren Elementen zu unterscheiden (falls es solche Dinge gibt). [3] In Abschnitt 4 wird dieses Thema im Zusammenhang mit der Verwendung von Diagrammen im mathematischen Denken aufgegriffen.

1.3 Deduktivismus und Grundlagen

Ein weiterer Aspekt des Deduktivismus ist neben der Entwicklung der formalen Logik die Betonung der „Grundlagen“. Der Grund dafür ist, dass der Übergang von Axiomen zu Theorem im Prinzip unkompliziert ist, da es sich um eine logische Ableitung handelt. In der Tat ist an diesem Übergang nichts Besonderes Mathematisches beteiligt. Daher wird die Aufmerksamkeit auf den Ausgangspunkt des deduktiven Prozesses gerichtet, nämlich die Axiome. Und wenn diese Axiome selbst Theoreme einer grundlegenderen Theorie sind, dann kann dieses Streben nach einem sicheren Ausgangspunkt durch eine Hierarchie immer grundlegenderer mathematischer Theorien verfolgt werden.

Es ist unbestreitbar, dass Probleme in den Grundlagen der Mathematik der zentralen Anliegen der Philosophen der Mathematik wurden durch die meisten der 20 th Jahrhundert. Dies liegt natürlich nicht daran, dass grundlegende Bereiche wie die Mengenlehre die einzigen Bereiche der Mathematik sind, in denen Philosophen glauben, dass Deduktion stattfindet, sondern daran, dass - wie oben ausgeführt - die Fokussierung auf Deduktion die Ausgangspunkte von Beweisen besonders betont. Selbst diejenigen, die mit diesem Fokus auf grundlegende Fragen einverstanden sind, werden wahrscheinlich anerkennen, dass viele Bereiche der mathematischen Praxis dabei ignoriert werden. Die Frage ist, was - wenn überhaupt - von philosophischem Interesse dabei verloren geht.

2. Nicht deduktive Aspekte der deduktiven Methode

2.1 Aspekte der Informalität

2.1.1 Semi-formale Beweise

Wie in 1.2 oben erwähnt, besteht ein Merkmal des deduktivistischen Stils darin, dass paradigmatische mathematische Beweise vollständig in einer geeigneten formalen Sprache ausgedrückt werden (zum Beispiel Prädikatenlogik erster Ordnung mit Identität). Dadurch kann die Gültigkeit eines bestimmten Beweises leicht, ja mechanisch festgestellt werden. Aber natürlich haben nur wenige, wenn überhaupt, der von Mathematikern verbreiteten und veröffentlichten Beweise diese Form. Was als Beweis für arbeitende Mathematiker gilt, reicht von völlig informell bis detailliert und präzise, wobei jede (oder fast jede) Lücke ausgefüllt wird. Selbst detaillierte und präzise Beweise werden jedoch selten nur in der Sprache der Logik ausgedrückt. Sie sind vielmehr eine Mischung aus gewöhnlicher Sprache, mathematischen und logischen Symbolen und Terminologie.

Manchmal klingen Philosophen, die in der deduktivistischen Tradition schreiben, so, als sei dies ein ziemlich trivialer Punkt. Es geht nur darum, dass Mathematiker ein „Übersetzungsschema“zur Hand haben, aber den Beweis nicht in reiner Logik ausschreiben, um ihn zugänglicher und leichter lesbar zu machen. Tatsächlich ist es oft alles andere als offensichtlich, wie ein gegebener Beweis in formale Logik übersetzt werden kann. Darüber hinaus ist nicht klar, dass der Begriff der „Übersetzung“eines informellen Beweises in eine formale Sprache notwendigerweise die richtige Sichtweise auf die Situation ist. Stewart Shapiro stellt diese Ansicht im Wesentlichen zu Beginn seines 1991 erschienenen Buches "Foundations Without Foundationalism" vor und schreibt:

Die Sprachen der vollständigen Logik sind zumindest teilweise mathematische Modelle von Fragmenten gewöhnlicher natürlicher Sprachen wie Englisch oder vielleicht gewöhnlicher Sprachen, die mit in der Mathematik verwendeten Ausdrücken ergänzt sind. Letzteres kann als "natürliche Sprachen der Mathematik" bezeichnet werden. Zur Hervorhebung oder zur Vermeidung von Verwirrung wird die Sprache einer vollständigen Logik manchmal als "formale Sprache" bezeichnet.

Als mathematisches Modell gibt es immer eine Lücke zwischen der Sprache einer Logik und ihrem Gegenstück zur natürlichen Sprache. Die Übereinstimmung zwischen Modell und Modell kann für jeden Zweck gut oder schlecht, nützlich oder irreführend sein. (Shapiro 1991, 3)

Ein alternatives Bild ist, dass die formelle und die informelle Sprache verschiedene Möglichkeiten bieten, mathematische Theoreme und Beweise auszudrücken. Die formale Sprache wird nicht zum „Übersetzen“verwendet und muss daher nicht an dem gemessen werden, was in einem informellen Beweis ausgedrückt wird. Vielmehr bietet es seine eigenen, wohl überlegenen Ressourcen, um den Inhalt mathematischer Aussagen in einer präzisen und strengen Umgebung auszudrücken, die speziell für diesen Zweck entwickelt wurde. Unabhängig davon, welches Bild von der Beziehung zwischen formellen und informellen Darstellungen der Mathematik angenommen wird, bleiben zwei Punkte übrig. Erstens können deduktive mathematische Argumente - Argumente, die von Mathematikern produziert, übermittelt und aufgebaut werden - entweder formell oder informell sein. Zweite,Die Bewertung solcher Argumente als deduktiv gültig oder ungültig ist im Kontext eines formalen Systems in irgendeiner Form leichter endgültig durchzuführen.

Es ist auch erwähnenswert, dass Lakatos neben formellen und informellen eine dritte Kategorie von Beweisen argumentiert, die er als „quasi-formal“bezeichnet. Lakatos schreibt:

Zu behaupten, ein informeller Beweis sei nur ein unvollständiger formaler Beweis, scheint mir den gleichen Fehler zu machen wie frühe Pädagogen, als sie unter der Annahme, dass ein Kind nur ein Miniatur-Erwachsener war, das direkte Studium des Kinderverhaltens zugunsten von vernachlässigten Theoretisierung basierend auf einfachen Analogien zum Verhalten von Erwachsenen. (Lakatos 1980, 63)

2.1.2 Beweislücken

Die obige Rede von „jeder Lücke, die beim Übergang zu einem idealen Beweis ausgefüllt wird“beschönigt die Tatsache, dass der Begriff einer „Lücke“in einem Beweis selbst einer weiteren Klärung bedarf. Zum einen gilt die einfachste Methode zur Definition einer Beweislücke - wie unten angegeben - nur für vollständig formale Systeme.

Eine Lücke ist ein Punkt in einem Beweis, an dem die geschriebene Zeile nicht aus einer Teilmenge der vorherigen Zeilen (zusammen mit Axiomen) durch Anwendung einer formal gültigen und explizit angegebenen Inferenzregel für das System folgt.

Der Grund für die Bedingung, dass jede Regel eine explizit festgelegte Inferenzregel für das System ist, liegt darin, dass wir Platz für glückliche, aber gültige Beweise schaffen wollen. Zum Beispiel ist „2 + 2 = 4, daher gibt es unendlich viele Primzahlen“ein gültiges Argument, aber es gibt eindeutig eine große Lücke zwischen seiner Prämisse und seiner Schlussfolgerung. Auf der anderen Seite gehören trotz der obigen Definition, die nur für formale Beweise gilt, Lückenlosigkeit und Formalität nicht immer zusammen. So ein traditioneller Syllogismus wie: „Alle Menschen sind sterblich; Sokrates ist ein Mann; daher ist Sokrates sterblich “ist ein Beispiel für einen lückenlosen informellen Beweis. Eine Möglichkeit, den Begriff der Glückseligkeit (und Lückenlosigkeit) auf informelle Beweise auszudehnen, ist der Begriff einer grundlegenden mathematischen Folgerung.mit anderen Worten eine Schlussfolgerung, die „von der mathematischen Gemeinschaft als Beweis akzeptiert wird, ohne dass weitere Argumente erforderlich sind“(Fallis 2003, 49).

Wie auch immer wir Lücken charakterisieren, es ist unbestreitbar, dass die meisten tatsächlichen Beweise, wie sie von Mathematikern vorgelegt werden, Lücken aufweisen. Don Fallis schlägt in seinem (2003) eine Taxonomie von Arten von Beweislücken vor:

  1. Inferenzlücken

    „Ein Mathematiker hat immer dann eine Inferenzlücke hinterlassen, wenn die bestimmte Folge von Aussagen, die der Mathematiker im Sinn hat (als Beweis), kein Beweis ist“(Fallis 2003, 53).

  2. Enthymematische Lücken

    „Ein Mathematiker hat eine enthusiastische Lücke hinterlassen, wenn er die bestimmte Abfolge von Aussagen, die er im Sinn hat, nicht explizit angibt“(Fallis 2003, 54). [4]

  3. Nicht durchquerte Lücken

    „Ein Mathematiker hat eine nicht durchquerte Lücke hinterlassen, wenn er nicht versucht hat, direkt zu überprüfen, ob jeder Satz in der Folge von Sätzen, die er im Auge hat (als Beweis), aus früheren Sätzen in der Folge durch eine grundlegende mathematische Folgerung folgt.“(Fallis 2003, 56–7).

Neben dieser taxonomischen Arbeit argumentiert Fallis auch für die philosophische These, dass Lücken in Beweisen nicht unbedingt eine schlechte Sache sind. Aufbauend auf (iii) oben führt er den Begriff einer universell nicht durchquerten Lücke ein, mit anderen Worten einer Lücke, die von keinem Mitglied der mathematischen Gemeinschaft überbrückt wurde. Fallis behauptet, dass solche Lücken nicht ungewöhnlich sind und dass zumindest einige der Zeitnachweise, die sie enthalten, von Mathematikern in einem begründeten Kontext akzeptiert werden. Diese Ansicht wird in neueren Arbeiten von Andersen (2018) bestätigt.

Ein derzeit aktiver Arbeitsbereich, der zur Aufdeckung bisher nicht erkannter Lücken verschiedener Art geführt hat, ist die automatisierte Proofprüfung. Speziell entwickelte Computerprogramme werden verwendet, um die Gültigkeit von Beweisen zu überprüfen, die in einer geeigneten formalen Sprache erbracht wurden. Bisher lag der Schwerpunkt nicht auf der Entdeckung neuer Ergebnisse, sondern auf der Überprüfung des Status von Beweisen für bereits festgestellte Ergebnisse. George Gonthier hat diesen Ansatz verwendet, um einen Beweis des Vierfarbensatzes (Gonthier 2008) und einen Beweis des Satzes ungerader Ordnung in der Gruppentheorie (Gonthier et al. 2013) zu verifizieren, und Thomas Hales hat einen Beweis des Jordan-Kurvensatzes verifiziert (Hales 2007). In jedem Fall wurden mehrere Lücken gefunden und dann durchquert. Eine formale Überprüfung dieser Art kann auch andere Informationen enthüllen, die im Inhalt gewöhnlicher mathematischer Argumente verborgen sind. Georg Kreisel hat diesen allgemeinen Prozess als „Abwicklungsbeweise“bezeichnet, während Ulrich Kohlenbach in jüngerer Zeit den Begriff „Proof Mining“geprägt hat. In Verbindung mit den oben beschriebenen Methoden schreibt Avigad dies

… Proof-theoretische Methoden und Erkenntnisse können eingesetzt werden… im Bereich des automatisierten Denkens und der formalen Verifikation. Seit dem frühen zwanzigsten Jahrhundert ist klar, dass gewöhnliche mathematische Argumente zumindest im Prinzip in formalen axiomatischen Theorien dargestellt werden können. Die Komplexität selbst der grundlegendsten mathematischen Argumente machte jedoch die meisten Formalisierungen in der Praxis unmöglich. Das Aufkommen von Assistenten für rechnergestützte Beweise hat begonnen, dies zu ändern und es zu ermöglichen, immer komplexere mathematische Beweise zu formalisieren. … [D] Die Methoden können auch für die traditionellere Aufgabe der Überprüfung gewöhnlicher mathematischer Beweise verwendet werden und sind besonders relevant für Fälle, in denen Beweise auf Berechnungen beruhen, die zu umfangreich sind, um von Hand überprüft zu werden. (Avigad 2007, 7)

Delariviere und Van Kerkhove (2017) weisen jedoch darauf hin, dass Computermethoden zwar eine zunehmend wichtige Regel bei der Beweisüberprüfung spielen, es jedoch viel weniger klar ist, dass solche Methoden eine entsprechend zentrale Rolle bei der Förderung des mathematischen Verständnisses spielen können.

2.1.3 Diagramme

Ein weiterer Aspekt des informellen Beweises, der in der neueren philosophischen Literatur erneut Beachtung fand, ist die Rolle von Diagrammen (Giaquinto 2007; Shin & Lemon 2008). Unstreitig ist, dass Beweise - insbesondere in der Geometrie, aber auch in anderen Bereichen von der Analyse bis zur Gruppentheorie - häufig von Diagrammen begleitet werden. Ein Problem betrifft die Frage, ob solche Diagramme eine unverzichtbare Rolle in der Argumentationskette spielen, die von den Prämissen eines bestimmten Beweises bis zu seiner Schlussfolgerung führt. Auf den ersten Blick scheint es drei mögliche Situationen zu geben:

  1. Die Diagramme spielen keine wesentliche Rolle für den Beweis und dienen lediglich als "Illustrationen" von Aspekten des Gegenstandes, mit dem sie sich befassen.
  2. In der Praxis ist es schwierig (oder sogar unmöglich), den Beweis zu erfassen, ohne die Diagramme zu verwenden, aber diese Unentbehrlichkeit ist eher psychologischer als logischer Natur.
  3. Die Diagramme spielen eine wesentliche Rolle in der logischen Struktur des Beweises.

Die anfängliche Welle der philosophischen Arbeit am diagrammatischen Denken konzentrierte sich auf Euklids Elemente, teils wegen der Zentralität und historischen Bedeutung dieser Arbeit, teils weil sie so oft als kanonisches Beispiel für die deduktive Methode angeführt wird (siehe z. B. Mumma) 2010). Wenn einige oder alle Diagramme in den Elementen unter Option (iii) oben fallen, werden durch Löschen aller Diagramme viele der Beweise ungültig. Dies wirft die weitere Frage auf, ob eine eindeutig schematische Argumentationsform identifiziert und analysiert werden kann und - wenn ja - ob sie in einem rein deduktiven System erfasst werden kann. Eine Schwierigkeit für eine vorgeschlagene Rigorisierung ist das „Generalisierungsproblem“: Wie kann ein Beweis, der mit einem bestimmten Diagramm verknüpft ist, auf andere Fälle verallgemeinert werden? Dies ist eng mit der Frage der formalen Unterscheidung verbunden:zwischen den wesentlichen und zufälligen Merkmalen eines gegebenen Diagramms.

Neuere Arbeiten zur Rolle von Diagrammen in Beweisen umfassten die Verteidigung der Position, dass schematische Beweise manchmal völlig streng sein können (Azzouni, 2013), und die Erforschung des diagrammbasierten Denkens in anderen Bereichen der mathematischen Praxis als der Geometrie (de Toffoli und Giardino, 2014; de Toffoli, 2017).

2.2 Rechtfertigung des Abzugs

Selbst wenn wir die Aufmerksamkeit auf den Kontext der Rechtfertigung beschränken, liefert ein deduktiver Beweis nur dann kategorisches Wissen, wenn er von einem sicheren Ausgangspunkt ausgeht und wenn die Regeln der Folgerung wahrheitsbewusst sind. Kann unser Vertrauen, dass diese beiden Bedingungen erfüllt werden, auch rein deduktiv begründet werden? Diese Bedingungen werden nacheinander berücksichtigt.

2.2.1 Begründung der Regeln

In gewisser Hinsicht scheint es recht einfach zu sein, eine deduktive Begründung für ein bevorzugtes Regelwerk zu liefern. Es kann zum Beispiel gezeigt werden, dass, wenn die Prämissen einer Anwendung von Modus Ponens wahr sind, die Schlussfolgerung auch wahr sein muss. Das Problem besteht zumindest möglicherweise darin, dass solche Rechtfertigungen in der Regel genau die Regel verwenden, die sie zu rechtfertigen suchen. Im obigen Fall: Wenn MP auf wahre Prämissen angewendet wird, ist die Schlussfolgerung wahr; MP wird auf echte Prämissen angewendet; daher ist die Schlussfolgerung wahr. Haack (1976) und andere haben darüber diskutiert, ob die Zirkularität hier bösartig ist oder nicht. Eine entscheidende Überlegung ist, ob für ungültige Regeln analoge „Rechtfertigungen“gegeben werden können, beispielsweise die Einführungs- und Eliminierungsregeln von Prior für „Tonk“, die auch die Eigenschaft haben, eine Regel zu verwenden, um sich selbst zu rechtfertigen.[5] (Ein eng verwandtes Thema lässt sich auf Lewis Carroll und sein klassisches Papier (1895) zurückführen.)

2.2.2 Der Status von Axiomen

Nehmen wir also an, dass ein idealisierter deduktiver Beweis eine Art von Sicherheit bietet: Die Transparenz jedes Schritts stellt die Gültigkeit des gesamten Arguments sicher und garantiert somit, dass die Schlussfolgerung wahr sein muss, wenn alle Prämissen wahr sind. Aber was ist mit den Axiomen, die zu Beginn des Beweisprozesses eingeführt werden? Die traditionelle Antwort auf diese Frage lautet, dass die Wahrheit der Axiome sicher ist, weil die Axiome „selbstverständlich“sind. Dies scheint sicherlich die allgemein akzeptierte Ansicht der Axiome der euklidischen Geometrie gewesen zu sein. Diese Haltung ist jedoch aus verschiedenen Gründen in der zeitgenössischen Mathematik viel weniger verbreitet. Erstens die Entdeckung der nichteuklidischen Geometrie im frühen 19. JahrhundertCentury hat gezeigt, dass offensichtliche Selbstbeweise, zumindest im Fall des Parallelpostulats, keine Garantie für die notwendige Wahrheit sind. Zweitens machte es die zunehmende Reichweite und Komplexität mathematischer Theorien - und ihrer Axiomatisierungen - viel weniger plausibel zu behaupten, dass jedes einzelne Axiom transparent wahr sei. Drittens sind viele mathematische Teilbereiche in erheblichem Maße von konkreten Modellen abstrahiert worden, und dies ging einher mit der Tendenz, dass zumindest einige Mathematiker eine formalistische Haltung zu den von ihnen entwickelten Theorien einnehmen. Anstatt grundlegende Wahrheiten auszudrücken, dienen Axiome nach dieser Ansicht lediglich dazu, die Ausgangsposition für ein formales Spiel zu schaffen.

Die Tendenz zu einer solchen formalistischen Haltung gegenüber Axiomen lässt sich auch durch Freges Logik verfolgen. Das Logikprogramm wollte zeigen, dass Mathematik auf Logik reduzierbar ist, mit anderen Worten, dass mathematische Beweise aus logischen Ableitungen von logisch wahren Prämissen bestehen können. Für Frege sind diese logisch wahren Prämissen Definitionen der Begriffe, die in ihnen vorkommen. Dies wirft jedoch erneut die Frage auf, was akzeptable von inakzeptablen Definitionen unterscheidet. Die Sorge hier ist nicht nur, ob unsere Axiome wahr sind, sondern ob sie überhaupt konsistent sind (eine Falle, die bekanntermaßen Freges eigenes System befallen hat). Und dies ist ein Problem, wenn die Selbstbeweise als „Goldstandard“für Axiome aufgegeben werden, unabhängig davon, ob wir von hier zu einer formalistischen oder einer logistischen Sichtweise übergehen. In beiden Fällen,Einige andere Grenzen für die Akzeptanz von Kandidatenaxiomen müssen angegeben werden.

Gibt es also einen Mittelweg zwischen dem hohen Standard der Selbstbeweis einerseits und der Einstellung „Alles geht“andererseits? Eine Idee, deren Version auf Bertrand Russell zurückgeführt werden kann, besteht darin, eine Version des Rückschlusses auf die beste Erklärung zu verwenden. Russell ist plausibel genug, dass die Sätze der Elementararithmetik - „2 + 2 = 4“, „7 ist Primzahl“usw. - viel offensichtlicher sind als die Axiome eines beliebigen logischen oder satztheoretischen Systems kommen Sie mit, um sie zu erden. Anstatt Axiome als maximal selbstverständlich anzusehen, sollten wir sie stattdessen als aufgrund ihrer (kollektiven) Fähigkeit ausgewählt betrachten, die grundlegenden arithmetischen Tatsachen zu systematisieren, abzuleiten und zu erklären. Mit anderen Worten, die Richtung der logischen Implikation bleibt von Axiomen zu arithmetischen Tatsachen.aber die Richtung der Rechtfertigung kann in die andere Richtung gehen, zumindest bei sehr einfachen, offensichtlichen arithmetischen Tatsachen. Das Ableiten von „2 + 2 = 4“aus unseren satztheoretischen Axiomen erhöht nicht unser Vertrauen in die Wahrheit von „2 + 2 = 4“, sondern die Tatsache, dass wir diese zuvor bekannte Tatsache ableiten können (und keine anderen Sätze ableiten, die wir haben wissen, falsch zu sein) erhöht unser Vertrauen in die Wahrheit der Axiome.

Die Richtung der Rechtfertigung spiegelt hier die Richtung der Rechtfertigung in Bezug auf die beste Erklärung wider. Sobald wir ein gewisses Maß an Vertrauen in eine bestimmte Wahl von Axiomen haben, kann die Richtung der Rechtfertigung auch in die konventionellere Richtung fließen, im Gleichschritt mit den deduktiven Schlussfolgerungen eines Beweises. Dies wird geschehen, wenn der nachgewiesene Satz nicht einer war, dessen Wahrheit zuvor offensichtlich war. Easwaran (2005), Mancosu (2008) und Schlimm (2013) haben diese grundlegende Darstellung der Axiomwahl auf unterschiedliche Weise entwickelt. Zum Beispiel argumentiert Mancosu, dass ein analoger Prozess der Entwicklung neuer mathematischer Theorien zugrunde liegen könnte, die den Anwendungsbereich oder die Ontologie früherer Theorien erweitern. Weitere Fortschritte bei der Analyse dieses Prozesses zu erzielen, hängt von einer zufriedenstellenden Darstellung der mathematischen Erklärung ab.und dies ist zu einem Bereich von beträchtlichem Interesse in der neueren Literatur zur Philosophie der Mathematik geworden.

Ein anderer Ansatz, den Maddy (1988, 1997, 2001, 2011) verfolgt, besteht darin, die tatsächliche Praxis von Mathematikern und die Gründe, die sie für die Annahme oder Ablehnung verschiedener Kandidatenaxiome angeben, genauer zu untersuchen. Maddys Hauptaugenmerk liegt auf Axiomen für die Mengenlehre, und sie argumentiert, dass es verschiedene theoretische Tugenden gibt, ohne direkten Zusammenhang mit „Selbstbeweisen“, die Axiome besitzen könnten. Was diese Tugenden sind und wie sie relativ zueinander gewichtet werden, kann in verschiedenen Bereichen der Mathematik durchaus variieren. Zwei Kerntugenden, die Maddy für satztheoretische Axiome identifiziert, sind UNIFY (dh sie liefern eine einzige grundlegende Theorie für die Entscheidung satztheoretischer Fragen) und MAXIMIZE (dh sie beschränken den Bereich der Isomorphismustypen nicht willkürlich). Das Thema Axiomwahl in der Mengenlehre wurde auch in jüngsten Arbeiten von Lingamneni (2017) und Fontanella (2019) aufgegriffen.

2.3 Gödels Ergebnisse

Zweifellos sind die berüchtigtsten Einschränkungen der deduktiven Methode in der Mathematik diejenigen, die sich aus Gödels Unvollständigkeitsergebnissen ergeben. Obwohl diese Ergebnisse nur für mathematische Theorien gelten, die stark genug sind, um Arithmetik einzubetten, bedeutet die Zentralität der natürlichen Zahlen (und ihre Erweiterung in die Rationalen, Realen, Komplexe usw.) als Schwerpunkt der mathematischen Aktivität, dass die Implikationen weit verbreitet sind.

Auch die genauen Auswirkungen von Gödels Arbeit sollten nicht überbewertet werden. Die Reihenfolge der Quantifizierer ist wichtig. Was Gödel gezeigt hat, ist, dass es für jedes konsistente, rekursiv axiomatisierte formale System F, das stark genug für die Arithmetik ist, Wahrheiten gibt, die in rein arithmetischer Sprache ausgedrückt werden können und in F nicht beweisbar sind. Er hat nicht gezeigt, dass es arithmetische Wahrheiten gibt, die in F nicht beweisbar sind jedes formale System. Dennoch haben Gödels Ergebnisse einige bedeutende Nägel in den Sarg einer Version des deduktiven Ideals der Mathematik gehämmert. Es kann kein einziges rekursiv axiomatisierbares formales System für die gesamte Mathematik geben, das (a) konsistent, (b) rein deduktiv und (c) vollständig ist. Eine Antwort auf diese Zwangslage besteht darin, Optionen für nicht deduktive Rechtfertigungsmethoden in der Mathematik zu untersuchen.

3. Alternative nicht deduktive Methoden

3.1 Experimentelle Mathematik

Die Rolle nicht-deduktiver Methoden in der empirischen Wissenschaft ist leicht ersichtlich und relativ unumstritten (Tempo Karl Popper). In der Tat ist das kanonische Rechtfertigungsmuster in der Wissenschaft a posteriori und induktiv. Was die empirische Wissenschaft empirisch macht, ist die entscheidende Rolle, die die Beobachtung und insbesondere das Experiment spielen. Ein natürlicher Ausgangspunkt für eine Untersuchung nicht-deduktiver Methoden in der Mathematik ist daher die Untersuchung des Aufstiegs eines Genres, das als „experimentelle Mathematik“bekannt ist. In den letzten 15 Jahren sind Zeitschriften (z. B. das Journal of Experimental Mathematics), Institute (z. B. das Institut für experimentelle Mathematik an der Universität Essen) und Kolloquien (z. B. das Kollaborium für experimentelle Mathematik an der Rutgers University) erschienen. und Bücher (z. B. Borwein und Bailey 2003 und 2004), die diesem Thema gewidmet sind. Diese letzteren Autoren argumentieren in Borwein und Bailey (2015) auch für die Bedeutung der experimentellen Mathematik in der mathematischen Praxis im Allgemeinen, während Sorensen (2016) eine breitere historische und soziologische Analyse der experimentellen Mathematik liefert.

Vor dem Hintergrund der traditionellen Dichotomie zwischen mathematischen und empirischen Wegen zum Wissen erscheint der Begriff „experimentelle Mathematik“bestenfalls oxymoronisch und im schlimmsten Fall geradezu paradox. Ein natürlicher Vorschlag ist, dass experimentelle Mathematik die Durchführung mathematischer Experimente beinhaltet, wobei der Begriff „Experiment“hier so wörtlich wie möglich ausgelegt wird. Dies ist der Ansatz von van Bendegem (1998). Laut van Bendegem beinhaltet ein Experiment „die Manipulation von Objekten,… das Einrichten von Prozessen in der„ realen “Welt und… das Beobachten möglicher Ergebnisse dieser Prozesse“(Van Bendegem 1998, 172). Sein Vorschlag ist, dass der natürliche Weg, um einen ersten Überblick darüber zu bekommen, was ein mathematisches Experiment sein könnte, darin besteht, zu überlegen, wie ein Experiment in diesem paradigmatischen Sinne mathematische Konsequenzen haben könnte.

Ein Beispiel dafür, dass van Bendegem zitiert Daten wieder an der Arbeit der 19 getan th belgischen Physiker Plateau -Jahrhundert auf minimale Oberfläche Problemen. Durch das Bauen verschiedener geometrischer Formen aus Draht und das Eintauchen dieser Drahtrahmen in eine Seifenlösung konnte Plateau spezifische Fragen zur minimalen Oberflächenbeschränkung verschiedener bestimmter Formen beantworten und schließlich einige allgemeine Prinzipien für die Konfiguration solcher Oberflächen formulieren. [6]Eine Möglichkeit zu verstehen, was in diesem Beispiel vor sich geht, besteht darin, dass ein physikalisches Experiment - das Eintauchen eines Drahtrahmens in eine Seifenlösung - Ergebnisse liefert, die für eine bestimmte Klasse mathematischer Probleme direkt relevant sind. Der Hauptnachteil dieser Art der Charakterisierung der experimentellen Mathematik besteht darin, dass sie zu restriktiv ist. Beispiele für die Art, die van Bendegem zitiert, sind äußerst selten, daher kann der Einfluss mathematischer Experimente dieser Art auf die tatsächliche mathematische Praxis bestenfalls sehr begrenzt sein. Darüber hinaus können Mathematiker nicht nur diesen wörtlichen Sinn für Experimente im Sinn haben, wenn sie über experimentelle Mathematik sprechen und sie ausführen.

Soviel zum wörtlichsten Lesen von „mathematischem Experiment“. Ein potenziell fruchtbarerer Ansatz besteht darin, analog oder funktional zu denken. Mit anderen Worten, vielleicht wird „experimentelle Mathematik“verwendet, um Aktivitäten zu kennzeichnen, die innerhalb der Mathematik auf eine Weise funktionieren, die der Rolle des Experiments in der empirischen Wissenschaft analog ist. Daher können mathematische Experimente einige Merkmale mit wörtlichen Experimenten teilen, andere jedoch nicht (Baker 2008; McEvoy 2008, 2013; Sorensen 2010; van Kerkhove 2008). Bevor Sie mit dieser Analyse fortfahren, kann es hilfreich sein, eine Fallstudie kurz zu betrachten.

Ein schönes Beispiel für aktuelle Arbeiten in der experimentellen Mathematik findet sich in einem der beiden jüngsten Bücher von Borwein und Bailey (1995b, Kap. 4). Eine reelle Zahl wird in der Basis n als normal bezeichnet, wenn jede Ziffernfolge für die Basis n (mit einer bestimmten Länge) in ihrer Basis-n-Erweiterung gleich häufig vorkommt. Eine Zahl ist absolut normal, wenn sie in jeder Basis normal ist. Betrachten Sie die folgende Hypothese:

Vermutung: Jede nicht-rationale algebraische Zahl ist absolut normal.

Borwein und Bailey verwendeten einen Computer, um die Quadratwurzeln und Kubikwurzeln der positiven ganzen Zahlen kleiner als 1.000 auf 10.000 Dezimalstellen zu berechnen, und unterwarfen diese Daten dann bestimmten statistischen Tests.

Es gibt einige bemerkenswerte Merkmale dieses Beispiels, die auf eine allgemeinere Charakterisierung der experimentellen Mathematik hinweisen können. Erstens führt der Weg von der Evidenz zur Hypothese über die Aufzählung. Zweitens geht es um die Verwendung von Computern. Im Folgenden werden diese beiden Merkmale nacheinander untersucht.

3.2 Aufzählungsinduktion

In einem Brief an Euler aus dem Jahr 1742 vermutete Christian Goldbach, dass alle geraden Zahlen größer als 2 als Summe zweier Primzahlen ausgedrückt werden können. [7] In den folgenden zweieinhalb Jahrhunderten konnten Mathematiker Goldbachs Vermutung nicht beweisen. Es wurde jedoch für viele Milliarden von Beispielen verifiziert, und es scheint unter Mathematikern einen Konsens zu geben, dass die Vermutung höchstwahrscheinlich wahr ist. Nachfolgend finden Sie eine unvollständige Liste (Stand Oktober 2007), in der die Größenordnung angegeben ist, bis zu der alle geraden Zahlen überprüft wurden und der GC entsprechen.

Gebunden Datum Autor
1 × 10 3 1742 Euler
1 × 10 4 1885 Desboves
1 × 10 5 1938 Pipping
1 × 10 8 1965 Stein & Stein
2 × 10 10 1989 Granville
1 × 10 14 1998 Deshouillers
1 × 10 18 2007 Oliveira & Silva

Trotz dieser enormen Anhäufung einzelner positiver GC-Fälle, die seit den frühen 1960er Jahren durch die Einführung und anschließende rasche Geschwindigkeitssteigerung des Digitalcomputers unterstützt wurden, wurde noch kein Beweis für GC gefunden. Darüber hinaus sind nur wenige Zahlentheoretiker optimistisch, dass ein Beweis in Sicht ist. Der Fields-Medaillengewinner Alan Baker erklärte in einem Interview aus dem Jahr 2000: „Es ist unwahrscheinlich, dass wir ohne großen Durchbruch weiter kommen [um GC zu beweisen]. Leider ist keine so große Idee am Horizont. “Ebenfalls im Jahr 2000 boten die Verlage Faber und Faber jedem, der zwischen dem 20. März 2000 und dem 20. März 2002 GC bewiesen hatte, einen Preis in Höhe von 1.000.000 US-Dollar an. Sie waren zuversichtlich, dass ihr Geld relativ sicher war.

Was diese Situation besonders interessant macht, ist, dass Mathematiker seit langem von der Wahrheit der GC überzeugt sind. Hardy & Littlewood behaupteten bereits 1922, dass "es keinen vernünftigen Zweifel daran gibt, dass der Satz korrekt ist", und Echeverria schreibt in einem kürzlich erschienenen Übersichtsartikel, dass "die Gewissheit der Mathematiker über die Wahrheit der GC vollständig ist" (Echeverria 1996) 42). Darüber hinaus ist dieses Vertrauen in die Wahrheit der GC typischerweise explizit mit den induktiven Beweisen verbunden: Zum Beispiel beschrieb GH Hardy die numerischen Beweise, die die Wahrheit der GC stützen, als „überwältigend“. Es erscheint daher vernünftig zu folgern, dass der Grund für den Glauben der Mathematiker an GC der enumerative induktive Beweis ist.

Ein charakteristisches Merkmal des mathematischen Falls, das die Rechtfertigungskraft der Aufzählung der Induktion beeinflussen kann, ist die Bedeutung der Ordnung. Die Instanzen, die unter eine gegebene mathematische Hypothese fallen (zumindest in der Zahlentheorie), sind intrinsisch geordnet, und außerdem kann die Position in dieser Reihenfolge einen entscheidenden Unterschied für die beteiligten mathematischen Eigenschaften bewirken. Wie Frege in Bezug auf Mathematik schreibt:

Der Boden ist für die Induktion ungünstig; denn hier gibt es keine dieser Gleichförmigkeiten, die in anderen Bereichen der Methode ein hohes Maß an Zuverlässigkeit verleihen können. (Frege, Grundlagen der Arithmetik)

Frege zitiert dann Leibniz, der argumentiert, dass Größenunterschiede zu allen möglichen anderen relevanten Unterschieden zwischen den Zahlen führen:

Eine gerade Zahl kann in zwei gleiche Teile geteilt werden, eine ungerade Zahl nicht. drei und sechs sind dreieckige Zahlen, vier und neun sind Quadrate, acht ist ein Würfel und so weiter. (Frege, Grundlagen der Arithmetik)

Frege vergleicht auch explizit die mathematischen und nicht-mathematischen Kontexte für die Induktion:

Bei gewöhnlichen Induktionen nutzen wir oft die These, dass jede Position im Raum und jeder Moment in sich selbst so gut ist wie jede andere. … Die Position in der Zahlenreihe ist keine Frage der Gleichgültigkeit wie die Position im Raum. (Frege, Grundlagen der Arithmetik)

Wie Freges Ausführungen nahe legen, besteht eine Möglichkeit, ein Argument gegen die Verwendung der enumerativen Induktion in der Mathematik zu untermauern, in einer Art Ungleichmäßigkeitsprinzip: Wenn keine Beweise vorliegen, sollten wir nicht erwarten, dass Zahlen (im Allgemeinen) interessante Eigenschaften aufweisen. Die Feststellung, dass eine Eigenschaft für eine bestimmte Nummer gilt, gibt daher keinen Grund zu der Annahme, dass eine zweite, willkürlich gewählte Nummer ebenfalls diese Eigenschaft hat. [8] Anstelle des von Hume vorgeschlagenen Einheitlichkeitsprinzips als einziger Weg zur Erdungsinduktion haben wir fast genau das entgegengesetzte Prinzip! Aus diesem Prinzip scheint sich zu ergeben, dass die Induktion von Aufzählungen nicht gerechtfertigt ist, da wir nicht erwarten sollten, dass (endliche) Stichproben aus der Gesamtheit der natürlichen Zahlen auf universelle Eigenschaften hinweisen.

Ein potenziell noch schwerwiegenderes Problem im Fall der GC und in allen anderen Fällen der Induktion in der Mathematik besteht darin, dass die Stichprobe, die wir betrachten, voreingenommen ist. Beachten Sie zunächst, dass alle bekannten Instanzen von GC (und tatsächlich alle Instanzen, die man kennen kann) in einem wichtigen Sinne klein sind.

Im wahrsten Sinne des Wortes gibt es keine großen Zahlen: Jede explizite Ganzzahl kann als „klein“bezeichnet werden. Unabhängig davon, wie viele Ziffern oder Türme von Exponenten Sie aufschreiben, gibt es nur endlich viele natürliche Zahlen, die kleiner als Ihr Kandidat sind, und unendlich viele, die größer sind (Crandall und Pomerance 2001, 2).

Natürlich wäre es falsch, sich einfach darüber zu beschweren, dass alle GC-Instanzen endlich sind. Schließlich ist jede Zahl endlich. Wenn also GC für alle endlichen Zahlen gilt, gilt GC als Vereinfacher. [9] Wir können jedoch ein extremeres Gefühl der Kleinheit isolieren, das als Kleinheit bezeichnet werden kann.

Definition: Eine positive ganze Zahl n ist winzig, nur für den Fall, dass n innerhalb des Zahlenbereichs liegt, den wir mit gewöhnlicher Dezimalschreibweise einschließlich (nicht iterierter) Exponentiation aufschreiben können.

Bisher verifizierte GC-Instanzen sind nicht nur klein, sondern auch winzig. Und Kleinheit, obwohl zugegebenermaßen ziemlich vage definiert, ist dafür bekannt, einen Unterschied zu machen. Betrachten Sie zum Beispiel die logarithmische Schätzung der Primdichte (dh den Anteil von Zahlen kleiner als ein gegebenes n, die Primzahlen sind), von denen bekannt ist, dass sie für ausreichend großes n unterschätzt werden. Sei n * die erste Zahl, für die die logarithmische Schätzung zu klein ist. Wenn die Riemann-Hypothese wahr ist, kann bewiesen werden, dass eine Obergrenze für n * (die erste Skewes-Zahl) 8 × 10 370 beträgt. Obwohl es sich um eine beeindruckend große Zahl handelt, ist sie gemäß der obigen Definition dennoch winzig. Wenn jedoch die Riemann-Hypothese falsch ist als unsere bekannteste Obergrenze für n *(die zweite Skewes-Zahl) ist 10 ↑ 10 ↑ 10 ↑ 10 ↑ 3. [10] Die Notwendigkeit, hier eine Pfeilnotation zu erfinden, um diese Zahl darzustellen, zeigt uns, dass es keine Minute ist. Der zweite Teil dieses Ergebnisses impliziert daher, obwohl er zugegebenermaßen von einem Ergebnis abhängig ist, das als unwahrscheinlich angesehen wird (nämlich die Falschheit der relativen Luftfeuchtigkeit), dass es eine Eigenschaft gibt, die für alle Minutenzahlen gilt, jedoch nicht für alle Zahlen. Minuteness kann einen Unterschied machen.

Was ist mit dem scheinbaren Vertrauen, das Zahlentheoretiker in die Wahrheit der GC haben? Echeverria (1996) diskutiert die wichtige Rolle, die Cantors Veröffentlichung einer Wertetabelle der Goldbach-Partitionsfunktion G (n) für n = 2 bis 1.000 im Jahr 1894 spielt (Echeverria 1996, 29–30). Die Partitionsfunktion misst die Anzahl der verschiedenen Arten, wie eine gegebene (gerade) Zahl als die Summe von zwei Primzahlen ausgedrückt werden kann. Somit ist G (4) = 1, G (6) = 1, G (8) = 1, G (10) = 2 usw. Diese Verschiebung des Fokus auf die Partitionsfunktion fiel mit einer dramatischen Zunahme des Vertrauens der Mathematiker in die GC zusammen. Aus Cantors Arbeiten ging hervor, dass G (n) mit zunehmendem n tendenziell zunimmt. Beachten Sie, dass GC in diesem Zusammenhang bedeutet, dass G (n) niemals den Wert 0 annimmt (für sogar n größer als 2). Der überwältigende Eindruck, den Daten über die Partitionsfunktion machen, ist, dass es höchst unwahrscheinlich ist, dass GC für einige große n fehlschlägt. Zum Beispiel gibt es für Zahlen in der Größenordnung von 100.000 immer mindestens 500 verschiedene Möglichkeiten, jede gerade Zahl als die Summe von zwei Primzahlen auszudrücken!

Derzeit sind diese Ergebnisse jedoch rein heuristisch. Die dreißig Jahre nach Cantors Veröffentlichung seiner Wertetabelle (beschrieben von Echeverria als „2 nd Periode“der Forschung in der GC) sahen zahlreiche Versuche unternommen, einen analytischen Ausdruck für G (n) zu finden. Wenn dies möglich wäre, wäre es vermutlich vergleichsweise einfach zu beweisen, dass diese analytische Funktion niemals den Wert 0 annimmt (Echeverria 1996, 31). Um 1921 führte der Pessimismus über die Chancen, einen solchen Ausdruck zu finden, zu einer Änderung der Betonung, und Mathematiker begannen, ihre Aufmerksamkeit auf den Versuch zu lenken, Untergrenzen für G (n) zu finden. Auch dies hat sich zumindest bisher als erfolglos erwiesen.

Die Berücksichtigung der Partitionsfunktion hat daher einen GC-Beweis nicht näher gebracht. Es erlaubt uns jedoch, dem Argument des vorherigen Abschnitts eine interessante Wendung zu geben. Die Grafik zeigt, dass die schwierigsten Testfälle für GC wahrscheinlich unter den kleinsten Zahlen auftreten. daher ist die induktive Probe für GC vorgespannt, aber sie ist gegen die Chancen von GC vorgespannt. Das Vertrauen der Mathematiker in die Wahrheit der GC basiert nicht nur auf der Aufzählung. Die von der Partitionsfunktion genommenen Werte zeigen an, dass die Stichprobe positiver GC-Instanzen tatsächlich voreingenommen ist, und voreingenommene Proben stützen eine Hypothese in der Regel nicht wesentlich. In diesem speziellen Fall macht die Art der Verzerrung die Beweise jedoch stärker und nicht schwächer. Man kann also argumentieren, dass die Aufzählung von Induktionen nicht gerechtfertigt ist, während man sich gleichzeitig einig ist, dass Mathematiker rational sind, GC auf der Grundlage der verfügbaren Beweise zu glauben. (Beachten Sie, dass hier ein heikles Gleichgewicht aufrechtzuerhalten ist, da die Beweise für das Verhalten der Partitionsfunktion selbst nicht deduktiv sind. Der Eindruck, dass G (n) wahrscheinlich unten durch eine zunehmende analytische Funktion begrenzt wird, basiert jedoch nicht auf Aufzählungen Induktion an sich, daher ist die Rechtfertigung - obwohl sie nicht deduktiv ist - nicht zirkulär.)Der Eindruck, dass G (n) wahrscheinlich unten durch eine zunehmende analytische Funktion begrenzt wird, basiert jedoch nicht auf der perumerativen Induktion an sich, so dass die Rechtfertigung - obwohl sie nicht deduktiv ist - nicht zirkulär ist. Der Eindruck, dass G (n) wahrscheinlich unten durch eine zunehmende analytische Funktion begrenzt wird, basiert jedoch nicht auf der perumerativen Induktion an sich, so dass die Rechtfertigung - obwohl sie nicht deduktiv ist - nicht zirkulär ist.

Das Ergebnis der obigen Diskussion ist, obwohl sie auf einer einzigen Fallstudie basiert, dass Mathematiker der enumerativen Induktion per se bei der Rechtfertigung mathematischer Behauptungen kein Gewicht beimessen sollten und im Allgemeinen auch nicht. (Inwieweit die enumerative Induktion bei der Entdeckung neuer Hypothesen oder bei der Wahl der offenen Probleme, an denen Mathematiker arbeiten, eine Rolle spielt, ist ein separates Thema, das hier nicht behandelt wurde.) Genauer gesagt handelt es sich um eine zweigeteilte These Teile:

  1. Enumerative Induktion sollte das Vertrauen in universelle mathematische Verallgemeinerungen (über einen unendlichen Bereich) nicht erhöhen.
  2. Die Induktion von Aufzählungen führt (im Allgemeinen) nicht dazu, dass Mathematiker mehr Vertrauen in die Wahrheit der Schlussfolgerung solcher Verallgemeinerungen haben.

3.3 Computerprüfungen

Ein auffälliges Merkmal der zeitgenössischen Arbeit in der experimentellen Mathematik ist, dass sie mit Computern durchgeführt wird. Ist diese Abhängigkeit von komplexen elektronischen Teilen das, was das Feld "experimentell" macht? Wenn man sich ansieht, was in zeitgenössischen Zeitschriften, Büchern und Konferenzen veröffentlicht wird, die sich der experimentellen Mathematik widmen, entsteht der Eindruck, dass alle Gegenstände eng mit Computern verbunden sind. Zum Beispiel scheint es kein einziges Papier zu geben, das in mehr als einem Jahrzehnt erschienenen Ausgaben der Experimentellen Mathematik veröffentlicht wurde, in denen keine Computer verwendet werden. Was ist mit den Beispielen, die Mathematiker als Paradigmen der experimentellen Mathematik anbieten? Hier sind die Daten weniger klar. Einerseits deutet eine informelle Umfrage darauf hin, dass die Mehrheit dieser Beispiele den expliziten Einsatz von Computern beinhaltet. Andererseits ist es nicht ungewöhnlich, dass Mathematiker auch ein oder mehrere historische Beispiele anführen.von weit vor dem Computerzeitalter, um den angeblichen Stammbaum der Subdisziplin zu veranschaulichen.

Die größte praxisbezogene Herausforderung, experimentelle Mathematik mit computergestützter Mathematik gleichzusetzen, ergibt sich aus dem, was selbsternannte experimentelle Mathematiker über ihre aufkommende Disziplin sagen. Denn wenn Mathematiker selbstbewusst über den Begriff der experimentellen Mathematik nachdenken, neigen sie dazu, die Behauptung zurückzuweisen, dass die Verwendung von Computern ein notwendiges Merkmal ist. Zum Beispiel machen die Herausgeber der Zeitschrift Experimental Mathematics in ihrer „Erklärung der Philosophie“zu Umfang und Art der Zeitschrift folgende Bemerkungen:

Das Wort „experimentell“ist weit gefasst: Viele mathematische Experimente werden heutzutage am Computer durchgeführt, andere sind jedoch immer noch das Ergebnis von Bleistift- und Papierarbeiten, und es gibt andere experimentelle Techniken, wie das Erstellen physikalischer Modelle. ("Ziele und Umfang", Experimentelle Mathematik - siehe andere Internetquellen)

Und hier ist eine weitere Passage mit einem ähnlichen Geschmack des Mathematikers Doron Zeilberger:

[T] raditionelle experimentelle Mathematik… wurde von allen großen und weniger großen Mathematikern im Laufe der Jahrhunderte mit Bleistift und Papier betrieben. (Gallian und Pearson 2007, 14)

Es scheint fair zu sein zu sagen, dass die Verknüpfung von experimenteller Mathematik mit der Computernutzung gut zu dem passt, was zeitgenössische experimentelle Mathematiker tun, aber nicht so gut zu dem, was sie sagen. [11]

Ein zweites Problem bei der vorgeschlagenen Charakterisierung ist eher philosophischer Natur. Betrachten Sie ein weiteres weit verbreitetes Beispiel für experimentelle Mathematik, das im Zusammenhang mit Goldbachs Vermutung entsteht. Bis April 2007 wurden alle geraden Zahlen bis zu 10 18 auf Übereinstimmung mit GC überprüft, und dieses Projekt (unter der Leitung von Oliveira e Silva) ist noch nicht abgeschlossen. Diese massive Rechenaufgabe wird allgemein als Paradigmenbeispiel für experimentelle Mathematik angesehen. Und es scheint klar zu sein, dass Computer hier eine wesentliche Rolle spielen: Kein Mathematiker oder eine Gruppe von Mathematikern könnte hoffen, 10 18 Berechnungen von Hand zu duplizieren.

Im aktuellen Kontext ist die zentrale Frage nicht, ob computergestützte Mathematik „experimentell“ist, sondern ob sie - zumindest manchmal - nicht deduktiv ist. In gewisser Hinsicht sind natürlich alle von einem Computer durchgeführten Einzelberechnungen deduktiv oder zumindest isomorph zu den Operationen eines rein deduktiven formalen Systems. Wenn ein Computer eine GC-Instanz überprüft, ist diese Überprüfung vollständig deduktiv. Wir können dann zwei verschiedene Fragen trennen. Erstens spielen diese Berechnungen in einem größeren mathematischen Argument eine nicht deduktive Rolle? Und zweitens sind die Überzeugungen, die wir direkt aus den Ergebnissen von Computerberechnungen bilden, deduktiv begründete Überzeugungen? Die erste dieser Fragen aktiviert nichts für Computer.und fällt daher auf das in Abschnitt 3 (B) oben erörterte Problem der Aufzählung der Induktion zurück. Die zweite Frage wird unten untersucht.

Die philosophische Diskussion über den Status von Computer-Beweisen wurde zum großen Teil durch Appels und Hakens computergestützten Beweis des Vier-Farben-Theorems von 1976 angeregt. In seinem (1979) argumentiert Tymoczko kontrovers, dass mathematisches Wissen, das auf Computer-Beweisen basiert, im Wesentlichen empirisch ist im Charakter. Dies liegt daran, dass solche Beweise nicht a priori, nicht sicher, nicht überprüfbar und von menschlichen Mathematikern nicht überprüfbar sind. In all diesen Punkten sind Computer-Proofs laut Tymoczko anders als herkömmliche Proofs mit Bleistift und Papier. In Bezug auf die Vermessbarkeit schreibt Tymoczko:

Ein Beweis ist eine Konstruktion, die von einem rationalen Agenten überprüft, überprüft und verifiziert werden kann. Wir sagen oft, dass ein Beweis übersichtlich sein oder von Hand überprüft werden kann. Es ist eine Ausstellung, eine Ableitung der Schlussfolgerung, und es braucht nichts außerhalb von sich, um zu überzeugen. Der Mathematiker untersucht den Beweis in seiner Gesamtheit und erfährt dadurch die Schlussfolgerung. (Tymoczko 1979, 59)

Nehmen Sie aus Gründen der Argumentation an, dass der fragliche Computer-Beweis deduktiv korrekt ist, aber auch im obigen Sinne nicht messbar ist. Ist unsere Entscheidung, sich hier auf die Ausgabe des Computers zu verlassen, eine nicht deduktive Methode? Eine Möglichkeit, diese Art von Beispiel zu betrachten, besteht darin, einen Keil zwischen einer deduktiven Methode und unserem nicht-deduktiven Zugriff auf die Ergebnisse dieser Methode zu treiben. Vergleichen Sie zum Beispiel, wie Ihnen ein erfahrener Mathematiker (mit einer guten Erfolgsbilanz) von einem bestimmten mathematischen Ergebnis erzählt. Ist das eine "nicht deduktive Methode"? [12]

3.4 Probabilistische Beweise

Es gibt eine kleine, aber wachsende Untergruppe mathematischer Methoden, die im Wesentlichen probabilistischer Natur sind. Im Kontext der Rechtfertigung implizieren diese Methoden nicht deduktiv ihre Schlussfolgerung, sondern stellen vielmehr fest, dass eine gewisse (oft genau spezifizierbare) hohe Wahrscheinlichkeit besteht, dass die Schlussfolgerung wahr ist. Die philosophische Diskussion dieser Methoden begann mit Fallis (1997, 2002), während Berry (2019) ein nützlicher neuer Beitrag zur Debatte ist.

Eine Art probabilistischer Methode knüpft an die frühere Diskussion der experimentellen Mathematik an, indem sie Experimente im wahrsten Sinne des Wortes durchführt. Die Idee ist, die Verarbeitungsleistung von DNA zu nutzen, um effektiv einen massiv parallelen Computer zur Lösung bestimmter ansonsten unlösbarer kombinatorischer Probleme zu schaffen. Das bekannteste davon ist das Problem des "reisenden Verkäufers", bei dem ermittelt wird, ob es eine mögliche Route durch die Knoten eines Diagramms gibt, die durch unidirektionale Pfeile verbunden sind, die jeden Knoten genau einmal besuchen. Adleman (1994) zeigt, wie das Problem mithilfe von DNA-Strängen codiert werden kann, die dann mithilfe verschiedener chemischer Reaktionen gespleißt und rekombiniert werden können. Das Auftreten bestimmter längerer DNA-Stränge am Ende des Prozesses entspricht dem Auffinden eines Lösungsweges durch den Graphen. Probabilistische Überlegungen kommen am deutlichsten zum Tragen, wenn keine DNA-Stränge mehr gefunden werden. Dies weist darauf hin, dass es keinen Pfad durch das Diagramm gibt, aber selbst wenn das Experiment korrekt durchgeführt wird, ist die Unterstützung hier nicht vollständig sicher. Denn es besteht eine geringe Wahrscheinlichkeit, dass es eine Lösung gibt, die jedoch zu Beginn des Experiments von keinem DNA-Strang codiert wird.

Es gibt auch probabilistische Methoden in der Mathematik, die im obigen Sinne nicht experimentell sind. Zum Beispiel gibt es Eigenschaften von zusammengesetzten Zahlen (dh Nicht-Primzahlen), von denen gezeigt werden kann, dass sie in Bezug auf etwa die Hälfte der Zahlen gelten, die kleiner als eine gegebene zusammengesetzte Zahl sind. Wenn verschiedene Zahlen kleiner als N zufällig ausgewählt werden und keine von ihnen diese Beziehung zu N hat, folgt daraus, dass N mit ziemlicher Sicherheit eine Primzahl ist. Das Wahrscheinlichkeitsniveau kann hier genau berechnet und durch Auswahl weiterer zu testender Zeugenzahlen so hoch wie nötig eingestellt werden.

Beachten Sie, dass diese Art von probabilistischen Methoden viele rein deduktive Argumente enthalten. In der Tat wird im zweiten Beispiel die Tatsache, dass die Wahrscheinlichkeit, dass N eine Primzahl ist, 0,99 beträgt, rein deduktiv festgestellt. Dennoch besteht in der mathematischen Gemeinschaft allgemeiner Konsens darüber, dass solche Methoden kein akzeptabler Ersatz für den deduktiven Beweis der Schlussfolgerung sind. Fallis (1997, 2002) argumentiert, dass diese Ablehnung nicht vernünftig ist, da jede Eigenschaft probabilistischer Methoden, auf die als problematisch hingewiesen werden kann, von einigen Beweisen geteilt wird, die die mathematische Gemeinschaft akzeptiert. Fallis konzentriert sich darauf, die Wahrheit als das wichtigste epistemische Ziel der Mathematik zu etablieren. Es erscheint jedoch plausibel, dass ein Hauptgrund für die Unzufriedenheit der Mathematiker mit probabilistischen Methoden darin besteht, dass sie nicht erklären, warum ihre Schlussfolgerungen wahr sind. Darüber hinaus argumentiert Easwaran gegen Fallis, dass es eine Eigenschaft gibt, die er als "Übertragbarkeit" bezeichnet, die probabilistische Beweise fehlen und akzeptable Beweise haben (Easwaran 2009; Jackson 2009). Fallis (2011) ist eine Antwort auf einige dieser Einwände.

Andererseits kann es Fälle geben, in denen die bloße Wahrheit oder Falschheit einer Behauptung wichtig ist, selbst wenn keine begleitende Erklärung vorliegt. Man könnte sich zum Beispiel eine Situation vorstellen, in der eine wichtige und interessante Vermutung - etwa die Riemann-Hypothese - in Betracht gezogen wird und eine probabilistische Methode verwendet wird, um zu zeigen, dass eine bestimmte Zahl sehr wahrscheinlich ein Gegenbeispiel dazu ist. Es ist interessant zu spekulieren, wie die mathematische Gemeinschaft auf diese Situation reagieren könnte. Würde daran arbeiten, zu beweisen, dass RH aufhört? Würde es so lange dauern, bis ein strenger deduktiver Beweis für das Gegenbeispiel erstellt wurde?

4. Zusammenfassung / Schlussfolgerungen

Es ist nicht klar, warum man erwarten sollte, dass die verschiedenen nicht-deduktiven Methoden, die in der Mathematik verwendet werden, andere wesentliche Merkmale als ihre Nicht-Deduktivität aufweisen. Philosophen, die sich mit der Rolle des nicht-deduktiven Denkens im Kontext der Entdeckung befassen, haben oft davon gesprochen, dass es eine gewisse Einheit gibt (zum Beispiel lautet der Untertitel zu Lakatos 'Beweisen und Widerlegungen „die Logik der mathematischen Entdeckung“. Wahrscheinlicher ist dies dass die Reihe der nicht-deduktiven Methoden vielfältig und heterogen ist (vgl. Stanislaw Ulams Bemerkung, dass „das Studium der nichtlinearen Physik wie das Studium der Nicht-Elefanten-Biologie ist.“)

Die Arbeit zeitgenössischer Mathematikphilosophen treibt das Studium nicht-deduktiver mathematischer Methoden weiter in neue Richtungen. Ein Bereich von Interesse liegt in "mathematischen natürlichen Arten" und ob ein solcher Begriff verwendet werden kann, um die Verwendung von Analogie im mathematischen Denken zu begründen (Corfield 2004 [Other Internet Resources]). Ein weiterer untersuchter Bereich ist die mutmaßliche Rolle heuristischer Prinzipien in der Mathematik. (Ein Großteil dieser Arbeit geht auf Pólya (1945) zurück.)

Ein Hintergrundproblem in all diesen Debatten betrifft das Ausmaß, in dem jede einzelne nicht deduktive Methode eine wesentliche Rolle in den begründeten Praktiken der Mathematik spielt. Diese Frage stellt sich sowohl auf lokaler als auch auf globaler Ebene. Auf lokaler Ebene kann eine bestimmte Argumentation zur Rechtfertigung eines bestimmten Ergebnisses unvermeidlich nicht deduktiv sein, das Ergebnis kann jedoch auch durch eine andere, rein deduktive Argumentation ermittelt werden. Auf globaler Ebene kann es sein, dass unsere einzige Rechtfertigung für bestimmte mathematische Behauptungen nicht deduktiv ist. Inwieweit unser Einsatz nicht deduktiver Methoden eher auf Einschränkungen in der Praxis als auf Einschränkungen im Prinzip zurückzuführen ist, bleibt ein Thema für weitere Untersuchungen.

Literaturverzeichnis

  • Adleman, L., 1994, „Molekulare Berechnung von Lösungen für kombinatorische Probleme“, Science, CCLXVI: 1021–1024.
  • Andersen, L., 2018, "Akzeptable Lücken in mathematischen Beweisen", Synthese, URL = .
  • Avigad, J., 2006, „Mathematical Method and Proof“, Synthese, 153: 105–159.
  • –––, 2007, „5 Fragen“, in Philosophie der Mathematik: 5 Fragen, V. Hendricks & H. Leitgeb (Hrsg.), Kopenhagen: Automatic Press, S. 1–10.
  • Azzouni, J., 2013, „Das Verhältnis von Ableitungen in künstlichen Sprachen zu gewöhnlichen rigorosen mathematischen Beweisen“, Philosophia Mathematica, 21: 247–254.
  • –––, 2013, „Dass wir sehen, dass einige schematische Beweise vollkommen streng sind“, Philosophia Mathematica, 21: 323–338.
  • Baker, A., 2007, „Gibt es ein Induktionsproblem für die Mathematik?“, In Mathematical Knowledge, M. Leng, A. Paseau und M. Potter (Hrsg.), Oxford: Oxford University Press, S. 59– 73
  • –––, 2008, „Experimental Mathematics“, Erkenntnis, 68: 331–344.
  • Berry, D., 2016, „Beweis und die Tugenden gemeinsamer Untersuchungen“, Philosophia Mathematica, 26: 112–130.
  • –––, 2019, „Sollten Mathematiker Würfel spielen?“, Logique et Analyze, 246: 135–160.
  • Borwein, J., & D. Bailey, 2003 Mathematik von Experiment: plausiblen für die 21 st Century, Natick, MA: AK Peters.
  • –––, 2004, Experimentieren in Mathematik: Computergestützte Wege zur Entdeckung, Natick, MA: AK Peters.
  • –––, 2015, „Experimentelle Mathematik als ontologischer Spielwechsler: Der Einfluss moderner mathematischer Berechnungswerkzeuge auf die Ontologie der Mathematik“, in Mathematik, Substanz und Vermutung, E. Davis & P. Davis (Hrsg.), Springer, S. 25–68.
  • Brown, J., 2008, Philosophie der Mathematik: eine zeitgenössische Einführung in die Welt von Proofs und Bilder, 2 nd Ausgabe, New York: Routledge.
  • Burgess, J., 1992, „Beweise über Beweise: eine Verteidigung der klassischen Logik. Teil 1: Die Ziele der klassischen Logik “in Proof, Logic and Formalization, M. Detlefsen (Hrsg.), London und New York: Routledge, S. 8–23.
  • Carroll, L. [CL Dodgson], 1895, „Was die Schildkröte Achilles sagte“, Mind, 4: 278–280.
  • Corfield, D., 2003, Auf dem Weg zu einer Philosophie der realen Mathematik, Cambridge: Cambridge University Press.
  • Courant, R. & H. Robbins, 1941, Was ist Mathematik?, Oxford: Oxford University Press.
  • Crandall, R. & C. Pomerance, 2001, Primzahlen: eine Computerperspektive, New York: Springer-Verlag.
  • De Toffoli, S. & V. Giardino, 2014, „Formen und Rollen von Diagrammen in der Knotentheorie“, Erkenntnis, 79 (4): 829–842.
  • De Toffoli, S., 2017, „Das Diagramm verfolgen: Die Verwendung von Visualisierungen im algebraischen Denken“, Review of Symbolic Logic, 10: 158–186.
  • Delariviere, S. & Van Kerkhove, B., 2017, „Der Einwand des künstlichen Mathematikers: Erforschung der (Un-) Möglichkeit der Automatisierung des mathematischen Verständnisses“, in Humanizing Mathematics and its Philosophy, B. Sriraman (Hrsg.), Springer International Publishing S. 173–198.
  • Descartes, R., 1627–28, Regeln für die Richtung des Geistes, in Descartes: Selections, R. Eaton (tr.), New York: Charles Scribner's Sons, 1927, S. 38–83.
  • Detlefsen, M. (Hrsg.), 1992, Proof, Logic and Formalization, London und New York: Routledge.
  • Dummett, M., 1978, „Wangs Paradoxon“, in Truth and Other Enigmas, London: Duckworth, S. 248–268.
  • Easwaran, K., 2005, „Die Rolle der Axiome in der Mathematik“, Erkenntnis, 68: 381–391.
  • –––, 2009, „Probabilistische Beweise und Übertragbarkeit“, Philosophia Mathematica, 17: 341–362.
  • Echeverria, J., 1996, „Empirical Methods in Mathematics. Eine Fallstudie: Goldbachs Vermutung “, in Spanish Studies in the Philosophy of Science, G. Munévar (Hrsg.), Dordrecht: Kluwer, S. 19–55.
  • Fallis, D., 1997, „Der epistemische Status des probabilistischen Beweises“, Journal of Philosophy, 94 (4): 165–186.
  • –––, 2002, „Was wollen Mathematiker? Probabilistische Beweise und die epistemischen Ziele von Mathematikern “, Logique et Analyze, 45: 373–388.
  • –––, 2003, „Absichtliche Lücken in mathematischen Beweisen“, Synthese, 134: 45–69.
  • –––, 2011, „Probabilistische Beweise und die kollektiven erkenntnistheoretischen Ziele von Mathematikern“, in Collective Epistemology, HB Schmid, D. Sirtes und M. Weber (Hrsg.), Ontos Verlag, S. 157–176.
  • Fontanella, L., 2019, „Wie man neue Axiome für die Mengenlehre wählt?“, In Reflexionen über die Grundlagen der Mathematik, D. Sarikaya, D. Kant und S. Centrone (Hrsg.), Springer Verlag.
  • Franklin, J., 1987, „Nicht-deduktive Logik in der Mathematik“, British Journal for the Philosophy of Science, 38: 1–18.
  • Frege, G., 1884, Die Grundlagen der Arithmetik: eine logisch-mathematische Untersuchung über den Begriff der Zahl, Breslau: W. Koebner. Übersetzt als The Foundations of Arithmetic: Eine logisch-mathematische Untersuchung des Zahlenbegriffs von JL Austin, Oxford: Blackwell, zweite überarbeitete Ausgabe, 1974. Nachdruck 1980.
  • Gallian, J. & M. Pearson, 2007, „Ein Interview mit Doron Zeilberger“, FOCUS (Newsletter der Mathematical Association of America), 27 (5): 14–17.
  • Giaquinto, M., 2007, Visuelles Denken in der Mathematik: eine erkenntnistheoretische Studie, Oxford: Oxford University Press.
  • Gonthier, G., et al., 2008, „Formal Proof - The Four-Color Theorem“, Mitteilungen der American Mathematical Society, 55 (11): 1382–1393.
  • Gonthier, G., 2013, „Ein maschinengeprüfter Beweis des Satzes ungerader Ordnung“, in Interactive Theorem Proving: 4. Internationaler Konferenzbeitrag, S. Blazy, C. Paulin-Mohring und D. Pichardie (Hrsg.), Berlin / Heidelberg: Springer-Verlag, S. 163–179.
  • Haack, S., 1976, „Die Rechtfertigung des Abzugs“, Mind, 85: 112–119.
  • Jackson, J., 2009, „Randomisierte Argumente sind übertragbar“, Philosophia Mathematica, 17: 363–368.
  • Lakatos, I., 1976, Beweise und Widerlegungen, Cambridge: Cambridge University Press.
  • –––, 1980, „Was beweist ein mathematischer Beweis?“, In Mathematik, Naturwissenschaften und Erkenntnistheorie (Imre Lakatos: Philosophical Papers, Band 2), J. Worrall & G. Currie (Hrsg.), Cambridge: Cambridge University Press S. 61–69.
  • Lingamneni, S., 2017, „Können wir die Kontinuumshypothese auflösen?“, Synthese, URL = <https://doi.org/10.1007/s11229-017-1648-9>.
  • Maddy, P., 1988, „Glaube an die Axiome. I & II”, Journal of Symbolic Logic, 53 (2): 481–511, 736–764.
  • –––, 1997, Naturalismus in der Mathematik, Oxford: Oxford University Press.
  • –––, 2001, „Einige naturalistische Bemerkungen zur satztheoretischen Methode“, Topoi, 20: 17–27.
  • –––, 2011, Verteidigung der Axiome: Auf den philosophischen Grundlagen der Mengenlehre, Oxford: Oxford University Press.
  • Mancosu, P., 2008, „Mathematische Erklärung: Warum es wichtig ist“, in The Philosophy of Mathematical Practice, P. Mancosu (Hrsg.), Oxford: Oxford University Press, S. 134–149.
  • McEvoy, M., 2008, „Der erkenntnistheoretische Status von Computer-Beweisen“, Philosophia Mathematica, 16: 374–387.
  • –––, 2013, „Experimentelle Mathematik, Computer und das A-priori“, Synthese, 190: 397–412.
  • Mumma, J., 2010, „Proofs, Pictures and Euclid“, Synthese, 175: 255–287.
  • Paseau, A., 2015, „Kenntnisse der Mathematik ohne Beweis“, British Journal for the Philosophy of Science, 66: 775–799.
  • Pólya, G., 1945, Wie man es löst, Princeton: Princeton University Press.
  • Schlimm, D., 2013, „Axiome in der mathematischen Praxis“, Philosophia Mathematica, 21: 37–92.
  • Shin, S. & O. Lemon, 2008, "Diagrams", Stanford Encyclopedia of Philosophy (Ausgabe Winter 2008), Edward N. Zalta (Hrsg.), URL = .
  • Sorensen, HK, 2010, „Exploratives Experimentieren in der experimentellen Mathematik: Ein Blick auf den PSLQ-Algorithmus“, in Philosophie der Mathematik: Soziologische Aspekte und mathematische Praxis, B. Lowe & T. Muller (Hrsg.), London: College Publications, pp 341–360.
  • –––, 2016, „Das Ende des Beweises“? Die Integration verschiedener mathematischer Kulturen als experimentelle Mathematik wird erwachsen “, in Mathematical Cultures, B. Larvor (Hrsg.), Cham: Birkhauser, S. 139–160.
  • Steiner, M., 1993, "Review of Proof, Logic and Formalization", Journal of Symbolic Logic, 58 (4): 1459–1462.
  • Tennant, N., 2005, „Regelzirkularität und Rechtfertigung des Abzugs“, Philosophical Quarterly, 55: 625–648.
  • te Riele, H., 1987, „Über das Zeichen des Unterschieds p (x) –Li (x)“, Mathematics of Computation, 48: 323–328.
  • Tymoczko, T., 1979, „Das Vierfarbenproblem und seine philosophische Bedeutung“, Journal of Philosophy, 76 (2): 57–83.
  • van Bendegem, J., 1998, "Was, wenn überhaupt, ist ein Experiment in Mathematik?", in Philosophie und die vielen Gesichter der Wissenschaft, D. Anapolitanos, et al. (Hrsg.), London: Rowman & Littlefield, S. 172–182.
  • van Kerkhove, B. & J. van Bendegem, 2008, „Pi on Earth“, Erkenntnis, 68: 421–435.

Akademische Werkzeuge

Sep Mann Symbol
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • Ziele und Umfang der 1992 von David Epstein gegründeten Zeitschrift Experimental Mathematics.
  • Philosophie der Mathematik: Soziologische Aspekte und mathematische Praxis, Benedikt Löwe und Thomas Müller (Koordination).
  • Corfield, D., 2004, "Mathematical Kinds or Being Kind to Mathematics", im PhilSci Archive, University of Pittsburgh.

Empfohlen: