Inhaltsverzeichnis:
- Einfachheit
- 1. Einleitung
- 2. Ontologische Sparsamkeit
- 3. Begründungen der Einfachheit von vornherein
- 4. Naturalistische Rechtfertigungen der Einfachheit
- 5. Probabilistische / statistische Begründungen der Einfachheit
- 6. Weitere Probleme im Zusammenhang mit der Einfachheit
- Andere Internetquellen

Video: Einfachheit

Eintragsnavigation
- Eintragsinhalt
- Literaturverzeichnis
- Akademische Werkzeuge
- Freunde PDF Vorschau
- Autor und Zitierinfo
- Zurück nach oben
Einfachheit
Erstveröffentlichung am 29. Oktober 2004; inhaltliche Überarbeitung Di 20.12.2016
Die meisten Philosophen glauben, dass einfachere Theorien besser sind, wenn andere Dinge gleich sind. Aber was genau bedeutet theoretische Einfachheit? Syntaktische Einfachheit oder Eleganz misst die Anzahl und Prägnanz der Grundprinzipien der Theorie. Die ontologische Einfachheit oder Sparsamkeit misst die Anzahl der Arten von Entitäten, die von der Theorie postuliert werden. Ein Problem betrifft das Verhältnis dieser beiden Formen der Einfachheit zueinander. Es gibt auch ein Problem bezüglich der Rechtfertigung von Prinzipien wie Occams Rasiermesser, die einfache Theorien bevorzugen. In der Geschichte der Philosophie gab es viele Ansätze zur Verteidigung von Occams Rasiermesser, von den theologischen Begründungen der Frühen Neuzeit bis zu zeitgenössischen Begründungen, die Ergebnisse aus Wahrscheinlichkeitstheorie und Statistik verwenden.
- 1. Einleitung
- 2. Ontologische Sparsamkeit
- 3. Begründungen der Einfachheit von vornherein
- 4. Naturalistische Rechtfertigungen der Einfachheit
- 5. Probabilistische / statistische Begründungen der Einfachheit
-
6. Weitere Probleme im Zusammenhang mit der Einfachheit
- 6.1 Quantitative Sparsamkeit
- 6.2 Prinzipien der Fülle
- 6.3 Einfachheit und Induktion
- Literaturverzeichnis
- Akademische Werkzeuge
- Andere Internetquellen
- Verwandte Einträge
1. Einleitung
Es gibt eine weit verbreitete philosophische Vermutung, dass Einfachheit eine theoretische Tugend ist. Diese Annahme, dass einfachere Theorien vorzuziehen sind, taucht in vielerlei Hinsicht auf. Oft bleibt es implizit; manchmal wird es als primitiver, selbstverständlicher Satz angerufen; In anderen Fällen wird es zum „Prinzip“erhoben und als solches bezeichnet (z. B. das „Prinzip der Sparsamkeit“). Es ist jedoch vielleicht am besten unter dem Namen "Occam's (oder Ockham's) Razor" bekannt. Einfachheitsprinzipien wurden von Theologen, Philosophen und Wissenschaftlern in verschiedenen Formen vorgeschlagen, von der Antike über das Mittelalter bis zur Neuzeit. So schreibt Aristoteles in seiner Posterior Analytics:
Wir können die Überlegenheit ceteris paribus der Demonstration annehmen, die sich aus weniger Postulaten oder Hypothesen ergibt. [1]
Im Mittelalter schreibt Aquin:
Wenn etwas mit einem angemessen erledigt werden kann, ist es überflüssig, es mit mehreren zu tun; denn wir beobachten, dass die Natur nicht zwei Instrumente einsetzt, bei denen eines ausreicht (Aquinas, [BW], S. 129).
Kant - in der Kritik der reinen Vernunft - unterstützt die Maxime, dass „Rudimente oder Prinzipien nicht unnötig multipliziert werden dürfen (entia praeter requireitatem non esse multiplicanda)“und argumentiert, dass dies eine regulative Idee der reinen Vernunft ist, die der Theorie der Wissenschaftler über die Natur zugrunde liegt (Kant, 1781/1787, S. 538–9). Sowohl Galileo als auch Newton akzeptierten Versionen von Occams Rasiermesser. In der Tat schließt Newton ein Prinzip der Sparsamkeit als eine seiner drei "Regeln des Denkens in der Philosophie" am Anfang von Buch III der Principia Mathematica (1687) ein:
Regel I: Wir dürfen nicht mehr Ursachen für natürliche Dinge zugeben, als solche, die sowohl wahr als auch ausreichend sind, um ihre Erscheinungen zu erklären.
Newton bemerkt weiter, dass „die Natur mit Einfachheit zufrieden ist und nicht den Pomp überflüssiger Ursachen beeinflusst“(Newton 1687, S. 398). Während Galileo einen detaillierten Vergleich der ptolemäischen und kopernikanischen Modelle des Sonnensystems anstellt, behauptet er: „Die Natur multipliziert die Dinge nicht unnötig. dass sie die einfachsten und einfachsten Mittel einsetzt, um ihre Effekte zu erzielen; dass sie nichts umsonst tut und dergleichen “(Galileo 1632, S. 397). Wissenschaftliche Befürworter von Einfachheitsprinzipien sind auch nicht auf die Reihen der Physiker und Astronomen beschränkt. Hier ist der Chemiker Lavoisier Schreiben in den späten 18 - ten Jahrhunderts
Wenn die gesamte Chemie ohne die Hilfe von Phlogiston auf zufriedenstellende Weise erklärt werden kann, reicht dies aus, um unendlich wahrscheinlich zu machen, dass das Prinzip nicht existiert, dass es sich um eine hypothetische Substanz handelt, um eine unbegründete Annahme. Es ist schließlich ein Prinzip der Logik, Entitäten nicht unnötig zu multiplizieren (Lavoisier 1862, S. 623–4).
Vergleichen Sie dies mit der folgenden Passage von Einstein, die 150 Jahre später schreibt.
[D] Das große Ziel aller Wissenschaft… ist es, die größtmögliche Anzahl empirischer Fakten durch logische Ableitungen aus der kleinstmöglichen Anzahl von Hypothesen oder Axiomen abzudecken (Einstein, zitiert in Nash 1963, S. 173).
Die Herausgeber eines kürzlich erschienenen Bandes über Einfachheit sandten Umfragen an 25 aktuelle Nobelpreisträger für Wirtschaftswissenschaften. Fast alle antworteten, dass Einfachheit eine Rolle in ihrer Forschung spielt und dass Einfachheit ein wünschenswertes Merkmal wirtschaftlicher Theorien ist (Zellner et al. 2001, S. 2). Riesch (2010) interviewte 40 Wissenschaftler und fand eine Reihe von Einstellungen zur Natur und Rolle von Einfachheitsprinzipien in der Wissenschaft.
In der Philosophie wird Occams Rasiermesser (OR) häufig gegen metaphysische Theorien eingesetzt, die angeblich überflüssige ontologische Apparate beinhalten. So können Materialisten über den Geist OR gegen Dualismus verwenden, weil der Dualismus eine zusätzliche ontologische Kategorie für mentale Phänomene postuliert. In ähnlicher Weise können Nominalisten über abstrakte Objekte OR gegen ihre platonistischen Gegner einsetzen, um sie dazu zu bringen, sich auf ein unzähliges Gebiet abstrakter mathematischer Einheiten festzulegen. Das Ziel von Appellen an die Einfachheit in solchen Kontexten scheint eher darin zu bestehen, die Beweislast zu verlagern, und weniger darin, die weniger einfache Theorie direkt zu widerlegen.
Die philosophischen Fragen rund um den Begriff der Einfachheit sind zahlreich und etwas verworren. Das Thema wurde von Wissenschaftlern, Philosophen und Statistikern stückweise untersucht (für eine unschätzbare philosophische Behandlung in Buchlänge siehe Sober 2015). Die offensichtliche Vertrautheit des Begriffs der Einfachheit bedeutet, dass er oft nicht analysiert wird, während seine Unbestimmtheit und Bedeutungsvielfalt zur Herausforderung beiträgt, den Begriff genau festzulegen. [2] Oft wird zwischen zwei grundlegend unterschiedlichen Sinnen der Einfachheit unterschieden: syntaktische Einfachheit (ungefähr die Anzahl und Komplexität von Hypothesen) und ontologische Einfachheit (ungefähr die Anzahl und Komplexität der postulierten Dinge). [3]Diese beiden Facetten der Einfachheit werden oft als Eleganz bzw. Sparsamkeit bezeichnet. Für die Zwecke dieser Übersicht werden wir dieser Verwendung folgen und "Sparsamkeit" speziell zur Vereinfachung im ontologischen Sinne vorbehalten. Es sollte jedoch beachtet werden, dass die Begriffe "Sparsamkeit" und "Einfachheit" in einem Großteil der philosophischen Literatur praktisch austauschbar verwendet werden.
Das philosophische Interesse an diesen beiden Begriffen der Einfachheit kann sich auf Antworten auf drei grundlegende Fragen konzentrieren.
(i) Wie ist Einfachheit zu definieren? [Definition]
(ii) Welche Rolle spielen Einfachheitsprinzipien in verschiedenen Untersuchungsbereichen? [Verwendung]
(iii) Gibt es eine rationale Rechtfertigung für solche Einfachheitsprinzipien? [Rechtfertigung]
Wie wir sehen werden, ist die Beantwortung der Definitionsfrage (i) für Sparsamkeit einfacher als für Eleganz. Umgekehrt wurden in der Frage (iii) der rationalen Rechtfertigung mehr Fortschritte für die Eleganz als für die Sparsamkeit erzielt. Es sollte auch beachtet werden, dass die obigen Fragen der Einfachheit halber sowohl innerhalb der Philosophie selbst als auch in der Anwendung auf andere Bereiche der Theoretisierung, insbesondere die empirische Wissenschaft, aufgeworfen werden können.
In Bezug auf Frage (ii) ist eine wichtige Unterscheidung zwischen zwei Arten von Einfachheitsprinzipien zu treffen. Occams Rasiermesser kann als epistemisches Prinzip formuliert werden: Wenn Theorie T einfacher ist als Theorie T *, dann ist es rational (andere Dinge sind gleich), T statt T * zu glauben. Oder es kann als methodisches Prinzip formuliert werden: Wenn T einfacher als T * ist, ist es rational, T als Arbeitstheorie für wissenschaftliche Zwecke zu übernehmen. Diese beiden Vorstellungen von Occams Rasiermesser erfordern unterschiedliche Begründungen für die Beantwortung von Frage (iii).
Bei der Analyse der Einfachheit kann es schwierig sein, die beiden Facetten Eleganz und Sparsamkeit auseinander zu halten. Prinzipien wie Occams Rasiermesser werden häufig in einer Weise formuliert, die zwischen den beiden Begriffen nicht eindeutig ist, zum Beispiel: „Multiplizieren Sie Postulationen nicht über die Notwendigkeit hinaus.“Hier ist unklar, ob sich "Postulation" auf die zu postulierenden Entitäten oder auf die Hypothesen bezieht, die das Postulat durchführen, oder auf beides. Die erste Lesung entspricht Sparsamkeit, die zweite der Eleganz. Beispiele für beide Arten von Einfachheitsprinzipien finden sich in den Zitaten weiter oben in diesem Abschnitt.
Während diese beiden Facetten der Einfachheit häufig miteinander verschmelzen, ist es wichtig, sie als unterschiedlich zu behandeln. Ein Grund dafür ist, dass Überlegungen zu Sparsamkeit und Eleganz typischerweise in verschiedene Richtungen gehen. Das Postulieren zusätzlicher Entitäten kann eine einfachere Formulierung einer Theorie ermöglichen, während eine Reduzierung der Ontologie einer Theorie möglicherweise nur zu dem Preis möglich ist, sie syntaktisch komplexer zu machen. Zum Beispiel ermöglichte die Postulation von Neptun, die zu der Zeit nicht direkt beobachtbar war, die Erklärung der Störungen in den Umlaufbahnen anderer beobachteter Planeten, ohne die Gesetze der Himmelsmechanik zu komplizieren. Es gibt typischerweise einen Kompromiss zwischen Ontologie und Ideologie, um die von Quine bevorzugte Terminologie zu verwenden, bei der die Kontraktion in einem Bereich eine Erweiterung in dem anderen erfordert. Dies weist auf eine andere Art der Charakterisierung der Unterscheidung zwischen Eleganz und Sparsamkeit hin, und zwar in Bezug auf die Einfachheit der Theorie gegenüber der Einfachheit der Welt.[4] Sober (2001) argumentiert, dass diese beiden Facetten der Einfachheit im Hinblick auf die Minimierung interpretiert werden können. Im (atypischen) Fall von theoretisch inaktiven Entitäten ziehen beide Formen der Minimierung in die gleiche Richtung; Das Postulieren der Existenz solcher Entitäten macht sowohl unsere Theorien (der Welt) als auch die Welt (wie durch unsere Theorien dargestellt) weniger einfach als sie sein könnten.
2. Ontologische Sparsamkeit
Die vielleicht häufigste Formulierung der ontologischen Form von Occams Rasiermesser ist die folgende:
(ODER) Entitäten dürfen nicht über die Notwendigkeit hinaus multipliziert werden.
Es sollte beachtet werden, dass moderne Formulierungen von Ockhams Rasiermesser nur sehr tenuously auf die 14 sind th -Jahrhundert Figur Wilhelm von Ockham. Wir interessieren uns hier weder für die exegetische Frage, wie Ockham sein "Rasiermesser" funktionieren wollte, noch für die Verwendung, die es im Kontext der mittelalterlichen Metaphysik hatte. [5] Zeitgenössische Philosophen tendierten dazu, OR als ein Prinzip der Theoriewahl neu zu interpretieren: OR impliziert, dass es rational ist, Theorien zu bevorzugen, die uns zu kleineren Ontologien verpflichten, wenn andere Dinge gleich sind. Dies legt die folgende Paraphrase von OR nahe:
(ODER 1) Wenn T 1 ontologisch sparsamer ist als T 2, ist es vernünftig, T 1 T 2 vorzuziehen.
Was bedeutet es zu sagen, dass eine Theorie ontologisch sparsamer ist als eine andere? Der Grundbegriff der ontologischen Sparsamkeit ist recht einfach und wird normalerweise in Bezug auf Quines Konzept des ontologischen Engagements ausgezahlt. Eine Theorie, T, ist genau dann ontologisch an Fs gebunden, wenn T bedeutet, dass Fs existieren (Quine 1981, S. 144–4). Wenn zwei Theorien, T 1 und T 2, die gleichen ontologischen Verpflichtungen haben, außer dass T 2 ontologisch an F s gebunden ist und T 1 nicht, dann ist T 1 sparsamer als T 2. Allgemeiner ist eine ausreichende Bedingung für T 1 sparsamer als T 2ist, dass die ontologischen Verpflichtungen von T 1 eine geeignete Teilmenge derjenigen von T 2 sind. Beachten Sie, dass OR 1 erheblich schwächer ist als die informelle Version von Occams Razor, OR, mit der wir begonnen haben. ODER legt nur fest, dass Entitäten nicht über die Notwendigkeit hinaus multipliziert werden dürfen. Im Gegensatz dazu besagt OR 1, dass Entitäten nicht multipliziert werden sollten, wenn andere Dinge gleich sind, und dies ist damit vereinbar, dass Sparsamkeit eine vergleichsweise schwache theoretische Tugend ist.
Ein "einfacher" Fall, in dem OR 1 direkt angewendet werden kann, ist, wenn eine Theorie T Entitäten postuliert, die erklärend untätig sind. Das Herausschneiden dieser Entitäten aus T ergibt eine zweite Theorie, T *, die die gleichen theoretischen Tugenden wie T hat, jedoch eine kleinere Menge ontologischer Verpflichtungen. Daher ist es gemäß OR 1 rational, T * über T zu wählen. (Wie bereits erwähnt, ist die Terminologie wie "auswählen" und "bevorzugen" zwischen epistemischen und methodischen Versionen von Occams Rasiermesser entscheidend mehrdeutig. Für die Definition der ontologischen Sparsamkeit ist es nicht erforderlich, diese Mehrdeutigkeit aufzulösen.) Solche Fälle sind es jedoch vermutlich selten, und dies deutet auf eine allgemeinere Sorge hinsichtlich der Enge der Anwendung von OR 1 hin. Erstens, wie oft kommt es tatsächlich vor, dass wir zwei (oder mehr) konkurrierende Theorien haben, für die „andere Dinge gleich sind“? Wie der Biologe Kent Holsinger bemerkt,
Da Occams Rasiermesser nur aufgerufen werden sollte, wenn mehrere Hypothesen denselben Sachverhalt gleich gut erklären, wird sein Bereich in der Praxis sehr begrenzt sein. [C] Ases, bei denen konkurrierende Hypothesen ein Phänomen gleich gut erklären, sind vergleichsweise selten (Holsinger 1980, pp. 144–5).
Zweitens, wie oft sind die ontologischen Verpflichtungen einer Kandidatentheorie eine angemessene Teilmenge der einer anderen? Viel häufiger sind Situationen, in denen sich Ontologien konkurrierender Theorien überschneiden, aber jede Theorie Postulate hat, die nicht von der anderen gemacht werden. Ein einfacher Vergleich der ontologischen Sparsamkeit ist in solchen Fällen nicht möglich.
Bevor die Definitionsfrage für ontologische Sparsamkeit beiseite gelegt wird, sollte eine weitere Unterscheidung erwähnt werden. Diese Unterscheidung erfolgt zwischen qualitativer Sparsamkeit (ungefähr der Anzahl der postulierten Arten (oder Arten) von Dingen) und quantitativer Sparsamkeit (ungefähr der Anzahl der postulierten einzelnen Dinge). [6]Die Standardlesung von Occams Rasiermesser im Hauptteil der philosophischen Literatur ist ein Prinzip der qualitativen Sparsamkeit. So ist beispielsweise der kartesische Dualismus qualitativ weniger sparsam als der Materialismus, da er sich eher zwei großen Arten von Entitäten (geistig und körperlich) als einer verpflichtet fühlt. Abschnitt 6.1 enthält eine kurze Diskussion der quantitativen Sparsamkeit. Abgesehen davon wird der Fokus auf dem qualitativen Begriff liegen. Es sollte beachtet werden, dass die Interpretation von Occams Rasiermesser in Bezug auf Arten von Entitäten ein eigenes zusätzliches philosophisches Gepäck mit sich bringt. Insbesondere werden Urteile über Sparsamkeit davon abhängig, wie die Welt in Arten zerlegt wird. Auch ist die Anleitung durch den außerphilosophischen Gebrauch - und insbesondere durch die Wissenschaft - nicht immer eindeutig. Beispielsweise,Ist ein bisher unentdecktes subatomares Teilchen, das aus einer neuartigen Umlagerung bereits entdeckter Teilchen besteht, eine neue Art? Was ist mit einer biologischen Spezies, die vermutlich keine neuen Grundbestandteile enthält? Sollte auch den breiten und scheinbar fundamentalen Artenunterteilungen - zum Beispiel zwischen geistigen und körperlichen - mehr Gewicht beigemessen werden als zwischen mehr parochialen Unterteilungen? Intuitiv scheint die Postulierung einer neuen Art von Materie eine viel umfassendere und solidere Rechtfertigung zu erfordern als die Postulierung einer neuen Unterart von Spinnen. Sollte den breiten und scheinbar fundamentalen Artenunterteilungen - zum Beispiel zwischen geistigen und körperlichen - mehr Gewicht beigemessen werden als zwischen mehr parochialen Unterteilungen? Intuitiv scheint die Postulierung einer neuen Art von Materie eine viel umfassendere und solidere Rechtfertigung zu erfordern als die Postulierung einer neuen Unterart von Spinnen. Sollte den breiten und scheinbar fundamentalen Artenunterteilungen - zum Beispiel zwischen geistigen und körperlichen - mehr Gewicht beigemessen werden als zwischen mehr parochialen Unterteilungen? Intuitiv scheint die Postulierung einer neuen Art von Materie eine viel umfassendere und solidere Rechtfertigung zu erfordern als die Postulierung einer neuen Unterart von Spinnen.[7]
Die dritte und letzte Frage aus Abschnitt 1 betrifft mögliche Rechtfertigungen für Prinzipien der ontologischen Sparsamkeit wie Occams Rasiermesser. Die Forderung nach Rechtfertigung solcher Prinzipien kann auf zwei wichtige Arten verstanden werden, die der Unterscheidung zwischen erkenntnistheoretischen Prinzipien und methodischen Prinzipien entsprechen, die am Ende von Abschnitt 1 getroffen wurden. Die Rechtfertigung eines epistemischen Prinzips erfordert die Beantwortung einer epistemischen Frage: Warum sind sparsame Theorien wahrscheinlicher? um wahr zu sein? Um ein methodisches Prinzip zu rechtfertigen, muss eine pragmatische Frage beantwortet werden: Warum ist es für Theoretiker praktisch sinnvoll, sparsame Theorien anzunehmen? [8]Die meiste Aufmerksamkeit in der Literatur hat sich auf die erste epistemische Frage konzentriert. Es ist leicht zu erkennen, wie syntaktische Eleganz in einer Theorie pragmatische Vorteile mit sich bringen kann, z. B. übersichtlicher zu sein, einfacher zu verwenden und zu manipulieren und so weiter. Es ist jedoch schwieriger, eine ontologische Sparsamkeit herbeizuführen. [9] Es ist unklar, welche besonderen pragmatischen Nachteile Theorien haben, die zusätzliche Arten von Entitäten postulieren. In der Tat können solche Postulationen - wie im vorherigen Abschnitt erwähnt - oft eine bemerkenswerte syntaktische Vereinfachung mit sich bringen.
Bevor auf Ansätze zur Beantwortung der epistemischen Rechtfertigungsfrage eingegangen wird, sollten zwei Positionen in der Literatur erwähnt werden, die weder in das pragmatische noch in das epistemische Lager fallen. Die erste Position, die in erster Linie mit Quine verbunden ist, argumentiert, dass Sparsamkeit pragmatische Vorteile mit sich bringt und dass pragmatische Überlegungen selbst rationale Gründe für die Unterscheidung zwischen konkurrierenden Theorien liefern (Quine 1966, Walsh 1979). Die Position der Quineaner stützt eine Antwort auf die zweite Frage auf die Antwort auf die erste und verwischt so die Grenze zwischen pragmatischer und epistemischer Rechtfertigung. Die zweite Position lehnt aufgrund von Sober die implizite Annahme in beiden obigen Fragen ab, dass eine globale Rechtfertigung für Sparsamkeit gefunden werden kann (Sober 1988, 1994). Stattdessen argumentiert Sober, dass Appelle an Sparsamkeit für ihre rationale Rechtfertigung immer von lokalen Hintergrundannahmen abhängen. So schreibt Sober:
Die Legitimität von Sparsamkeit steht oder fällt in einem bestimmten Forschungskontext mit themenspezifischen (und a posteriori) Überlegungen. […] Was Sparsamkeit in einem Kontext vernünftig macht, hat möglicherweise nichts damit zu tun, warum es in einem anderen wichtig ist (Sober 1994).
Philosophen, die diese Argumente von Quine und Sober zurückweisen und damit die Forderung nach einer globalen epistemischen Rechtfertigung ernst nehmen, haben verschiedene Ansätze entwickelt, um Sparsamkeit zu rechtfertigen. Die meisten dieser Ansätze lassen sich unter zwei großen Überschriften zusammenfassen:
(A) A priori philosophische, metaphysische oder theologische Rechtfertigungen.
(B) Naturalistische Rechtfertigungen, basierend auf der Berufung auf die wissenschaftliche Praxis.
Wie wir sehen werden, spiegelt der Kontrast zwischen diesen beiden Arten von Ansätzen eine größere Kluft zwischen den rivalisierenden Traditionen des Rationalismus und des Empirismus in der gesamten Philosophie wider.
Neben der Sparsamkeit kann die Frage der rationalen Rechtfertigung auch für Prinzipien aufgeworfen werden, die auf Eleganz beruhen, der zweiten Facette der Einfachheit, die in Abschnitt 1 unterschieden wird. Ansätze zur Rechtfertigung von Eleganz nach (A) und (B) sind möglich, aber viel der jüngsten Arbeit fällt unter eine dritte Kategorie;
(C) Begründungen basierend auf Ergebnissen aus der Wahrscheinlichkeitstheorie und / oder Statistik.
In den nächsten drei Abschnitten werden diese drei Arten der Rechtfertigung von Einfachheitsprinzipien untersucht. Die a priori Begründungen in Kategorie (A) betreffen die Einfachheit sowohl in ihrer Sparsamkeit als auch in ihrer Eleganz. Die unter Kategorie (B) fallenden Rechtfertigungen beziehen sich hauptsächlich auf Sparsamkeit, während diejenigen, die unter Kategorie (C) fallen, hauptsächlich auf Eleganz beziehen.
3. Begründungen der Einfachheit von vornherein
Die Rolle der Einfachheit als theoretische Tugend scheint so weit verbreitet, grundlegend und implizit zu sein, dass viele Philosophen, Wissenschaftler und Theologen aus ähnlich breiten und grundlegenden Gründen nach einer Rechtfertigung für Prinzipien wie Occams Rasiermesser gesucht haben. Dieser rationalistische Ansatz hängt mit der Ansicht zusammen, dass a priori Einfachheitsannahmen der einzige Weg sind, um die Unterbestimmung der Theorie durch Daten zu umgehen. Bis zur zweiten Hälfte des 20 ..Jahrhundert war dies wahrscheinlich die vorherrschende Herangehensweise an das Thema Einfachheit. In jüngerer Zeit führte der Aufstieg des Empirismus innerhalb der analytischen Philosophie dazu, dass viele Philosophen abfällig argumentierten, dass A-priori-Rechtfertigungen im Bereich der Metaphysik die Einfachheit bewahren (siehe Zellner et al. 2001, S. 1). Trotz seines sich wandelnden Schicksals hat der rationalistische Ansatz zur Einfachheit immer noch seine Anhänger. Zum Beispiel schreibt Richard Swinburne:
Ich versuche zu zeigen, dass - andere Dinge sind gleich - die einfachste Hypothese, die als Erklärung für Phänomene vorgeschlagen wird, mit größerer Wahrscheinlichkeit die wahre ist als jede andere verfügbare Hypothese, dass ihre Vorhersagen mit größerer Wahrscheinlichkeit wahr sind als die anderer verfügbare Hypothese, und dass es ein ultimatives a priori epistemisches Prinzip ist, dass Einfachheit ein Beweis für die Wahrheit ist (Swinburne 1997, S. 1).
(i) Theologische Begründungen
Die Zeit nach dem Mittelalter fiel mit einem allmählichen Übergang von der Theologie zur Wissenschaft zusammen, als das vorherrschende Mittel, um die Funktionsweise der Natur aufzudecken. In vielen Fällen trugen die vertretenen Prinzipien der Sparsamkeit weiterhin ihre theologischen Ursprünge auf den Ärmeln, wie bei Leibniz 'These, dass Gott die beste und vollständigste aller möglichen Welten geschaffen hat, und seiner Verknüpfung dieser These mit vereinfachenden Prinzipien wie Licht, das immer genommen wird der (zeitlich) kürzeste Weg. Eine ähnliche Haltung - und Rhetorik - teilen Wissenschaftler in der frühen Neuzeit und in der Neuzeit, darunter Kepler, Newton und Maxwell.
Ein Teil dieser Rhetorik hat sich bis heute erhalten, insbesondere unter theoretischen Physikern und Kosmologen wie Einstein und Hawking. [10] Es besteht jedoch eine klare Gefahr, sich auf eine theologische Rechtfertigung von Einfachheitsprinzipien zu stützen. Erstens zögern viele - wahrscheinlich die meisten zeitgenössischen Wissenschaftler -, methodische Prinzipien auf diese Weise mit religiösem Glauben zu verknüpfen. Zweitens verwenden selbst Wissenschaftler, die von „Gott“sprechen, den Begriff häufig metaphorisch und beziehen sich nicht unbedingt auf das persönliche und absichtliche Sein monotheistischer Religionen. Drittens, selbst wenn die Tendenz besteht, Einfachheitsprinzipien durch einen wörtlichen Glauben an die Existenz Gottes zu rechtfertigen, ist eine solche Rechtfertigung nur insoweit rational, als rationale Argumente für die Existenz Gottes vorgebracht werden können.[11]
Aus diesen Gründen begnügen sich heute nur wenige Philosophen mit einer theologischen Rechtfertigung von Einfachheitsprinzipien. Es besteht jedoch kein Zweifel daran, welchen Einfluss solche Rechtfertigungen auf vergangene und gegenwärtige Einstellungen zur Einfachheit hatten. Wie Smart (1994) schreibt:
Es gibt eine Tendenz… für uns, Einfachheit… als Leitfaden für die metaphysische Wahrheit zu nehmen. Vielleicht leitet sich diese Tendenz aus früheren theologischen Vorstellungen ab: Wir erwarten, dass Gott ein schönes Universum geschaffen hat (Smart 1984, S. 121).
(ii) Metaphysische Begründungen
Ein Ansatz zur Rechtfertigung von Einfachheitsprinzipien besteht darin, solche Prinzipien in einen allgemeineren metaphysischen Rahmen einzubetten. Das vielleicht klarste historische Beispiel für eine solche systematische Metaphysik ist das Werk von Leibniz. Das führende zeitgenössische Beispiel für diesen Ansatz - und in gewissem Sinne ein direkter Nachfolger von Leibniz 'Methodik - ist das mögliche Weltrahmen von David Lewis. In einem seiner früheren Werke schreibt Lewis:
Ich schließe mich der allgemeinen Ansicht an, dass qualitative Sparsamkeit in einer philosophischen oder empirischen Hypothese gut ist (Lewis 1973, S. 87).
Lewis wurde angegriffen, weil er nicht mehr darüber gesagt hat, was genau er unter Einfachheit versteht (siehe Woodward 2003). Klar ist jedoch, dass Einfachheit eine Schlüsselrolle bei der Untermauerung seines metaphysischen Rahmens spielt und auch als prima facie theoretische Tugend angesehen wird.
Obwohl Occams Rasiermesser wohl ein langjähriges und wichtiges Instrument für den Aufstieg der analytischen Metaphysik war, gab es erst vor relativ kurzer Zeit unter Metaphysikern viele Debatten über das Prinzip selbst. Cameron (2010), Schaffer (2010) und Sider (2013) sprechen sich jeweils für eine Version von Occams Rasiermesser aus, die sich speziell auf grundlegende Einheiten konzentriert. Schaffer (2015, S. 647) nennt diese Version "The Laser" und formuliert sie als eine Anweisung, fundamentale Entitäten nicht über die Notwendigkeit hinaus zu multiplizieren, zusammen mit dem impliziten Verständnis, dass es keine solche Anweisung gegen die Multiplikation abgeleiteter Entitäten gibt. Baron und Tallant (in Kürze) greifen "Rasiermesser-Revisoren" wie Schaffer an,argumentieren, dass Prinzipien wie The Laser nicht mit tatsächlichen Mustern der Wahl der Theorie in der Wissenschaft übereinstimmen und auch nicht durch einige der Rechtfertigungslinien für Occams Rasiermesser bestätigt werden.
(iii) Begründungen des „inneren Werts“
Einige Philosophen haben sich der Frage der Rechtfertigung von Einfachheitsprinzipien zugewandt, indem sie argumentierten, dass Einfachheit als theoretisches Ziel einen inneren Wert hat. Nüchtern schreibt zum Beispiel:
Genau wie die Frage "Warum rational sein?" Möglicherweise gibt es keine nicht zirkuläre Antwort. Dies gilt möglicherweise auch für die Frage, warum bei der Bewertung der Plausibilität von Hypothesen die Einfachheit berücksichtigt werden sollte. (Sober 2001, S. 19).
Ein solcher innerer Wert kann in gewissem Sinne "primitiv" sein oder als ein Aspekt eines breiteren Wertes analysierbar sein. Für diejenigen, die den zweiten Ansatz bevorzugen, ist ein beliebter Kandidat für diesen breiteren Wert die Ästhetik. Derkse (1992) ist eine buchlange Entwicklung dieser Idee, und Echos finden sich in Quines Bemerkungen - im Zusammenhang mit seiner Verteidigung von Occams Rasiermesser - bezüglich seines Geschmacks für „klaren Himmel“und „Wüstenlandschaften“. Im Allgemeinen scheint es besser geeignet zu sein, eine Verbindung zwischen ästhetischen Tugend- und Einfachheitsprinzipien herzustellen, um methodische als epistemische Prinzipien zu verteidigen.
(iv) Begründungen durch Grundsätze der Rationalität
Ein anderer Ansatz besteht darin, zu zeigen, wie sich Einfachheitsprinzipien aus anderen besser etablierten oder besser verstandenen Rationalitätsprinzipien ergeben. [12]Zum Beispiel schreiben einige Philosophen nur vor, dass sie "Einfachheit" als Abkürzung für jedes Paket theoretischer Tugenden nehmen, das für rationale Forschung charakteristisch ist (oder sein sollte). Eine substanziellere Alternative besteht darin, die Einfachheit mit einem bestimmten theoretischen Ziel zu verknüpfen, beispielsweise der Vereinigung (siehe Friedman 1983). Während dieser Ansatz für Eleganz funktionieren mag, ist es weniger klar, wie er für ontologische Sparsamkeit beibehalten werden kann. Umgekehrt besteht eine Argumentationslinie, die zur Verteidigung der Sparsamkeit besser geeignet zu sein scheint als zur Verteidigung der Eleganz, darin, sich auf ein Prinzip des erkenntnistheoretischen Konservatismus zu berufen. Sparsamkeit in einer Theorie kann als Minimierung der Anzahl der postulierten "neuen" Arten von Entitäten und Mechanismen angesehen werden. Diese Präferenz für alte Mechanismen kann wiederum durch eine allgemeinere erkenntnistheoretische Vorsicht oder einen Konservatismus gerechtfertigt sein.das ist charakteristisch für rationale Untersuchung.
Beachten Sie, dass der obige Ansatz sowohl einen rationalistischen als auch einen empiristischen Glanz erhalten kann. Wenn Vereinigung oder erkenntnistheoretischer Konservatismus selbst a priori rationale Prinzipien sind, dann erben Einfachheitsprinzipien dieses Merkmal, wenn dieser Ansatz erfolgreich durchgeführt werden kann. Philosophen mit empiristischen Sympathien können jedoch auch eine Analyse dieser Art verfolgen und dann die Grundprinzipien entweder induktiv aus dem Erfolg der Vergangenheit oder naturalistisch aus der Tatsache rechtfertigen, dass solche Prinzipien tatsächlich in der Wissenschaft verwendet werden.
Zusammenfassend lässt sich sagen, dass das Hauptproblem bei a priori Begründungen von Einfachheitsprinzipien darin besteht, dass es schwierig sein kann, zwischen einer a priori Verteidigung und keiner Verteidigung (!) Zu unterscheiden. Manchmal wird die theoretische Tugend der Einfachheit als primitiver, selbstverständlicher Satz angeführt, der nicht weiter begründet oder näher ausgeführt werden kann. (Ein Beispiel ist der Beginn der Arbeit von Goodman und Quine aus dem Jahr 1947, in der sie angeben, dass ihre Weigerung, abstrakte Objekte in ihre Ontologie aufzunehmen, „auf einer philosophischen Intuition beruht, die nicht durch die Berufung auf etwas Ultimativeres gerechtfertigt werden kann.“) (Goodman & Quine 1947, S. 174). Es ist unklar, woher die Hebelwirkung kommen kann, um Skeptiker von der Gültigkeit solcher Grundsätze zu überzeugen, insbesondere wenn die angegebenen Gründe nicht selbst weitere Fragen aufwerfen. Bedenken dieser Art haben zu einer Abkehr von Rechtfertigungen geführt, die in der „ersten Philosophie“verwurzelt sind, hin zu Ansätzen, die sich in größerem Maße mit den Details der tatsächlichen wissenschaftlichen und statistischen Praxis befassen. Diese anderen Ansätze werden in den nächsten beiden Abschnitten erörtert.
4. Naturalistische Rechtfertigungen der Einfachheit
Der Aufstieg der eingebürgerten Epistemologie als eine Bewegung innerhalb der analytischen Philosophie in der zweiten Hälfte der 20. - ten Jahrhundert des rationalistischen Stil des Ansatzes weitgehend ins Abseits gedrängt hat. Aus naturalistischer Sicht wird Philosophie als kontinuierlich mit der Wissenschaft verstanden und nicht als unabhängig privilegierter Status. Die Perspektive der naturalistischen Philosophin mag breiter sein, aber ihre Anliegen und Methoden unterscheiden sich nicht grundlegend von denen der Wissenschaftlerin. Die Schlussfolgerung ist, dass die Wissenschaft keine externe philosophische Rechtfertigung benötigt oder legitimerweise gegeben werden kann. Vor diesem weitgehend naturalistischen Hintergrund haben einige Philosophen versucht, eine epistemische Rechtfertigung für Einfachheitsprinzipien und insbesondere für Prinzipien der ontologischen Sparsamkeit wie Occams Rasiermesser zu liefern.
Die wichtigsten empirischen Belege für dieses Thema sind die Muster der Akzeptanz und Ablehnung konkurrierender Theorien durch arbeitende Wissenschaftler. Einsteins Entwicklung der Speziellen Relativitätstheorie - und ihre Auswirkung auf die Hypothese der Existenz des elektromagnetischen Äthers - ist eine der Episoden, die (sowohl von Philosophen als auch von Wissenschaftlern) am häufigsten als Beispiel für Occams Rasiermesser in Aktion angeführt werden (siehe Sober 1981, S. 22). 153). Der Äther ist hypothetisch ein festes Medium und ein Referenzrahmen für die Ausbreitung von Licht (und anderen elektromagnetischen Wellen). Die Spezielle Relativitätstheorie beinhaltet das radikale Postulat, dass die Geschwindigkeit eines Lichtstrahls durch ein Vakuum relativ zu einem Beobachter konstant ist, unabhängig vom Bewegungszustand des Beobachters. Unter dieser Annahme ist der Begriff eines universellen Referenzrahmens inkohärent. Spezielle Relativitätstheorie impliziert daher, dass der Äther nicht existiert.
Diese Episode kann als Ersatz einer empirisch adäquaten Theorie (der Lorentz-Poincaré-Theorie) durch eine ontologisch sparsamere Alternative (Spezielle Relativitätstheorie) angesehen werden. Daher wird es oft als Beispiel für Occams Rasiermesser in Aktion angesehen. Das Problem bei der Verwendung dieses Beispiels als Beweis für Occams Rasiermesser besteht darin, dass die Spezielle Relativitätstheorie (Special Relativity, SR) gegenüber der Lorentz-Poincaré (LP) -Theorie mehrere andere theoretische Vorteile hat und nicht nur ontologisch sparsamer ist. Erstens ist SR eine einfachere und einheitlichere Theorie als LP, da LP eine Reihe von Ad-hoc- und physikalisch nicht motivierten Patches hinzugefügt wurden, um die Phänomene zu retten. Zweitens wirft LP Zweifel an der physikalischen Bedeutung von Entfernungsmessungen auf. Nach LP bewegt sich ein Stab mit der Geschwindigkeit v,Verträge um den Faktor (1 - v 2 / c2) 1/2. Somit sind nur Abstandsmessungen, die in einem ruhenden Rahmen relativ zum Äther durchgeführt werden, ohne Änderung durch einen Korrekturfaktor gültig. LP impliziert jedoch auch, dass eine Bewegung relativ zum Äther im Prinzip nicht nachweisbar ist. Wie ist die Entfernung zu messen? Mit anderen Worten, das Problem hier wird durch die Tatsache kompliziert, dass der Äther laut LP nicht nur ein zusätzliches Stück Ontologie ist, sondern ein nicht nachweisbares zusätzliches Stück. Angesichts dieser Vorteile von SR gegenüber LP scheint es klar zu sein, dass das Ätherbeispiel nicht nur ein Fall von ontologischer Sparsamkeit ist, die eine ansonsten minderwertige Theorie ausgleicht.
Ein echter Testfall für Occams Rasiermesser muss eine ontologisch sparsame Theorie beinhalten, die ihren Rivalen in anderer Hinsicht nicht klar überlegen ist. Ein lehrreiches Beispiel ist die folgende historische Folge von Biogeographie, eine wissenschaftliche Teildisziplin, die gegen Ende des 18. entstanden th Jahrhundert, und zentrale dessen Zweck es war die geographische Verteilung der Pflanzen- und Tierarten zu erklären. [13] 1761 schlug der französische Naturforscher Buffon das folgende Gesetz vor:
(BL) Durch natürliche Barrieren getrennte Gebiete weisen unterschiedliche Arten auf.
Es gab auch bekannte Ausnahmen vom Buffonschen Gesetz, zum Beispiel abgelegene Inseln, die (sogenannte) "kosmopolitische" Arten mit weit entfernten Kontinentalregionen teilen.
Zwei rivalisierende Theorien wurden entwickelt, um Buffons Gesetz und seine gelegentlichen Ausnahmen zu erklären. Nach der ersten Theorie können aufgrund von Darwin und Wallace beide Tatsachen durch die kombinierten Effekte zweier kausaler Mechanismen erklärt werden - Streuung und Evolution durch natürliche Selektion. Die Erklärung für Buffons Gesetz lautet wie folgt. Arten wandern allmählich in neue Gebiete, ein Prozess, den Darwin "Ausbreitung" nennt. Da die natürliche Selektion im Laufe der Zeit auf die bedingte anfängliche Verteilung der Arten in verschiedenen Gebieten einwirkt, entwickeln sich schließlich völlig unterschiedliche Arten. Die Existenz kosmopolitischer Arten erklärt sich aus der „unwahrscheinlichen Ausbreitung“, Darwins Bezeichnung für die Ausbreitung über scheinbar undurchdringliche Barrieren durch „gelegentliche Transportmittel“wie Meeresströmungen, Winde und schwimmendes Eis. Kosmopolitische Arten werden als Ergebnis einer unwahrscheinlichen Verbreitung in der relativ jüngeren Vergangenheit erklärt.
In den 1950er Jahren schlug Croizat eine Alternative zur Darwin-Wallace-Theorie vor, die ihre Voraussetzung der geografischen Stabilität ablehnt. Croizat argumentiert, dass tektonische Veränderung, nicht Zerstreuung, der Hauptkausalmechanismus ist, der Buffons Gesetz zugrunde liegt. Kräfte wie die Kontinentalverschiebung, das Untertauchen des Meeresbodens und die Bildung von Gebirgszügen haben im Zeitrahmen der Evolutionsgeschichte natürliche Barrieren zwischen Arten geschaffen, wo es zu früheren Zeiten keine gab. Croizat Theorie war der anspruchsvolle Höhepunkt einer theoretischen Tradition, die bis in die späten 17 gestreckt zurück th Jahrhundert. Anhänger dieser sogenannten „Extensionisten“-Tradition hatten die Existenz antiker Landbrücken postuliert, um Anomalien in der geografischen Verteilung von Pflanzen und Tieren zu erklären.[14]
Extensionistische Theorien sind eindeutig weniger ontologisch sparsam als Dispersionstheorien, da erstere zusätzlichen Entitäten wie Landbrücken oder beweglichen tektonischen Platten verpflichtet sind. Darüber hinaus waren die Theorien der Extensionisten (angesichts der damals verfügbaren Beweise) in anderer Hinsicht nicht offensichtlich überlegen. Darwin war ein früher Kritiker der Theorien der Extensionisten und argumentierte, dass sie über die „legitimen Schlussfolgerungen der Wissenschaft“hinausgingen. Ein anderer Kritiker der Extensionist-Theorien wies auf ihre "Abhängigkeit von Ad-hoc-Hypothesen wie Landbrücken und Kontinentalerweiterungen in großem Umfang hin, um jeder neuen Verteilungsanomalie zu begegnen" (Fichman 1977, S. 62). Die Debatte über die sparsameren Dispersionstheorien konzentrierte sich darüber, ob der Ausbreitungsmechanismus allein ausreicht, um die bekannten Tatsachen über die Artenverteilung zu erklären,ohne zusätzliche geografische oder tektonische Einheiten zu postulieren.
Die Kritik an den Extensionist- und Dispersal-Theorien folgt einem Muster, das für Situationen charakteristisch ist, in denen eine Theorie ontologisch sparsamer ist als ihre Rivalen. In solchen Situationen ist die Debatte typischerweise vorbei, ob die zusätzliche Ontologie wirklich notwendig ist, um die beobachteten Phänomene zu erklären. Die weniger sparsamen Theorien werden wegen Verschwendung und mangelnder direkter Beweisunterstützung verurteilt. Die sparsameren Theorien werden für ihre Unzulänglichkeit verurteilt, die beobachteten Tatsachen zu erklären. Dies zeigt ein wiederkehrendes Thema in Diskussionen über Einfachheit - sowohl innerhalb als auch außerhalb der Philosophie -, nämlich wie das richtige Gleichgewicht zwischen Einfachheit und Anpassungsgüte gefunden werden sollte. Dieses Thema steht im Mittelpunkt der in Abschnitt 5 diskutierten statistischen Ansätze zur Einfachheit.
Es wurde weniger daran gearbeitet, Episoden in der Wissenschaft zu beschreiben, in denen Eleganz - im Gegensatz zu Sparsamkeit - der entscheidende Faktor war (oder gewesen sein könnte). Dies mag nur die Tatsache widerspiegeln, dass Überlegungen im Zusammenhang mit Eleganz bei der Wahl der wissenschaftlichen Theorie so weit verbreitet sind, dass sie als Thema für spezielle Studien unauffällig sind. Eine bemerkenswerte Ausnahme von dieser allgemeinen Vernachlässigung ist der Bereich der Himmelsmechanik, in dem der Übergang von Ptolemäus zu Kopernikus zu Kepler zu Newton ein häufig genanntes Beispiel für Überlegungen zur Einfachheit in Aktion ist und eine Fallstudie, die aus der Sicht viel sinnvoller ist Linse der Eleganz statt der Sparsamkeit. [fünfzehn]
Der Naturalismus hängt von einer Reihe von Voraussetzungen ab, die zur Debatte stehen. Aber selbst wenn diese Voraussetzungen erfüllt sind, steht das naturalistische Projekt, in der Wissenschaft nach methodischer Anleitung innerhalb der Philosophie zu suchen, vor einer großen Schwierigkeit, nämlich aus der tatsächlichen wissenschaftlichen Praxis abzulesen, was die zugrunde liegenden methodischen Prinzipien sein sollen. Burgess argumentiert beispielsweise, dass das, was die Muster des wissenschaftlichen Verhaltens zeigen, nicht die Multiplikation von Entitäten an sich betrifft, sondern insbesondere die Multiplikation von „Kausalmechanismen“(Burgess 1998). Und Sober betrachtet die Debatte in der Psychologie über psychologischen Egoismus gegenüber motivationalem Pluralismus und argumentiert, dass die frühere Theorie weniger Arten von ultimativem Verlangen postuliert, aber eine größere Anzahl von kausalen Überzeugungen.und daher hängt der Vergleich der Sparsamkeit dieser beiden Theorien davon ab, was und wie gezählt wird (Sober 2001, S. 14–5). Einige der in den Abschnitten 1 und 2 angesprochenen Bedenken tauchen auch in diesem Zusammenhang wieder auf. Zum Beispiel beeinflusst die Art und Weise, wie die Welt in Arten zerlegt wird, das Ausmaß, in dem eine gegebene Theorie Arten von Entitäten „multipliziert“. Die Rechtfertigung einer bestimmten Art des Schneidens wird schwieriger, wenn der erkenntnistheoretische Naturforscher die a priori metaphysischen Voraussetzungen des rationalistischen Ansatzes hinter sich lässt. Die Rechtfertigung einer bestimmten Art des Schneidens wird schwieriger, wenn der erkenntnistheoretische Naturforscher die a priori metaphysischen Voraussetzungen des rationalistischen Ansatzes hinter sich lässt. Die Rechtfertigung einer bestimmten Art des Schneidens wird schwieriger, wenn der erkenntnistheoretische Naturforscher die a priori metaphysischen Voraussetzungen des rationalistischen Ansatzes hinter sich lässt.
Eine philosophische Debatte, in der diese Sorgen um den Naturalismus besonders akut werden, ist die Frage der Anwendung von Sparsamkeitsprinzipien auf abstrakte Objekte. Die wissenschaftlichen Daten sind in einem wichtigen Sinne nicht eindeutig. Anwendungen von Occams Rasiermesser in der Wissenschaft sind immer konkrete, kausal wirksame Einheiten, ob Landbrücken, Einhörner oder der leuchtende Äther. Vielleicht wenden Wissenschaftler eine uneingeschränkte Version von Occams Rasiermesser auf den Teil der Realität an, an dem sie interessiert sind, nämlich die konkrete, kausale, raumzeitliche Welt. Oder vielleicht wenden Wissenschaftler eine "konkretisierte" Version von Occams Rasiermesser uneingeschränkt an. Welches ist der Fall? Die Antwort bestimmt, mit welchem allgemeinen philosophischen Prinzip wir enden: Sollten wir die Vermehrung von Objekten jeglicher Art vermeiden,oder nur die Multiplikation konkreter Objekte? Die Unterscheidung hier ist entscheidend für eine Reihe zentraler philosophischer Debatten. Das uneingeschränkte Occam-Rasiermesser bevorzugt Monismus gegenüber Dualismus und Nominalismus gegenüber Platonismus. Im Gegensatz dazu hat "konkretisiertes" Occam's Razor keinen Einfluss auf diese Debatten, da die zusätzlichen Einheiten jeweils nicht konkret sind.
5. Probabilistische / statistische Begründungen der Einfachheit
Die beiden in den Abschnitten 3 und 4 diskutierten Ansätze - a priori Rationalismus und naturalisierter Empirismus - sind beide in gewissem Sinne extrem. Es wird davon ausgegangen, dass Einfachheitsprinzipien entweder keine empirische oder nur eine empirische Grundlage haben. Vielleicht ergeben beide Ansätze daher vage Antworten auf bestimmte Schlüsselfragen zur Einfachheit. Insbesondere scheint keiner von beiden in der Lage zu sein, zu beantworten, wie genau Einfachheit gegen empirische Angemessenheit abgewogen werden sollte. Einfache, aber äußerst ungenaue Theorien sind nicht schwer zu entwickeln. Es gibt auch keine genauen Theorien, die sehr komplex sind. Aber wie viel Genauigkeit sollte für einen Gewinn an Einfachheit geopfert werden? Die Schwarz-Weiß-Grenzen der Kluft zwischen Rationalismus und Empirismus bieten möglicherweise keine geeigneten Werkzeuge zur Analyse dieser Frage. In Beantwortung,Philosophen haben sich kürzlich dem mathematischen Rahmen der Wahrscheinlichkeitstheorie und -statistik zugewandt, in der Hoffnung, die Sensibilität für die tatsächliche Praxis mit der „trans-empirischen“Stärke der Mathematik zu verbinden.
Philosophisch einflussreiche frühe Arbeiten in dieser Richtung wurden von Jeffreys und Popper durchgeführt, die beide versuchten, die Einfachheit in probabilistischen Begriffen zu analysieren. Jeffreys argumentierte, dass "die einfacheren Gesetze die größere vorherige Wahrscheinlichkeit haben" und lieferte ein operatives Maß für die Einfachheit, nach dem die vorherige Wahrscheinlichkeit eines Gesetzes 2 - k beträgt, wobei k = Ordnung + Grad + absolute Werte der Koeffizienten, wenn das Gesetz als Differentialgleichung ausgedrückt wird (Jeffreys 1961, S. 47). Eine Verallgemeinerung von Jeffreys Ansatz besteht darin, nicht bestimmte Gleichungen, sondern Gleichungsfamilien zu betrachten. Zum Beispiel könnte man die Familie LIN linearer Gleichungen (der Form y = a + bx) mit der Familie PAR parabolischer Gleichungen (der Form y = a + bx + cx 2) vergleichen). Da PAR von höherem Grad als LIN ist, weist Jeffreys Vorschlag LIN eine höhere Wahrscheinlichkeit zu. Gesetze dieser Form sind intuitiv einfacher (im Sinne von eleganter).
Popper (1959) weist darauf hin, dass Jeffreys 'Vorschlag in seiner jetzigen Form den Axiomen der Wahrscheinlichkeit widerspricht. Jedes Mitglied von LIN ist auch ein Mitglied von PAR, wobei der Koeffizient c auf 0 gesetzt ist. Daher bedeutet "Gesetz L ist ein Mitglied von LIN" "Gesetz L ist ein Mitglied von PAR". Jeffreys 'Ansatz weist dem ersteren eine höhere Wahrscheinlichkeit zu als dem letzteren. Aus den Axiomen der Wahrscheinlichkeit folgt jedoch, dass wenn A B beinhaltet, die Wahrscheinlichkeit von B größer oder gleich der Wahrscheinlichkeit von A ist. Popper argumentiert im Gegensatz zu Jeffreys, dass LIN eine geringere vorherige Wahrscheinlichkeit als PAR hat. Daher ist LIN im Sinne von Popper fälschbarer und sollte daher als Standardhypothese bevorzugt werden. Eine Antwort auf Poppers Einwand besteht darin, Jeffreys Vorschlag zu ändern und die Mitglieder von PAR auf Gleichungen zu beschränken, bei denen c ≠ 0 ist.
Neuere Arbeiten zum Thema Einfachheit haben Werkzeuge sowohl aus der Statistik als auch aus der Wahrscheinlichkeitstheorie entlehnt. Es ist anzumerken, dass in der Literatur zu diesem Thema die Begriffe "Einfachheit" und "Sparsamkeit" mehr oder weniger austauschbar verwendet werden (siehe Sober 2003). Unabhängig davon, welcher Begriff bevorzugt wird, besteht unter den in diesem Bereich Beschäftigten allgemeine Übereinstimmung darüber, dass die Einfachheit in Bezug auf die Anzahl der freien (oder "einstellbaren") Parameter konkurrierender Hypothesen ausgezahlt werden soll. Der Fokus liegt hier also ganz auf der Ebene der Theorie. Zu den Philosophen, die wichtige Beiträge zu diesem Ansatz geleistet haben, gehören Forster und Sober (1994) und Lange (1995).
Der Standardfall in der statistischen Literatur zur Sparsamkeit betrifft die Kurvenanpassung. [16]Wir stellen uns eine Situation vor, in der wir eine Reihe diskreter Datenpunkte haben und nach der Kurve (dh Funktion) suchen, die sie erzeugt hat. Die Frage, zu welcher Kurvenfamilie die Antwort gehört (z. B. in LIN oder in PAR), wird häufig als Modellauswahl bezeichnet. Die Grundidee ist, dass es zwei konkurrierende Kriterien für die Modellauswahl gibt - Sparsamkeit und Anpassungsgüte. Die Möglichkeit von Messfehlern und "Rauschen" in den Daten bedeutet, dass die richtige Kurve möglicherweise nicht jeden Datenpunkt durchläuft. Wenn die Anpassungsgüte das einzige Kriterium wäre, besteht die Gefahr, dass das Modell an zufällige Abweichungen angepasst wird, die für die breitere Regelmäßigkeit nicht repräsentativ sind. Sparsamkeit wirkt als Gegengewicht zu einer solchen Überanpassung, da eine Kurve, die durch jeden Datenpunkt verläuft, wahrscheinlich sehr verschlungen ist und daher viele angepasste Parameter aufweist.
Wenn Befürworter des statistischen Ansatzes im Allgemeinen der Meinung sind, dass die Einfachheit in Bezug auf die Anzahl der Parameter ausgezahlt werden sollte, besteht weniger Einigkeit darüber, was das Ziel der Einfachheitsprinzipien sein sollte. Dies liegt zum Teil daran, dass das Ziel oft nicht explizit angegeben wird. (Ein analoges Problem ergibt sich im Fall von Occams Rasiermesser. "Entitäten dürfen nicht über die Notwendigkeit hinaus multipliziert werden." Aber die Notwendigkeit für was genau?) Forster unterscheidet zwei mögliche Ziele der Modellauswahl, nämlich die wahrscheinliche Wahrheit und die Vorhersagegenauigkeit, und behauptet dies diese sind sehr unterschiedlich (Forster 2001, S. 95). Forster argumentiert, dass die Vorhersagegenauigkeit das ist, was Wissenschaftler am meisten interessieren. Sie kümmern sich weniger um die Wahrscheinlichkeit, dass eine Hypothese genau richtig ist, als darum, dass sie ein hohes Maß an Genauigkeit aufweist.
Ein Grund für die Untersuchung statistischer Ansätze zur Einfachheit ist die Unzufriedenheit mit den Launen der a priori und naturalistischen Ansätze. Statistiker haben eine Reihe numerisch spezifischer Vorschläge für den Kompromiss zwischen Einfachheit und Anpassungsgüte vorgelegt. Diese alternativen Vorschläge sind sich jedoch nicht einig über die mit komplexeren Hypothesen verbundenen „Kosten“. Zwei führende Konkurrenten in der neueren Literatur zur Modellauswahl sind das Akaike Information Criterion [AIC] und das Bayesian Information Criterion [BIC]. AIC weist Theoretiker an, das Modell mit dem höchsten Wert von {log L (Θ k) / n} - k / n zu wählen, wobei Θ kist das am besten passende Element der Klasse von Kurven mit dem Polynomgrad k, log L ist die log-Wahrscheinlichkeit und n ist die Stichprobengröße. Im Gegensatz dazu maximiert BIC den Wert von {log L (Θ k) / n} - k log [n] / 2 n. Tatsächlich gibt BIC der Einfachheit eine zusätzliche positive Gewichtung durch einen Faktor von log [n] / 2 (wobei n die Größe der Probe ist). [17]
Extreme Antworten auf das Kompromissproblem scheinen offensichtlich unzureichend zu sein. Die Auswahl des Modells mit der besten Anpassung an die Daten, unabhängig von seiner Komplexität, birgt die Aussicht (bereits erwähnt), Fehler und Rauschen in den Daten zu überanpassen. Wenn Sie immer das einfachste Modell auswählen, unabhängig von seiner Anpassung an die Daten, ist das Modell frei von jeglichen Verknüpfungen mit Beobachtungen oder Experimenten. Forster assoziiert die Regel "Immer komplex" und "Immer einfach" mit Empirismus bzw. Rationalismus. [18]Alle Kandidatenregeln, die von Statistikern ernsthaft diskutiert werden, liegen zwischen diesen beiden Extremen. Sie unterscheiden sich jedoch in ihren Antworten darüber, wie viel Gewicht sie haben, um den Kompromiss zwischen der Passform und der Einfachheit zu vereinfachen. Neben AIC und BIC umfassen andere Regeln das Testen von Neyman-Pearson-Hypothesen und das Kriterium der minimalen Beschreibungslänge (MDL).
Es gibt mindestens drei mögliche Antworten auf die unterschiedlichen Antworten auf das Kompromissproblem, die durch unterschiedliche Kriterien bereitgestellt werden. Eine von Forster und Sober favorisierte Antwort lautet, dass es hier keinen echten Konflikt gibt, da die verschiedenen Kriterien unterschiedliche Ziele haben. Somit könnten sowohl AIC als auch BIC optimale Kriterien sein, wenn AIC darauf abzielt, die Vorhersagegenauigkeit zu maximieren, während BIC darauf abzielt, die wahrscheinliche Wahrheit zu maximieren. Ein weiterer Unterschied, der die Wahl des Kriteriums beeinflussen kann, besteht darin, ob das Ziel des Modells darin besteht, über bestimmte Daten hinaus zu extrapolieren oder zwischen bekannten Datenpunkten zu interpolieren. Eine zweite Antwort, die normalerweise von Statistikern bevorzugt wird,ist zu argumentieren, dass der Konflikt echt ist, aber das Potenzial hat, gelöst zu werden, indem analysiert wird (sowohl mit mathematischen als auch mit empirischen Methoden), welches Kriterium in der breitesten Klasse möglicher Situationen am besten abschneidet. Eine dritte, pessimistischere Antwort besteht darin, zu argumentieren, dass der Konflikt echt, aber unlösbar ist. Kuhn (1977) vertritt diese Auffassung und behauptet, dass das Gewicht, das einzelne Wissenschaftler einer bestimmten theoretischen Tugend wie der Einfachheit beimessen, nur Geschmackssache ist und nicht für eine rationale Lösung offen ist. McAllister (2007) zieht die ontologische Moral aus einer ähnlichen Schlussfolgerung und argumentiert, dass Datensätze typischerweise mehrere Muster aufweisen und dass unterschiedliche Muster durch unterschiedliche quantitative Techniken hervorgehoben werden können. Kuhn (1977) vertritt diese Auffassung und behauptet, dass das Gewicht, das einzelne Wissenschaftler einer bestimmten theoretischen Tugend wie der Einfachheit beimessen, nur Geschmackssache ist und nicht für eine rationale Lösung offen ist. McAllister (2007) zieht die ontologische Moral aus einer ähnlichen Schlussfolgerung und argumentiert, dass Datensätze typischerweise mehrere Muster aufweisen und dass unterschiedliche Muster durch unterschiedliche quantitative Techniken hervorgehoben werden können. Kuhn (1977) vertritt diese Auffassung und behauptet, dass das Gewicht, das einzelne Wissenschaftler einer bestimmten theoretischen Tugend wie der Einfachheit beimessen, nur Geschmackssache ist und nicht für eine rationale Lösung offen ist. McAllister (2007) zieht die ontologische Moral aus einer ähnlichen Schlussfolgerung und argumentiert, dass Datensätze typischerweise mehrere Muster aufweisen und dass unterschiedliche Muster durch unterschiedliche quantitative Techniken hervorgehoben werden können.
Abgesehen von dieser Frage widersprüchlicher Kriterien gibt es andere Probleme mit dem statistischen Ansatz zur Einfachheit. Ein Problem, das jeden Ansatz betrifft, der den Eleganzaspekt der Einfachheit betont, ist die Sprachrelativität. Grob gesagt können Hypothesen, die in einer Sprache syntaktisch sehr komplex sind, in einer anderen Sprache syntaktisch sehr einfach sein. Die traditionelle philosophische Illustration dieses Problems ist Goodmans "große" Herausforderung für die Induktion. Sind statistische Ansätze zur Messung der Einfachheit ähnlich sprachbezogen, und wenn ja, was rechtfertigt die Wahl einer Sprache gegenüber einer anderen? Es stellt sich heraus, dass der statistische Ansatz über die Ressourcen verfügt, um die Ladung der Sprachrelativität zumindest teilweise abzulenken. Ausleihtechniken aus der Informationstheorie,Es kann gezeigt werden, dass bestimmte syntaktische Maßstäbe der Einfachheit asymptotisch unabhängig von der Wahl der Messsprache sind.[19]
Ein zweites Problem für den statistischen Ansatz besteht darin, ob er nicht nur unsere Präferenz für kleine Zahlen gegenüber großen Zahlen (wenn es darum geht, Werte für Koeffizienten oder Exponenten in Modellgleichungen auszuwählen), sondern auch unsere Präferenz für ganze Zahlen und einfache Brüche gegenüber erklären kann andere Werte. In Gregor Mendels ursprünglichen Experimenten zur Hybridisierung von Gartenerbsen kreuzte er Erbsensorten mit verschiedenen spezifischen Merkmalen, wie z. B. große gegen kurze oder grüne Samen gegen gelbe Samen, und bestäubte die Hybriden dann für eine oder mehrere Generationen selbst. [20]In allen Hybriden der ersten Generation war jeweils ein Merkmal vorhanden, aber beide Merkmale waren in nachfolgenden Generationen vorhanden. Während seiner Experimente mit sieben verschiedenen solchen Merkmalen betrug das Verhältnis von dominantem Merkmal zu rezessivem Merkmal durchschnittlich 2,98: 1. Auf dieser Grundlage stellte Mendel die Hypothese auf, dass das wahre Verhältnis 3: 1 beträgt. Diese "Rundung" wurde vor der Formulierung einer Erklärung vorgenommen Modell, daher kann es nicht durch eine theoretische Überlegung angetrieben worden sein. Dies wirft zwei verwandte Fragen auf. Erstens: Inwiefern ist die 3: 1-Verhältnishypothese einfacher als die 2,98: 1-Verhältnishypothese? Zweitens kann diese Wahl im Rahmen des statistischen Ansatzes zur Einfachheit gerechtfertigt werden? Die allgemeinere Sorge hinter diesen Fragen ist, ob der statistische Ansatz bei der Definition der Einfachheit in Bezug auf die Anzahl der einstellbaren Parameterersetzt das breite Problem der Einfachheit durch ein engeres und möglicherweise willkürlich definiertes Problem.
Ein drittes Problem des statistischen Ansatzes besteht darin, ob er das spezifische Problem der ontologischen Sparsamkeit beleuchten kann. Auf den ersten Blick könnte man denken, dass die Postulierung zusätzlicher Entitäten aus probabilistischen Gründen angegriffen werden kann. Zum Beispiel ist die Quantenmechanik zusammen mit der Postulation "Es gibt Einhörner" weniger wahrscheinlich als die Quantenmechanik allein, da die erstere logischerweise die letztere beinhaltet. Wie Sober jedoch betont hat, ist es hier wichtig, zwischen dem Rasiermesser des agnostischen Occam und dem Rasiermesser des atheistischen Occam zu unterscheiden. Atheistischer OP weist Theoretiker an, zu behaupten, dass es keine Einhörner gibt, wenn keine zwingenden Beweise für sie vorliegen. Und es gibt keine logische Beziehung zwischen {QM + es gibt Einhörner} und {QM + es gibt keine Einhörner}. Dies verweist auch auf das terminologische Problem. Modelle mit kreisförmigen Bahnen sind sparsamer - im Sinne der Statistiker als "sparsam" - als Modelle mit elliptischen Bahnen, aber die letzteren Modelle postulieren nicht die Existenz weiterer Dinge auf der Welt.
6. Weitere Probleme im Zusammenhang mit der Einfachheit
In diesem Abschnitt werden drei unterschiedliche Probleme in Bezug auf die Einfachheit und ihre Beziehung zu anderen methodischen Fragen behandelt. Diese Themen betreffen quantitative Sparsamkeit, Fülle und Induktion.
6.1 Quantitative Sparsamkeit
Theoretiker neigen dazu, neue Entitäten sparsam zu postulieren. Wenn eine Spur in einer Wolkenkammer beobachtet wird, können Physiker versuchen, sie durch den Einfluss eines bisher nicht beobachteten Teilchens zu erklären. Aber wenn möglich, werden sie ein solches unbeobachtetes Teilchen postulieren, nicht zwei, zwanzig oder 207 von ihnen. Dieser Wunsch, die Anzahl der postulierten einzelnen neuen Einheiten zu minimieren, wird häufig als quantitative Sparsamkeit bezeichnet. David Lewis artikuliert die Haltung vieler Philosophen, wenn er schreibt:
Ich schließe mich der allgemeinen Ansicht an, dass qualitative Sparsamkeit in einer philosophischen oder empirischen Hypothese gut ist; aber ich erkenne keinerlei Vermutung zugunsten quantitativer Sparsamkeit an (Lewis 1973, S. 87).
Ist die anfängliche Annahme, dass ein Partikel die beobachtete Spur verursacht, rationaler als die Annahme, dass 207 Partikel so wirken? Oder ist es nur das Produkt von Wunschdenken, ästhetischer Voreingenommenheit oder einem anderen nicht rationalen Einfluss?
Nolan (1997) untersucht diese Fragen im Zusammenhang mit der Entdeckung des Neutrinos. [21] Die Physiker in den 1930er Jahren waren verwirrt über bestimmte Anomalien, die sich aus Experimenten ergaben, bei denen radioaktive Atome während des sogenannten Beta-Zerfalls Elektronen emittieren. In diesen Experimenten übersteigt die Gesamtspin des Partikels in dem System vor dem Zerfall von 1 / 2 den Gesamtspin des (beobachtet) emittierten Teilchen. Physiker Antwort war eine postulieren ‚neuen‘ Elementarteilchen, die neutrino, mit Spin 1 / 2 und zu der Hypothese, dass genau ein neutrino von jedem Elektron beim Betazerfall emittiert wird.
Beachten Sie, dass es eine Vielzahl sehr ähnlicher Neutrino-Theorien gibt, die auch den fehlenden Spin erklären können.
H 1: 1 neutrino mit einem Spin von 1 / 2 wird in jedem Fall von Beta Zerfall emittiert.
H 2: 2 - Neutrinos, die jeweils mit einem Spin von 1 / 4 werden jeweils von Beta Zerfall emittiert.
und allgemeiner für jede positive ganze Zahl n,
H n: n Neutrinos, die jeweils mit einem Spin von 1 / 2 n jeweils des Beta - Zerfall emittiert werden.
Jede dieser Hypothesen erklärt die Beobachtung eines fehlenden 1 / 2- Spins nach dem Beta-Zerfall angemessen. Die quantitativ sparsamste Hypothese, H 1, ist jedoch die offensichtliche Standardwahl. [22]
Ein vielversprechender Ansatz besteht darin, sich auf die relative Erklärungskraft der alternativen Hypothesen H 1, H 2,… H n zu konzentrieren. Als in den 1930er Jahren erstmals Neutrinos postuliert wurden, wurden zahlreiche Versuchsanordnungen entwickelt, um die Produkte verschiedener Arten des Partikelzerfalls zu untersuchen. In keinem dieser Experimente wurden Fälle von "fehlendem" 1 / 3- Spin oder 1 / 4- Spin oder 1 / 100- Spin gefunden. Das Fehlen dieser kleineren fraktionierten Spins war ein Phänomen, das möglicherweise durch konkurrierende Neutrino-Hypothesen erklärt werden könnte.
Betrachten Sie die folgenden zwei konkurrierenden Neutrino-Hypothesen:
H 1: 1 neutrino mit einem Spin von 1 / 2 wird in jedem Fall von Beta Zerfall emittiert.
H 10: 10 Neutrinos, die jeweils mit einem Spin von 1 / 20, sind jeweils von Beta Zerfall emittiert.
Warum hat keinen Versuchsaufbau ergibt einen ‚fehlenden‘ Spin-Wert von 1 / 20 ? H 1 ermöglicht eine bessere Antwort auf diese Frage als H 10 den Fall ist, für H 1 steht im Einklang mit einer einfachen und parsimonious Erklärung, nämlich, dass es existiert keine Teilchen mit Spin 1 / 20 (oder weniger). Im Falle von H 10, wird diese mögliche Erklärung ausgeschlossen, weil H 10 explizit Teilchen mit Spin Postulate 1 / 20. Natürlich H 10 steht im Einklang mit anderen Hypothesen, die das Nichtauftretens von fehlendem erklären 1 / 20-rotieren. Zum Beispiel könnte man mit H 10 das Gesetz verbinden, dass Neutrinos immer in Zehnergruppen emittiert werden. Dies würde jedoch die allgemeine Erklärung weniger syntaktisch einfach und daher in anderer Hinsicht weniger tugendhaft machen. In diesem Fall bringt quantitative Sparsamkeit eine größere Erklärungskraft. Weniger quantitativ sparsame Hypothesen können dieser Aussage nur durch Hinzufügen von Hilfsansprüchen entsprechen, die ihre syntaktische Einfachheit verringern. Die Präferenz für quantitativ sparsame Hypothesen ergibt sich somit als eine Facette einer allgemeineren Präferenz für Hypothesen mit größerer Erklärungskraft.
Eine Besonderheit des Neutrino-Beispiels ist, dass es "additiv" ist. Dabei wird die Existenz einer Sammlung qualitativ identischer Objekte postuliert, die das beobachtete Phänomen gemeinsam erklären. Die Erklärung ist insofern additiv, als das Gesamtphänomen durch Summieren der einzelnen positiven Beiträge jedes Objekts erklärt wird. [23]Ob der obige Ansatz auf nichtadditive Fälle mit quantitativer Sparsamkeit ausgedehnt werden kann, ist eine interessante Frage. Jansson und Tallant (in Kürze) argumentieren, dass dies möglich ist, und bieten eine probabilistische Analyse an, die darauf abzielt, eine Vielzahl verschiedener Fälle zusammenzuführen, in denen quantitative Sparsamkeit bei der Auswahl von Hypothesen eine Rolle spielt. Stellen Sie sich einen Fall vor, in dem die Aberrationen der Umlaufbahn eines Planeten durch das Postulieren eines einzelnen nicht beobachteten Planeten oder durch das Postulieren von zwei oder mehr nicht beobachteten Planeten erklärt werden können. Damit die letztere Situation tatsächlich eintritt, müssen die mehreren Planeten auf bestimmte eingeschränkte Weise umkreisen, um den Auswirkungen eines einzelnen Planeten zu entsprechen. Auf den ersten Blick ist dies unwahrscheinlich, und dies spricht gegen die weniger quantitativ sparsame Hypothese.
6.2 Prinzipien der Fülle
Gegenüber den in den vorhergehenden Abschnitten erörterten Prinzipien der Sparsamkeit steht eine ebenso fest verwurzelte (wenn auch weniger bekannte) Tradition dessen, was man als „Prinzipien der Erklärungsgenügsamkeit“bezeichnen könnte. [24] Diese Prinzipien haben ihren Ursprung in denselben mittelalterlichen Kontroversen, die Occams Rasiermesser hervorgebracht haben. Ockhams Zeitgenosse Walter von Chatton schlug Occams Rasiermesser das folgende Gegenprinzip vor:
[I] Wenn drei Dinge nicht ausreichen, um einen positiven Satz über Dinge zu verifizieren, muss ein vierter hinzugefügt werden und so weiter (zitiert in Maurer 1984, S. 464).
Ein verwandtes Gegenprinzip wurde später von Kant verteidigt:
Die Vielfalt der Entitäten sollte nicht vorschnell verringert werden (Kant 1781/1787, S. 541).
Entium varietates non temere esse minuendas.
Es gibt keine Inkonsistenz in der Koexistenz dieser beiden Familien von Prinzipien, da sie nicht in direktem Konflikt miteinander stehen. Überlegungen zur Sparsamkeit und zur erklärenden Genügsamkeit wirken als gegenseitiges Gegengewicht und bestrafen Theorien, die zu erklärender Unzulänglichkeit oder ontologischem Übermaß führen. [25] Was wir hier sehen, ist ein historisches Echo der gegenwärtigen Debatte unter Statistikern über den richtigen Kompromiss zwischen Einfachheit und Anpassungsgüte.
Es gibt jedoch eine zweite Familie von Prinzipien, die direkt mit Occams Rasiermesser in Konflikt zu stehen scheinen. Dies sind sogenannte "Prinzipien der Fülle". Die vielleicht bekannteste Version ist mit Leibniz verbunden, nach dem Gott die beste aller möglichen Welten mit der größtmöglichen Anzahl möglicher Wesenheiten geschaffen hat. Allgemeiner behauptet ein Prinzip der Fülle, dass, wenn es möglich ist, dass ein Objekt existiert, dieses Objekt tatsächlich existiert. Prinzipien der Fülle stehen im Widerspruch zu Occams Rasiermesser über die Existenz physikalisch möglicher, aber erklärend untätiger Objekte. Unsere besten aktuellen Theorien schließen vermutlich die Existenz von Einhörnern nicht aus, unterstützen sie aber auch nicht. Nach Occams Rasiermesser sollten wir die Existenz von Einhörnern nicht postulieren. Nach einem Prinzip der Fülle sollten wir ihre Existenz postulieren.
Der Anstieg der Teilchenphysik und Quantenmechanik in den 20 - ten Jahrhundert verschiedene Prinzipien der Fülle Wesen geführt appellierte an dem von Wissenschaftlern als integralen Teil ihres theoretischen Rahmen. Ein besonders klares Beispiel für eine solche Anziehungskraft sind magnetische Monopole. [26] Der 19 ..Die Jahrhunderttheorie des Elektromagnetismus postulierte zahlreiche Analogien zwischen elektrischer und magnetischer Ladung. Ein theoretischer Unterschied besteht darin, dass magnetische Ladungen immer in entgegengesetzt geladenen Paaren auftreten müssen, die als "Dipole" bezeichnet werden (wie im Nord- und Südpol eines Stabmagneten), während einzelne elektrische Ladungen oder "Monopole" isoliert existieren können. Es wurde jedoch nie ein tatsächlicher magnetischer Monopol beobachtet. Die Physiker fragten sich, ob es einen theoretischen Grund gab, warum Monopole nicht existieren konnten. Es wurde zunächst angenommen, dass die neu entwickelte Theorie der Quantenmechanik die Möglichkeit magnetischer Monopole ausschließt, weshalb keine jemals entdeckt wurde. 1931 zeigte der Physiker Paul Dirac jedoch, dass die Existenz von Monopolen mit der Quantenmechanik übereinstimmt, obwohl dies von ihr nicht verlangt wird. Dirac behauptete weiter die Existenz von Monopolen und argumentierte, dass ihre Existenz theoretisch nicht ausgeschlossen sei und dass „unter diesen Umständen man sich wundern würde, wenn die Natur davon keinen Gebrauch gemacht hätte“(Dirac 1930, S. 71, Anmerkung 5).. Dieser Appell an die Fülle wurde von anderen Physikern weithin akzeptiert, wenn auch nicht allgemein akzeptiert.
Eine der elementaren Regeln der Natur ist, dass sie mangels Gesetzen, die ein Ereignis oder Phänomen verbieten, mit einer gewissen Wahrscheinlichkeit auftreten muss. Einfach und grob ausgedrückt: Alles, was passieren kann, passiert. Daher müssen Physiker davon ausgehen, dass der magnetische Monopol existiert, es sei denn, sie finden ein Gesetz, das seine Existenz verbietet (Ford 1963, S. 122).
Andere waren von Diracs Argumentation weniger beeindruckt:
Diracs … Argumentationslinie, wenn die Existenz von magnetischen Monopolen conjecturing, unterscheidet sich nicht von 18 - ten Jahrhundert stammende Argumente für Nixen … [A] s der Begriff der Nixen war weder in sich widersprüchlich noch kollidieren mit aktuellen biologischen Gesetzen, waren diese Kreaturen angenommen zu existieren. [27]
Es ist schwierig zu wissen, wie man diese Prinzipien der Fülle interpretiert. Die Quantenmechanik weicht von der klassischen Physik ab, indem sie ein deterministisches Modell des Universums durch ein Modell ersetzt, das auf objektiven Wahrscheinlichkeiten basiert. Nach diesem Wahrscheinlichkeitsmodell gibt es zahlreiche Möglichkeiten, wie sich das Universum aus seinem Ausgangszustand entwickelt haben könnte, wobei jede mit einer bestimmten Wahrscheinlichkeit des Auftretens durch die Naturgesetze festgelegt ist. Betrachten Sie eine Art Objekt, sagen Einhörner, dessen Existenz nicht durch die Anfangsbedingungen und die Naturgesetze ausgeschlossen ist. Dann kann man zwischen einer schwachen und einer starken Version des Prinzips der Fülle unterscheiden. Nach dem schwachen Prinzip existieren Einhörner, wenn eine geringe endliche Wahrscheinlichkeit besteht, dass Einhörner existieren, wenn genügend zeitliche und räumliche Einhörner vorhanden sind. Nach dem starken Prinzip,Aus der Theorie der Quantenmechanik folgt, dass Einhörner existieren, wenn sie existieren können. Ein Weg, wie dieses letztere Prinzip ausgezahlt werden kann, ist die Interpretation der Quantenmechanik in vielen Welten, wonach die Realität eine Verzweigungsstruktur hat, in der jedes mögliche Ergebnis realisiert wird.
6.3 Einfachheit und Induktion
Das Problem der Induktion ist eng mit dem Problem der Einfachheit verbunden. Ein offensichtlicher Zusammenhang besteht zwischen dem Kurvenanpassungsproblem und dem induktiven Problem der Vorhersage zukünftiger Ergebnisse aus beobachteten Daten. Weniger offensichtlich spricht sich Schulte (1999) für einen Zusammenhang zwischen Induktion und ontologischer Sparsamkeit aus. Schulte formuliert das Problem der Induktion in informationstheoretischen Begriffen: gegeben a>

Wie man diesen Eintrag zitiert.

Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.

Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.

Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.
Andere Internetquellen
[Bitte kontaktieren Sie den Autor mit Vorschlägen.]