Formale Lerntheorie

Inhaltsverzeichnis:

Formale Lerntheorie
Formale Lerntheorie

Video: Formale Lerntheorie

Video: Formale Lerntheorie
Video: Lerntheorien - Vom Behaviorismus bis zum Konnektivismus 2023, Dezember
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Formale Lerntheorie

Erstveröffentlichung am 2. Februar 2002; inhaltliche Überarbeitung Fr 17. Februar 2017

Die formale Lerntheorie ist die mathematische Verkörperung einer normativen Erkenntnistheorie. Es befasst sich mit der Frage, wie eine Agentin Beobachtungen über ihre Umgebung verwenden sollte, um zu korrekten und informativen Schlussfolgerungen zu gelangen. Philosophen wie Putnam, Glymour und Kelly haben die Lerntheorie als normativen Rahmen für wissenschaftliches Denken und induktive Folgerung entwickelt.

Terminologie. In der Kognitionswissenschaft und verwandten Bereichen wird der Begriff „Lernen“normalerweise für den Prozess der Informationsgewinnung durch Beobachtung verwendet - daher der Name „Lerntheorie“. Für die meisten Kognitionswissenschaftler deutet der Begriff „Lerntheorie“auf eine empirische Untersuchung des menschlichen und tierischen Lernens hin, die sich aus dem Verhaltensparadigma in der Psychologie ergibt. Der Beiname „formal“unterscheidet das Thema dieses Eintrags von der Theorie des behaviouristischen Lernens. Philosophische Begriffe für die lerntheoretische Erkenntnistheorie umfassen „logische Zuverlässigkeit“(Kelly [1996], Glymour [1991]) und „Mittel-Zweck-Erkenntnistheorie“(Schulte [1999]).

Da viele Entwicklungen und Anwendungen der formalen Lerntheorie aus der Informatik stammen, ist der Begriff „rechnergestützte Lerntheorie“ebenfalls weit verbreitet. Viele Ergebnisse zur Lerntheorie in der Informatik befassen sich mit Valiants und Vapniks Vorstellung von Lernverallgemeinerungen, die wahrscheinlich ungefähr korrekt sind (PAC-Lernen) (Valiant [1984]). Dieser Begriff des empirischen Erfolgs wurde Philosophen von Gilbert Harmann in seinen Nicode-Vorlesungen vorgestellt und in einem nachfolgenden Buch [2007] erläutert. Valiant selbst liefert in einem kürzlich erschienenen Buch (Valiant [2013, Kap. 5]) einen leicht zugänglichen Bericht über das PAC-Lernen und seine Beziehung zum Problem der Induktion. Der vorliegende Artikel beschreibt eine nicht statistische Tradition der Lerntheorie, die sich aus der wegweisenden Arbeit von Hilary Putnam [1963] und Mark E. Gold [1967] ergibt.

Philosophische Eigenschaften. Im Gegensatz zu anderen philosophischen Ansätzen zur induktiven Inferenz zielt die Lerntheorie nicht darauf ab, eine universelle induktive Methode zu beschreiben oder allgemeine Axiome der induktiven Rationalität zu erklären. Die Lerntheorie verfolgt vielmehr eine kontextabhängige Mittel-Zweck-Analyse: Was ist für ein gegebenes empirisches Problem und eine Reihe kognitiver Ziele die beste Methode, um die Ziele zu erreichen? Der größte Teil der Lerntheorie untersucht, welche Untersuchungsstrategien zuverlässig und effizient zu korrekten Überzeugungen über die Welt führen.

Artikelübersicht. Im Vergleich zu traditionellen philosophischen Diskussionen über induktive Inferenz bietet die Lerntheorie eine radikal neue Denkweise über Induktion und wissenschaftliche Methode. Das Hauptziel dieses Artikels ist es, die Hauptkonzepte der Theorie anhand von Beispielen zu erläutern. Laufende Beispiele werden im gesamten Eintrag wiederholt. Gleichzeitig sollen die Abschnitte so unabhängig wie möglich voneinander sein. Wir verwenden die Beispiele, um einige Theoreme von philosophischem Interesse zu veranschaulichen und die wichtigsten philosophischen Ideen und Erkenntnisse hinter der Lerntheorie hervorzuheben.

Leser, die sich für die mathematische Substanz der Lerntheorie interessieren, finden einige Referenzen in der Bibliographie und eine Zusammenfassung der grundlegenden Definitionen im ergänzenden Dokument. Ein Text von Jain et al. sammelt viele der wichtigsten Definitionen und Theoreme [1999]. Neue Ergebnisse erscheinen in den Proceedings der jährlichen Konferenzen, wie den Konferenzen zur Lerntheorie (COLT) und der Algorithmischen Lerntheorie (ALT). Die philosophischen Fragen und die Motivation im Zusammenhang mit der lerntheoretischen Erkenntnistheorie werden in Werken von Philosophen wie Putnam, Glymour und Kelly ausführlich diskutiert (Putnam [1963], Glymour [1991], Glymour und Kelly [1992], Kelly [1996]).

  • 1. Konvergenz zur Wahrheit und nichts als die Wahrheit

    • 1.1 Einfache universelle Verallgemeinerung
    • 1.2 Das neue Rätsel der Induktion
    • 1.3 Diskussion
    • 1.4 Verallgemeinerungen mit Ausnahmen und Fälschung
  • 2. Fallstudien aus der wissenschaftlichen Praxis

    • 2.1 Erhaltungssätze in der Teilchenphysik
    • 2.2 Kausale Zusammenhänge
    • 2.3 Modelle der kognitiven Architektur
    • 2.4 Diskussion
  • 3. Die Grenzen der Untersuchung und die Komplexität empirischer Probleme
  • 4. Langfristig auf kurze Sicht: Zuverlässige und stabile Überzeugungen

    • 4.1 Beispiel: Das neue Rätsel der Induktion
    • 4.2 Weitere Beispiele
  • 5. Einfachheit, stabiler Glaube und Ockhams Rasiermesser

    • 5.1 Einfachheit definieren
    • 5.2 Beispiele
    • 5.3 Stabiler Glaube und Einfachheit: Ein Ockham-Theorem
  • 6. Andere Ansätze: Kategoriale vs. hypothetische Imperative
  • Ergänzungsdokument: Grundlegende formale Definitionen
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Konvergenz zur Wahrheit und nichts als die Wahrheit

Die lerntheoretische Analyse bewertet Dispositionen zur Glaubensbildung. In der Philosophie werden verschiedene Begriffe für Glaubenserwerbsprozesse gebräuchlich. Ich werde "induktive Strategie", "Inferenzmethode" und am häufigsten "induktive Methode" verwenden, um dasselbe zu bedeuten. Der beste Weg zu verstehen, wie die Lerntheorie induktive Methoden bewertet, besteht darin, einige Beispiele durchzuarbeiten. Die folgende Präsentation beginnt mit einigen sehr einfachen induktiven Problemen und geht zu komplizierteren und realistischeren Einstellungen über.

1.1 Einfache universelle Verallgemeinerung

Lassen Sie uns noch einmal die klassische Frage betrachten, ob alle Raben schwarz sind. Stellen Sie sich einen Ornithologen vor, der dieses Problem angeht, indem er einen Raben nach dem anderen untersucht. Es gibt genau eine Beobachtungssequenz, in der nur schwarze Raben gefunden werden; Alle anderen haben mindestens einen nichtschwarzen Raben. Die folgende Abbildung zeigt die möglichen Beobachtungssequenzen. Punkte in der Figur bezeichnen Punkte, an denen eine Beobachtung gemacht werden kann. Ein schwarzer Vogel links von einem Punkt zeigt an, dass in diesem Stadium ein schwarzer Rabe beobachtet wird. In ähnlicher Weise zeigt ein weißer Vogel rechts von einem Punkt an, dass ein nicht schwarzer Rabe beobachtet wird. Bei einer vollständigen Abfolge von Beobachtungen sind entweder alle beobachteten Raben schwarz oder nicht schwarz; Die Abbildung kennzeichnet vollständige Beobachtungssequenzen mit der für sie zutreffenden Aussage. Der graue Fächer zeigt an, dass nach der Beobachtung eines weißen RabenDie Behauptung, dass nicht alle Raben schwarz sind, gilt für alle Beobachtungssequenzen, die sich aus weiteren Beobachtungen ergeben.

Raben Daten
Raben Daten

Wenn die Welt so ist, dass nur schwarze Raben gefunden werden, möchten wir, dass sich der Ornithologe auf diese Verallgemeinerung einlässt. (Es mag möglich sein, dass einige nichtschwarze Raben für immer unsichtbar bleiben, aber selbst dann macht die Verallgemeinerung „Alle Raben sind schwarz“zumindest die Beobachtungen richtig.) Wenn die Welt so ist, dass irgendwann ein nichtschwarzer Rabe gefunden wird, dann würden wir wie der Ornithologe zu dem Schluss kommen, dass nicht alle Raben schwarz sind. Dies gibt eine Reihe von Untersuchungszielen an. Für jede gegebene induktive Methode, die die Neigung des Ornithologen darstellen könnte, Vermutungen im Lichte der Beweise anzunehmen, können wir fragen, ob diese Methode diesen Zielen entspricht oder nicht. Es gibt unendlich viele mögliche Methoden zu berücksichtigen; Wir werden uns nur zwei ansehen, eine skeptische und eine, die mutig verallgemeinert. Die kühne Methode vermutet, dass alle Raben schwarz sind, nachdem sie gesehen haben, dass der erste Rabe schwarz ist. Es bleibt bei dieser Vermutung, es sei denn, ein nicht schwarzer Rabe erscheint. Die skeptische Methode geht nicht über das hinaus, was die Beweise beinhalten. Wenn also ein nicht schwarzer Rabe gefunden wird, kommt die skeptische Methode zu dem Schluss, dass nicht alle Raben schwarz sind, aber ansonsten macht die Methode keine Vermutung auf die eine oder andere Weise. Die folgende Abbildung zeigt sowohl die fette als auch die skeptische Methode. Die folgende Abbildung zeigt sowohl die fette als auch die skeptische Methode. Die folgende Abbildung zeigt sowohl die fette als auch die skeptische Methode.

Raben
Raben

Erreichen diese Methoden die von uns festgelegten Ziele? Betrachten Sie die fettgedruckte Methode. Es gibt zwei Möglichkeiten: Entweder sind alle beobachteten Raben schwarz oder es wird ein nicht schwarzer Rabe gefunden. Im ersten Fall vermutet die Methode, dass alle Raben schwarz sind, und gibt diese Vermutung niemals auf. Im zweiten Fall kommt die Methode zu dem Schluss, dass nicht alle Raben schwarz sind, sobald der erste nichtschwarze Rabe gefunden wird. Unabhängig davon, wie die Beweise eingehen, gibt die Methode letztendlich die richtige Antwort darauf, ob alle Raben schwarz sind und bleibt bei dieser Antwort. Lerntheoretiker nennen solche Methoden zuverlässig, weil sie sich auf die richtige Antwort festlegen, unabhängig davon, welche Beobachtungen die Welt liefert.

Die skeptische Methode passt nicht so gut zusammen. Wenn ein nicht schwarzer Rabe erscheint, kommt die Methode zu dem richtigen Schluss, dass nicht alle Raben schwarz sind. Aber wenn alle Raben schwarz sind, macht der Skeptiker niemals einen „induktiven Sprung“, um diese Verallgemeinerung zu übernehmen. In diesem Fall kann der Skeptiker die Frage, ob alle Raben schwarz sind, nicht richtig beantworten.

Dies zeigt, wie die Mittel-Zweck-Analyse Methoden bewerten kann: Die kühne Methode erfüllt das Ziel, zuverlässig zur richtigen Antwort zu gelangen, die skeptische Methode dagegen nicht. Beachten Sie den Charakter dieses Arguments gegen den Skeptiker: Das Problem besteht aus dieser Sicht nicht darin, dass der Skeptiker gegen einen Rationalitätskanon verstößt oder die „Einheitlichkeit der Natur“nicht anerkennt. Die lerntheoretische Analyse räumt dem Skeptiker ein, dass der nächste weiß sein könnte, egal wie viele schwarze Raben in der Vergangenheit beobachtet wurden. Das Problem ist, dass wenn alle beobachteten Raben tatsächlich schwarz sind, der Skeptiker niemals die Frage beantwortet, ob alle Raben schwarz sind. Um die richtige Antwort auf diese Frage zu erhalten, müssen die Beweise verallgemeinert werden, auch wenn die Verallgemeinerung falsch sein könnte.

Bei der kühnen Methode ist es wichtig, klar zu machen, was sie bewirkt und was nicht. Die Methode wird sich irgendwann auf die richtige Antwort festlegen - aber es (oder wir) kann niemals sicher sein, dass dies der Fall ist. Wie William James es ausdrückte: "Keine Glocke läutet", wenn die Wissenschaft die richtige Antwort gefunden hat. Wir sind sicher, dass sich die Methode irgendwann auf die richtige Antwort festlegen wird. aber wir können nie sicher sein, dass die aktuelle Antwort die richtige ist. Dies ist ein subtiler Punkt; Das nächste Beispiel veranschaulicht es weiter.

1.2 Das neue Rätsel der Induktion

Nelson Goodman stellte ein berühmtes Rätsel um induktive Inferenz, das als (neues) Rätsel der Induktion bekannt ist ([Goodman 1983]). Unser nächstes Beispiel ist von seinem Rätsel inspiriert. Goodman erwog Verallgemeinerungen über Smaragde, die die bekannten Farben Grün und Blau sowie bestimmte ungewöhnliche Farben beinhalteten:

Angenommen, alle vor einer bestimmten Zeit t untersuchten Smaragde sind grün … Unsere Beweisaussagen besagen, dass Smaragd a grün ist, dass Smaragd b grün ist und so weiter.

Lassen Sie uns nun ein anderes Prädikat einführen, das weniger bekannt ist als „grün“. Es ist das Prädikat „grue“und gilt für alle Dinge, die vor t untersucht wurden, nur für den Fall, dass sie grün sind, aber für andere Dinge, nur für den Fall, dass sie blau sind. Dann haben wir zum Zeitpunkt t für jede Beweisaussage, die behauptet, dass ein gegebener Smaragd grün ist, eine parallele Beweisaussage, die behauptet, dass Smaragd grausam ist. Die Frage ist, ob wir vermuten sollten, dass alle Smaragde grün sind und nicht, dass alle Smaragde grün sind, wenn wir eine Probe grüner Smaragde erhalten, die vor dem Zeitpunkt t untersucht wurden, und wenn ja, warum.

Es ist klar, dass wir in diesem Problem eine Familie von Prädikaten haben, eine für jede unterschiedliche „kritische Zeit“t; Schreiben wir grue (t), um diese grue-Prädikate zu bezeichnen. Lassen Sie uns nach Goodman Methoden als Projektionsregeln bezeichnen, um dieses Beispiel zu diskutieren. Eine Projektionsregel ist in einer Welt erfolgreich, nur für den Fall, dass sie sich auf eine in dieser Welt korrekte Verallgemeinerung einlässt. In einer Welt, in der alle untersuchten Smaragde als grün befunden werden, möchten wir, dass unsere Projektionsregel dem Satz entspricht, dass alle Smaragde grün sind. Wenn alle untersuchten Smaragde grue (t) sind, möchten wir, dass unsere Projektionsregel zu dem Satz konvergiert, dass alle Smaragde grue (t) sind. Beachten Sie, dass diese Bestimmung Grün- und Graue-Prädikate vollständig auf einer Stufe behandelt, ohne dass eine Tendenz dazu besteht. Betrachten wir nach wie vor zwei Regeln:die natürliche Projektionsregel, die vermutet, dass alle Smaragde grün sind, solange nur grüne Smaragde gefunden werden, und die grausame Regel, die das nächste grobe Prädikat projiziert, was mit den verfügbaren Beweisen übereinstimmt. Im grausam-blauen Vokabular ausgedrückt, vermutet die grausame Projektionsregel, dass nach Beobachtung einiger n grüner Smaragde alle zukünftigen blau sein werden. Die folgenden Abbildungen zeigen die möglichen Beobachtungssequenzen, die natürliche Projektionsregel und die grausame Projektionsregel. Die folgenden Abbildungen zeigen die möglichen Beobachtungssequenzen, die natürliche Projektionsregel und die grausame Projektionsregel. Die folgenden Abbildungen zeigen die möglichen Beobachtungssequenzen, die natürliche Projektionsregel und die grausame Projektionsregel.

natürlich
natürlich

Die folgende Abbildung zeigt die grausame Projektionsregel.

grausam
grausam

Wie messen sich diese Regeln mit dem Ziel, zu einer echten Verallgemeinerung zu gelangen? Nehmen wir für das Beispiel an, dass die einzigen ernsthaften Möglichkeiten in Betracht gezogen werden: (1) Entweder sind alle Smaragde grün oder (2) alle Smaragde sind für eine kritische Zeit t grob (t). Dann legt die natürliche Projektionsregel die richtige Verallgemeinerung fest, unabhängig von der richtigen Verallgemeinerung. Denn wenn alle Smaragde grün sind, behauptet die natürliche Projektionsregel diese Tatsache von Anfang an. Und nehmen wir an, dass alle Smaragde für eine kritische Zeit t grue (t) sind. Dann wird zum Zeitpunkt t ein blauer Smaragd beobachtet. An diesem Punkt basiert die natürliche Projektionsregel auf der Vermutung, dass alle Smaragde grue (t) sind, was angesichts unserer Annahme über die möglichen Beobachtungssequenzen korrekt sein muss. Unabhängig davon, welche Beweise im Verlauf der Untersuchung erhalten werden - im Einklang mit unseren Hintergrundannahmen -, entscheidet sich die natürliche Projektionsregel schließlich für eine korrekte Verallgemeinerung der Farbe von Smaragden.

Die grausame Regel funktioniert nicht so gut. Denn wenn alle Smaragde grün sind, wird die Regel diese Tatsache niemals vermuten, da sie weiterhin grobe Prädikate projiziert. Daher gibt es eine mögliche Beobachtungssequenz - nämlich diejenigen, bei denen alle Smaragde grün sind -, bei der die grausame Regel nicht zur richtigen Verallgemeinerung konvergiert. Eine Mittel-Zweck-Analyse würde also die natürliche Projektionsregel gegenüber der grausamen Regel empfehlen.

1.3 Diskussion

Die Mittel-Zweck-Analyse des Rätsels der Induktion veranschaulicht eine Reihe von philosophisch wichtigen Punkten, die für die lerntheoretische Analyse im Allgemeinen gelten.

  1. Gleichbehandlung aller Hypothesen. Wie im vorigen Beispiel hängt nichts in diesem Argument von Argumenten ab, die besagen, dass bestimmte Möglichkeiten a priori nicht ernst genommen werden dürfen. Insbesondere besagt nichts in dem Argument, dass Verallgemeinerungen mit groben Prädikaten schlecht geformt, rechtswidrig oder auf andere Weise a priori schlechter sind als „alle Smaragde sind grün“.
  2. Sprachinvarianz. Die Analyse hängt nicht von dem Vokabular ab, in dem die Beweise und Verallgemeinerungen enthalten sind. Zur Vereinfachung der Darstellung habe ich hauptsächlich den grün-blauen Referenzrahmen verwendet. Grue-bleen-Sprecher würden jedoch zustimmen, dass das Ziel einer zuverlässigen Festlegung einer korrekten Verallgemeinerung eher die natürliche Projektionsregel als die grausame erfordert, selbst wenn sie die Vermutungen der natürlichen Regel eher in ihrer grue-bleen-Sprache als in ihrer Sprache ausdrücken möchten die blaugrüne Sprache, die wir bisher verwendet haben.
  3. Abhängigkeit vom Kontext. Obwohl die Analyse nicht von der Sprache abhängt, hängt sie von Annahmen über die möglichen Beobachtungssequenzen ab. Das oben beschriebene Beispiel scheint die Möglichkeiten zu umfassen, die den von Goodman selbst diskutierten Farbprädikaten entsprechen. Die Mittel-Zweck-Analyse gilt jedoch ebenso für andere Sätze möglicher Prädikate. Schulte [1999] und Chart [2000] diskutieren eine Reihe anderer Versionen des Rätsels der Induktion, in denen die Mittel-Zweck-Analyse die Prognose bevorzugt, dass alle Smaragde auf einer Probe aller grünen Smaragde grobkörnig sind.

1.4 Fälschungen und Verallgemeinerungen mit Ausnahmen

Unsere ersten beiden Beispiele enthalten einfache universelle Verallgemeinerungen. Einige subtile Aspekte des Konzepts der langfristigen Zuverlässigkeit, insbesondere seine Beziehung zum Fälschungismus, werden deutlich, wenn wir Verallgemeinerungen betrachten, die Ausnahmen zulassen. Kehren wir zur Veranschaulichung in die Welt der Raben zurück. Diesmal ist die ornithologische Gemeinschaft in ihren Verallgemeinerungen bezüglich der Farbe der Raben vorsichtiger. Zwei konkurrierende Hypothesen werden derzeit untersucht.

  1. Dass im Grunde alle Raben schwarz sind, aber es kann eine endliche Anzahl von Ausnahmen von dieser Regel geben.
  2. Dass im Grunde alle Raben weiß sind, aber es kann eine endliche Anzahl von Ausnahmen von dieser Regel geben.

Unter der Annahme, dass die eine oder andere dieser Hypothesen richtig ist, gibt es eine induktive Methode, die sich zuverlässig auf die richtige einstellt? Was dieses Problem schwieriger macht als unsere ersten beiden, ist, dass jede untersuchte Hypothese mit einer endlichen Menge an Beweisen übereinstimmt. Wenn 100 weiße Raben und 50 schwarze Raben gefunden werden, können entweder die 50 schwarzen Raben oder die 100 weißen Raben die Ausnahme von der Regel sein. In der durch Karl Poppers Arbeit vertrauten Terminologie können wir sagen, dass keine der Hypothesen fälschbar ist. Infolgedessen wird die induktive Strategie aus den beiden vorhergehenden Beispielen hier nicht funktionieren. Diese Strategie bestand im Wesentlichen darin, eine „kühne“universelle Verallgemeinerung wie „alle Raben sind schwarz“oder „alle Smaragde sind grün“zu übernehmen und an dieser Vermutung festzuhalten, solange sie „Muster besteht“. Jedoch,Wenn Regeln mit möglichen Ausnahmen untersucht werden, ist diese Strategie unzuverlässig. Nehmen wir zum Beispiel an, ein Fragesteller nimmt zuerst die Hypothese an, dass „alle bis auf endlich viele Raben weiß sind“. Es kann sein, dass von da an nur noch schwarze Raben gefunden werden. Aber jede dieser offensichtlichen Gegeninstanzen kann ausnahmsweise „weg erklärt“werden. Wenn die Fragestellerin dem Prinzip folgt, an ihrer Vermutung festzuhalten, bis die Beweise logisch nicht mit der Vermutung übereinstimmen, wird sie ihren falschen Glauben, dass alle bis auf endlich viele Raben weiß sind, niemals aufgeben, geschweige denn zu dem richtigen Glauben gelangen, dass alle bis auf endlich viele Raben sind schwarz. Es kann sein, dass von da an nur noch schwarze Raben gefunden werden. Aber jede dieser offensichtlichen Gegeninstanzen kann ausnahmsweise „weg erklärt“werden. Wenn die Fragestellerin dem Prinzip folgt, an ihrer Vermutung festzuhalten, bis die Beweise logisch nicht mit der Vermutung übereinstimmen, wird sie ihren falschen Glauben, dass alle bis auf endlich viele Raben weiß sind, niemals aufgeben, geschweige denn zu dem richtigen Glauben gelangen, dass alle bis auf endlich viele Raben sind schwarz. Es kann sein, dass von da an nur noch schwarze Raben gefunden werden. Aber jede dieser offensichtlichen Gegeninstanzen kann ausnahmsweise „weg erklärt“werden. Wenn die Fragestellerin dem Prinzip folgt, an ihrer Vermutung festzuhalten, bis die Beweise logisch nicht mit der Vermutung übereinstimmen, wird sie ihren falschen Glauben, dass alle bis auf endlich viele Raben weiß sind, niemals aufgeben, geschweige denn zu dem richtigen Glauben gelangen, dass alle bis auf endlich viele Raben sind schwarz.viel weniger kommen zu dem richtigen Glauben, dass alle bis auf endlich viele Raben schwarz sind.viel weniger kommen zu dem richtigen Glauben, dass alle bis auf endlich viele Raben schwarz sind.

Eine zuverlässige Untersuchung erfordert eine subtilere Untersuchungsstrategie. Hier ist einer (von vielen). Beginnen Sie die Untersuchung mit einer der konkurrierenden Hypothesen und sagen Sie: „Alle bis auf endlich viele Raben sind schwarz“. Wählen Sie ein Cut-Off-Verhältnis, um eine „klare Mehrheit“darzustellen. Für die Bestimmtheit sagen wir 70%. Wenn die aktuelle Vermutung lautet, dass alle bis auf endlich viele Raben schwarz sind, ändern Sie Ihre Meinung zu der Vermutung, dass alle bis auf endlich viele Raben weiß sind, nur für den Fall, dass mehr als 70% der beobachteten Raben tatsächlich weiß sind. Fahren Sie ebenfalls fort, wenn die aktuelle Vermutung lautet, dass alle bis auf endlich viele Raben weiß sind, wenn über 70% der beobachteten Raben tatsächlich schwarz sind.

Ein wenig Nachdenken zeigt, dass diese Regel auf lange Sicht die richtige Hypothese zuverlässig identifiziert, unabhängig davon, welche der beiden konkurrierenden Hypothesen richtig ist. Denn wenn alle bis auf endlich viele Raben schwarz sind, werden schließlich die nicht schwarzen Ausnahmen von der Regel erschöpft sein und eine willkürlich große Mehrheit der beobachteten Raben wird schwarz sein. Ebenso, wenn alle bis auf endlich viele Raben weiß sind.

Verallgemeinerungen mit Ausnahmen veranschaulichen die Beziehung zwischen dem popperianischen Falsifikationismus und der lerntheoretischen Idee einer zuverlässigen Konvergenz mit der Wahrheit. In einigen Untersuchungsumgebungen, insbesondere in solchen mit universellen Verallgemeinerungen, liefert ein naiv popperianischer Ansatz von „Vermutungen und Widerlegungen“, an Vermutungen festzuhalten, bis die Beweise sie verfälschen, eine zuverlässige induktive Methode. Bei anderen Problemen, wie im aktuellen Beispiel, ist dies nicht der Fall. Im Allgemeinen erfordern Probleme mit nicht fälschbaren Hypothesen etwas anderes als das Rezept für Vermutungen und Widerlegungen für zuverlässige Methoden (diese Behauptung hängt davon ab, was genau man unter „fälschbarer Hypothese“versteht; siehe Abschnitt 3 (Die Grenzen der Untersuchung und die Komplexität empirischer Probleme). Die Moral ist, dass es manchmal, aber nicht immer, ist, sich auf Fälschungen zu verlassen.der beste Weg für die Anfrage, um fortzufahren.

2. Fallstudien aus der wissenschaftlichen Praxis

Dieser Abschnitt enthält weitere Beispiele zur Veranschaulichung der lerntheoretischen Analyse. Die Beispiele in diesem Abschnitt sind realistischer und befassen sich mit methodischen Fragen, die sich aus der wissenschaftlichen Praxis ergeben. Die Platzbeschränkungen des Enzyklopädieformats erlauben nur einen Überblick über die vollständige Analyse. Es gibt Verweise auf detailliertere Diskussionen unten. Weitere Fallstudien finden sich in [Kelly 1996, Ch. 7,7, Harrell 2000]. Leser, die die Theorie und Philosophie der Mittel-Zweck-Erkenntnistheorie weiterentwickeln möchten, können diesen Abschnitt ohne Verlust der Kontinuität überspringen.

2.1 Erhaltungssätze in der Teilchenphysik

Eines der Kennzeichen der Elementarteilchenphysik ist die Entdeckung neuer Erhaltungsgesetze, die nur im subatomaren Bereich gelten [Ford 1963, Ne'eman und Kirsh 1983, Feynman 1965]. (Feynman gruppiert eine davon, die Erhaltung der Baryonenzahl, mit den anderen „großen Erhaltungsgesetzen“für Energie, Ladung und Impuls.) Vereinfachend vereinfachen die Erhaltungsprinzipien, warum bestimmte Prozesse mit Elementarteilchen nicht ablaufen: Die Erklärung lautet dass ein Erhaltungsprinzip verletzt wurde (vgl. Omnes [1971, Ch.2] und Ford [1963]). Ziel der Partikeluntersuchung ist es daher, eine Reihe von Konservierungsprinzipien zu finden, so dass für jeden Prozess, der nach den (bereits bekannten) Gesetzen der Physik möglich ist, aber nicht experimentell beobachtet wird, ein Konservierungsprinzip vorliegt, das diesen Prozess ausschließt. Und wenn tatsächlich ein Prozess beobachtet wird, sollte er alle von uns eingeführten Erhaltungsgesetze erfüllen.

Dies stellt ein Inferenzproblem dar, auf das wir eine Mittel-Zweck-Analyse anwenden können. Eine Inferenzmethode erzeugt eine Reihe von Erhaltungsprinzipien als Reaktion auf Berichte über beobachtete Prozesse. Die Mittel-End-Analyse fragt, welche Methoden garantiert auf Erhaltungsprinzipien beruhen, die alle Beobachtungen berücksichtigen, dh unbeobachtete Prozesse ausschließen und beobachtete Prozesse zulassen. Schulte [2008] beschreibt eine induktive Methode, die dieses Ziel erreicht. Informell kann das Verfahren wie folgt beschrieben werden.

  • Angenommen, wir haben eine Reihe von Reaktionen zwischen Elementarteilchen beobachtet.
  • Vermutung einer Reihe von Erhaltungsgesetzen, die die beobachteten Reaktionen zulassen und so viele unbeobachtete Reaktionen wie möglich ausschließen.

Die Logik der Erhaltungssätze ist so, dass die Beobachtung einiger Reaktionen die Möglichkeit anderer unbeobachteter Reaktionen mit sich bringt. Die lerntheoretische Methode schließt alle Reaktionen aus, die nicht involviert sind. Es stellt sich heraus, dass die Erhaltungsprinzipien, die diese Methode auf den derzeit verfügbaren Beweisen aufstellen würde, empirisch denen entsprechen, die die Physiker eingeführt haben. Insbesondere stimmen ihre Vorhersagen genau mit der Erhaltung der Ladung, der Baryonenzahl, der Myonenzahl, der Tauzahl und der Leptonzahl überein, die Teil des Standardmodells der Teilchenphysik sind.

Für einige physikalische Prozesse besteht der einzige Weg, empirisch angemessene Erhaltungsprinzipien zu erhalten, darin, anzunehmen, dass einige verborgene Partikel unentdeckt geblieben sind. Schulte [2009] erweitert die Analyse so, dass eine induktive Methode nicht nur Erhaltungssätze einführt, sondern auch unsichtbare Partikel positioniert. Das Grundprinzip besteht wiederum darin, unsichtbare Partikel so zu positionieren, dass möglichst viele unbeobachtete Reaktionen ausgeschlossen werden. Wenn diese Methode auf die bekannten Partikeldaten angewendet wird, entdeckt sie die Existenz eines Elektronenantineutrinos wieder. Dies ist eines der Teilchen, die in der gegenwärtigen Teilchenphysik von zentraler Bedeutung sind.

2.2 Kausale Zusammenhänge

Es wurden umfangreiche Untersuchungen zum Lernen von Kausalzusammenhängen durchgeführt, wie sie in einem Kausaldiagramm dargestellt sind [Spirtes et al. 2000]. Kelly schlug eine lerntheoretische Analyse der Schlussfolgerung der Kausalität vor, bei der die Beweise in Form von beobachteten signifikanten Korrelationen zwischen interessierenden Variablen geliefert werden (eine moderne Version von Humes „konstanten Konjunktionen“). Die folgende induktive Methode konvergiert garantiert zu einem empirisch adäquaten Kausaldiagramm, da immer mehr Korrelationen beobachtet werden [Schulte, Luo und Greiner 2007].

  • Angenommen, wir haben eine Reihe von Korrelationen oder Assoziationen zwischen einer Reihe von interessierenden Variablen beobachtet.
  • Wählen Sie ein Kausaldiagramm aus, das die beobachteten Korrelationen mit einer minimalen Anzahl direkter Kausalzusammenhänge erklärt.

2.3 Modelle der kognitiven Architektur

Einige Geistesphilosophen haben argumentiert, dass der Geist aus ziemlich unabhängigen Modulen besteht. Jedes Modul hat seinen eigenen "Eingang" von anderen Modulen und sendet "Ausgang" an andere Module. Beispielsweise kann ein Modul "Höranalysesystem" ein gehörtes Wort als Eingabe verwenden und eine phonetische Analyse an ein "Höreingabelexikon" senden. Die Idee der modularen Organisation wirft die empirische Frage auf, welche mentalen Module es gibt und wie sie miteinander verbunden sind. Eine prominente Tradition der Forschung in den kognitiven Neurowissenschaften hat versucht, ein Modell der mentalen Architektur in dieser Richtung zu entwickeln, indem die Reaktionen normaler und abnormaler Probanden auf verschiedene Reize untersucht wurden. Die Idee ist, normale Reaktionen mit abnormalen zu vergleichen - oft verursacht durch Hirnschäden -, um Rückschlüsse darauf zu ziehen, welche mentalen Fähigkeiten wie voneinander abhängen.

Glymour [1994] stellte die zuverlässige Frage, ob es Inferenzmethoden gibt, die sich garantiert auf eine echte Theorie der mentalen Organisation stützen, wenn erschöpfende Beweise für normale und abnormale Fähigkeiten und Reaktionen vorliegen. Er argumentierte, dass für einige mögliche mentale Architekturen keine Beweise der Art der Reizantwort zwischen ihnen unterscheiden können. Da die verfügbaren Beweise die Vermutungen einer induktiven Methode bestimmen, gibt es keine Garantie dafür, dass sich eine Methode auf das wahre Modell der kognitiven Architektur stützt.

In einer weiteren Diskussion zeigte Bub [1994], dass ein Neuropsychologe es einem Neuropsychologen ermöglichen würde, die Modulstruktur eines (normalen) Geistes zu bestimmen, wenn wir bestimmte restriktive Annahmen darüber treffen, wie mentale Module miteinander verbunden sind. Tatsächlich gibt es unter den Annahmen von Bub eine zuverlässige Methode zur Identifizierung des modularen Aufbaus. Glymour hat auch untersucht, inwieweit reichhaltigere Arten von Beweisen eine Unterbestimmung der mentalen Architektur beheben würden. (Ein Beispiel für reichhaltigere Beweise sind doppelte Disassokationen. Ein Beispiel für eine doppelte Dissoziation wäre ein Patientenpaar, einer, der eine normale Fähigkeit hat, gesprochene Wörter zu verstehen, aber geschriebene nicht versteht, und ein anderer, der geschriebene Wörter versteht, aber nicht gesprochen Einsen.)

2.4 Diskussion

Diese Studien veranschaulichen einige allgemeine Merkmale der Lerntheorie:

1. Allgemeinheit. Die Grundbegriffe der Theorie sind sehr allgemein. Im Wesentlichen gilt die Theorie immer dann, wenn eine Frage eine Anfrage, eine Reihe von Kandidatenantworten und einige Beweise für die Entscheidung zwischen den Antworten enthält. Somit kann die Mittel-Zweck-Analyse in jeder Disziplin angewendet werden, die auf empirisches Wissen abzielt, beispielsweise Physik oder Psychologie.

2. Kontextabhängigkeit. Die Lerntheorie ist eine rein normative Erkenntnistheorie von vornherein in dem Sinne, dass sie sich mit Standards zur Bewertung von Methoden in möglichen Untersuchungsumgebungen befasst. Der Ansatz zielt jedoch nicht auf universelle, kontextfreie methodische Maximen ab. Die methodischen Empfehlungen hängen von möglichen Faktoren ab, wie den operativen methodischen Normen, den zu untersuchenden Fragen, den Hintergrundannahmen, die die Agentin zur Untersuchung bringt, den ihr zur Verfügung stehenden Beobachtungsmitteln, ihren kognitiven Fähigkeiten und ihren epistemischen Zielen. Um bestimmte Methoden in einem bestimmten Bereich zu bewerten, wie in den genannten Fallstudien, müssen daher die Details des betreffenden Falls untersucht werden. Die Mittel-Zweck-Analyse belohnt diese Studie häufig mit dem Hinweis auf die entscheidenden methodischen Merkmale eines bestimmten wissenschaftlichen Unternehmens:und indem genau erklärt wird, warum und wie diese Merkmale mit dem Erfolg des Unternehmens bei der Erreichung seiner epistemischen Ziele verbunden sind.

3. Kompromisse. In der Perspektive der Mittel-Zweck-Erkenntnistheorie beinhaltet die Untersuchung einen anhaltenden Kampf mit schwierigen Entscheidungen und nicht die Ausführung einer universellen „wissenschaftlichen Methode“. Der Fragesteller muss widersprüchliche Werte ausgleichen und kann verschiedene Strategien in Betracht ziehen, z. B. kurzfristige Schwierigkeiten zu akzeptieren, um sie langfristig zu lösen. Zum Beispiel kann es beim Problem des Naturschutzrechts zu Konflikten zwischen theoretischer Sparsamkeit, dh weniger Naturschutzgesetzen, und ontologischer Sparsamkeit, dh weniger eingeführten Partikeln, kommen. Zum anderen könnte ein Partikeltheoretiker akzeptieren, unentdeckte Partikel in der Hoffnung zu setzen, dass sie im Verlauf der Wissenschaft schließlich beobachtet werden. Die laufende Suche nach dem Higgs-Boson veranschaulicht diese Strategie. Ein wichtiges lerntheoretisches Projekt besteht darin, zu untersuchen, wann solche Kompromisse auftreten und welche Möglichkeiten zur Lösung bestehen. Abschnitt 4 erweitert die lerntheoretische Analyse, um neben der langfristigen Zuverlässigkeit auch Ziele zu berücksichtigen.

3. Die Grenzen der Untersuchung und die Komplexität empirischer Probleme

Nachdem man einige Beispiele wie die oben beschriebenen gesehen hat, beginnt man sich zu fragen, was das Muster ist. Was ist mit einer empirischen Frage, die es der Anfrage ermöglicht, zuverlässig zur richtigen Antwort zu gelangen? Welche allgemeinen Erkenntnisse können wir darüber gewinnen, wie zuverlässig Methoden zum Testen von Hypothesen eingesetzt werden? Lerntheoretiker beantworten diese Fragen mit Charakterisierungssätzen. Charakterisierungssätze haben im Allgemeinen die Form „es ist möglich, diesen Standard des empirischen Erfolgs in einem gegebenen induktiven Problem genau dann zu erreichen, wenn das induktive Problem die folgenden Bedingungen erfüllt“.

Ein grundlegendes Ergebnis beschreibt die Bedingungen, unter denen eine Methode die richtige Hypothese unter einer zählbar unendlichen oder endlichen Zahl H 1, H 2,…, H n zuverlässig finden kann,…. von sich gegenseitig ausschließenden Hypothesen, die gemeinsam alle Möglichkeiten abdecken, die mit den Hintergrundannahmen des Fragestellers vereinbar sind. Dies ist nur dann möglich, wenn jede der Hypothesen eine zählbare Disjunktion widerlegbarer empirischer Behauptungen ist. Mit „widerlegbar“meine ich, dass, wenn die Behauptung falsch ist, die Beweise in Kombination mit den Hintergrundannahmen des Untersuchers diese Disjunktion innerhalb der Hypothese endgültig verfälschen werden (siehe Kelly [1996, Kap. 3.3]). Zur Veranschaulichung kehren wir mit zwei alternativen Hypothesen zum ornithologischen Beispiel zurück: (1) Alle bis auf endlich viele Schwäne sind weiß und (2) Alle bis auf endlich viele Schwäne sind schwarz. Wie wir gesehen haben, ist es auf lange Sicht möglich, zuverlässig zu klären, welche dieser beiden Hypothesen richtig ist. Daher durch den Charakterisierungssatz,Jede der beiden Hypothesen muss eine Disjunktion widerlegbarer empirischer Behauptungen sein. Um zu sehen, dass dies tatsächlich so ist, beachten Sie, dass „alle bis auf endlich viele Schwäne weiß sind“logisch der Disjunktion entspricht

höchstens 1 Schwan ist schwarz oder höchstens 2 Schwäne sind schwarz… oder höchstens n Schwäne sind schwarz… oder…,

und ähnlich für "alle bis auf endlich viele Schwäne sind schwarz". Jede der Behauptungen in der Disjunktion ist widerlegbar, in dem Sinne, dass sie letztendlich gefälscht wird, wenn sie falsch ist. Nehmen Sie zum Beispiel die Behauptung, dass „höchstens 3 Schwäne schwarz sind“. Wenn dies falsch ist, werden mehr als 3 schwarze Schwäne gefunden. Zu diesem Zeitpunkt wird die Behauptung endgültig gefälscht.

Ein neuerer Charakterisierungssatz von Baltag, Gierasimczuk und Smets betont das topologische Konzept der Trennbarkeit [Baltag et al. 2015]. In epistemischer Hinsicht bedeutet topologische Trennung (fehlende) Unterbestimmung durch Beweise. Zum Beispiel erfordert das klassische erste Axiom der Trennung, dass es für zwei mögliche Zustände der Welt zwei mögliche Beobachtungssequenzen gibt, die jeweils mit einem Zustand der Welt übereinstimmen, aber nicht mit dem anderen. Das erste Trennungsaxiom beinhaltet also, dass eine vollständige Beobachtungssequenz einen einzigartigen Zustand der Welt bestimmt. Baltag et al. Definieren Sie eine topologische Vorstellung davon, was es für Beweise bedeutet, konkurrierende Hypothesen in einem induktiven Problem zu trennen, und beweisen Sie, dass dieses Konzept der induktiven Trennbarkeit charakterisiert, welche induktiven Probleme zuverlässiges Lernen ermöglichen.

Einige Punkte werden helfen, die Bedeutung von Charakterisierungssätzen zu erklären.

1. Struktur zuverlässiger Methoden. Charakterisierungssätze zeigen, wie die Struktur zuverlässiger Methoden auf die Struktur der untersuchten Hypothesen abgestimmt ist. Zum Beispiel stellt der erwähnte Satz einen Zusammenhang zwischen Fälschbarkeit und Testbarkeit her, der jedoch abgeschwächt ist als die naiven Popperschen Vorstellungen: Es ist nicht erforderlich, dass die zu testenden Hypothesen direkt fälschbar sind; Vielmehr muss es Möglichkeiten geben, jede Hypothese zu stärken, die eine zählbare Anzahl widerlegbarer „Subhypothesen“ergeben. Wir können uns diese widerlegbaren Subhypothesen als verschiedene Arten vorstellen, in denen die Haupthypothese wahr sein kann. (Zum Beispiel ist eine Art und Weise, in der „alle bis auf endlich viele Raben weiß sind“wahr, wenn es höchstens 10 schwarze Raben gibt; eine andere, wenn es höchstens 100 schwarze Raben usw. gibt.)

2. Import von Hintergrundannahmen. Das Charakterisierungsergebnis zieht eine Grenze zwischen lösbaren und unlösbaren Problemen. Hintergrundwissen reduziert die induktive Komplexität eines Problems; Bei ausreichendem Hintergrundwissen überschreitet das Problem die Schwelle zwischen unlösbar und lösbar. In vielen Bereichen der empirischen Untersuchung sind die entscheidenden Hintergrundannahmen diejenigen, die eine zuverlässige Untersuchung ermöglichen. (Kuhn [1970] macht ähnliche Aussagen über die Bedeutung von Hintergrundannahmen, die in einem „Paradigma“enthalten sind).

3. Sprachinvarianz. Lerntheoretische Charakterisierungssätze betreffen das, was Kelly die „zeitliche Verschränkung“verschiedener Beobachtungssequenzen nennt [Kelly 2000]. Letztendlich beruhen sie auf Entailment-Beziehungen zwischen gegebenen Beweisen, Hintergrundannahmen und empirischen Behauptungen. Da die logische Konsequenz nicht von der Sprache abhängt, mit der wir Beweise und Hypothesen formulieren, ist die induktive Komplexität eines empirischen Problems, wie sie durch die Charakterisierungssätze bestimmt wird, sprachinvariant.

4. Langfristig auf kurze Sicht: Zuverlässige und stabile Überzeugungen

Eine langjährige Kritik an der Konvergenz mit der Wahrheit als Untersuchungsziel ist, dass dieses Ziel, obwohl es an sich in Ordnung ist, kurzfristig mit jedem verrückten Verhalten vereinbar ist [Salmon 1991]. Zum Beispiel haben wir im neuen Rätsel der Induktion gesehen, dass eine zuverlässige Projektionsregel vermuten kann, dass der nächste Smaragd blau sein wird, egal wie viele grüne Smaragde gefunden wurden - solange die Regel schließlich lautet: „Alle Smaragde sind grün“. Eine Antwort lautet: Wenn die Mittel-Zweck-Analyse neben der langfristigen Konvergenz auch andere epistemische Ziele berücksichtigt, kann sie eine starke Anleitung für kurzfristige Vermutungen liefern.

Um diesen Punkt zu veranschaulichen, kehren wir zum Goodmanschen Rätsel der Induktion zurück. Seit Platon haben Philosophen die Idee in Betracht gezogen, dass ein stabiler wahrer Glaube besser ist als ein instabiler wahrer Glaube, und Erkenntnistheoretiker wie Sklar [1975] haben ähnliche Prinzipien des „epistemischen Konservatismus“vertreten. Kuhn sagt uns, dass ein Hauptgrund für den Konservatismus in Paradigmendebatten die Kosten für die Änderung wissenschaftlicher Überzeugungen sind [Kuhn 1970]. In diesem Sinne haben Lerntheoretiker Methoden untersucht, die die Häufigkeit minimieren, mit der sie ihre Theorien ändern, bevor sie sich auf ihre endgültige Vermutung einigen [Putnam 1965, Kelly 1996, Jain 1999]. Solche Methoden sollen Geistesveränderungen minimieren.

4.1 Beispiel: Das neue Rätsel der Induktion

Das neue Rätsel der Induktion ist ein schönes Beispiel für diese Idee. Betrachten Sie die natürliche Projektionsregel (Vermutung, dass alle Smaragde auf einer Probe grüner Smaragde grün sind). Wenn alle Smaragde grün sind, ändert diese Regel niemals ihre Vermutung. Und wenn alle Smaragde für eine kritische Zeit t grue (t) sind, dann gibt die natürliche Projektionsregel ihre Vermutung "alle Smaragde sind grün" zum Zeitpunkt t auf - eine Gedankenänderung - und projiziert danach korrekt "alle Smaragde sind grue (t)".. Bemerkenswerterweise funktionieren Regeln, die eher grün als grün sind, nicht so gut. Stellen Sie sich zum Beispiel eine Regel vor, die vermutet, dass alle Smaragde nach Beobachtung eines grünen Smaragds grue (3) sind. Wenn zwei weitere grüne Smaragde beobachtet werden, wird die Vermutung der Regel verfälscht und muss schließlich ihre Meinung ändern. Sagen Sie, um zu vermuten, dass alle Smaragde grün sind (vorausgesetzt, dass weiterhin grüne Smaragde gefunden werden). Aber dann kann an diesem Punkt ein blauer Smaragd erscheinen, der eine zweite Änderung des Geistes erzwingt. Dieses Argument kann verallgemeinert werden, um zu zeigen, dass das Ziel der Minimierung von Geistesveränderungen nur die Projektion des grünen Prädikats auf eine Stichprobe aller grünen Smaragde ermöglicht [Schulte 1999]. Wir haben in Abschnitt 1.2 oben gesehen, wie die natürliche Projektionsregel ihre Meinung höchstens einmal ändert; Die folgende Abbildung zeigt in einem typischen Fall, wie eine unnatürliche Projektionsregel ihre Meinung zweimal oder öfter ändern muss. Dieses Argument kann verallgemeinert werden, um zu zeigen, dass das Ziel der Minimierung von Geistesveränderungen nur die Projektion des grünen Prädikats auf eine Stichprobe aller grünen Smaragde ermöglicht [Schulte 1999]. Wir haben in Abschnitt 1.2 oben gesehen, wie die natürliche Projektionsregel ihre Meinung höchstens einmal ändert; Die folgende Abbildung zeigt in einem typischen Fall, wie eine unnatürliche Projektionsregel ihre Meinung zweimal oder öfter ändern muss. Dieses Argument kann verallgemeinert werden, um zu zeigen, dass das Ziel der Minimierung von Geistesveränderungen nur die Projektion des grünen Prädikats auf eine Stichprobe aller grünen Smaragde ermöglicht [Schulte 1999]. Wir haben in Abschnitt 1.2 oben gesehen, wie die natürliche Projektionsregel ihre Meinung höchstens einmal ändert; Die folgende Abbildung zeigt in einem typischen Fall, wie eine unnatürliche Projektionsregel ihre Meinung zweimal oder öfter ändern muss.

unnatürlich
unnatürlich

4.2 Weitere Beispiele

Gleiches gilt für die Frage, ob alle Raben schwarz sind. Der kühne Generalisierer, der vermutet, dass alle Raben schwarz sind, nachdem nur Proben von schwarzen Raben beobachtet wurden, gelingt mit höchstens einer Gedankenänderung: Wenn tatsächlich alle Raben schwarz sind, ändert der Generalisierer niemals seine Meinung. Und wenn es einen nichtschwarzen Raben gibt, führt die Widerlegung zu einer Änderung der Meinung, aber danach ist die Frage geklärt.

Vergleichen Sie dies mit der entgegengesetzten Methode, die behauptet, dass es einen nicht schwarzen Raben gibt, nachdem Sie eine Stichprobe aller schwarzen Raben beobachtet haben. Wenn nur noch schwarze Raben beobachtet werden, muss die gegenteilige Methode irgendwann ihre Meinung ändern und behaupten, dass „alle Raben schwarz sind“, sonst kommt sie nicht zur richtigen Verallgemeinerung. Aber dann kann an diesem Punkt ein nicht schwarzer Rabe erscheinen, der eine zweite Änderung des Geistes erzwingt. Das Ziel eines stabilen Glaubens schränkt daher stark ein, was eine Methode kurzfristig für dieses Problem vermuten lässt: Wenn nur schwarze Raben beobachtet werden, lauten die Optionen „Alle Raben sind schwarz“oder „noch keine Meinung“, aber nicht „es gibt ein nicht schwarzer Rabe “.

Bei dem Problem des Naturschutzrechts ist die in Abschnitt 2.1 beschriebene restriktive Methode die einzige Methode, die Geistesveränderungen minimiert. Denken Sie daran, dass die restriktive Methode eine Reihe von Erhaltungsgesetzen verabschiedet, die so viele unbeobachtete Reaktionen wie möglich ausschließen. Es kann gezeigt werden, dass bei n bekannten Elementarteilchen, deren Reaktionen beobachtet werden, diese Methode höchstens n Gedankenänderungen erfordert. (Die Anzahl der Elementarteilchen im Standardmodell liegt bei n = 200).

Zum Erlernen von Kausaldiagrammen minimiert die folgende Variante der in Abschnitt 2.2 beschriebenen Methode die Anzahl der Gedankenänderungen.

  • Angenommen, wir haben eine Reihe von Korrelationen oder Assoziationen zwischen einer Reihe von interessierenden Variablen beobachtet.
  • Wenn es einen eindeutigen Kausaldiagramm gibt, der die beobachteten Korrelationen mit einer minimalen Anzahl direkter Kausalzusammenhänge erklärt, wählen Sie dieses Diagramm aus.
  • Wenn es mehr als einen Kausaldiagramm gibt, der die beobachteten Korrelationen mit einer minimalen Anzahl direkter Kausalzusammenhänge erklärt, geben Sie "noch keine Meinung" aus (oder vermuten Sie die Disjunktion der Minimalkantengraphen).

Dieses Beispiel zeigt, dass das Minimieren von Geistesveränderungen manchmal das Zurückhalten von Überzeugungen erfordert. Intuitiv tritt dies auf, wenn es zwei oder mehr gleich einfache Erklärungen der Daten gibt und der Fragesteller warten muss, bis weitere Beobachtungen zwischen diesen Möglichkeiten entscheiden. Das Springen zu einer der einfachen Schlussfolgerungen kann zu einer unnötigen Änderung des Denkvermögens führen, falls sich eine alternative, ebenso einfache Erklärung als richtig herausstellt. In solchen Fällen besteht ein Kompromiss zwischen den Zielen, einerseits einen stabilen Glauben zu erreichen und andererseits schnell einen wahren Glauben zu finden [Schulte 1999]. Wir diskutieren den Zusammenhang zwischen Einfachheit und stabilem Glauben im nächsten Abschnitt.

5. Einfachheit, stabiler Glaube und Ockhams Rasiermesser

Eine starke Intuition über induktive Inferenz und wissenschaftliche Methode ist, dass wir einfachere Hypothesen komplexen vorziehen sollten; siehe den Eintrag zur Einfachheit. Statistiker, Informatiker und andere Forscher, die sich mit dem Lernen aus Beobachtungen befassen, haben die Präferenz für Einfachheit zur Lösung praktischer induktiver Probleme in großem Umfang genutzt [Domingos 1999]. Aus grundlegender Sicht ist die Einfachheit aus mindestens zwei Gründen problematisch.

  1. Das Rechtfertigungsproblem: Warum einfache Hypothesen annehmen? Eine offensichtliche Antwort ist, dass die Welt einfach ist und daher eine komplexe Theorie falsch ist. Die Apriori-Behauptung, die Welt sei einfach, ist jedoch höchst umstritten - siehe den Eintrag zur Einfachheit. Aus lerntheoretischer Sicht beeinträchtigt die Ablehnung komplexer Hypothesen die Zuverlässigkeit induktiver Methoden. In Kellys Metapher ist eine feste Tendenz wie eine angehaltene Uhr: Wir können die Uhr verwenden, wenn sie zur richtigen Zeit zeigt, aber die Uhr ist kein zuverlässiges Instrument, um die Zeit zu bestimmen [Kelly 2007a, 2010].
  2. Das Beschreibungsproblem: Erkenntnistheoretiker haben befürchtet, dass Einfachheit kein objektives Merkmal einer Hypothese ist, sondern „von der Art der Präsentation abhängt“, wie Nozick es ausdrückt. Goodmans Rätsel veranschaulicht diesen Punkt. Wenn Verallgemeinerungen blaugrün umrahmt sind, erscheint „alle Smaragde sind grün“einfacher als „alle Smaragde sind zuerst grün und dann blau“. In einer grue-bleen-Sprache erscheint „alle Smaragde sind grue“einfacher als „alle Smaragde sind zuerst grue und dann blen“.

Lerntheoretiker haben sich in jüngster Zeit und fortlaufend bemüht, Mittel-Zweck-Erkenntnistheorie anzuwenden, um eine Theorie des Zusammenhangs zwischen Einfachheit und Induktion zu entwickeln, die diese Bedenken berücksichtigt [Kelly 2010, Harmann und Kulkarni 2007, Luo und Schulte 2006, Steel 2009]. Es stellt sich heraus, dass eine fruchtbare Perspektive darin besteht, die Beziehung zwischen der Struktur eines Hypothesenraums und der Komplexität des Geisteswandels des entsprechenden induktiven Problems zu untersuchen. Die Grundidee ist, dass, obwohl Einfachheit keine a priori Verbindung mit der Wahrheit hat, die Auswahl einfacher Hypothesen einem Fragesteller helfen kann, die Wahrheit effizienter zu finden, im Sinne der Vermeidung von Geistesveränderungen. Kellys Straßenmetapher illustriert die Idee. Betrachten Sie zwei Routen zum Ziel, eine über eine gerade Autobahn, die andere über Nebenstraßen. Beide Routen führen schließlich zum gleichen Punkt,Aber die Nebenstraßen bringen mehr Wendungen mit sich [Kelly 2007a, 2010].

Eine Formalisierung dieser Idee erfolgt in Form eines Ockham-Theorems: Ein Theorem, das (unter geeigneten Einschränkungen) zeigt, dass eine induktive Methode die Wahrheit für ein bestimmtes Problem genau dann so effizient wie möglich findet, wenn die Methode die Ockham-Methode ist wählt es die einfachste Hypothese aus, die mit den Daten übereinstimmt. Ein Ockham-Theorem liefert eine Rechtfertigung für Ockhams induktiven Rasierer als Mittel zur Erreichung epistemischer Ziele.

Ob ein Ockham-Theorem wahr ist, hängt von der Beschreibung der Ockham-Methode ab, dh von der genauen Definition der Einfachheit für eine Reihe von Hypothesen. Es gibt eine Reihe mathematischer Ergebnisse, die Ockham-Theoreme unter Verwendung eines sprachinvarianten Einfachheitsmaßes festlegen, das wir als nächstes erläutern.

5.1 Einfachheit definieren

Angenommen, eine Hypothese H aus einem Hintergrundsatz möglicher Hypothesen H ist überprüfbar, wenn es eine Evidenzsequenz gibt, so dass H die einzige Hypothese von H ist, die mit der Evidenzsequenz übereinstimmt. Zum Beispiel ist im obigen Problem mit dem schwarzen Raben die Hypothese „es gibt einen nicht schwarzen Raben“überprüfbar, da sie durch die Beobachtung eines nicht schwarzen Raben verursacht wird. Die Hypothese „Alle Raben sind schwarz“ist nicht überprüfbar, da sie nicht durch eine endliche Beweisfolge hervorgerufen wird. Das folgende Verfahren weist jeder Hypothese H aus einer Reihe von Hypothesen H einen Einfachheitsrang zu [Apsitis 1994, Luo und Schulte 2006].

  1. Ordnen Sie alle überprüfbaren Hypothesen der Einfachheit Rang 0 zu.
  2. Entfernen Sie die überprüfbaren Hypothesen aus dem Hypothesenraum, um einen neuen Hypothesenraum H 1 zu bilden.
  3. Weisen Sie den Hypothesen, die mit H 1 überprüfbar sind, den Rang 1 der Einfachheit zu.
  4. Entfernen Sie die neu überprüfbaren Hypothesen mit dem einfachen Rang 1 aus dem Hypothesenraum, um einen neuen Hypothesenraum H 2 zu bilden.
  5. Entfernen Sie weitere Hypothesen, bis angesichts des aktuellen Hypothesenraums keine neuen Hypothesen mehr überprüfbar sind.
  6. Der Einfachheitsrang jeder Hypothese H ist die erste Stufe, in der sie durch dieses Verfahren entfernt wird. Mit anderen Worten, es ist der Index des ersten eingeschränkten Hypothesenraums, der H überprüfbar macht.

Hypothesen mit höherem Einfachheitsrang werden als einfacher angesehen als solche mit niedrigerem Rang. Einfachheitsränge werden als logische Entailment-Beziehungen definiert und sind daher sprachinvariant. Die definierten Einfachheitsgrade können als Grad der Fälschbarkeit im folgenden Sinne angesehen werden. Betrachten Sie eine Hypothese der Einfachheit Rang 1. Eine solche Hypothese ist fälschbar, weil eine Evidenzsequenz, die eine alternative Hypothese von Rang 0 verifiziert, sie fälscht. Darüber hinaus ist eine Hypothese der Einfachheit Rang 1 dauerhaft fälschbar in dem Sinne, dass sie fälschbar bleibt, unabhängig davon, welche Beweissequenz damit übereinstimmt. Eine Hypothese der Einfachheit Rang n + 1 ist durch Hypothesen des Ranges n dauerhaft fälschbar. Lassen Sie uns die Definition in unseren laufenden Beispielen veranschaulichen.

5.2 Beispiele

  • Im Rätsel der Induktion sind die überprüfbaren Hypothesen die Grue-Hypothesen mit der kritischen Zeit t: Jede Folge von t grünen Smaragden, gefolgt von blauen, bringt die entsprechende Grue (t) -Verallgemeinerung mit sich. Somit erhalten die Grue-Hypothesen den Einfachheitsrang 0. Nachdem die Grue-Hypothesen beseitigt wurden, lautet die einzige verbleibende Hypothese „Alle Smaragde sind grün“. Da dies die einzige Möglichkeit im eingeschränkten Hypothesenraum ist, ist „alle Smaragde sind grün“mit jeder Folge von grünen Smaragden verbunden. Daher hat „Alle Smaragde sind grün“den Einfachheitsrang 1. Nach dem Entfernen der All-Green-Hypothese bleiben keine Hypothesen übrig.
  • Bei dem Rabenfarbproblem lautet die überprüfbare Hypothese "ein nichtschwarzer Rabe wird beobachtet", die den Einfachheitsrang 0 erhält. Nach dem Entfernen der Hypothese, dass ein nichtschwarzer Rabe beobachtet wird, besteht die einzige verbleibende Möglichkeit darin, dass nur schwarze Raben beobachtet werden. Daher ist diese Hypothese im eingeschränkten Hypothesenraum überprüfbar und erhält den Einfachheitsrang 1.
  • Der Einfachheitsrang eines Kausaldiagramms ergibt sich aus der Anzahl der direkten Verknüpfungen, die nicht im Diagramm enthalten sind. Je weniger direkte Verbindungen vom Kausalmodell gesetzt werden, desto höher ist daher sein Einfachheitsrang.
  • Der Einfachheitsrang einer Reihe von Erhaltungsgesetzen ergibt sich aus der Anzahl der unabhängigen Gesetze. (Unabhängigkeit im Sinne der linearen Algebra.) Je mehr nichtredundante Gesetze durch eine Theorie eingeführt werden, desto höher ist ihr Einfachheitsrang. Jedes Gesetz schließt einige Reaktionen aus. Daher ist die Maximierung der Anzahl unabhängiger Gesetze angesichts der beobachteten Reaktionen gleichbedeutend damit, so viele unbeobachtete Reaktionen wie möglich auszuschließen.

5.3 Stabiler Glaube und Einfachheit: Ein Ockham-Theorem

Der folgende Satz zeigt den Zusammenhang zwischen der Komplexität eines induktiven Problems bei der Veränderung des Geistes und dem definierten Einfachheitsranking.

Satz. Sei H eine Menge empirischer Hypothesen. Dann gibt es eine Methode, die zuverlässig eine korrekte Hypothese aus H im Grenzbereich mit höchstens n Gedankenänderungen identifiziert, wenn und nur wenn das oben definierte Eliminierungsverfahren mit einem leeren Satz von Hypothesen nach n Stufen endet.

Damit ein induktives Problem mit höchstens n Gedankenänderungen lösbar ist, beträgt der maximale Einfachheitsrang jeder möglichen Hypothese n. Im Rätsel der Induktion ist der maximale Einfachheitsrang 1, und daher kann dieses Problem mit höchstens 1 Gedankenänderung gelöst werden. Das nächste Ergebnis liefert ein Ockham-Theorem, das Einfachheit und Leistung bei Gedankenveränderungen verbindet.

Ockham-Theorem. Sei H eine Menge empirischer Hypothesen mit optimaler Geistesveränderungsgrenze n. Dann ist eine induktive Methode genau dann optimal, wenn sie die folgenden Bedingungen erfüllt.

  1. Wann immer die Methode eine der Hypothesen aus H übernimmt, ist diese Hypothese die einzigartig einfachste, die mit den Beweisen übereinstimmt.
  2. Wenn die Methode zum Untersuchungszeitpunkt t + 1 ihre Meinung ändert, wird die einzigartig einfachste Hypothese zum Zeitpunkt t zum Zeitpunkt t + 1 verfälscht.

Dieser Satz besagt, dass eine Methode zur optimalen Änderung des Geistes eine Vermutung zurückhalten kann, wie es ein Skeptiker tun würde, aber wenn sie eine bestimmte Hypothese annimmt, muss die Hypothese die einfachste sein, im Sinne eines maximalen Ranges der Einfachheit. Daher sind die in Abschnitt 4 diskutierten optimalen Methoden zur Änderung des Geistes alle Ockham-Methoden, die die einfachste Hypothese annehmen, die mit den Daten übereinstimmt. Das Ockham-Theorem zeigt eine bemerkenswerte Umkehrung des langjährigen Einwandes, dass langfristige Zuverlässigkeit kurzfristigen Vermutungen zu wenig Einschränkungen auferlegt: Wenn wir zur langfristigen Konvergenz der Wahrheit das Ziel hinzufügen, einen stabilen Glauben zu erreichen, dann tatsächlich dort ist eine einzigartige induktive Methode, die dieses Ziel in einem bestimmten empirischen Problem erreicht. Daher wechselt die methodische Analyse vom Angebot kurzfristiger Rezepte zum Angebot eines vollständigen Rezepts.

Während diese Ergebnisse einen fruchtbaren Zusammenhang zwischen Einfachheit und Optimalität der Bewusstseinsveränderung herstellen, besteht eine Einschränkung des Ansatzes darin, dass einige Hypothesen durch eine Evidenzsequenz endgültig begründet werden müssen. Dies ist normalerweise nicht der Fall bei statistischen Modellen, bei denen die Wahrscheinlichkeit einer Hypothese beliebig klein, aber normalerweise nicht 0 werden kann. Betrachten Sie beispielsweise ein Münzwurfproblem und die Hypothese „Die Wahrscheinlichkeit von Köpfen beträgt 90%“. Wenn wir eine Million Schwänze beobachten, ist die Wahrscheinlichkeit der Hypothese zwar sehr gering, aber nicht 0, da eine beliebige Anzahl von Schwänzen logischerweise mit einer hohen Wahrscheinlichkeit von Köpfen übereinstimmt. Kevin Kelly hat einen Begriff der Einfachheit entwickelt, der für statistische Modelle geeignet ist, und Ockham-Theoreme für diese Einstellung bewiesen (siehe Andere Internetressourcen).

6. Andere Ansätze: Kategoriale vs. hypothetische Imperative

Kant unterschied zwischen kategorialen Imperativen, denen man unabhängig von seinem persönlichen Ziel und seinen Umständen folgen sollte, und hypothetischen Imperativen, die uns anweisen, unsere Mittel auf unser gewähltes Ziel auszurichten. Eine Möglichkeit, sich die Lerntheorie vorzustellen, ist das Studium hypothetischer Imperative für empirische Untersuchungen. Viele Erkenntnistheoretiker haben verschiedene kategoriale Imperative für die induktive Untersuchung vorgeschlagen, beispielsweise in Form einer „induktiven Logik“oder von Normen der „epistemischen Rationalität“. Grundsätzlich gibt es drei mögliche Beziehungen zwischen hypothetischen und kategorialen Imperativen für empirische Untersuchungen.

1. Der kategorische Imperativ führt einen Fragesteller dazu, seine kognitiven Ziele zu erreichen. In diesem Fall bestätigt die Mittel-Zweck-Analyse den kategorischen Imperativ. Wenn wir zum Beispiel mit einer einfachen universellen Verallgemeinerung wie „Alle Raben sind schwarz“konfrontiert sind, haben wir oben gesehen, dass das Befolgen des popperianischen Rezepts, die fälschbare Verallgemeinerung zu übernehmen und daran festzuhalten, bis ein Gegenbeispiel erscheint, zu einer zuverlässigen Methode führt.

2. Der kategorische Imperativ kann einen Fragesteller daran hindern, seine Ziele zu erreichen. In diesem Fall schränkt der kategorische Imperativ den Untersuchungsumfang ein. Beispielsweise führt bei den beiden alternativen Verallgemeinerungen mit Ausnahmen das Prinzip der Aufrechterhaltung einer universellen Verallgemeinerung bis zu ihrer Fälschung zu einer unzuverlässigen Methode (vgl. [Kelly 1996, Kap. 9.4]).

3. Einige Methoden erfüllen sowohl den kategorischen Imperativ als auch die Untersuchungsziele, andere nicht. Dann können wir das Beste aus beiden Welten nehmen und jene Methoden wählen, die die Untersuchungsziele erreichen und kategorische Imperative erfüllen. (Siehe die weitere Diskussion in diesem Abschnitt.)

Für eine vorgeschlagene Untersuchungsnorm können wir eine Mittel-Zweck-Analyse anwenden, um zu fragen, ob die Norm die Untersuchungsziele unterstützt oder behindert. Dies war der Geist von Putnams Kritik an Carnaps Bestätigungsfunktionen [Putnam 1963]: Der Kern seines Aufsatzes war, dass Carnaps Methoden bei der Erkennung allgemeiner Muster nicht so zuverlässig waren wie andere Methoden. In jüngerer Zeit haben Lerntheoretiker die Kraft der Bayes'schen Konditionierung untersucht (siehe den Eintrag zur Bayes'schen Erkenntnistheorie). John Earman hat vermutet, dass es, wenn es für ein bestimmtes Problem eine zuverlässige Methode gibt, eine zuverlässige Methode gibt, die durch Bayes'sche Aktualisierung fortschreitet [Earman 1992, Ch.9, Sec.6]. Cory Juhl [1997] bestätigte teilweise Earmans Vermutung: Er bewies, dass dies zutrifft, wenn es nur zwei mögliche Beweise gibt (z. B. „Smaragd ist grün“vs. „Smaragd ist blau“). Der allgemeine Fall ist noch offen.

Der epistemische Konservatismus ist eine methodologische Norm, die zumindest seit Quines Vorstellung von einer „minimalen Verstümmelung“unserer Überzeugungen [1951] in der Philosophie eine herausragende Rolle spielt. Eine Version des epistemischen Konservatismus, wie wir oben gesehen haben, besagt, dass die Untersuchung einen stabilen Glauben suchen sollte. Eine andere Formulierung, die Quines näher kommt, ist das allgemeine Gebot, dass Glaubensänderungen angesichts neuer Erkenntnisse minimal sein sollten. Ziemlich neuere Arbeiten in der philosophischen Logik haben eine Reihe von Kriterien für eine minimale Änderung des Glaubens vorgeschlagen, die als Axiome der Hauptversammlung bekannt sind [Gärdenfors 1988]. Lerntheoretiker haben gezeigt, dass es immer dann, wenn es eine zuverlässige Methode zur Untersuchung einer empirischen Frage gibt, eine gibt, die über minimale Änderungen (wie in den Postulaten der Hauptversammlung definiert) erfolgt. Die Eigenschaften einer zuverlässigen Untersuchung mit minimalen Glaubensänderungen werden in [Martin und Osherson 1998, Kelly 1999,Baltag et al. 2015].

Ein Großteil der rechnergestützten Lerntheorie konzentriert sich auf Forscher mit begrenzter Rationalität, dh Agenten mit kognitiven Einschränkungen wie einem endlichen Gedächtnis oder begrenzten Rechenkapazitäten. Viele kategoriale Normen, die den empirischen Erfolg logisch allwissender Agenten nicht beeinträchtigen, schränken jedoch den Umfang kognitiv begrenzter Agenten ein. Betrachten Sie zum Beispiel die Norm der Konsistenz: Glauben Sie, dass eine Hypothese falsch ist, sobald die Beweise logisch nicht damit übereinstimmen. Das Konsistenzprinzip ist Teil sowohl der Bayes'schen Bestätigungstheorie als auch der Revision der Hauptversammlung. Kelly und Schulte [1995] zeigen, dass Konsistenz selbst Agenten mit unendlich nicht berechenbaren kognitiven Kräften daran hindert, bestimmte Hypothesen zuverlässig zu bewerten. Die Moral ist, dass, wenn eine Theorie ausreichend komplex ist,Agenten, die nicht logisch allwissend sind, können möglicherweise nicht sofort feststellen, ob ein bestimmtes Beweisstück mit der Theorie übereinstimmt, und müssen mehr Daten sammeln, um die Inkonsistenz zu erkennen. Das Konsistenzprinzip - und erst recht die Aktualisierung nach Bayes und die Überarbeitung der Hauptversammlung - erkennen jedoch nicht die Nützlichkeit von „abwarten und mehr sehen“als wissenschaftliche Strategie an.

Weitere Überlegungen zu diesen und anderen philosophischen Fragen in der Mittel-Zweck-Erkenntnistheorie finden sich in Quellen wie [Glymour 1991], [Kelly 1996, Chs. 2,3], [Glymour und Kelly 1992], [Kelly et al. 1997], [Glymour 1994], [Bub 1994]. Von besonderem Interesse für die Wissenschaftsphilosophie können lerntheoretische Modelle sein, die historistische und relativistische Untersuchungskonzepte berücksichtigen, hauptsächlich durch Erweiterung des Begriffs einer induktiven Methode, so dass Methoden aktiv Paradigmen für die Untersuchung auswählen können; Weitere Einzelheiten zu diesem Thema finden Sie unter [Kelly 2000, Kelly 1996, Ch.13]. Buchlängeneinführungen in die Mathematik der Lerntheorie sind [Kelly 1996, Martin und Osherson 1998, Jain et al. 1999]. "Induktion, algorithmische Lerntheorie und Philosophie" ist eine aktuelle Sammlung von Schriften zur Lerntheorie [Friend et al. 2007]. Zu den Beiträgen gehören Einführungsarbeiten (Harizanov, Schulte), mathematische Fortschritte (Martin, Sharma, Stephan, Kalantari), philosophische Überlegungen zu den Stärken und Implikationen der Lerntheorie (Glymour, Larvor, Friend) und Anwendungen der Theorie auf philosophische Probleme (Kelly). und eine Diskussion des lerntheoretischen Denkens in der Geschichte der Philosophie (Goethe).

Ergänzungsdokument: Grundlegende formale Definitionen

Literaturverzeichnis

  • Apsitis, K., 1994. „Abgeleitete Mengen und induktive Inferenz“, in Proceedings of the 5th International Work on Algorithmic Learning Theory, S. Arikawa, KP Jantke (Hrsg.), Berlin, Heidelberg: Springer, S. 26–39.
  • Baltag, A., Gierasimczuk, N. & Smets, S., 2015. "Zur Lösbarkeit induktiver Probleme: Eine Studie zur epistemischen Topologie.", Tagungsband der 15. Konferenz über theoretische Aspekte von Rationalität und Wissen (TARK 2015), R. Ramanujam (Hrsg.), Chennai: Institut für Mathematische Wissenschaften, S. 65–74, online verfügbar.
  • Bub, J., 1994. "Testen von Erkenntnismodellen durch Analyse gehirngeschädigter Leistung", British Journal for the Philosophy of Science, 45: 837–55.
  • Chart, D., 2000. 'Schulte und Goodmans Rätsel', British Journal for the Philosophy of Science, 51: 837–55.
  • Domingos, P., 1999. "Die Rolle von Occams Rasiermesser bei der Entdeckung von Wissen", Data Mining und Knowledge Discovery, 3 (4): 409–425.
  • Earman, J., 1992. Bayes oder Büste?, Cambridge, Mass.: MIT Press.
  • Feynman, R., 1965. Der Charakter des physikalischen Gesetzes, Cambridge, Mass.: MIT Press; 19. Auflage, 1990.
  • Friend, M. und N. Goethe und V. Harazinov (Hrsg.), 2007. Induktion, algorithmische Lerntheorie und Philosophie, Dordrecht: Springer, S. 111–144.
  • Ford, K., 1963. Die Welt der Elementarteilchen, New York: Blaisdell Publishing.
  • Gärdenfors, P., 1988. Knowledge In Flux: Modellierung der Dynamik epistemischer Zustände, Cambridge, Mass.: MIT Press.
  • Glymour, C., 1991. 'Die Hierarchien des Wissens und die Mathematik der Entdeckung', Minds and Machines, 1: 75–95.
  • –––, 1994. „Über die Methoden der kognitiven Neuropsychologie“, British Journal for the Philosophy of Science, 45: 815–35.
  • Glymour, C. und Kelly, K., 1992. "Thoroughly Modern Meno", Inferenz, Erklärung und andere Frustrationen, John Earman (Hrsg.), University of California Press.
  • Gold, E., 1967. 'Sprachidentifikation im Limit', Information and Control, 10: 447–474.
  • Goodman, N., 1983. Fakt, Fiktion und Prognose, Cambridge, MA: Harvard University Press.
  • Harrell, M., 2000. Chaos und zuverlässiges Wissen, Ph. D. Diplomarbeit, Universität von Kalifornien in San Diego.
  • Harman, G. und Kulkarni, S., 2007. Zuverlässiges Denken: Induktions- und statistische Lerntheorie, Cambridge, MA: The MIT Press.
  • . Jain, S., et al, 1999 - Systeme, die lernen, 2 nd Edition, Cambridge, MA: MIT Press.
  • James, W., 1982. "Der Wille zum Glauben", im Pragmatismus, HS Thayer (Hrsg.), Indianapolis: Hackett.
  • Juhl, C., 1997. 'Objectively Reliable Subjektive Probabilities', Synthese, 109: 293–309.
  • Kelly, K., 1996. Die Logik der zuverlässigen Untersuchung, Oxford: Oxford University Press.
  • –––, 1999. 'Iterierte Glaubensrevision, Zuverlässigkeit und induktive Amnesie', Erkenntnis, 50: 11–58.
  • –––, 2000. 'The Logic of Success', Britisches Journal für Wissenschaftstheorie, 51 (4): 639–660.
  • –––, 2007a. "Wie Einfachheit Ihnen hilft, die Wahrheit zu finden, ohne darauf hinzuweisen", in Induktion, algorithmische Lerntheorie und Philosophie, M. Friend, N. Goethe und V. Harazinov (Hrsg.), Dordrecht: Springer, S. 111–144.
  • –––, 2007b. "Ockhams Rasiermesser, Wahrheit und Information", in n Handbuch der Philosophie der Information, J. van Behthem und P. Adriaans (Hrsg.), Dordrecht: Elsevier, 2008.
  • –––, 2010. „Einfachheit, Wahrheit und Wahrscheinlichkeit“, im Handbuch für die Philosophie der Statistik, Prasanta S. Bandyopadhyay und Malcolm Forster (Hrsg.), Dordrecht: Elsevier.
  • Kelly, K. und Schulte, O., 1995. 'Die berechenbare Testbarkeit von Theorien, die nicht berechenbare Vorhersagen treffen', Erkenntnis, 43: 29–66.
  • Kelly, K., Schulte, O. und Juhl, C., 1997. 'Lerntheorie und Wissenschaftstheorie', Philosophy of Science, 64: 245–67.
  • Kuhn, T., 1970. Die Struktur wissenschaftlicher Revolutionen. Chicago: University of Chicago Press.
  • Luo, W. und Schulte O., 2006. „Mind Change Efficient Learning“, in Logic and Computation, 204: 989–1011.
  • Martin, E. und Osherson, D., 1998. Elemente der wissenschaftlichen Untersuchung, Cambridge, MA: MIT Press.
  • Ne'eman, Y. und Kirsh, Y., 1983. The Particle Hunters, Cambridge: Cambridge University Press.
  • Omnes, R., 1971. Einführung in die Teilchenphysik, London, New York: Wiley Interscience.
  • Putnam, H., 1963. "Grad der Bestätigung und induktive Logik", in der Philosophie von Rudolf Carnap, PA Schilpp (Hrsg.), La Salle, Ill: Open Court.
  • Putnam, H., 1965. „Versuchs- und Fehlerprädikate und die Lösung eines Problems von Mostowski“, Journal of Symbolic Logic, 30 (1): 49–57.
  • Quine, W., 1951. 'Zwei Dogmen des Empirismus', Philosophical Review, 60: 20–43.
  • Salmon, W., 1991. "Hans Reichenbachs Rechtfertigung der Induktion", Erkenntnis, 35: 99–122.
  • Schulte, O., 1999. 'Means-Ends Epistemology', Britisches Journal für Wissenschaftstheorie, 50: 1–31.
  • –––, 2008. 'Die gemeinsame Entdeckung von Naturschutzgesetzen und Teilchenfamilien', Studien zur Geschichte und Philosophie der modernen Physik, 39 (2): 288–314.
  • –––, 2009. „Gleichzeitige Entdeckung von Erhaltungsgesetzen und verborgenen Partikeln mit Smith-Matrix-Zerlegung“, in Proceedings der einundzwanzigsten internationalen gemeinsamen Konferenz über künstliche Intelligenz (IJCAI-09), Palo Alto: AAAI Press S. 1481-1487.
  • Schulte, O., Luo, W. und Greiner, R., 2007. "Mind Change Optimal Learning der Bayes-Netzstruktur" in Proceedings der 20. Jahreskonferenz über Lerntheorie (COLT'07, San Diego, CA, Juni 12–15), N. Bshouti und C. Gentile (Hrsg.), Berlin, Heidelberg: Springer, S. 187–202.
  • Sklar, L., 1975. "Methodological Conservatism", Philosophical Review, 84: 374–400.
  • Spirtes, P., Glymour, C., Scheines, R., 2000. Ursache, Vorhersage und Suche, Cambridge, MA: MIT Press.
  • Steel, D., 2009. „Testbarkeit und Ockhams Rasiermesser: Wie formale und statistische Lerntheorie im neuen Rätsel der Induktion zusammenwachsen“, Journal of Philosophical Logic, 38: 471–489.
  • Valiant, LG, 1984. „Eine Theorie des Lernbaren“, Proceedings of the Sixteenth Annual ACM Symposium on Theory of Computing (STOC 84), New York: ACM Press, S. 436–445.

Akademische Werkzeuge

Sep Mann Symbol
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • Artikel von Kevin Kelly über Ockhams Rasiermesser:

    • Effiziente Konvergenz impliziert Ockhams Rasiermesser.
    • Eine gründliche Rasur mit Realismus: Ockhams Rasiermesser aus effizienter Konvergenz
    • Rechtfertigung als Effizienz der Wahrheitsfindung: Wie Ockhams Rasiermesser funktioniert
    • Ockhams Rasiermesser, empirische Komplexität und Effizienz bei der Wahrheitsfindung
    • Ockhams Rasiermesser, Wahrheit und Information
  • Lerntheorie in der Informatik
  • Induktive Logik-Website zu formaler Lerntheorie und Glaubensrevision

Empfohlen: