Epistemischer Selbstzweifel

Inhaltsverzeichnis:

Epistemischer Selbstzweifel
Epistemischer Selbstzweifel

Video: Epistemischer Selbstzweifel

Video: Epistemischer Selbstzweifel
Video: Stärkung deiner Selbstliebe - Hypnose 2024, March
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Epistemischer Selbstzweifel

Erstveröffentlichung am 27. Oktober 2017

Und wenn ich behaupte, ein weiser Mann zu sein, bedeutet das sicherlich, dass ich es nicht weiß.

-Kansas

Es ist möglich, über viele Dinge Zweifel an sich selbst zu lenken. Man kann an seinen eigenen Motiven oder seiner Fähigkeit, Auto zu fahren, zweifeln. Man kann bezweifeln, dass man der Herausforderung gewachsen ist, eine schwere Krankheit zu bekämpfen. Epistemischer Selbstzweifel ist der Sonderfall, in dem wir an unserer Fähigkeit zweifeln, einen erkenntnistheoretisch günstigen Zustand zu erreichen, um beispielsweise wahre Überzeugungen zu erreichen. Angesichts unserer offensichtlichen Fehlbarkeit scheint es eine natürliche Sache zu sein, sich auf epistemische Selbstzweifel einzulassen, und es ist definitiv logisch nicht problematisch, an der Urteilsfähigkeit eines anderen zu zweifeln. Wenn wir jedoch solche Zweifel an uns selbst richten, scheint Inkohärenz zu drohen, weil man sein Urteil benutzt, um eine negative Bewertung seines Urteils vorzunehmen. Auch wenn diese Art von Selbstzweifeln als kohärent angesehen werden kann,Es gibt philosophische Herausforderungen, wie der innere Konflikt, der mit einem solchen Urteil verbunden ist, gelöst werden kann, ob das anfängliche Urteil oder der Zweifel gewinnen sollten und warum.

Einige Möglichkeiten, daran zu zweifeln, dass wir uns in einem günstigen epistemischen Zustand befinden, sind leicht zu verstehen und unproblematisch. Sokrates war zuversichtlich, die Antworten auf seine wichtigsten Fragen nicht zu kennen. Er glaubte, nicht die Antworten oder das richtige Verständnis der Antworten zu haben, die erforderlich wären, um zu wissen, was zum Beispiel Frömmigkeit, Tugend und Gerechtigkeit sind. Diese Anerkennung führte dazu, dass er es vermied, bestimmte Antworten auf seine Fragen zu billigen oder zu glauben, und motivierte ihn, durch die Stadt zu gehen und andere nach ihren Antworten zu fragen und unangenehme Beobachtungen über ihre Antworten zu machen. Obwohl die Behörden ihn dafür strafrechtlich verfolgten, war sein Vergehen keine epistemische Irrationalität; Der Glaube besagt, dass er Zweifel an sich selbst hatte, dass er die Antworten kannte, und dass mangelndes Vertrauen in bestimmte Antworten vernünftig zusammenpassen. Außerdem,Wie Sokrates seinen Gesprächspartnern sagte, hatte seine Anerkennung, dass er es nicht wusste, die heilsame Wirkung, es ihm zu ermöglichen, es herauszufinden. Wenn er sicher wäre, dass er es bereits wusste, hätte er keine Motivation, nach der Antwort zu suchen.

Nicht alle epistemischen Selbstzweifel sind so offensichtlich konstruktiv. Sokrates konnte hoffen, seine Antworten in Zukunft teilweise zu finden, weil sein Zweifel nicht auf seine Fähigkeiten gerichtet war, um Wissen zu erlangen, und die Angelegenheiten, in denen er sich für unwissend hielt, spezifisch und begrenzt waren. Dies ließ ihn von seinen Werkzeugen überzeugt sein und verfügte immer noch über viel Wissen, mit dem er bei der Suche nach seinen Antworten arbeiten konnte. Zum Beispiel war es Sokrates möglich, sowohl sicher zu sein, dass er nicht wusste, was Tugend ist, als auch zuversichtlich, dass es etwas Gutes für die Seele war. Im Gegensatz dazu machte sich Descartes in seinen Meditationen daran, sich von allen Überzeugungen zu befreien, um sein Glaubensgebäude von Grund auf neu aufzubauen, um jede Möglichkeit fehlerhafter Grundlagen zu vermeiden. Er tat dies, indem er Grund fand, an der Solidität seiner Fähigkeit zum Beispiel der Sinneswahrnehmung zu zweifeln. Anstatt seine empirischen Überzeugungen einzeln in Zweifel zu ziehen, bezweifelte er die Zuverlässigkeit ihrer Quelle, und das würde sie alle mit Argwohn bedecken und den Einfluss lockern, den selbst grundlegende Wahrnehmungsüberzeugungen in seinem Kopf hatten. Descartes 'epistemischer Selbstzweifel untergrub extrem das Vertrauen in eine glaubensbildende Fähigkeit und in das breite Spektrum der Überzeugungen, die dadurch in Frage gestellt wurden. Wie im Fall von Sokrates passen seine Glaubenszustände jedoch vernünftig zusammen; Als er sich davon überzeugte, dass er träumen könnte, was sein Vertrauen untergrub, dass er in der Lage war zu wissen, dass er Hände hatte, wurde er auch aus seinem Glauben heraus erschüttert, dass er Hände hatte. Lockerung des Einflusses, den selbst grundlegende Wahrnehmungsüberzeugungen in seinem Kopf hatten. Descartes 'epistemischer Selbstzweifel untergrub extrem das Vertrauen in eine glaubensbildende Fähigkeit und in das breite Spektrum der Überzeugungen, die dadurch in Frage gestellt wurden. Wie im Fall von Sokrates passen seine Glaubenszustände jedoch vernünftig zusammen; Als er sich davon überzeugte, dass er träumen könnte, was sein Vertrauen untergrub, dass er in der Lage war zu wissen, dass er Hände hatte, wurde er auch aus seinem Glauben heraus erschüttert, dass er Hände hatte. Lockerung des Einflusses, den selbst grundlegende Wahrnehmungsüberzeugungen in seinem Kopf hatten. Descartes 'epistemischer Selbstzweifel untergrub extrem das Vertrauen in eine glaubensbildende Fähigkeit und in das breite Spektrum der Überzeugungen, die dadurch in Frage gestellt wurden. Wie im Fall von Sokrates passen seine Glaubenszustände jedoch vernünftig zusammen; Als er sich davon überzeugte, dass er träumen könnte, was sein Vertrauen untergrub, dass er in der Lage war zu wissen, dass er Hände hatte, wurde er auch aus seinem Glauben heraus erschüttert, dass er Hände hatte. Dies untergrub sein Vertrauen, dass er in der Lage war zu wissen, dass er Hände hatte, und wurde auch aus seinem Glauben heraus erschüttert, dass er Hände hatte. Dies untergrub sein Vertrauen, dass er in der Lage war zu wissen, dass er Hände hatte, und wurde auch aus seinem Glauben heraus erschüttert, dass er Hände hatte.

Die Fälle von Sokrates und Descartes veranschaulichen, dass Urteile über den eigenen epistemischen Zustand und die Fähigkeit Gründe liefern können, die eigenen Überzeugungen über den Zustand der Dinge anzupassen. Es gibt weniger dramatische Fälle, in denen die Forderung der Rationalität nach einer Übereinstimmung zwischen den eigenen Überzeugungen (Überzeugungen erster Ordnung) und den eigenen Überzeugungen über die eigenen Überzeugungen (Überzeugungen zweiter Ordnung) in der Verletzung zu sehen ist. Angenommen, ich bin ein Arzt, der sich gerade für eine Emboliediagnose für einen Patienten entschieden hat, als mich jemand darauf hinweist, dass ich seit 36 Stunden nicht mehr geschlafen habe (Christensen 2010a). Beim Nachdenken stelle ich fest, dass sie Recht hat, und wenn ich vernünftig bin, werde ich den Druck verspüren, zu glauben, dass mein Urteilsvermögen beeinträchtigt sein könnte, mein Vertrauen in die Emboliediagnose etwas verringern und meine Aufarbeitung des Falls oder erneut überprüfen Fragen Sie nach der Meinung eines Kollegen.

Obwohl in diesem Fall klar zu sein scheint, dass eine erneute Prüfung der Angelegenheit erster Ordnung erforderlich ist, ist nicht sofort klar, wie stark die Autorität der zweiten Ordnung im Vergleich zur ersten Ordnung sein könnte, um zu einem aktualisierten Glauben an die Diagnose zu gelangen. und es gibt klare Fälle, in denen die zweite Ordnung nicht vorherrschen sollte. Wenn mir jemand sagt, dass ich unabsichtlich ein halluzinogenes Medikament eingenommen habe, dann erfordert dies auf den ersten Blick weitere Überlegungen meinerseits, aber wenn ich weiß, dass die Person ein praktischer Witzbold ist und ein Grinsen im Gesicht hat, dann scheint dies nicht zulässig meine Überzeugungen erster Ordnung zu überdenken. Es gibt auch Fälle, in denen nicht klar ist, welche Reihenfolge Vorrang haben soll. Angenommen, ich bin zuversichtlich, dass der Mörder die Nummer 3 in der Aufstellung ist, weil ich den Mord aus nächster Nähe miterlebt habe. Dann erfahre ich aus der empirischen Literatur, dass Augenzeugen im Allgemeinen übermütig sind, insbesondere wenn sie das Ereignis in einem Stresszustand miterlebt haben (Roush 2009: 252–3). Es scheint, ich sollte an meiner Identifikation zweifeln, aber wie kann es gerechtfertigt sein, meine Beweise erster Ordnung wegzuwerfen, die daraus resultieren, dass ich diese Person direkt persönlich und aus der Nähe gesehen habe? Eine Entscheidung zwischen der ersten und der höheren Ordnung ist erforderlich, aber es ist nicht offensichtlich, welche allgemeinen Regeln für die Bestimmung des Konfliktausgangs gelten oder was genau sie rechtfertigen würde.persönlich und hautnah? Eine Entscheidung zwischen der ersten und der höheren Ordnung ist erforderlich, aber es ist nicht offensichtlich, welche allgemeinen Regeln für die Bestimmung des Konfliktausgangs gelten oder was genau sie rechtfertigen würde.persönlich und hautnah? Eine Entscheidung zwischen der ersten und der höheren Ordnung ist erforderlich, aber es ist nicht offensichtlich, welche allgemeinen Regeln für die Bestimmung des Konfliktausgangs gelten oder was genau sie rechtfertigen würde.

Fragen zu epistemischen Selbstzweifeln können in fünf übergreifende Fragen unterteilt werden: 1) Kann das Zweifeln selbst, ein Zustand des Glaubenszustands und des Zweifelns, dass es der richtige ist, rational sein? 2) Woher stammt die Autorität von Überzeugungen zweiter Ordnung? 3) Gibt es allgemeine Regeln für die Entscheidung, auf welcher Ebene das Tauziehen gewonnen werden soll? Wenn ja, was ist ihre Rechtfertigung? 4) Worin besteht die übereinstimmende Beziehung, auf die diese Entscheidung abzielt? 5) Wenn eine Nichtübereinstimmung zwischen den Ebenen rational sein kann, wenn man zum ersten Mal Grund zum Zweifeln bekommt, ist es auch rational erlaubt, in einem ebenenaufspaltenden Zustand zu bleiben - auch bekannt als epistemische Akrasie (Owens 2002) -, in dem sich der selbstzweifelhafte Konflikt befindet gepflegt?

Der Einfachheit halber können Ansätze zur Modellierung von Zweifeln an der eigenen Urteilsfähigkeit und an den fünf oben genannten Fragen in vier Typen unterteilt werden, die sich überlappen und ergänzen und nicht inkonsistent sind. Ein Ansatz besteht darin, das selbstzweifelhafte Thema als epistemisch wenig schmeichelhafte kategorische Aussagen über das Verhältnis ihrer Überzeugungen zur Welt zu betrachten. Eine andere Möglichkeit besteht darin, durch bedingte Prinzipien zu fragen, wie die Glaubwürdigkeit eines Subjekts in q gegeben werden soll, dass es eine bestimmte Glaubwürdigkeit in q hat, aber denkt, dass es epistemisch unangemessen oder kompromittiert sein könnte. Ein dritter Ansatz besteht darin, Zweifel an seinem Urteil dahingehend auszulegen, dass Beweise über sich selbst und seine Beweise respektiert werden (Beweise höherer Ordnung). Ein vierter Ansatz verbindet die erste und zweite Ordnung, indem er die Idee verwendet, dass wir unser Vertrauen in p an unsere erwartete Zuverlässigkeit anpassen sollten. Das heißt, wenn wir uns wie Messinstrumente behandeln, sollten wir darauf abzielen, kalibriert zu werden.

  • 1. Wie weit können uns Konsistenz und Kohärenz bringen? Kategorialer selbstzweifelhafter Glaube
  • 2. Bedingte Prinzipien

    • 2.1 Synchrone Reflexion und Selbstachtung
    • 2.2 Was würde das maximal rationale Subjekt tun?
  • 3. Beweise höherer Ordnung
  • 4. Kalibrierung und objektive Wahrscheinlichkeit höherer Ordnung

    • 4.1 Kalibrierung erraten
    • 4.2 Beweiskalibrierung
    • 4.3 Kalibrierung mit höherer Wahrscheinlichkeit
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Wie weit können uns Konsistenz und Kohärenz bringen? Kategorialer selbstzweifelhafter Glaube

Es scheint, dass Konsistenz und Kohärenz nicht stark genug sind, um uns zu sagen, wie die Beziehung zwischen der ersten und der zweiten Ordnung bei epistemischen Selbstzweifeln aussehen sollte, genauso wie sie nicht ausreichen, um zu erklären, was ist falsch mit Moore-paradoxen Aussagen (siehe Eintrag zu epistemischen Paradoxien). In letzterem behaupte ich entweder „p und ich glaube nicht p“oder „p und ich glaube nicht p“. In beiden Fällen besteht ein Mangel an Übereinstimmung zwischen meinem Glauben und meinem Glauben an meinen Glauben, aber die Überzeugungen, die ich gleichzeitig halte, sind inhaltlich nicht inkonsistent. Was ich über mich selbst sage, wäre konsequent und durchaus vernünftig, wenn jemand anderes über mich sagen würde, also: „p, aber sie glaubt p nicht“. In ähnlicher Weise gibt es nichts Widersprüchliches in der Behauptung „In der Ferne befindet sich eine Katze, die schwer kurzsichtig ist“.obwohl es ein Problem mit der Behauptung der ersten Person zu geben scheint: "Es ist eine Katze in der Ferne und ich bin kurzsichtig", wenn meine Behauptung über die Katze auf der Grundlage des Sehens gemacht wird und ich keinen Hinweis darauf gebe, dass ich meine die zweite Klausel als Qualifikation der ersten. Mein Vertrauen in die Katze hätte durch mein Bewusstsein für die Einschränkung meiner Sicht gemildert werden müssen. Wenn es allgemeine Prinzipien der Rationalität gibt, die den Selbstzweifel unserer Fähigkeiten oder unseres Fachwissens regeln, scheint es, dass sie über die Kohärenz zwischen den Überzeugungen hinausgehen müssen. Mein Vertrauen in die Katze hätte durch mein Bewusstsein für die Einschränkung meiner Sicht gemildert werden müssen. Wenn es allgemeine Prinzipien der Rationalität gibt, die den Selbstzweifel unserer Fähigkeiten oder unseres Fachwissens regeln, scheint es, dass sie über die Kohärenz zwischen den Überzeugungen hinausgehen müssen. Mein Vertrauen in die Katze hätte durch mein Bewusstsein für die Einschränkung meiner Sicht gemildert werden müssen. Wenn es allgemeine Prinzipien der Rationalität gibt, die den Selbstzweifel unserer Fähigkeiten oder unseres Fachwissens regeln, scheint es, dass sie über die Kohärenz zwischen den Überzeugungen hinausgehen müssen.

Konsistenz und Kohärenz schränken jedoch ein, was ein Subjekt über die Zuverlässigkeit seiner Überzeugungen glauben kann, wenn es mit der Annahme kombiniert wird, dass das Subjekt weiß, was seine Überzeugungen sind. (Dies findet sich auch für Moores Paradoxon und wird in Shoemakers Herangehensweise an dieses Problem verwendet; Shoemaker 1994.) Eine Möglichkeit, einen Extremfall zu formulieren, in dem man glaubt, dass das eigene epistemische System nicht gut funktioniert, besteht darin, sich selbst zuzuschreiben, was Sorensen Anti nennt -Expertise (Sorensen 1988: 392f.). Im einfachsten Fall ist S genau dann ein Anti-Experte für p, wenn

Anti-Expertise (A)

Entweder glaubt S, dass p und p falsch sind, oder S glaubt nicht, dass p und p wahr sind.

Sorensen wies darauf hin, dass wenn S konsequent ist und genau weiß, was ihre Überzeugungen sind, sie nicht glauben kann, dass sie eine Anti-Expertin ist. Denn wenn S p glaubt, dann glaubt sie durch vollkommene Selbsterkenntnis, dass sie p glaubt, aber ihre Überzeugungen, dass p und sie glauben, dass p zusammen mit beiden Disjunkten von A unvereinbar sind. Ähnlich für den Fall, in dem S nicht glaubt p. Dieses Phänomen verallgemeinert sich vom direkten Glauben zum Grad des Glaubens und vom perfekten Wissen über den eigenen Glauben zum anständigen, aber unvollkommenen Wissen über sie (Egan & Elga 2005: 84ff.).

Zu glauben, dass Sie ein Anti-Experte sind, ist nicht mit Kohärenz und angemessenem Wissen über Ihre eigenen Überzeugungen vereinbar. Zu leugnen, dass die Kenntnis unserer eigenen Überzeugungen ein Erfordernis der Rationalität ist, wäre nicht hilfreich, da der zweifelhafte Zweifel daran, dass die eigenen Überzeugungen solide geformt sind, eine gute Vorstellung davon zu erfordern scheint, was sie sind. Egan und Elga befürworten die Ansicht, dass Ihre Antwort auf diese Tatsache in Bezug auf Anti-Expertise darin bestehen sollte, Kohärenz und anständige Selbsterkenntnis des Glaubens aufrechtzuerhalten und nicht zu glauben, dass Sie ein Anti-Experte sind. Man kann sich jedoch Beispiele vorstellen, bei denen der Beweis, dass Sie inkompetent sind, so überwältigend ist, dass man denken könnte, Sie sollten glauben, Sie seien ein Anti-Experte, auch wenn Sie dadurch inkohärent werden (Conee 1987; Sorensen 1987, 1988; Richter 1990; Christensen 2011)..

Das Problem der kohärenten Selbstzuweisung von Unzuverlässigkeit verschwindet nicht, wenn der Grad der Unzuverlässigkeit bescheidener ist. Betrachten Sie die folgende Eigenschaft:

Ich bin nicht perfekt (INP)

(P ((P (q) gt.99 / amp -q) textrm {oder} (P (q) lt.01 / amp q)) gt.05)

Dies besagt, dass Sie zu mindestens 5% davon überzeugt sind, dass Sie von q sehr überzeugt sind, obwohl es falsch ist, oder dass Sie kein Vertrauen in q haben, obwohl es wahr ist. Es ist eine aufgeweichte Version von Anti-Fachwissen, und Sie können es nicht kohärent erfüllen, haben (P (q)>.99) und haben perfektes Wissen über Ihre Überzeugungen. Denn in diesem Fall ist (P (P (q)>.99) = 1), was bedeutet, dass INP nur wahr sein kann, wenn (P (-q)>.05). Aber (P (-q)>.05) impliziert (P (q).99). Der Punkt bleibt bestehen, wenn Sie unvollkommen, aber gut wissen, was Ihre Überzeugungen sind. Der durch INP zum Ausdruck gebrachte Selbstzweifel ist recht bescheiden, aber nicht konsequenter, als sich selbst Anti-Fachwissen zuzuschreiben, und dies gilt für jeden Wert der rechten Seite von INP, der nicht gleich (P (-q) ist).

Egan und Elga glauben, dass die Bedeutung von Beweisen für Anti-Zuverlässigkeit berücksichtigt wird, indem sie es als Verpflichtung eines Subjekts ansehen, ihren Glauben erster Ordnung zu revidieren. Ihre Ansicht impliziert jedoch, dass eine solche Überarbeitung durchgeführt werden muss, um rational zu sein, ohne sich selbst Anti-Fachwissen zuzuschreiben. Man kann natürlich jederzeit überarbeiten, aber jede Überarbeitung sollte einen Grund oder eine Motivation haben. Wenn man der Möglichkeit, ein Anti-Experte zu sein, überhaupt keinen Glauben schenkt, was ist dann der Grund, seinen Glauben erster Ordnung zu revidieren? Es scheint keinen anderen Weg zu geben, die Beweise Ihrer Anti-Expertise zu berücksichtigen, als ihrer Möglichkeit etwas Glauben zu schenken. Egan und Elga sagen, dass der Glaube, zu dem die Beweise ein Thema führen sollten, darin besteht, dass sie eine Anti-Expertin war und dass dies sie zu einer Überarbeitung führen sollte (Egan & Elga 2005: 86). Aber wenn sie Inkohärenz vermeidet, indem sie Anti-Expertise nur einem früheren Selbst zuschreibt, dann kann dieser Glaube nicht dazu führen, dass sie ihre aktuelle Sichtweise revidiert. Wenn sie ihrem gegenwärtigen Selbst kein Anti-Fachwissen zuschreibt, gibt sie ihrem gegenwärtigen Selbst keinen Grund zur Überarbeitung.

Das gleiche Problem kann bei der Behandlung von Fällen mit selbstzuschreibender weniger extremer Unzuverlässigkeit (wie INP) durch Egan und Elga gesehen werden, die sie als unproblematisch betrachten. Stellen Sie sich eine Person mit wachsenden Beweisen vor, dass sein Gedächtnis nicht mehr das ist, was es einmal war. Welche Auswirkung sollte dies auf seine Überzeugungen über die Namen der Schüler haben? Sie vergleichen, was mit seiner Zuversicht passiert, dass ein bestimmter Schüler „Sarah“heißt, wenn er Gegenbeweise hört - zum Beispiel jemanden, der sie „Kate“nennt - in dem Fall, in dem er es getan hat, und in dem Fall, in dem er seine Beweise nicht genommen hat Gedächtnisverlust berücksichtigen. Durch eine Bayes'sche Berechnung schließen sie, dass, wenn er die Beweise über sein Gedächtnis nicht berücksichtigt hat, der Gegenbeweis zu seiner besonderen Überzeugung, dass der Student Sarah heißt, seine Überzeugung, dass sie Sarah ist, verringert,aber es macht so viel weniger, als es hätte, wenn er die Beweise über sein Gedächtnis berücksichtigt hätte.

Diese Analyse stellt jedoch dar, dass die Beweise über das eigene Gedächtnis nur implizit berücksichtigt werden, als ein Effekt, den diese Beweise bereits auf die vorherige Wahrscheinlichkeit hatten, dass der Student Sarah ist. Dieser Effekt ist der Unterschied zwischen einer vorherigen Wahrscheinlichkeit von 0,99 und 0,90 oder dem Grad des Glaubens. Die Unterscheidung, die dann zwischen den Auswirkungen, die Gegenbeweise auf den Selbstzweifel und den Nicht-Selbstzweifel haben können, abgeleitet wird, ist nur der bekannte Punkt, dass Gegenbeweise eine größere Wirkung haben, je niedriger die anfängliche Wahrscheinlichkeit ist.

Dies sagt uns nicht, wie wir Nachrichten über den Rückgang der Zuverlässigkeit mit dem Glauben erster Ordnung in Einklang bringen können, sondern nur, wie wir andere Beweise über die Angelegenheit erster Ordnung behandeln können, wenn man dies getan hat. Die Frage sollte sein, wie sich die Beweise über das Gedächtnis auf unsere Überzeugungen auswirken sollten, und um dies zu beantworten, muss gesagt werden, wie und warum diese Beweise über sein Gedächtnis dazu führen sollten, dass unser Fach ein anfängliches Vertrauen von 0,90 statt 0,99 hat, dass der Student Sarah war. Sicherlich muss man sich selbst eine verminderte Zuverlässigkeit zuschreiben, wenn man einen Grund haben will, seine Überzeugung erster Ordnung, dass der Student Sarah war, auf der Grundlage von Beweisen einer verminderten Zuverlässigkeit zu revidieren. Sogar ein rohes Gefühl der Rötung einer Blume muss zu einer Zuschreibung von Rot an die Blume werden, damit die Erfahrung davon andere Überzeugungen beeinflusst, wie zum Beispiel, dass es ein angemessenes Geschenk wäre oder nicht. Selbst Beweise, die auf ein geringes Maß an Unzuverlässigkeit hinweisen, wie bei INP oben, stellen uns vor ein Trilemma: Entweder schreiben wir uns selbst inkohärent Unzuverlässigkeit zu, aber wir überarbeiten und haben eine Rechtfertigung dafür, oder wir schreiben Unzuverlässigkeit und Überarbeitung ohne Begründung kohärent nicht zu Also, oder wir bleiben kohärent, indem wir die Unzuverlässigkeit nicht zuschreiben und nicht überarbeiten und Beweise für unsere Unzuverlässigkeit ignorieren. Es scheint, dass es einem rationalen Subjekt nicht möglich ist, Beweise für seine eigene Unzuverlässigkeit anzuerkennen und ihren Glauben erster Ordnung auf dieser Grundlage zu aktualisieren. Wie bei INP oben stellt uns ein Trilemma dar: Entweder schreiben wir uns selbst inkohärent Unzuverlässigkeit zu, aber wir überarbeiten und haben eine Rechtfertigung dafür, oder wir schreiben Unzuverlässigkeit und Überarbeitung nicht kohärent zu, ohne dies zu rechtfertigen, oder wir bleiben kohärent, indem wir dies nicht tun Attribut Unzuverlässigkeit und nicht überarbeiten, ignorieren Beweise für unsere Unzuverlässigkeit. Es scheint, dass es einem rationalen Subjekt nicht möglich ist, Beweise für seine eigene Unzuverlässigkeit anzuerkennen und ihren Glauben erster Ordnung auf dieser Grundlage zu aktualisieren. Wie bei INP oben stellt uns ein Trilemma dar: Entweder schreiben wir uns selbst inkohärent Unzuverlässigkeit zu, aber wir überarbeiten und haben eine Rechtfertigung dafür, oder wir schreiben Unzuverlässigkeit und Überarbeitung nicht kohärent zu, ohne dies zu rechtfertigen, oder wir bleiben kohärent, indem wir dies nicht tun Attribut Unzuverlässigkeit und nicht überarbeiten, ignorieren Beweise für unsere Unzuverlässigkeit. Es scheint, dass es einem rationalen Subjekt nicht möglich ist, Beweise für seine eigene Unzuverlässigkeit anzuerkennen und ihren Glauben erster Ordnung auf dieser Grundlage zu aktualisieren. Beweise für unsere Unzuverlässigkeit ignorieren. Es scheint, dass es einem rationalen Subjekt nicht möglich ist, Beweise für seine eigene Unzuverlässigkeit anzuerkennen und ihren Glauben erster Ordnung auf dieser Grundlage zu aktualisieren. Beweise für unsere Unzuverlässigkeit ignorieren. Es scheint, dass es einem rationalen Subjekt nicht möglich ist, Beweise für seine eigene Unzuverlässigkeit anzuerkennen und ihren Glauben erster Ordnung auf dieser Grundlage zu aktualisieren.

Dieser Ansatz, der Konsistenz (oder Kohärenz) plus Selbsterkenntnis des Glaubens verwendet, bietet eine Möglichkeit, darzustellen, was ein Zustand des Selbstzweifels ist. Es impliziert vernünftigerweise, dass es irrational ist, in einem solchen Zustand zu bleiben, aber es impliziert auch, dass es irrational ist, überhaupt in diesem Zustand zu sein, was unklar macht, wie Selbstzweifel ein Grund für eine Überarbeitung sein könnten. Der Ansatz identifiziert eine Art von Übereinstimmung, die die Rationalität erfordert: Geben Sie der Möglichkeit, dass man ein schlechter Richter von q ist, nicht mehr Glauben als man not-q. Andere Fragen bleiben jedoch unbeantwortet. Wenn das rationale Subjekt an seinem Urteil zweifelt, sollte es sich dann auf Beweise erster Ordnung oder auf Beweise zweiter Ordnung über die Zuverlässigkeit seines Urteils erster Ordnung stützen? Nach welchen Regeln sollte sie entscheiden und wie können sie gerechtfertigt werden?

2. Bedingte Prinzipien

2.1 Synchrone Reflexion und Selbstachtung

Wir könnten die Beziehungen, die Rationalität zwischen Ihren Überzeugungen und Ihren Überzeugungen über sie erfordert, besser verstehen, indem wir zu den Anforderungen an Konsistenz und Kohärenz ein Brückenprinzip zwischen den beiden Ordnungen hinzufügen, das über die bedingte (subjektive) Wahrscheinlichkeit ausgedrückt wird. Bedingte Wahrscheinlichkeiten geben an, wie hoch Ihr Glaubensgrad an einen Satz ist (sollte), wenn ein anderer Satz gegeben ist. Hier sind die relevanten Sätze ein Satz erster Ordnung q und der Satz, dass man einen Glaubensgrad x an q hat. Ein erster Versuch, eine Situation darzustellen, in der meine Überzeugungen auf beiden Ebenen nicht übereinstimmen, ergibt sich aus dem offensichtlichen Konflikt mit der synchronen Instanz des Reflexionsprinzips (van Fraassen 1984).

Reflexion

(P_0 (q / mid P_1 (q) = x) = x)

Reflexion besagt, dass der Grad des Glaubens meines gegenwärtigen Selbst an q gegeben ist, vorausgesetzt, mein zukünftiges Selbst wird glauben, dass der Grad x x sein sollte. Dies impliziert die Tatsache, dass ihre Glaubensgrade als Wahrscheinlichkeiten dargestellt werden, dass mein zukünftiges Selbst kohärent ist, aber dies allein schließt nicht aus, dass ihr Urteilsvermögen auf andere Weise beeinträchtigt wird - wie zum Beispiel, als Ulysses dies erwartete von den Sirenen fasziniert sein - und das Prinzip kann für solche Fälle in Frage gestellt werden (Sobel 1987; Christensen 1991; van Fraassen 1995). Der Selbstzweifel, den wir uns vorstellen, ist jedoch einer, den das Subjekt über seine aktuellen Überzeugungen und die synchrone Version von Reflection hat

Synchrone Reflexion (SR)

(P_ {0} (q / mid P_ {0} (q) = x) = x)

was besagt, dass mein Grad an Glauben an q jetzt gegeben ist, da ich jetzt glaube, dass q bis Grad x x sein sollte, scheint weniger offen für Fragen zu sein. Christensen (2007b) nennt dieses Prinzip auch Self-Respect (SR). Dies ist nicht die Tautologie, die ich glaube, wenn ich q bis Grad x glaube, dann glaube ich q bis Grad x, denn in einer logisch äquivalenten Form ist das Prinzip

Synchrone Reflexion / Selbstachtung (SR)

([P_ {0} (q / amp P_ {0} (q) = x) mid P_ {0} (P_ {0} (q) = x)] = x)

was sich weder aus der deduktiven Logik noch aus den Wahrscheinlichkeitsaxiomen allein ergibt. Aber SR wurde weithin als unbedenklich und nach Ansicht einiger sogar als unbestreitbares Erfordernis der Rationalität anerkannt (van Fraassen 1984: 248; Vickers 2000: 160; Koons 1992: 23-Skyrms 1980 sieht eine Version davon als nützlich an, die er Miller nennt Prinzip, obwohl er auch zeigt, dass es Gegenbeispielen unterliegt).

Während ich mir vernünftigerweise vorstellen kann, dass mein zukünftiges Selbst epistemisch kompromittiert ist und meiner Ehrerbietung nicht würdig ist, würde eine Verletzung der SR erfordern, mein aktuelles Selbst als epistemisch kompromittiert zu betrachten, da es einen Grad an Glauben hat, der anders sein sollte als er ist. Dies scheint etwas zu sein, was Zweifel an meinem eigenen Urteil erfordern würden. In diesem Fall hängt es davon ab, ob SR ein Erfordernis der Rationalität ist, ob Selbstzweifel rational sein können.

SR kann als rationales Ideal durch niederländische Strategieargumente verteidigt werden, jedoch nicht durch die stärkste Art niederländischer Buchargumente (Sobel 1987; Christensen 1991, 2007b: 328–330, 2010b; Briggs 2010-Roush 2016 argumentiert, dass es nicht verteidigt werden kann als Voraussetzung für ein niederländisches Buchargument überhaupt). Es wurde argumentiert, dass es fraglich, wenn nicht falsch ist, weil es im Widerspruch zum Prinzip der epistemischen Unparteilichkeit steht, wonach wir im Allgemeinen nicht die bloße Tatsache, dass wir einen Glauben haben, als Grund nehmen sollten, diesen Glauben mehr zu haben als wir die bloße Tatsache, dass andere diesen Glauben haben (Christensen 2000: 363–4; Evnine 2008: 139–143; Roush 2016). [1]

Trotzdem wird der Probabilist - einer, der glaubt, dass Rationalität probabilistische Kohärenz erfordert - Schwierigkeiten haben, SR zu widerstehen, da SR analog zu dem, was wir oben mit Anti-Expertise gesehen haben, aus Kohärenz folgt, wenn es durch die weitere Annahme ergänzt wird, dass das Subjekt perfekt ist Kenntnis ihrer eigenen Überzeugungen. Dies erklärt jedoch wenig intuitiv, warum SR bindend sein sollte. Selbst jemand, der perfekt weiß, dass er einen Glauben hat, sollte sich vernünftig fragen können, ob es ein Glaube ist, den er haben sollte. Dass die perfekte Kenntnis unserer Überzeugungen eine Voraussetzung für Rationalität ist, kann auf vielfältige Weise angezweifelt werden (Williamson 2000; Christensen 2007b: 327–328; Roush 2016). Wie oben für die Diskussion hier, wird das Problem jedoch nicht überwunden, wenn man leugnet, dass Rationalität die Kenntnis unserer eigenen Überzeugungen erfordert. Selbstkorrektur, die von Nutzen sein wird, erfordert ein gewisses Maß an Genauigkeit in Bezug auf die eigenen Überzeugungen, und selbst wenn ein Subjekt keine perfekte Selbsterkennungskohärenz aufweist, stellt es dennoch reflektierende Anforderungen. Christensen (2007b: 332) hat festgestellt, dass je näher ein kohärentes Thema der perfekten Kenntnis seiner Überzeugungen kommt, desto eher wird er SR befriedigen.

SR hat etwas zu empfehlen, aber es scheint eine Regel zu sein, gegen die ein Selbstzweifel verstoßen wird. Betrachten Sie unseren verschlafenen Arzt. Es sieht so aus, als ob sie, sobald sie darauf hingewiesen wird, wie lange es her ist, seit sie geschlafen hat, ihr derzeitiges Vertrauen in q, ihre Emboliediagnose, als höher ansehen sollte, als es sein sollte. Das heißt, sie würde ein Prinzip instanziieren, das wir Refraktion nennen könnten:

Brechung

(P_ {0} (q / mid P_ {0} (q) = x) <x)

Anscheinend ist ihr Grad an Überzeugung, dass es sich um eine Embolie handelt, da sie den Grad an Überzeugung hat, dass es sich um eine Embolie handelt, kleiner als x, was der SR widerspricht. Oder stellen Sie sich vor, dass die Person, die mir erzählt, dass eine halluzinogene Droge in meinen Kaffee eingedrungen ist, ein vertrauenswürdiger Freund ist, der weder scherzt noch grinst. Ich scheine verpflichtet zu sein, einige meiner gegenwärtigen Glaubensgrade als höher anzusehen, als sie sein sollten.

Brechung ist eine Art, einen Zustand des Selbstzweifels darzustellen, in dem ich den Grad des Glaubens, den ich (glaube ich) habe, nicht als den richtigen betrachte. Aber trotz der Tatsache, dass das Thema sich selbst nicht kategorisch Unzuverlässigkeit zuschreibt, wie wir es im letzten Abschnitt getan haben, ist Refraktion nicht mit der Kombination von Kohärenz und Kenntnis der eigenen Überzeugungen vereinbar, da die beiden letzteren zusammen SR implizieren. In dieser Darstellung des Selbstzweifels ist es nach dem probabilistischen Standard nicht rational.

Man könnte dieses Urteil verteidigen, indem man sagt, dass die Ausnahme die Regel bestätigt: Wenn ich wirklich denke, dass mein Grad an Glauben an q anders sein sollte als er ist, sagen wir, weil ich merke, dass ich stark verschlafen bin, dann sollte ich es sicherlich entsprechend ändern, bis ich Kommen Sie zu einer Glaubwürdigkeit, die ich gutheiße, und an diesem Punkt werde ich SR zufriedenstellen. Selbst wenn es ideal ist, sich in dem von SR beschriebenen Zustand der Selbstachtung zu befinden, scheint es falsch zu sein, zu sagen, dass ein Zustand der Missbilligung des Glaubens erster Ordnung angesichts der Beweise für ein beeinträchtigtes Urteilsvermögen irrational ist. In einem solchen Fall scheint es irrational, nicht in einem Zustand des Selbstzweifels zu sein. Darüber hinaus ist unklar, wie eine Revision von einem Staat, der gegen SR verstößt, zu einem Staat, der SR entspricht, rational sein kann. Vielen Probabilisten zufolge ist der rationale Weg, Überzeugungen zu revidieren, die Konditionalisierung. Wo die neuen Glaubensgrade von dem stammen, was die vorherige Funktion gesagt hat, sollte ihnen der neue Glaube gegeben werden, der die Überarbeitung veranlasst (siehe Einträge zu Interpretationen der Wahrscheinlichkeit und zum Bayes-Theorem). Das heißt, jede Änderung des Glaubens wird durch die bedingten Wahrscheinlichkeiten der Funktion bestimmt, von der aus man sich ändert. Eine Änderung des Glaubens auf der Grundlage eines Glaubens darüber, was mein Glaube ist, hängt also vom Wert von (P_i (q / mid P_i (q) = x)) ab. Wenn der Wert von (P_i (q / mid P_i (q) = x)) nicht bereits x ist, führt eine Konditionalisierung unter Verwendung dieser bedingten Wahrscheinlichkeit nicht notwendigerweise zu (P_f (q / mid P_f (q) = x) = x), wie von SR gefordert, und es ist schwer zu sehen, wie es könnte. Bei diesem Ansatz scheint ähnlich wie beim vorherigen der gesamte Zyklus epistemischer Selbstzweifel und Auflösung für ein probabilistisch rationales Subjekt nicht verfügbar zu sein.

Wenn wir epistemischen Selbstzweifel als Verstoß gegen die synchrone Reflexion (Selbstachtung) darstellen, ist dies für eine kohärente Person, die ihre Überzeugungen kennt, nicht rational. Dies ist eine allgemeine Regel, die in allen Fällen das gleiche Urteil liefert, dass die Ordnungen übereinstimmen müssen, und sie gibt die Form dieser Übereinstimmung in Bezug auf eine bedingte Wahrscheinlichkeit an. Die zweite Ordnung befindet sich auf dem Fahrersitz, da die Bedingung in der bedingten Wahrscheinlichkeit von SR, die einen Wert für den Satz erster Ordnung q bestimmt, selbst eine Wahrscheinlichkeitserklärung ist, aber SR kann nicht zu einer Änderung des Glaubens erster Ordnung führen, wenn dies nicht der Fall ist Ich weiß nicht, was man an q glaubt. Wie beim obigen Ansatz über kategoriale Aussagen repräsentiert dieser einfache Ansatz über die bedingte Wahrscheinlichkeit nicht den Zyklus von Selbstzweifeln und Auflösung, wie er einem rationalen Subjekt zur Verfügung steht.

2.2 Was würde das maximal rationale Subjekt tun?

Eine andere Möglichkeit, Selbstzweifel mit bedingter Wahrscheinlichkeit darzustellen, folgt dem intuitiven Gedanken, dass ich meinen Glaubensgrad erster Ordnung auf das Vertrauen zuschneiden sollte, das das maximal rationale Subjekt meiner Meinung nach hätte, wenn es sich in meiner Situation befände (Christensen 2010b: 121). Dies wäre eine vernünftige Erklärung für die Autorität von Überzeugungen höherer Ordnung, warum ihre Berücksichtigung gerechtfertigt wäre. Es gibt eine halbe Antwort auf die Frage, wann die erste Ordnung auf die zweite Ordnung verschoben werden sollte und nicht, indem eine Klasse von Anweisungen zweiter Ordnung identifiziert wird, auf die sich die erste Ordnung immer verschieben muss. Es wirft jedoch die Frage zurück, welche einzelnen Aussagen dies sind, auf die Frage, welche Wahrscheinlichkeitsfunktion die maximal rationale ist.

Ein bedingtes Prinzip, das die Idee erfassen würde, sich der Ansicht eines idealen Agenten zu widersetzen, der in seinen Schuhen steckte, ist:

[Cr (q / mid P_ {M} (q) = x) = x)

(Christensen 2010b), der besagt, dass die Glaubwürdigkeit in q angesichts der Tatsache, dass das maximal rationale Subjekt in der eigenen Situation die Glaubwürdigkeit x in q hat, x sein sollte. Das maximal rationale Subjekt gehorcht den Wahrscheinlichkeitsaxiomen und hat möglicherweise weitere Rationalitätseigenschaften, die man möglicherweise nicht selbst besitzt, obwohl angenommen wird, dass es sich in Ihrer Situation befindet und nicht mehr Beweise hat als Sie. Wenn man sich selbst an die Wahrscheinlichkeitsaxiome hält, wird dieses Prinzip:

RatRef

(P (q / mid P_ {M} (q) = x) = x)

Dies besagt, dass Ihre Glaubwürdigkeit in q das sein sollte, was Sie für Ihre Situation als die maximal rationale Glaubwürdigkeit ansehen, eine Idee, mit der es schwer zu argumentieren scheint. Es ist eine Variante eines Prinzips, das von Haim Gaifman (1988) verwendet wird, um eine Theorie der Wahrscheinlichkeit höherer Ordnung zu konstruieren. Dort wurde die Rolle von (P_ {M}) einer sogenannten Expertenfunktion übertragen, die in seiner Verwendung den Wahrscheinlichkeiten eines Subjekts entspricht, das über maximale Kenntnisse verfügt.

RatRef gibt einen vernünftigen Überblick über Fälle wie den verschlafenen Arzt. Es würde sagen, der Grund, warum die Erkenntnis, dass ihr der Schlaf entzogen ist, sie weniger zuversichtlich in ihre Diagnose machen sollte, ist, dass eine maximal rationale Person in ihrer Situation ein geringeres Vertrauen haben würde. Darüber hinaus bietet dies uns die Möglichkeit, den Zustand des Selbstzweifels kohärent darzustellen, selbst wenn wir genau wissen, was die eigenen Glaubenszustände sind. Man kann den Grad des Glaubens y an q haben, und man kann sogar glauben, dass man den Grad des Glaubens y hat, dh glauben, dass (P (q) = y), im Einklang mit dem Glauben, dass der maximal rationale Agent den Grad von hat Glaube x, dh (P_ {M} (q) = x), weil dies zwei verschiedene Wahrscheinlichkeitsfunktionen sind.

Da Selbstzweifel nicht wie bei SR als Verstoß gegen die bedingte Wahrscheinlichkeit RatRef definiert sind, können wir auch eine Überarbeitung sehen, die Sie vom Selbstzweifel dazu führt, dass Ihr Vertrauen dem des maximal rationalen Subjekts entspricht Konditionalisierung. Möglicherweise haben Sie den Grad des Glaubens y an q, entdecken, dass das maximal rationale Subjekt den Grad des Glaubens x hat, und weil Sie die bedingte Wahrscheinlichkeit haben, dass RatRef sich mit diesem idealen Subjekt in Einklang bringt. Beachten Sie, dass es nicht erforderlich ist, eine explizite Überzeugung darüber zu haben, wie hoch Ihr eigener Glaube an q ist, damit diese Überarbeitung erfolgt oder rational ist.

RatRef hat Probleme, die am einfachsten zu erkennen sind, wenn man eine Verallgemeinerung in Betracht zieht:

Rationale Reflexion (RR)

(P (q / mid P '\ textrm {ist ideal}) = P' (q))

Rational Reflection (Elga 2013) vertritt die Idee, dass mein Grad an Glauben an q mit dem übereinstimmen sollte, den das maximal rationale Subjekt in meiner Situation haben würde, hebt aber auch die Tatsache hervor, dass meine Bestimmung, was dieser Wert ist, von meiner Identifizierung abhängt Welche Wahrscheinlichkeitsfunktion ist die maximal rationale? Ich kann kohärent sein, wenn ich mir darüber nicht sicher bin, und es gibt Fälle, in denen dies die rationalste Option zu sein scheint. Dies ist an sich kein Problem, da RR mit der Verwendung eines erwarteten Wertes für das ideale Subjekt übereinstimmt, einem gewichteten Durchschnitt der Werte für q der Subjekte, von denen ich denke, dass sie das maximal rationale Subjekt sind. Aber nicht nur ich bin mir nicht sicher, wer das maximal rationale Thema ist. Wahrscheinlich ist das maximal rationale Thema selbst unsicher, ob sie es ist -Dies ist eine zufällige Tatsache, und man könnte denken, dass das Vertrauen eines jeden von empirischen Beweisen abhängen sollte (Elga 2013).

Die Möglichkeit dieser Kombination von Dingen führt zu einem Problem für RR, denn wenn das Subjekt, das tatsächlich das maximal rationale ist, nicht sicher ist, ob sie es ist, dann wird sie, wenn sie RR folgt, ihrem eigenen Urteil erster Ordnung über q nicht voll vertrauen Aber wenn ich es korrigiere, wird es auf einen gewichteten Durchschnitt der Urteile jener Themen korrigiert, von denen sie glaubt, dass sie das maximal rationale sind. In diesem Fall sollte mein Grad an Glauben an q, da sie das maximal rationale Subjekt ist, nicht ihr Grad an Glauben an q sein. Es sollte die sein, die sie haben würde, wenn sie sicher wäre, dass sie das maximal rationale Thema ist:

Neue rationale Reflexion (NRR)

(P (q / mid P '\ textrm {ist ideal}) = P' (q / mid P '\ textrm {ist ideal}))

Dieses Prinzip (Elga 2013) ist auch mit Problemen konfrontiert, die im Folgenden durch den Ansatz des Selbstzweifels über Beweise höherer Ordnung entwickelt werden.

Der Ansatz, zu fragen, was das maximal rationale Subjekt tun würde, motiviert die Idee, dass Beweise zweiter Ordnung Autorität in Bezug auf Überzeugungen erster Ordnung haben, und setzt wie der SR-Ansatz die zweite Ordnung durch eine Wahrscheinlichkeitserklärung auf den Fahrersitz im Zustand der bedingten Wahrscheinlichkeit. Dies scheint Beweise zweiter Ordnung bedingungslos zu autorisieren, aber Beweise zweiter Ordnung werden das Urteil erster Ordnung des Subjekts nicht ändern, wenn sie glaubt, dass letztere bereits das ist, was das maximal rationale Subjekt denken würde. Der Ansatz stellt Selbstzweifel als einen kohärenten Zustand dar, den man auch durch Konditionalisierung kohärent überarbeiten kann. Es identifiziert einen Zustand der Übereinstimmung zwischen den Befehlen, die das Vertrauen eines Menschen mit der bestmöglichen Vermutung des Vertrauens des maximal rationalen Subjekts in Einklang bringen. Dies gibt eine allgemeine Regel,und fordert die gleiche Übereinstimmung für alle Fälle, gibt jedoch keine explizite Anleitung, wie zu bestimmen ist, welches das maximal rationale Subjekt oder der Grad des Glaubens ist.

3. Beweise höherer Ordnung

Fragen nach der Rationalität (oder Vernünftigkeit oder Rechtfertigung) und der Bedeutung epistemischer Selbstzweifel können als Fragen entwickelt werden, ob und wie Beweise über die eigenen Beweise zu respektieren sind. Beweise höherer Ordnung sind Beweise dafür, welche Beweise man besitzt oder welche Schlussfolgerungen die Beweise stützen (siehe Eintrag zu Beweisen). Diese Frage nach dem Ergebnis von Beweisen höherer Ordnung hängt in erster Linie nicht davon ab, ob wir solche Beweise als notwendig für die Rechtfertigung von Überzeugungen erster Ordnung ansehen. Die Frage ist, wie sich unsere Überzeugungen auf unsere Überzeugungen über unsere Überzeugungen beziehen sollten, wenn wir zufällig Beweise für unsere Beweise haben, wie wir es oft tun (Feldman 2005; Christensen 2010a; Kelly 2005, 2010).

Selbstzweifel sind ein Sonderfall der Reaktion auf Beweise höherer Ordnung. Nicht alle Beweise für unsere Beweise entstehen aus Selbstzweifeln, weil nicht alle Beweise über sich selbst sind, wie wir weiter unten sehen werden. Um selbstzweifelhafte Situationen als Reaktion auf Beweise für meine Beweise darzustellen, müssen Informationen über meine Fähigkeiten nur insofern wichtig sein, als sie Beweise dafür liefern, dass ich meine Beweise entweder falsch identifiziert oder die Unterstützungsbeziehung zwischen meinen Beweisen und meiner Schlussfolgerung falsch bewertet habe. Zum Beispiel im Fall des oben genannten Arztes, der Beweise dafür erhält, dass sie stark verschlafen ist, sollte sie ihre Diagnose überdenken, weil dies ein Beweis dafür ist, dass sie entweder beim Lesen der Labortests falsch liegt oder denkt, dass die Beweise für das Labor vorliegen Tests und Symptome unterstützen ihre Diagnose. Im Gegensatz dazu sieht der vierte Ansatz unten über die Kalibrierung nicht die Auswirkungen von Selbstzweifeln als notwendigerweise über Beweise für unsere Beweise oder Beweisunterstützung an.

Wie der Ansatz über den maximal rationalen Agenten hat der Beweisansatz die Tugend, eine Rechtfertigung für die Reaktion auf die Überzeugungen zweiter Ordnung zu identifizieren, die Selbstzweifel mit sich bringen. Ihre Autorität beruht auf den Tatsachen, dass sie Beweise dafür sind, ob man gute Beweise für seinen Glauben erster Ordnung hat, und dass man seine Beweise respektieren sollte. Dies weckt die Hoffnung, dass das, was wir bereits über Beweise wissen, dazu beitragen kann, zu klären, wann negative Beweise zweiter Ordnung einen Glauben erster Ordnung außer Kraft setzen sollten und wann nicht. Viele Autoren haben gedacht, dass in beiden Fällen die Rationalität erfordert, dass die beiden Ordnungen in gewissem Sinne übereinstimmen, aber wir werden weiter unten sehen, dass neuere Überlegungen zu Beweisen dazu geführt haben, dass einige die Rationalität der ersten und zweiten Ordnung verteidigen in einigen Fällen Glaube an Spannung. Eine weitere Tugend des Beweisansatzes besteht darin, dass das bloße Wissen über Ihre Überzeugungen nicht automatisch bedeutet, dass ein Zustand des Selbstzweifels inkonsistent oder inkohärent ist, wie dies in den ersten beiden oben genannten Ansätzen über kategoriale Überzeugungen und bedingte Prinzipien der Fall war. Es gibt keinen offensichtlichen Widerspruch, wenn man sowohl an q glaubt als auch daran, dass die eigenen Beweise q nicht unterstützen, selbst wenn man auch den richtigen Glauben hat, dass man an q glaubt. Was also irrational an dem Staat sein kann, muss auf weiteren Überlegungen beruhen. Selbst wenn man auch den richtigen Glauben hat, dass man an q glaubt, muss das, was am Staat irrational sein kann, auf weiteren Überlegungen beruhen. Selbst wenn man auch den richtigen Glauben hat, dass man an q glaubt, muss das, was am Staat irrational sein kann, auf weiteren Überlegungen beruhen.

Der Evidenzansatz höherer Ordnung kann am Beispiel der Hypoxie sinnvoll entwickelt werden, einem Zustand der Beeinträchtigung des Urteilsvermögens, der durch einen Mangel an ausreichend Sauerstoff verursacht wird und der vom Betroffenen zu Beginn selten erkannt wird. Hypoxie ist ein Risiko in Höhen von 10.000 Fuß und höher (Christensen 2010b: 126–127). Angenommen, Sie sind ein Pilot, der während des Flugs eine Neuberechnung durchführt, um zu dem Schluss zu kommen, dass Sie mehr als genug Treibstoff haben, um zu einem Flughafen zu gelangen, der fünfzig Meilen weiter liegt als in Ihrem ursprünglichen Plan. Angenommen, Sie blicken dann auf den Höhenmesser, um festzustellen, dass Sie sich in einer Höhe von 10.500 Fuß befinden, und erinnern sich an das Phänomen der Hypoxie und ihren heimtückischen Beginn. Sie haben jetzt Beweise dafür, dass Sie möglicherweise an Hypoxie leiden, und haben daher möglicherweise die Unterstützungsbeziehungen zwischen Ihren Beweisen und Ihrer Schlussfolgerung falsch identifiziert. Sind Sie jetzt berechtigt zu glauben, dass Sie zum weiter entfernten Flughafen gelangen können? Sind Sie berechtigt zu glauben, dass Ihre Beweise diese Behauptung stützen?

Wenn F der Vorschlag ist, dass Sie über genügend Treibstoff verfügen, um zum weiter entfernten Flughafen zu gelangen, sind die folgenden vier Antworten möglich:

  1. Sie sind im Glauben F gerechtfertigt, aber nicht mehr gerechtfertigt zu glauben, dass Ihre (1 st -dem) Beweise unterstützt F.
  2. Sie sind in der Annahme, F und gerechtfertigt gerechtfertigt zu glauben, dass Ihre (1 st -dem) Beweise unterstützt F.
  3. Sie sind nicht in der Annahme, F, gerechtfertigt und nicht zu glauben, dass Ihre (1 gerechtfertigt st -dem) Beweise unterstützt F.
  4. Sie sind nicht in der Annahme, F gerechtfertigt, aber Sie sind in der Annahme, dass Ihre (1 gerechtfertigt st -dem) Beweise unterstützt F.

4) scheint nicht plausibel; Selbst wenn Sie sich nicht dazu bringen können, F zu glauben, rechtfertigt es Sie, wenn Sie zu Recht glauben, dass Ihre Beweise F auf den ersten Blick unterstützen, F zu glauben.

Keine der anderen Antworten scheint jedoch auch völlig angemessen zu sein. Es mag wie in 1 scheinen, dass Sie immer noch berechtigt sein könnten, F zu glauben - falls Ihre Berechnung tatsächlich richtig war -, aber keinen Grund mehr genug zu glauben, dass die Berechnung richtig war. Dies würde jedoch auch bedeuten, dass Sie zu Recht „F, aber meine allgemeinen Beweise unterstützen F nicht“glauben könnten. Feldman (2005: 110–111) argumentiert, dass es unmöglich ist, dass dieser Glaube sowohl wahr als auch vernünftig ist, da die zweite Konjunktion die Vernünftigkeit der ersten Konjunktion untergräbt (vgl. Bergmann 2005: 243; Gibbons 2006: 32; Adler 2002). Und wenn Sie sich dieses Glaubens bewusst wären, würden Sie glauben, dass etwas, von dem Sie wissen, dass es unvernünftig ist, wenn es wahr ist. Sie würden nach Ansicht von Feldman und anderen die Beweise missachten. Der Zustand, in dem Sie glauben, dass „F und meine Beweise F nicht unterstützen“, ist ein Fall von „Level-Splitting“, auch epistemische Akrasie genannt, weil Sie glauben, dass Sie keinen bestimmten Glaubenszustand haben sollten, aber Sie haben ihn trotzdem.

Die zweite Antwort - Sie sind berechtigt, F zu glauben, und berechtigt zu glauben, dass Ihre Beweise F unterstützen - könnte in einigen Fällen vernünftig erscheinen, zum Beispiel wenn die Beweise für die eigenen Beweise in Form skeptischer philosophischer Argumente vorliegen, die man auch für möglich hält recherchiert, um Revisionen in unseren alltäglichen Überzeugungen zu befehlen. Aber diese Haltung scheint im Allgemeinen kaum akzeptabel zu sein, da dies bedeuten würde, niemals einen Glauben erster Ordnung zu begründen, wenn Beweise vorgelegt werden, dass Sie sich möglicherweise irren, was Ihre Beweise implizieren. Beim Fliegen von Flugzeugen kann diese Art von Steifheit sogar gefährlich sein. Feldman zählt jedoch die zweite Antwort als einen möglichen Weg, die Beweise zu respektieren;Dies könnte nicht nur angesichts radikaler skeptischer Argumente angebracht sein, sondern auch in Fällen, in denen die anfängliche Ansicht darüber, was die Beweise erster Ordnung stützen, tatsächlich richtig ist.

Die dritte Antwort, dass man nach dem Feststellen der Höhenmesserbeweise nicht berechtigt ist zu glauben, dass seine Beweise F unterstützen, und auch nicht berechtigt ist zu glauben, dass F die Tugend der Vorsicht hat, aber auch die Konsequenz, dass die Höhenmesserbeweise Sie der Rechtfertigung des Glaubens berauben F auch wenn Sie nicht an Hypoxie leiden, was Feldman als problematisch ansieht. Diese Antwort respektiert jedoch im Gegensatz zur ersten Antwort die Beweise höherer Ordnung; Die Höhenmesser-Beweise geben Ihnen einen Grund zu der Annahme, dass Sie an Hypoxie leiden könnten, was Ihnen einen Grund zu der Annahme gibt, dass Ihre Beweise F nicht unterstützen. Das Unglück, Ihres Wissens beraubt zu werden, selbst wenn Sie keine Hypoxie haben, ist ein Beispiel für das bekannte Unglück, irreführende Beweise im Allgemeinen zu haben. Wie wir jedoch in Kürze sehen werden,Irreführende selbstzweifelhafte Beweise höherer Ordnung unterscheiden sich von anderen Beweisen höherer Ordnung, und einige neuere Autoren wurden dadurch zu der Ansicht geführt, dass Option 1 über Akrasie in einigen Fällen rationaler sein kann als Option 3.

Insbesondere stimmen in beiden Antworten, die Feldman als mögliche Wege zur Achtung der Beweise zählt, 2) und 3) die Einstellungen erster und höherer Ordnung überein; man ist entweder berechtigt, F zu glauben und zu glauben, dass seine Beweise F unterstützen, oder es ist nicht gerechtfertigt, F zu glauben, und es ist auch nicht gerechtfertigt, zu glauben, dass seine Beweise F unterstützen. Wenn man Beweise erhält, die darauf hindeuten, dass seine Beweise die Schlussfolgerung nicht stützen, sollte man entweder behaupten, dass dies den Glauben erster Ordnung unterstützt und aufrechterhält - „standhaft“sein - oder gewähren, dass es den Glauben erster Ordnung möglicherweise nicht stützt und den Glauben aufgibt Letzteres sei „versöhnlich“. Wenn man der Meinung ist, dass die richtige Antwort je nach Fall unterschiedlich ist, ist die Ansicht „Gesamtbeweis“attraktiv. Ob die erste Ordnung der zweiten zugestehen sollte, hängt von der relativen Stärke der Beweise auf jeder Ebene ab. (Kelly 2010)

In den versöhnlichen Fällen wirken selbstzweifelhafte Beweise höherer Ordnung als Verfechter der Rechtfertigung des Glaubens, was die Frage nach Ähnlichkeiten und Unterschieden mit anderen Besiegern aufwirft. In der Terminologie von John Pollock (1989) sind einige Rechtfertigungsdefizite für eine Schlussfolgerung Widerlegungen, dh sie sind lediglich Beweise gegen die Schlussfolgerung, während andere Niederlagenunterbieter sind. Sie untergraben die Beziehung zwischen den Beweisen und der Schlussfolgerung. (Diese werden auch als Defeater vom Typ I und Typ II bezeichnet.) Die Pilotin, die wir uns vorgestellt hatten, würde einen widerlegenden Defeater ihrer Rechtfertigung dafür bekommen, zu glauben, dass sie genug Treibstoff für zusätzliche 50 Meilen hatte, wenn sie aus dem Fenster schaute und sah, dass Treibstoff austrat aus ihrem Tank. Wenn der Höhenmesser jedoch ein Defeater ist,Als Beweis dafür, ob sie aus ihren Beweisen die richtige Schlussfolgerung gezogen hat, handelt es sich definitiv um eine Unterbietung.

Alle Unterschneider sind Beweise, die Auswirkungen auf die Beziehung zwischen Beweisen und Schlussfolgerungen haben, und insofern sind sie Beweise höherer Ordnung. Die Beweise höherer Ordnung, die zu Selbstzweifeln führen, unterscheiden sich jedoch von anderen Beweisen vom Typ Unterbietung. Im klassischen Defeater-Fall vom Typ II ist die Rechtfertigung für die Annahme, dass ein Stoff rot ist, dass er rot aussieht, und dann erfährt man, dass der Stoff mit rotem Licht beleuchtet ist. Dieser Beweis untergräbt Ihre Rechtfertigung für die Annahme, dass das rot aussehende Tuch ein ausreichender Beweis dafür ist, dass es rot ist, indem Sie Informationen über ein Merkmal der Beleuchtung geben, das eine alternative Erklärung für das rot aussehende Tuch liefert. Dies sind Beweise höherer Ordnung, da es sich um Beweise für die Ursache Ihrer Beweise und damit um Beweise für die Unterstützungsbeziehung zwischen ihnen und der Schlussfolgerung handelt. Bei Beweisen höherer Ordnung in den Fällen des Arztes und des Piloten geht es jedoch nicht darum, wie die Beweise verursacht wurden, und nicht direkt darum, wie die für die Schlussfolgerung relevanten Angelegenheiten in der Welt miteinander zusammenhängen.

Selbstzweifelhafte Defeater handeln von Agenten und sind darüber hinaus agentenspezifisch (Christensen 2010a: 202). Sie basieren auf Informationen über Sie, die Person, die zu dem Schluss über diese Unterstützungsbeziehung gekommen ist, und haben nur für Ihre Schlussfolgerung direkte negative Auswirkungen. Im Falle des Stoffes würde jeder mit den gleichen Beweisen seine Rechtfertigung durch die Beweise des roten Lichts untergraben. Die Beweise, dass der Arzt verschlafen hat, würden jedoch die Rechtfertigung eines anderen Arztes nicht beeinträchtigen, der aus denselben Beweisen zu derselben Schlussfolgerung mit demselben Hintergrundwissen argumentiert hatte. Der Beweis, dass der Pilot einem Hypoxie-Risiko ausgesetzt ist, wäre kein Grund für eine Person vor Ort, die aus denselben Instrumentenablesungen zu derselben Schlussfolgerung gelangt war.den Glauben aufzugeben, dass das Flugzeug genug Treibstoff für weitere fünfzig Meilen hatte.

Christensen argumentiert, dass die Agentenspezifität von selbstzweifelhaften Beweisen höherer Ordnung es erfordert, dass das Subjekt seine Beweise erster Ordnung auf eine Weise „klammert“, wie dies bei anderen besiegenden Beweisen nicht der Fall ist. Er glaubt, dass dies bedeutet, dass sie, wenn sie die Beweise nicht mehr verwendet, um die Schlussfolgerung zu ziehen, nicht in der Lage sein wird, ihre Beweise zu begründen (Christensen 2010a: 194–196). Im Gegensatz dazu gilt im Fall des roten Lichts und in anderen Fällen, in denen kein Selbstzweifel besteht, wenn die Rötung des Lichts zu den Beweisen hinzugefügt wird, das Abwerten des Aussehens des Stoffes nicht als Nichtbeachtung dieser Beweise, weil dies der Fall ist berechtigt zu glauben, dass es nicht mehr gebührend Respekt als Beweis für Rötung ist. Der Unterschied besteht jedoch wohl nicht darin, dass der Selbstzweifel die Beweise nicht fällig machen muss. In den Fällen von Selbstzweifeln höherer Ordnung haben wir gesehen, dass die unterbotenen Beweise dem Subjekt keinen Grund zu der Annahme geben, dass die Beweisbeziehung, von der sie vermutete, dass sie dort war, nicht vorhanden ist. Es gibt Anlass zu der Annahme, dass sie nicht weiß, ob die Beweisbeziehung vorhanden ist, auch wenn dies der Fall ist. Wenn es dann nicht darum geht, ihre Beweise erster Ordnung in Klammern zu setzen, versäumt sie es nicht, ihr die Schuld zu geben; es ist kein Respekt gebührt. Da selbstzweifelhafte Besiegungsbeweise das Wissen des Subjekts über die Beweisunterstützungsbeziehung und nicht die Beziehung selbst betreffen, erscheint sie schwächer als typische Besiegungsbeweise. Es ist jedoch möglicherweise ätzender, weil es nicht die Möglichkeit bietet, zu klären, ob die von ihr befürwortete Beweisbeziehung vorhanden ist und ob die Beweise erster Ordnung Respekt verdienen.

Wenn die Pilotin den Glauben an F aufgibt und sie in Bezug auf die Beweisbeziehung Recht hatte, ist sie Opfer eines irreführenden Besiegers geworden. Irreführende Defeater stellen bekannte Schwierigkeiten für eine Rechtfertigungstheorie dar, die auf der Idee der Niederlage basiert, da Defeater vom Typ II auf unbestimmte Zeit weiteren Defeatern ausgesetzt sein können. Wenn man zum Beispiel durch Zeugnis erfahren hätte, dass das Licht, das das Tuch beleuchtet, rot ist, würde die Niederlage der Rechtfertigung, zu glauben, das Tuch sei rot, durch gute Beweise dafür besiegt, dass die Quelle ein pathologischer Lügner war. Wenn wir sagen, dass berechtigter Glaube erfordert, dass es keine Besieger gibt, führt dies dazu, dass wir jeden Fall disqualifizieren, in dem ein irreführender Besiegener existiert, und ein Subjekt verliert die Rechtfertigung, die es möglicherweise hatte, selbst wenn die irreführenden Besiegenden entfernte Tatsachen sind, die es nicht ist bewusst. Wenn wir jedoch die Ansicht verfeinern, dass nur Defeater, für die es keinen Defeater gibt, die Rechtfertigung untergraben, gilt ein Subjekt als gerechtfertigt, selbst wenn sie Beweise ignoriert, die nach allem, was sie weiß, wie ein Defeater aussehen, weil es einen Defeater-Defeater gibt, den sie hat weiß nicht über. Im Allgemeinen werden wir uns der Frage stellen, wie viele und welche der vorhandenen Defeater-Defeater von Bedeutung sind, wenn wir einen berechtigten Glauben haben (Harman 1973; Lycan 1977). Im Allgemeinen werden wir uns der Frage stellen, wie viele und welche der vorhandenen Defeater-Defeater von Bedeutung sind, wenn wir einen berechtigten Glauben haben (Harman 1973; Lycan 1977). Im Allgemeinen werden wir uns der Frage stellen, wie viele und welche der vorhandenen Defeater-Defeater von Bedeutung sind, wenn wir einen berechtigten Glauben haben (Harman 1973; Lycan 1977).

Wenn unser Pilot trotz einer Höhe von 10.500 Fuß die Berechnung korrekt durchgeführt hat, dann haben ihre Beweise erster Ordnung ihren Glauben verdient, und ihre Beweise aus ihrer Höhe und dem Phänomen der Hypoxie waren ein irreführender Besieger. Es war ein guter Grund, sich Sorgen zu machen, dass ihr Blutsauerstoff niedrig war, aber möglicherweise nicht niedrig, und es wäre ihr grundsätzlich möglich, weitere Beweise zu erhalten, die diese Ansicht stützen würden, beispielsweise durch Ablesen eines Fingerpulsoximeters. Irreführende Besieger sind nicht neu, aber nur wenige wären versucht zu sagen, wenn man Beweise dafür erhält, dass das Licht rot ist, dass es für das Subjekt vernünftig wäre, beide zu glauben: „Meine Beweise stützen nicht die Behauptung, dass das Tuch rot ist "Und" das Tuch ist rot ". Jedoch,Für selbstzweifelhafte Typ-II-Besieger haben mehrere Autoren behauptet, dass eine solche Aufteilung der Ebenen rational sein kann.

Zum Beispiel hat Williamson (2011) argumentiert, dass es möglich ist, dass die Beweiswahrscheinlichkeit eines Satzes ziemlich hoch ist, während es auch sehr wahrscheinlich ist, dass die Beweiswahrscheinlichkeit niedrig ist. Zum Beispiel könnte ein Beweis über sich selbst darauf hindeuten, dass man einen Fehler gemacht hat, der seine Beweise bewertet, eine Art Fehler, der dazu führen würde, dass man eine nicht unterstützte Schlussfolgerung glaubt, F. Man bewertet die Beweiswahrscheinlichkeit von F aufgrund seiner Sicht auf seine Beweise als hoch, glaubt jedoch, dass F durchaus wahr sein könnte, ohne dass man daran glaubt, dass es Wissen ist.

Eine andere Art zu argumentieren, dass es rational erforderlich sein kann, auf eine echte Unterstützungsbeziehung zu reagieren - das heißt, für den Piloten, F zu glauben -, selbst wenn man Beweise hat, dass es möglicherweise nicht existiert, und sollte daher auch glauben, dass seine Beweise nicht existieren (oder vielleicht nicht) diese Überzeugung unterstützen, mit dem Gedanken, dass eine rationale Norm nicht aufhört zu gelten, nur weil ein Thema Beweise hat, dass sie es nicht befolgt hat (Weatherson 2008, 2010 (Andere Internetquellen); Coates 2012). Diese Begründung würde keine Akrasie für jemanden sanktionieren, der erfuhr, dass das Licht rot war, da der Punkt auf Fälle beschränkt ist, in denen die besiegten Beweise das Thema betreffen; Wir haben oben gesehen, dass dies die besiegten Beweise schwächer macht, und es ist auf die richtige Weise schwächer, um diesen Ansatz zu unterstützen.

Eine andere Möglichkeit zu argumentieren, dass Akrasie rational sein kann, besteht darin, die Existenz einer Unterstützungsbeziehung als ausreichend zu betrachten, um den Glauben an einen Satz zu rechtfertigen, ob das Subjekt korrekte Überzeugungen über diese Unterstützungsbeziehung hat oder nicht (Wedgwood 2011). Dies ist durch den Externalismus in Bezug auf Rechtfertigung motiviert (siehe Eintrag zu internalistischen und externalistischen Vorstellungen von epistemischer Rechtfertigung), der für Rechtfertigungen plausibler sein könnte, die selbstzweifelhaften Beweisen höherer Ordnung unterliegen, weil sie schwächer sind als andere unterbotene Beweise. In einem anderen Ansatz wurde argumentiert, dass es sehr schwierig sein wird, eine allgemeine Regel zu finden, die negative, selbstzweifelhafte Beweise höherer Ordnung benötigt, um immer eine Niederlage gegen Überzeugungen erster Ordnung auszuüben. Weil das Subjekt aufgefordert wird, sich rational zu verhalten, wenn Beweise dafür vorliegen, dass es sich nicht rational verhalten hat,Sie unterliegt Normen, die widersprüchliche Ratschläge geben, und vollständig allgemeine Regeln für die Entscheidung zwischen solchen Regeln unterliegen Paradoxien (Lasonen-Aarnio 2014).

Möglicherweise ist das Einzige, was schwieriger ist, als eine vollständig allgemeine Regel zu verteidigen, bei der die Übereinstimmung erster und zweiter Ordnung erforderlich ist, die intuitiven Konsequenzen von Level-Splitting oder Akrasia zu akzeptieren. In dieser Situation glaubt man, dass ein bestimmter Glaubenszustand irrational ist (oder sein könnte), bleibt aber trotzdem darin. Horowitz (2014) hat die Nicht-Akrasie-Beschränkung (manchmal auch als Enkratisches Prinzip bezeichnet) verteidigt, die es verbietet, sowohl in „q“als auch in „meine Beweise unterstützen q nicht“sehr zuversichtlich zu sein, unter anderem mit der Argumentation, dass das Zulassen von Akrasia eine hohe Leistung erbringt kontraintuitive Folgefolgen in Paradigmenfällen von Beweisen höherer Ordnung. Wenn unsere Pilotin zum Beispiel das Vertrauen behält, dass F, hat sie genug Treibstoff,Wie sollte sie erklären, wie sie zu einem Glauben an F kam, den sie für wahr hält, wenn sie auch glaubt, dass ihre Beweise F nicht unterstützen? Es scheint, dass sie sich nur sagen kann, dass sie Glück gehabt haben muss.

Sie konnte sich weiter sagen, dass, wenn der Grund, warum sie trotz des Höhenmessers weiterhin an F glaubte, darin bestand, dass sie tatsächlich einen niedrigen Blutsauerstoffgehalt hatte, es wirklich ein Glück war, dass sie diese Hypoxie hatte! Andernfalls wäre sie bei der korrekten Bewertung ihrer gesamten Beweise zu dem falschen Glauben gekommen, dass nicht- F. Aus diesem Grund würde die Pilotin ihr Vertrauen in F als Grund nutzen, um zu glauben, dass der Höhenmesserwert ein irreführender Defeater war, was kein guter Weg zu sein scheint, dies herauszufinden. Wenn sie dieses Argument mehrmals vorbrachte, konnte sie die so gewonnene Erfolgsbilanz nutzen, um sich selbst als zuverlässig zu beurteilen (Christensen 2007a, b; White 2009; Horowitz 2014 - für eine allgemeine Diskussion darüber, was mit Bootstrapping nicht stimmt siehe Vogel 2000 und Cohen 2002). Akrasia sanktioniert auch entsprechend seltsames Wettverhalten.

In dem Maße, in dem New Rational Reflection (des vorherigen Abschnitts) eine Übereinstimmung zwischen Überzeugungen erster und zweiter Ordnung erfordert, gilt dies als Nicht-Akrasia-Prinzip. Diese besondere Übereinstimmungsanforderung unterliegt jedoch mehreren Beweisproblemen, die von Lasonen-Aarnio (2015) herausgebracht wurden. Es erfordert inhaltliche Annahmen über Beweise und die Aktualisierung unserer Überzeugungen, die nicht offensichtlich sind, und scheint den Internalismus über die Rationalität, der sie anscheinend motiviert, nicht zu respektieren, nämlich die eigene Meinung darüber, in welchen Zuständen es rational ist, mit den Zuständen übereinzustimmen, in denen man sich tatsächlich befindet Darüber hinaus scheint New Rational Reflection nicht die attraktive Idee zu verkörpern, dass ein Subjekt im Allgemeinen rational immer unsicher sein kann, ob es rational ist, dhSelbst die ideale Agentin kann bezweifeln, dass sie die ideale Agentin ist - eine Idee, der RatRef nicht entsprach und die zur Formulierung dieses neuen Prinzips führte. Dies liegt daran, dass New Rational Reflection davon ausgehen muss, dass einige Dinge, wie die Konditionalisierung, nicht als rational angesehen werden können, dh als das, was der ideale Agent tun würde. Es ist nicht klar, dass wir erwartet haben sollten, dass alles auf einmal angezweifelt werden kann (Vickers 2000; Roush et al. 2012), aber dies ist ein fortlaufendes Forschungsgebiet (Sliwa & Horowitz 2015). Es ist nicht klar, dass wir erwartet haben sollten, dass alles auf einmal angezweifelt werden kann (Vickers 2000; Roush et al. 2012), aber dies ist ein fortlaufendes Forschungsgebiet (Sliwa & Horowitz 2015). Es ist nicht klar, dass wir erwartet haben sollten, dass alles auf einmal angezweifelt werden kann (Vickers 2000; Roush et al. 2012), aber dies ist ein fortlaufendes Forschungsgebiet (Sliwa & Horowitz 2015).

Ein weiteres Problem, das einige bei jeder Version von Rational Reflection gesehen haben, ist, dass es dem Subjekt letztendlich nicht erlaubt, unsicher zu bleiben, welchen Grad an Glauben es für sie rational ist. Es zwingt sie, ihren Glaubensgrad erster Ordnung einem bestimmten Wert zuzuordnen, nämlich einem gewichteten Durchschnitt der Glaubensgrade, die sie für rational hält. Es bricht ihre Unsicherheit darüber, was rational ist, zu einer Gewissheit über den Durchschnitt der Möglichkeiten zusammen und zwingt sie, diesen genauen Wert anzunehmen. Dies erlaubt keine Art von Nichtübereinstimmung oder Akrasie, die der richtige Weg sein könnte, um auf Beweise höherer Ordnung zu reagieren, bei denen man zuversichtlich ist, dass q und es auch für wahrscheinlich hält, dass die Beweise ein geringeres Vertrauen stützen als man, aber unsicher ist was dieses geringere Vertrauen sein sollte. Vielleicht sollte man sich in diesem Fall nicht auf die Beweise höherer Ordnung verlassen, weil man sich nicht sicher ist, wie das Urteil lautet (Sliwa & Horowitz 2015). Im folgenden Kalibrierungsansatz höherer Ordnung finden Sie eine Möglichkeit, diese Unsicherheit darzustellen, die eine Rechtfertigung für die Annahme liefern kann, dass die Anpassung an Durchschnittswerte rational ist.

Der Beweisansatz lokalisiert die Autorität, die Informationen zweiter Ordnung über unser Urteil über uns haben, in der Vorstellung, dass es sich um Beweise handelt und wir unsere Beweise respektieren sollten. Ein Zustand des Selbstzweifels in dieser Ansicht ist das Vertrauen, dass q und die eigenen Beweise q möglicherweise nicht unterstützen. Dieser Zustand macht das Subjekt nicht inkonsistent, sondern ist ein Zustand der Ebenenaufteilung oder Akrasie. Eine Übereinstimmung in dieser Sichtweise besteht in einer Übereinstimmung zwischen dem Grad des Vertrauens in q und dem Ausmaß, in dem man glaubt, dass seine Beweise q unterstützen, und erlaubt keine Akrasie, aber ein Beweisansatz entscheidet nicht von sich aus, ob Rationalität eine Übereinstimmung erfordert oder unter welchen Bedingungen Umstände Beweise erster oder zweiter Ordnung sollten das Vertrauen erster Ordnung bestimmen. Allgemeine Regeln für die Entscheidung in selbstzweifelhaften Fällen zwischen den Behauptungen der beiden Beweisordnungen können aufgrund von Paradoxien und der Notwendigkeit, in jedem Fall einige Merkmale der Rationalität als unbestreitbar zu betrachten, um sie zu initiieren und zu lösen, schwer zu erreichen sein jemandes Zweifel.

4. Kalibrierung und objektive Wahrscheinlichkeit höherer Ordnung

Eine andere Herangehensweise an Selbstzweifel erklärt die Autorität, die Beweise zweiter Ordnung manchmal über die Überzeugungen erster Ordnung haben, mit der Idee, dass solche Beweise Informationen über das Verhältnis der Überzeugungen erster Ordnung zu der Art und Weise liefern, wie die Welt ist, die man ist verpflichtet zu berücksichtigen. Das heißt, Beweise wie das Ablesen der Höhe, Schlafentzug und empirische Studien zur Unzuverlässigkeit von Zeugenaussagen liefern Informationen darüber, ob Ihre Überzeugungen verlässliche Indikatoren für die Wahrheit sind. Wir nehmen die Ablesung eines Thermometers nicht ernster, als wir das Instrument als zuverlässig betrachten. Unsere Überzeugungen können als Lesungen der Welt angesehen und genauso behandelt werden (Roush 2009; White 2009; Sliwa & Horowitz 2015).

4.1 Kalibrierung erraten

Eine Möglichkeit, eine Einschränkung zu formulieren, die besagt, dass wir nicht sicherer als zuverlässig sein sollten, besteht darin, eine Vermutungskalibrierung (GC) zu verlangen:

Wenn ich auf der Grundlage der Beweise e zu dem Schluss komme, dass q meine Glaubwürdigkeit in q meiner zuvor erwarteten Zuverlässigkeit in Bezug auf q entsprechen sollte. (White 2009; Sliwa & Horowitz 2015)

Ihre erwartete Zuverlässigkeit in Bezug auf q wird als die Wahrscheinlichkeit - Wahrscheinlichkeit oder Neigung - verstanden, dass Ihre Vermutung von q wahr ist. Sie sind sich möglicherweise nicht sicher, wie hoch Ihre Zuverlässigkeit ist, sodass Sie einen erwarteten Wert verwenden, einen gewichteten Durchschnitt der Werte, die Sie für möglich halten, und dies sollte eine vorherige Wahrscheinlichkeit sein, die unabhängig von Ihrer aktuellen Annahme, dass p.

Selbstzweifel an diesem Bild wären ein Zustand, in dem Sie die Schlussfolgerung q gezogen haben, beispielsweise weil Ihr Vertrauen in q einen bestimmten Schwellenwert überschritten hat, aber auch Grund zu der Annahme haben, dass Ihre Zuverlässigkeit in Bezug auf q nicht so hoch ist wie dieses Vertrauen. und ein solcher Zustand wäre eine Verletzung von GC. Ob dieser selbstzweifelhafte Zustand kohärent sein kann, wenn ein Subjekt seine eigenen Überzeugungen kennt, hängt sehr davon ab, wie der Zuverlässigkeitsaspekt formuliert wird. Wenn die Chancen und Neigungen, dass Ihre Vermutungen wahr sind, durch die Häufigkeit geordneter Paare von Vermutungen von q und Wahrheit oder Falschheit von q bestimmt werden, wird Selbstzweifel einen hier inkohärent machen, wie es die Darstellung als Anti-Experte oben getan hat, weil Kohärenz und erwartete Zuverlässigkeit sind logisch gleichwertig. [2]In jedem Fall erfordert GC in jedem Fall eine Übereinstimmung zwischen den Bestellungen und teilt uns mit, dass die Übereinstimmung zwischen Ihrem Vertrauen und Ihrer Zuverlässigkeit besteht.

GC macht in einigen Fällen von Selbstzweifeln Sinn, dass das Subjekt ihr Selbstvertrauen verlieren sollte. Die Pilotin, die sich den Höhenmesser ansieht, sollte aufhören, so sicher zu sein, dass sie genug Benzin für weitere fünfzig Meilen hat, da dies Anlass zu der Annahme gibt, dass sie sich in einem Zustand befindet, in dem ihre Berechnungen nicht zuverlässig Wahrheiten ergeben. In ähnlicher Weise erhält der Arzt, der feststellt, dass sie stark verschlafen ist, Grund zu der Annahme, dass sie sich in einem Zustand befindet, in dem ihre Art, zu Überzeugungen zu gelangen, nicht zuverlässig zu echten Schlussfolgerungen führt. Die Hauptunzufriedenheit mit GC war, dass es anscheinend jede Autorität an Beweise zweiter Ordnung abgibt. Tatsächlich hängt in der Formulierung von GC das Vertrauen, das Sie letztendlich in q haben sollten, nicht davon ab, inwieweit die Beweise e q unterstützen oder inwieweit e Ihrer Meinung nach q unterstützt. Aber nur was Sie denken, ist Ihre Neigung oder Häufigkeit, es in Bezug auf q richtig zu machen, unabhängig davon, ob Sie Beweise verwendet haben oder nicht.

Es kann Fälle geben, in denen Beweise zweiter Ordnung besorgniserregend genug sind, dass die Schlussfolgerung erster Ordnung gänzlich misstraut werden sollte, selbst wenn sie tatsächlich gut gemacht wurde - vielleicht sind der Pilot und der Arzt solche Fälle, da der Einsatz hoch ist. Aber wie wir oben gesehen haben, scheint es nicht auf der ganzen Linie richtig zu sein, Beweise erster Ordnung zu verwenden, um nichts zu zählen, wenn Beweise zweiter Ordnung vorliegen. Hier können wir sehen, dass, wenn wir annehmen, dass zwei Personen, Anton und Ana, auf der Grundlage derselben Beweise unterschiedliche Schlussfolgerungen ziehen, q und nicht-q, Anton die Beweise korrekt bewertet, Ana nicht. Angenommen, beide erhalten die gleichen untergrabenen Beweise, sagen wir, dass Menschen unter ihren Bedingungen nur 60% der Zeit richtig liegen. Laut GC müssen beide aufgrund der Rationalität zu 60% von ihren Schlussfolgerungen überzeugt sein. Anton, der aus den Beweisen richtig argumentierte,ist nicht rationaler als Ana und hat kein Recht auf ein höheres Vertrauen in seine Schlussfolgerung q als Ana, die schlecht argumentiert hat, für ihre Schlussfolgerung nicht q (Sliwa & Horowitz 2015).

4.2 Beweiskalibrierung

Es scheint falsch, dass Beweise zweiter Ordnung das Urteil erster Ordnung immer vollständig überfluten sollten, daher wurde die Kalibrierungsidee neu formuliert, um die Abhängigkeit von Beweisen erster Ordnung explizit in die Evidenzkalibrierungsbeschränkung (EC) einzubeziehen:

Wenn die eigenen Beweise q gegenüber nicht-q bevorzugen, sollte die Glaubwürdigkeit von q der [vorherigen] erwarteten Zuverlässigkeit der fundierten Vermutung entsprechen, dass q. (Sliwa & Horowitz 2015)

Ihre fundierte Vermutung entspricht der Antwort, in der Sie die höchste Glaubwürdigkeit haben. Die Zuverlässigkeit einer solchen Vermutung ist definiert als die Wahrscheinlichkeit, dass Sie der wahren Antwort die höchste Glaubwürdigkeit zuweisen würden, wenn Sie sich entscheiden müssten, und wie oben wird diese Wahrscheinlichkeit als verstanden Ihre Neigung, richtig zu raten. Was in EC wie in GC verwendet wird, ist eher eine erwartete als eine tatsächliche Zuverlässigkeit, daher wird es gewichtet, wie wahrscheinlich es ist, dass Sie jede mögliche Zuverlässigkeitsstufe für möglich halten. Der Unterschied zwischen GC und EC besteht darin, dass in letzterem Fall die Kalibrierungsanforderung explizit davon abhängt, welche Schlussfolgerung die Beweise erster Ordnung tatsächlich stützen. Nach diesem Prinzip ist Anton, der mit den Beweisen erster Ordnung richtig argumentiert hat, vernünftig, sich auf q zu verlassen und nicht auf q, weil q die Schlussfolgerung ist, die die Beweise erster Ordnung tatsächlich stützen. Der Beitrag der Beweise zweiter Ordnung besteht darin, sein Vertrauen in diese Schlussfolgerung von einem hohen Wert auf 0,6 zu verringern.

Laut Sliwa und Horowitz impliziert EC, dass Ana nicht rational ist, ein.6-Vertrauen in not-q zu haben, weil not-q nicht die Schlussfolgerung ist, die die Beweise tatsächlich bevorzugen. Es wäre vernünftig für sie, das Vertrauen zu haben, dass q, genau wie Anton. Diese Behauptung hebt Unklarheiten in der Phrase "jemandes Vermutung, dass q" hervor. Die erwartete Zuverlässigkeit ist die Wahrscheinlichkeit, dass Sie der wahren Antwort die höchste Glaubwürdigkeit zuweisen, und die untergrabenen Beweise, die sowohl Anton als auch Ana gegeben wurden, besagten, dass sie unter den gegebenen Bedingungen eine 60% ige Chance hatten, dass ihre Vermutung die richtige Antwort war. [3]Wenn ja, dann hat keiner von ihnen genug Informationen, um die erwartete Zuverlässigkeit einer Vermutung zu kennen, dass q. Wenn die Wahrscheinlichkeiten, die ihnen gegeben wurden, für die Vermutung von q, was auch immer es ist, verwendbar sein sollen, dann müsste der Ausdruck in EC interpretiert werden als „die gebildete Vermutung, dass q oder nicht q“.

Die Tatsache, dass Ana nicht wirklich vermutet hat, dass q eine Schwierigkeit bei der Interpretation der Beweise höherer Ordnung und der EG darstellt. Angenommen, die 60% -Wahrscheinlichkeitsbeweise, die ihnen gegeben wurden, betrafen tatsächlich nur Vermutungen, dass q, und diese „fundierte Vermutung, dass q“in EC sich nur auf Vermutungen bezieht, dass q. Wenn das Wort "jemandes" in der Phrase "jemandes Vermutung, dass q" sich eng auf die einzelne EC bezieht, angewendet wird, dann impliziert EC für Ana nichts, da sie dieses q nicht erraten hat. Wenn sich „jemandes“allgemein auf jemanden bezieht, der vermutet, dass q unter den Bedingungen, unter denen Anton und Ana sich befanden, dann folgt, dass es für Ana rational ist, q mit 60% igem Vertrauen zu glauben. Unabhängig davon, ob sie allgemeine Beweise für Vermutungen erhalten, die q oder nicht q sind, oder ob separate Statistiken über den Erfolg von q-Vermutungen und von nicht-q-Vermutungen vorliegen,Diese Beweise höherer Ordnung hätten Ana keine Möglichkeit gegeben, sich selbst zu korrigieren. Weil sie es im ersten Schritt falsch verstanden hat, indem sie die Beweise erster Ordnung, die nicht unterstützt wurden, falsch abgeschlossen hat, wird ihr auch die Möglichkeit fehlen, sich selbst zu korrigieren, dh zu wissen, ob sie zu 60% auf q vertrauen sollte oder nicht. Was EC sagt, dass es für sie rational ist, in der Situation zu tun, kann sie nicht. Es mag möglich sein, diese Schwierigkeiten bei einer Neuformulierung zu vermeiden, aber sie sind Konsequenzen des Schrittes in der EG, die tatsächliche Beweisunterstützungsbeziehung erster Ordnung zu respektieren.zu wissen, ob sie zu 60% auf q vertrauen sollte oder nicht. Was EC sagt, dass es für sie rational ist, in der Situation zu tun, kann sie nicht. Es mag möglich sein, diese Schwierigkeiten bei einer Neuformulierung zu vermeiden, aber sie sind Konsequenzen des Schrittes in der EG, die tatsächliche Beweisunterstützungsbeziehung erster Ordnung zu respektieren.zu wissen, ob sie zu 60% auf q vertrauen sollte oder nicht. Was EC sagt, dass es für sie rational ist, in der Situation zu tun, kann sie nicht. Es mag möglich sein, diese Schwierigkeiten bei einer Neuformulierung zu vermeiden, aber sie sind Konsequenzen des Schrittes in der EG, die tatsächliche Beweisunterstützungsbeziehung erster Ordnung zu respektieren.

EC schließt viele Fälle von Bootstrapping aus, die Level-Splitting-Ansichten zulassen. Zum Beispiel sammelt ein Bootstrapping-Arzt mit dem Beweis, dass er unzuverlässig ist, eine Erfolgsbilanz seiner Entscheidungen erster Ordnung, indem er die Richtigkeit seiner Schlussfolgerungen anhand seines Vertrauens in diese Schlussfolgerungen beurteilt. Er glaubt, dass die Beweise für seine Unzuverlässigkeit, mit denen er angefangen hat, jetzt überwogen sind, und kommt zu dem Schluss, dass er schließlich zuverlässig ist. EC erlaubt es nicht, rational zu sein, weil es ihm überhaupt nicht erlaubt, die Erfolgsbilanz zusammenzustellen, da er in jedem Fall verpflichtet ist, die erwartete (Un-) Zuverlässigkeit zu berücksichtigen, für die er Beweise hat. Es ist jedoch unklar, dass die EU das Bootstrapping für ein Thema, das mit keinerlei Beweisen für ihre Zuverlässigkeit beginnt, ebenfalls ausschließt.

Die EG-Neuformulierung von GC vertritt eine andere Ansicht darüber, ob die Rationalität es erfordert, dass wir die Unterstützungsbeziehung erster Ordnung richtig machen oder sie nur durch unser eigenes Licht richtig machen, aber diese Frage ist natürlich nicht spezifisch für das Thema der Beziehung von Beweisen erster und zweiter Ordnung. Zum Beispiel werden in einem probabilistischen Konto Beweisunterstützungsbeziehungen vollständig durch bedingte Wahrscheinlichkeiten diktiert. In einer subjektiven Bayes'schen Version dieses Bildes erfordert Rationalität, dass man das Vertrauen hat, das durch die subjektiven bedingten Wahrscheinlichkeiten diktiert wird, die sich aus dem Vertrauen in andere Sätze ergeben. In einer objektiven Version würde Rationalität ein Vertrauen verpflichten, das mit den objektiven bedingten Wahrscheinlichkeiten übereinstimmt. Es gibt andere Möglichkeiten, subjektive vs.objektive Ansichten über die relevanten Beweisunterstützungsbeziehungen und ob wir die eine oder die andere bevorzugen sollten, hängen von allgemeineren Überlegungen ab, die einen unabhängigen Grund liefern könnten, die eine oder andere Ansicht in der aktuellen Debatte über Ordnungsbeziehungen zu bevorzugen.

Obwohl diese Unterscheidung nicht spezifisch für den aktuellen Kontext ist, scheint sie eine Rolle in den Intuitionen einiger Autoren über die oben genannte Aufteilung der Ebenen gespielt zu haben. Wenn beispielsweise Weatherson und Coates sagen, dass das Subjekt glauben sollte, was die Beweise erster Ordnung tatsächlich unterstützen, weil eine Norm nicht aufhört zu gelten, nur weil man Beweise hat, die man nicht befolgt, nehmen sie an, dass die relevante Norm und der Beweis Unterstützungsbeziehung sind objektiv. Wedgwoods Appell an den Externalismus zur Rechtfertigung orientiert sich auch an dem, was die Beweise erster Ordnung tatsächlich stützen, und nicht an dem, was er aus eigener Sicht zu unterstützen scheint. Eine Herausforderung für diese Ansätze, die eine zusätzliche Autorität für Beweise erster Ordnung gegenüber der zweiten Ordnung erreichen, indem sie die Berücksichtigung der tatsächlichen Beweisbeziehung bei der ersten Ordnung erfordern, besteht darin, zu erklären, warum dies eine Verpflichtung bei der ersten Ordnung ist, ein Subjekt jedoch nur berücksichtigen muss die erwartete Zuverlässigkeit bei der zweiten Ordnung.

4.3 Kalibrierung mit höherer Wahrscheinlichkeit

Ein anderer Ansatz, bei dem Rationalitätsbeschränkungen zwischen den beiden Ordnungen auf der Berücksichtigung der erwarteten Zuverlässigkeit beruhen, leitet die Beschränkungen von oben nach unten aus allgemeinen, weit verbreiteten, subjektiven Bayes'schen Annahmen über die Beweisunterstützung und der expliziten Darstellung von Zuverlässigkeitsansprüchen zweiter Ordnung in ab objektive Wahrscheinlichkeit höherer Ordnung (Roush 2009). Wie bei Ansatz 2 oben wird die subjektive bedingte Wahrscheinlichkeit verwendet, um die Übereinstimmung auszudrücken, die zwischen den beiden Ordnungen erforderlich ist, aber es wird die Konsequenz vermieden, die wir in den meisten dieser Ansätze - und im kategorialen Ansatz und den anderen gerade diskutierten Kalibrierungsansätzen - gesehen haben, dass ein Zustand vorliegt Selbstzweifel in Verbindung mit der Kenntnis der eigenen Überzeugungen sind inkohärent. Im Gegensatz zu den ersten beiden Kalibrierungsansätzen wird erklärt, warum die Kalibrierung Teil der Rationalität ist. Dies geschieht, indem die Einschränkung aus einer anderen allgemein akzeptierten Annahme abgeleitet wird, dem Hauptprinzip.

Wir können eine Beschreibung der Beziehung des Glaubens des Subjekts an q zur Art und Weise, wie die Welt ist - ihre Zuverlässigkeit - als objektive bedingte Wahrscheinlichkeit schreiben:

Kalibrierungskurve

(PR (q / mid P (q) = x) = y)

Die objektive Wahrscheinlichkeit von q unter der Annahme, dass das Subjekt q bis zum Grad x glaubt, ist y. Dies ist eine Kurve, eine Funktion, die es ermöglicht, dass die Zuverlässigkeit y mit der unabhängigen Vertrauensvariablen x variiert, wobei verschiedene Variablen verwendet werden, um die Möglichkeit zu berücksichtigen, dass der Grad des Glaubens des Subjekts dazu neigt, nicht mit der objektiven Wahrscheinlichkeit übereinzustimmen, und dass die Grad und Richtung der Nichtübereinstimmung können mit dem Grad des Vertrauens variieren. Die Kurve ist spezifisch für Satz q und für das Subjekt, dessen Wahrscheinlichkeitsfunktion P ist. Ein Subjekt wird nach dieser Definition auf q kalibriert, wenn seine Kalibrierungskurve die Linie (x = y) ist. [4]

Kalibrierungskurven werden von empirischen Psychologen umfassend untersucht, die feststellen, dass die Zuverlässigkeit von Menschen im Durchschnitt systematisch und gleichmäßig mit Zuversicht variiert, wobei beispielsweise ein hohes Vertrauen zu Überbewusstsein neigt, wie dies bei Zeugenaussagen der Fall ist. Trotz der Durchschnittswerte, die bei Tests in kontrollierten Umgebungen ermittelt wurden, variieren die Kurven auch je nach Untergruppe, individuellen Merkmalen, beruflichen Fähigkeiten und besonderen Umständen. Alle Arten von Beweisen höherer Ordnung über die glaubensbildenden Prozesse, Methoden, Umstände, Erfolgsbilanzen und Kompetenzen eines Subjekts sind für die Einschätzung dieser Funktion relevant. Im wirklichen Leben konnte niemand in einem Leben genug Beweise erhalten, um unter bestimmten Umständen Gewissheit über die Kalibrierungskurve einer Person für q zu gewährleisten. Aber wenn man ein Bayesianer ist, kann man sich ein Vertrauen darüber bilden, was die Kalibrierungskurve einer Person ist oder welchen Wert sie für ein Argument x hat, das proportional zur Stärke der Beweise dafür ist, und man kann ein solches Vertrauen in die eigene Person haben eigene Kalibrierkurve.

Bei diesem Ansatz ist epistemischer Selbstzweifel ein Zustand, in dem man zuversichtlich und mehr oder weniger richtig ist, dass man q bis zum Grad x glaubt, dh (P (q) = x), aber auch ein unangenehm hohes Maß an Vertrauen hat sagen wir (≥.5), dass man bei diesem Vertrauen über q unzuverlässig ist. Das heißt, man hat das Vertrauen (≥.5), dass die objektive Wahrscheinlichkeit von q, wenn man x-Vertrauensniveau in q hat, sich von x unterscheidet, was wir schreiben würden (P (PR (q / mid P () q) = x) ne x) ≥.5). Nehmen wir an, der unterschiedliche Wert ist y, also (P (PR (q / mid P (q) = x) = y) ≥.5), (y / ne x). Ob der Grund für diese Unzuverlässigkeit darin besteht, dass man dazu neigt, Beweisunterstützungsbeziehungen zu verwechseln, und ob man glaubt, dass eine gegebene Beweisunterstützungsbeziehung erhalten wird oder nicht,Machen Sie keinen allgemeinen Unterschied zu dieser Bewertung, bei der es lediglich darum geht, ob man dazu neigt, die Dinge richtig zu machen, wenn man die Dinge tut, die man getan hat, um sich auf q bis Level x zu verlassen.[5] Es geht um die Beziehung zwischen dem eigenen Vertrauen und dem Zustand der Dinge.

Aus dieser Sicht beinhaltet ein Zustand des Selbstzweifels eine Kombination von Zuständen der folgenden Art:

) begin {align *} P (q) & = x \\ P (P (q) = x) & =.99 / qquad / textrm {(hoch)} / P (PR (q / mid P. (q) = x) = y) & ≥.5, / qquad y / ne x \\ / end {align *})

Sie glauben tatsächlich q bis zum Grad x, Sie sind zuversichtlich (sagen wir bei 0,99), dass Sie so glauben, und Sie haben ein unangenehm hohes Maß an Vertrauen, dass Sie nicht für q bei x kalibriert sind, dass die objektive Wahrscheinlichkeit von q, wenn Sie es sind x zuversichtlich von q ist y. Dieser Zustand entgeht aus zwei Gründen der Inkohärenz. Zum einen ist das Vertrauen in den eigenen Glaubensgrad oder die Zuverlässigkeit nicht gleich 1, und im Gegensatz zu einigen der oben genannten bedingten Wahrscheinlichkeitsformulierungen von Selbstzweifeln reicht die geringste Unsicherheit aus, um es kohärent zu machen, eine große Diskrepanz zwischen Ihrem geglaubten Vertrauen und Ihrem zuzuschreiben glaubte Zuverlässigkeit.

Möglich wird dies durch den zweiten Faktor, dass (Un-) Zuverlässigkeit hier als objektive bedingte Wahrscheinlichkeit ausgedrückt wird und die Kohärenz allein nicht vorschreibt, wie subjektive und objektive Wahrscheinlichkeiten zusammenhängen müssen. Dies ist analog zu dem Grund, dass der Ansatz über das oben beschriebene maximal rationale Subjekt einen Zustand des Selbstzweifels als kohärent darstellen konnte, nämlich dass bei der Bewertung meines eigenen PI dieser mit einer anderen Wahrscheinlichkeitsfunktion verglichen wird. In diesem Fall ist die zweite Funktion jedoch keine Expertenfunktion, die bedingungslos deklariert, welchen Wert der Wert des maximal rationalen Subjekts für q haben würde, sondern eine Kalibrierungsfunktion, eine bedingte Wahrscheinlichkeit, die angibt, welche objektive Wahrscheinlichkeit durch die subjektive Wahrscheinlichkeit eines Menschen angezeigt wird. Ein Unterschied zwischen den beiden Ansätzen besteht darin, dass es offensichtliche Möglichkeiten gibt, Kalibrierungskurven empirisch zu untersuchen, während es schwierig wäre, genügend maximal rationale Probanden für eine statistisch signifikante Studie zu rekrutieren, so dass wir eher Intuitionen darüber ansprechen, was rational erscheint.

Sobald die besiegten Informationen über das Verhältnis der Glaubwürdigkeit eines Subjekts zur Welt in objektiver Wahrscheinlichkeit ausgedrückt sind, können sie explizit als eine Überlegung dargestellt werden, die das Subjekt bei der Beurteilung der Qualität des Glaubensgrades, den es selbst in q hat, und der Auflösung berücksichtigt die Frage, wie hoch ihr Glaubensgrad sein sollte, also:

[P (q / Mitte P (q) = x / amp / PR (q / Mitte P (q) = x) = y) =?)

Dies fragt nach dem Grad des Glaubens, den das Subjekt an q haben sollte, unter der Bedingung, dass es tatsächlich den Grad des Glaubens x an q hat, und die objektive Wahrscheinlichkeit von q, vorausgesetzt, dass es den Grad des Glaubens x an q hat, ist y. Dieser Ausdruck ist die linke Seite von Self-Respect / Synchronic Reflection, wobei eine weitere Verbindung zu seinem Zustand hinzugefügt wird. SR gibt nicht an, was zu tun ist, wenn es eine andere Konjunktion gibt, und ist daher nicht geeignet, die Frage des Selbstzweifels explizit darzustellen, was bedeutet, dass die obigen selbstzweifelhaften Beispiele keine Gegenbeispiele dazu sind (Roush 2009). Einige in der Vergangenheit haben jedoch Varianten einer uneingeschränkten Version von SR (Koons 1992; Gaifman 1988) befürwortet, bei denen der Wert dieses Ausdrucks x ist, unabhängig davon, welche andere Konjunktion vorhanden sein könnte:

Uneingeschränkte Selbstachtung (USR) [6]

(P (q / mid P (q) = x / amp r) = x) für jeden Satz

Niederländische Buchargumente, die SR unterstützen könnten, tun dies nicht für USR, so dass wir andere Möglichkeiten zur Bewertung finden müssen, wenn r die Aussage einer Kalibrierungskurve ist.

Es ist nicht inkohärent, aber es ist kaum intuitiv anzunehmen, dass das Subjekt einen gewissen Grad an Glauben x haben sollte, wenn es glaubt, dass sein Glaube ein Indikator dafür ist, dass die objektive Wahrscheinlichkeit von q nicht x ist, und es kann auch ein prinzipielles Argument dafür angeführt werden Wirkung (Roush 2009). Beim Auspacken der Bedingung (P (q) = x / amp / PR (q / mid P (q) = x) = y) scheint zu sagen, dass meine Glaubwürdigkeit x ist und wenn meine Glaubwürdigkeit x ist, ist die objektive Wahrscheinlichkeit y und lädt uns ein, zu entladen und daraus zu schließen, dass die objektive Wahrscheinlichkeit y ist. Wenn ja, [7] würde sich der Ausdruck reduzieren auf:

[P (q / mid / PR (q) = y) =?)

Dies ist die linke Seite einer Verallgemeinerung des Hauptprinzips (siehe Eintrag zu David Lewis).

Hauptprinzip (PP) [8]

(P (q / mid Ch (q) = y) = y)

vom Zufall zu jeder Art von objektiver Wahrscheinlichkeit. PP sagt, dass Ihre Glaubwürdigkeit in Vorschlägen dem entsprechen sollte, was Sie für wahr halten, und trotz Zulässigkeitsproblemen ist es schwer zu leugnen, dass es einen Bereich gibt, in dem das Hauptprinzip zwingend ist, und sicherlich einen, in dem das Verallgemeinerung auf jede Art von objektiver Wahrscheinlichkeit ist auch. Wenn ja, dann lautet die Antwort auf die Frage, wie die Glaubwürdigkeit des Subjekts in q angesichts ihrer Berücksichtigung von Informationen über ihre Zuverlässigkeit sein sollte:

Cal

(P (q / mid (P (q) = x / amp / PR (q / mid P (q) = x) = y)) = y)

Cal sagt, dass Ihre Glaubwürdigkeit in q, vorausgesetzt, Ihre Glaubwürdigkeit in q ist x, und die objektive Wahrscheinlichkeit von q, wenn Ihre Glaubwürdigkeit in q x ist, y ist, y sein sollte.

Cal ist eine synchrone Einschränkung, aber wenn wir unsere Berechtigungen durch Konditionalisierung überarbeiten, impliziert dies eine diachrone Einschränkung:

Neu kalibrieren

(P_ {n + 1} (q) = P_ {n} (q / mid (P_ {n} (q) = x / amp / PR (q / mid P_ {n} (q) = x)) = y)) = y)

Dieser Kalibrierungsansatz sagt dem Probanden, wie er in jedem Fall auf Informationen über seine kognitive Beeinträchtigung reagieren soll. Es verwendet die Informationen über sich selbst, um ihren Glauben an die Welt zu korrigieren. Intuitiv ist es eine abgestufte Verallgemeinerung des Gedankens, dass man, wenn man von jemandem (oder sich selbst) wüsste, dass er ausnahmslos falsche Überzeugungen hatte, einen wahren Glauben gewinnen könnte, indem man alles negiert, was er sagte.

Cal und Re-Cal charakterisieren Selbstzweifel explizit und begründen eine eindeutige und entschlossene Reaktion darauf auf der Grundlage tieferer Prinzipien, die unabhängig vom aktuellen Kontext überzeugend sind. Cal folgt aus nur zwei Annahmen: Erstens, dass probabilistische Kohärenz ein Erfordernis der Rationalität ist, und zweitens, dass Rationalität erfordert, dass die eigenen Glaubensbekenntnisse mit den objektiven Wahrscheinlichkeiten übereinstimmen, die nach eigenen Angaben vorliegen. Re-Cal geht von der weiteren Annahme aus, dass die Aktualisierung unserer Überzeugungen durch Konditionalisierung erfolgen sollte.

Obwohl Selbstzweifel nach der gegenwärtigen Definition kein inkohärenter Zustand sind, impliziert Cal, dass Rationalität immer eine Lösung des Zweifels erfordert, der eine Übereinstimmung zwischen den beiden Ebenen bringt, und sagt uns, dass die Übereinstimmung in der Ausrichtung von subjektivem und wahrgenommenem Ziel besteht Wahrscheinlichkeiten. Hohe Vertraulichkeiten in „q“, „Ich habe Vertrauen x in q“und „Die objektive Wahrscheinlichkeit von q, wenn ich Vertrauen in q habe, ist gering“sind nicht inkohärent, verstoßen jedoch gegen das Prinzip. Re-Cal sagt uns, wie wir uns wieder an PP anpassen können.

Obwohl Re-Cal uns auf Beweise zweiter Ordnung konditioniert, hängt die empfohlene Anpassung sowohl von Beweisen erster als auch von Beweisen zweiter Ordnung ab und bevorzugt nicht immer die eine oder andere Ebene. Wie viel Autorität die Behauptung zweiter Ordnung über die Zuverlässigkeits- / Kalibrierungskurve hat, hängt sehr stark von der Qualität der Beweise dafür ab. Dies kann gesehen werden, indem man sich vorstellt, unsicher zu sein, z. B. über die eigene Kalibrierungskurve, dh (P (PR (q / mid P (q) = x) = y) <1), und eine Jeffrey-Konditionalisierungsversion von Re-Cal (Roush 2017, Andere Internetquellen). Aber selbst wenn man die Kalibrierungskurve genau kennt, ist die Rolle der Beweise erster Ordnung bei der Bestimmung des Glaubens erster Ordnung unauslöschlich. Das Urteil, das Maß an Vertrauen,dass die erste Bestellung, die Sie für q erhalten haben, der Index ist, um zu bestimmen, welcher Punkt auf der Kalibrierungskurve für die potenzielle Korrektur Ihres Glaubensgrades relevant ist. Um zu verstehen, warum dies alles andere als trivial ist, erinnern Sie sich daran, dass die Kurve im Prinzip unterschiedliche Größen und Richtungen der Verzerrung bei unterschiedlichen Vertraulichkeiten aufweisen kann und häufig tatsächlich aufweist. Die Abhängigkeit des Urteils von der Beweisunterstützungsbeziehung erster Ordnung unterscheidet sich in anderer Weise von der der EG, da nicht die objektive Unterstützungsbeziehung erster Ordnung verwendet wird, sondern die Konsequenzen, die sich daraus ergeben. Somit würde Ana oben nicht zurückbleiben und nicht wissen, wie sie sich rational machen soll. Denken Sie daran, dass die Kurve im Prinzip unterschiedliche Größen und Verzerrungsrichtungen bei unterschiedlichen Vertraulichkeiten aufweisen kann und tatsächlich häufig aufweist. Die Abhängigkeit des Urteils von der Beweisunterstützungsbeziehung erster Ordnung unterscheidet sich in anderer Weise von der der EG, da nicht die objektive Unterstützungsbeziehung erster Ordnung verwendet wird, sondern die Konsequenzen, die sich daraus ergeben. Somit würde Ana oben nicht zurückbleiben und nicht wissen, wie sie sich rational machen soll. Denken Sie daran, dass die Kurve im Prinzip unterschiedliche Größen und Verzerrungsrichtungen bei unterschiedlichen Vertraulichkeiten aufweisen kann und tatsächlich häufig aufweist. Die Abhängigkeit des Urteils von der Beweisunterstützungsbeziehung erster Ordnung unterscheidet sich in anderer Weise von der der EG, da nicht die objektive Unterstützungsbeziehung erster Ordnung verwendet wird, sondern die Konsequenzen, die sich daraus ergeben. Somit würde Ana oben nicht zurückbleiben und nicht wissen, wie sie sich rational machen soll.

Die Tatsache, dass die Aktualisierung durch Konditionalisierung erfolgt, bedeutet, dass alle Arten der Bewertung von Beweisen, die die Konditionalisierung auferlegt, damit einhergehen. Irreführende, selbstzweifelhafte Besieger haben einige der oben genannten Autoren beunruhigt und zu Ansichten geführt, die die Ebenen aufteilen, aber sie werden von Re-Cal behandelt, da die Konditionalisierung sie immer behandelt. Selbstzweifelhafte Defeater werden zum Nennwert verarbeitet, der für die Kalibrierungskurve im Verhältnis zu ihrer Qualität als Beweis relevant ist. Konvergenzsätze sagen uns, dass, wenn die Welt nicht systematisch täuscht, die irreführenden Besieger ausgewaschen werden, dh auf lange Sicht durch andere Beweise besiegt werden. In einigen Fällen wird dies erst lange nach unserem Tod geschehen, aber wenn man dies als unzureichend ansieht, ist dies eine Unzufriedenheit mit dem subjektiven Bayesianismus und nicht spezifisch für seine Verwendung hier.

Die Herangehensweise an epistemische Selbstzweifel in Bezug auf die Wahrscheinlichkeit höherer Ordnung ermöglicht es, den Zustand des Selbstzweifels rational (kohärent) und rational zu lösen. Cal drückt in allen Fällen das Erfordernis der Übereinstimmung zwischen den beiden Ordnungen aus, obwohl dies nicht bedeutet, dass es inkohärent ist, sich selbst eine Nichtübereinstimmung zuzuschreiben. Keine Ordnung ist immer dominant; Beide Aufträge leisten immer einen Beitrag zur Bestimmung der Lösung bei der ersten Reihenfolge von Konflikten zwischen Aufträgen, und ihr relativer Beitrag hängt von der Qualität der Nachweise bei jedem Auftrag ab. Cal und Re-Cal erklären, warum man im Lichte von Beweisen höherer Ordnung überarbeiten sollte, wenn man sich nur auf die probabilistische Kohärenz, das Hauptprinzip und die Konditionalisierung beziehen sollte. Cal und Re-Cal sind allgemein gehalten und stellen alle Ressourcen des Bayes'schen Rahmens für die Analyse von Beweisen höherer Ordnung zur Verfügung. Eine weitere bemerkenswerte Tatsache über das Framework ist, dass Re-Cal Fälle zulässt, in denen Nachrichten über die eigene Zuverlässigkeit das Vertrauen erhöhen sollten, was zum Beispiel in leicht vorstellbaren Fällen angemessen wäre, in denen man Beweise dafür erhielt, dass man systematisch unter Zuversicht war. Somit ist es möglich, dass Beweise zweiter Ordnung es rational machen, nicht nur standhaft oder versöhnlich zu sein, sondern sogar ermutigt zu werden. Es ist möglich, dass Beweise zweiter Ordnung es rational machen, nicht nur standhaft oder versöhnlich zu sein, sondern sogar ermutigt zu werden. Es ist möglich, dass Beweise zweiter Ordnung es rational machen, nicht nur standhaft oder versöhnlich zu sein, sondern sogar ermutigt zu werden.

Literaturverzeichnis

  • Adler, Jonathan E., 1990, „Conservatism and Tacit Confirmation“, Mind, 99 (396): 559–70. doi: 10.1093 / mind / XCIX.396.559
  • Alston, William P., 1980, „Level Confusions in Epistemology“, Midwest Studies in Philosophy, 5: 135–150. doi: 10.1111 / j.1475-4975.1980.tb00401.x
  • Bergmann, Michael, 2005, „Defeater and Higher-Level Requirements“, The Philosophical Quarterly, 55 (220): 419–436. doi: 10.1111 / j.0031-8094.2005.00408.x
  • Briggs, Rachael, 2009, „Distorted Reflection“, Philosophical Review, 118 (1): 59–85. doi: 10.1215 / 00318108-2008-029
  • Christensen, David, 1991, „Clever Bookies and Coherent Beliefs“, Philosophical Review, 100 (2): 229–47. doi: 10.2307 / 2185301
  • –––, 1994, „Conservatism in Epistemology“, Noûs, 28 (1): 69–89. doi: 10.2307 / 2215920
  • –––, 2000, „Diachrone Kohärenz versus epistemische Unparteilichkeit“, Philosophical Review, 109 (3): 349–71. doi: 10.2307 / 2693694
  • –––, 2007a, „Gilt Murphys Gesetz in der Erkenntnistheorie? Selbstzweifel und rationale Ideale “, Oxford Studies in Epistemology, 2: 3–31.
  • –––, 2007b, „Epistemic Self-Respect“, Proceedings of the Aristotelian Society, 107 (1 [3]): 319–337. doi: 10.1111 / j.1467-9264.2007.00224.x
  • –––, 2010a, „Evidence höherer Ordnung“, Philosophy and Phenomenological Research, 81 (1): 185–215. doi: 10.1111 / j.1933-1592.2010.00366.x
  • –––, 2010b, „Rational Reflection“, Philosophical Perspectives, 24: 121–140. doi: 10.1111 / j.1520-8583.2010.00187.x
  • –––, 2011, „Meinungsverschiedenheiten, Fragen und epistemische Selbstkritik“, Philosopher's Imprint, 11 (6): 1–22. [Christensen 2011 online verfügbar]
  • Christensen, David und Jennifer Lackey (Hrsg.), 2013, The Epistemology of Disagreement: Neue Essays, Oxford: Oxford University Press. doi: 10.1093 / acprof: oso / 9780199698370.001.0001
  • Coates, Allen, 2012, „Rational Epistemic Akrasia“, American Philosophical Quarterly, 49 (2): 113–124.
  • Cohen, Stewart, 2002, „Grundwissen und das Problem des einfachen Wissens“. Philosophie und phänomenologische Forschung, 65 (2): 309–39. doi: 10.1111 / j.1933-1592.2002.tb00204.x
  • Conee, Earl, 1987, „Offensichtlich, aber rational inakzeptabel“, Australasian Journal of Philosophy, 65 (3): 316–326. doi: 10.1080 / 00048408712342971
  • Dawid, AP, 1982, "The Well-Calibrated Bayesian", Journal der American Statistical Association, 77 (379): 605–610.
  • Egan, Andy und Adam Elga, 2005, „Ich kann nicht glauben, dass ich dumm bin“, Philosophical Perspectives, 19: 77–93. doi: 10.1111 / j.1520-8583.2005.00054.x
  • Elga, Adam, 2007, „Reflection and Disagreement“, Noûs, 41 (3): 478–502. doi: 10.1111 / j.1468-0068.2007.00656.x
  • –––, 2013 „Das Puzzle der unmarkierten Uhr und das neue Prinzip der rationalen Reflexion“, Philosophical Studies, 164 (1): 127–139. doi: 10.1007 / s11098-013-0091-0
  • Evnine, Simon J., 2008, Epistemische Dimensionen der Persönlichkeit, Oxford: Oxford University Press. doi: 10.1093 / acprof: oso / 9780199239948.001.0001
  • Feldman, Richard, 2005 „Respekt vor den Beweisen“, Philosophical Perspectives, 19: 95–119. doi: 10.1111 / j.1520-8583.2005.00055.x
  • Foley, Richard, 1982, „Epistemic Conservatism“, Philosophical Studies, 43 (2): 165–82. doi: 10.1007 / BF00372381
  • Gaifman, Haim, 1988, "Eine Theorie der Wahrscheinlichkeiten höherer Ordnung", in Causation, Chance and Credence: Proceedings of the Irvine Conference on Probability and Causation, 15.-19. Juli 1985, vol. 1, (Reihe "University of Western Ontario" in Philosophy of Science, 41), Brian Skyrms und William L. Harper (Hrsg.), Dordrecht: Springer Netherlands, 191–219. doi: 10.1007 / 978-94-009-2863-3_11
  • Gibbons, John, 2006, „Access Externalism“, Mind, 115 (457): 19–39. doi: 10.1093 / mind / fzl019
  • Harman, Gilbert, 1973, "Beweise, die man nicht besitzt", Kap. 9 of Thought, Princeton: Princeton University Press.
  • Horowitz, Sophie, 2014, „Epistemic Akrasia“, Noûs, 48 (4): 718–744. doi: 10.1111 / nous.12026
  • Kelly, Thomas, 2005, „Die epistemische Bedeutung von Meinungsverschiedenheiten“, Oxford Studies in Epistemology, 1: 167–196.
  • –––, 2010, „Peer Disagreement and Higher Order Evidence“, in Richard Feldman und Ted A. Warfield (Hrsg.), Disagreement. New York: Oxford University Press, 111–174. doi: 10.1093 / acprof: oso / 9780199226078.003.0007
  • Koons, Robert C., 1992, Paradoxe des Glaubens und der strategischen Rationalität. Cambridge: Cambridge University Press. doi: 10.1017 / CBO9780511625381
  • Lasonen-Aarnio, Maria, 2014, „Evidenz höherer Ordnung und die Grenzen der Niederlage“, Philosophy and Phenomenological Research, 88 (2): 314–345. doi: 10.1111 / phpr.12090
  • –––, 2015, „Neue rationale Reflexion und Internalismus über Rationalität“, Oxford Studies in Epistemology, 5: 145–179. doi: 10.1093 / acprof: oso / 9780198722762.003.0005
  • Lewis, David, 1980, „Ein Leitfaden für Subjektivisten zum objektiven Zufall“, Richard C. Jeffrey (Hrsg.), Studien zu induktiver Logik und Wahrscheinlichkeit, University of California Press, S. 83–132. Nachgedruckt in seinen Philosophical Papers, Vol. 2, New York: Oxford University Press, 1986: 84–132.
  • Lycan, William G., 1977, „Beweise, die man nicht besitzt“, Australasian Journal of Philosophy, 55 (2): 114–126. doi: 10.1080 / 00048407712341141
  • Owens, David, 2002, „Epistemic Akrasia“, The Monist, 85 (3): 381–397.
  • Pollock, John L., 1989, Zeitgenössische Wissenstheorien. New York: Rowman und Littlefield.
  • Richter, Reed, 1990, „Ideale Rationalität und Handbewegung“, Australasian Journal of Philosophy, 68 (2): 147–156. doi: 10.1080 / 00048409012344171
  • Roush, Sherrilyn, 2009, „Zweites Erraten: Ein Handbuch zur Selbsthilfe“, Episteme, 6 (3): 251–68. doi: 10.3366 / E1742360009000690
  • –––, 2016, „Kenntnis unserer eigenen Überzeugungen“, Philosophie und phänomenologische Forschung, erstmals online am 4. Februar 2016. doi: 10.1111 / phpr.12274
  • Roush, Sherrilyn, Kelty Allen und Ian Herbert, 2012, „Skepsis gegenüber dem Denken“, in New Waves in Philosophical Logic, Greg Restall und Jillian Russell (Hrsg.), Hampshire, England: Palgrave MacMillan, 112–141.
  • Seidenfeld, Teddy, 1985, „Kalibrierungs-, Kohärenz- und Bewertungsregeln“, Philosophy of Science, 52 (2): 274–294. doi: 10.1086 / 289244
  • Sklar, Lawrence, 1975, "Methodological Conservatism", Philosophical Review, 84 (3): 374–400. doi: 10.2307 / 2184118
  • Skyrms, Brian, 1980, "Higher Order Degrees of Belief", in Perspektiven für Pragmatismus: Essays in Erinnerung an FP Ramsey, DH Mellor (Hrsg.), Cambridge: Cambridge University Press, S. 109–137.
  • Sliwa, Paulina und Sophie Horowitz, 2015, „Alle Beweise respektieren“, Philosophical Studies, 172 (11): 2835–2858. doi: 10.1007 / s11098-015-0446-9
  • Sobel, Jordan Howard, 1987, „Selbstzweifel und niederländische Strategien“, Australasian Journal of Philosophy, 65 (1): 56–81. doi: 10.1080 / 00048408712342771
  • Shoemaker, Sydney, 1994, „Moores Paradoxon und Selbsterkenntnis“, Philosophical Studies, 77 (2–3): 211–28. doi: 10.1007 / BF00989570
  • Sorensen, Roy A. 1987, „Anti-Expertise, Instabilität und rationale Wahl“, Australian Journal of Philosophy, 65 (3): 301–315. doi: 10.1080 / 00048408712342961
  • –––, 1988, Blindspots. New York: Oxford University Press.
  • Talbott, WJ, 1991, „Zwei Prinzipien der Bayesianischen Erkenntnistheorie“, Philosophical Studies, 62 (2): 135–50. doi: 10.1007 / BF00419049
  • van Fraassen, Bas C., 1983, "Kalibrierung: Eine Frequenzbegründung für die persönliche Wahrscheinlichkeit", Physik, Philosophie und Psychoanalyse: Essays zu Ehren von Adolf Grünbaum, (Boston Studies in the Philosophy of Science, 76), RS Cohen und L. Laudan (Hrsg.), Dordrecht: Springer Netherlands, 295–320. doi: 10.1007 / 978-94-009-7055-7_15
  • –––, 1984, „Glaube und der Wille“, Journal of Philosophy, 81 (5): 235–56. doi: 10.2307 / 2026388
  • –––, 1995, „Glaube und das Problem von Odysseus und Sirenen“, Philosophical Studies, 77 (1): 7–37. doi: 10.1007 / BF00996309
  • Vickers, John M., 2000 „Ich glaube es, aber bald werde ich es nicht mehr glauben: Skepsis, Empirismus und Reflexion“, Synthese, 124 (2): 155–74. doi: 10.1023 / A: 1005213608394
  • Vogel, Jonathan, 2000, „Reliabilism Leveled“, Journal of Philosophy, 97 (11): 602–623. doi: 10.2307 / 2678454
  • Vranas, Peter BM, 2004, „Haben Sie Ihren Kuchen und essen Sie ihn auch: Das alte Hauptprinzip, das mit dem neuen in Einklang gebracht wird“, Philosophy and Phenomenological Research, 69 (2): 368–382. doi: 10.1111 / j.1933-1592.2004.tb00399.x
  • Weatherson, Brian, 2008 „Deontology and Descartes 'Demon“, Journal of Philosophy, 105 (9): 540–569. doi: 10.5840 / jphil2008105932
  • Wedgwood, Ralph, 2011, „Justified Inference“, Synthese, 189 (2): 1–23. doi: 10.1007 / s11229-011-0012-8
  • White, Roger, 2009, „Über die Behandlung von sich selbst und anderen als Thermometer“, Episteme, 6 (3): 233–250. doi: 10.3366 / E1742360009000689
  • Williamson, Timothy, 2011, „Unwahrscheinliches Wissen“, in Evidentialism and Its Discontents, Trent Doherty (Hrsg.), Oxford: Oxford University Press, S. 147–164. doi: 10.1093 / acprof: oso / 9780199563500.003.0010

Akademische Werkzeuge

Sep Mann Symbol
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • Lartillot, Nicolas, „Calibrated Bayes, Post im Blog von The Bayesian Kitchen.
  • Roush, Sherrilyn, 2017, „Bayesianische Neukalibrierung: Eine Verallgemeinerung“, unveröffentlichtes Manuskript.
  • Weatherson, Brian, 2010, "Do Judgements Screen Evidence?", Unveröffentlichtes Manuskript.

Empfohlen: