Das St. Petersburg Paradoxon

Inhaltsverzeichnis:

Das St. Petersburg Paradoxon
Das St. Petersburg Paradoxon

Video: Das St. Petersburg Paradoxon

Video: Das St. Petersburg Paradoxon
Video: Das Sankt-Petersburg-Paradoxon 2024, March
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Das St. Petersburg Paradoxon

Erstveröffentlichung Di 30. Juli 2019

Das St. Petersburger Paradoxon wurde 1713 von Nicolaus Bernoulli eingeführt. Es ist weiterhin eine zuverlässige Quelle für neue Rätsel und Erkenntnisse in der Entscheidungstheorie.

Die Standardversion des St. Petersburg-Paradoxons leitet sich aus dem St. Petersburg-Spiel ab, das wie folgt gespielt wird: Eine faire Münze wird geworfen, bis sie beim ersten Mal auf den Kopf kommt. Zu diesem Zeitpunkt gewinnt der Spieler ($ 2 ^ n,), wobei n die Häufigkeit ist, mit der die Münze geworfen wurde. Wie viel sollte man bereit sein, für dieses Spiel zu bezahlen? Entscheidungstheoretiker raten uns, das Prinzip der Maximierung des erwarteten Werts anzuwenden. Nach diesem Prinzip ist der Wert eines unsicheren Prospekts die Gesamtsumme, die erhalten wird, indem der Wert jedes möglichen Ergebnisses mit seiner Wahrscheinlichkeit multipliziert und dann alle Begriffe addiert werden (siehe den Eintrag zu normativen Theorien rationaler Wahl: erwarteter Nutzen). Im Spiel in St. Petersburg sind die Geldwerte der Ergebnisse und ihre Wahrscheinlichkeiten leicht zu bestimmen. Wenn die Münze beim ersten Wurf Köpfe landet, gewinnen Sie $ 2,Wenn es beim zweiten Flip Köpfe landet, gewinnen Sie 4 $, und wenn dies beim dritten Flip passiert, gewinnen Sie 8 $ und so weiter. Die Wahrscheinlichkeiten der Ergebnisse sind (frac {1} {2}), (frac {1} {4}), (frac {1} {8}),…. Daher ist der erwartete Geldwert des Spiels in St. Petersburg

) begin {align} frac {1} {2} cdot 2 + / frac {1} {4} cdot 4 + / frac {1} {8} cdot 8 + / cdots & = 1 + 1 +1+ / cdots \& = / sum_ {n = 1} ^ { infty} left (frac {1} {2} right) ^ n / cdot 2 ^ n \& = / infty. / end {align})

(Einige würden sagen, dass die Summe gegen unendlich geht, nicht dass sie unendlich ist. Wir werden diese Unterscheidung in Abschnitt 2 diskutieren.)

Das „Paradoxon“besteht in der Tatsache, dass unsere beste Theorie der rationalen Wahl zu beinhalten scheint, dass es rational wäre, eine endliche Gebühr für eine einzelne Gelegenheit zu zahlen, um das Spiel in St. Petersburg zu spielen, obwohl es fast sicher ist, dass der Spieler dies tun wird eine sehr bescheidene Menge gewinnen. Die Wahrscheinlichkeit ist (frac {1} {2}), dass der Spieler nicht mehr als $ 2 gewinnt, und (frac {3} {4}), dass er oder sie nicht mehr als $ 4 gewinnt.

Streng logisch gesehen ist das St. Petersburger Paradoxon kein Paradoxon, da kein formaler Widerspruch abgeleitet wird. Es erscheint jedoch absurd zu behaupten, dass ein vernünftiger Agent Millionen oder sogar Milliarden für das Spielen dieses Spiels bezahlen sollte. Es scheint also, dass wir zumindest ein Gegenbeispiel zum Prinzip der Maximierung des erwarteten Werts haben. Wenn die Rationalität uns zwingt, unser gesamtes Vermögen für eine einzige Gelegenheit zu liquidieren, um das Spiel in St. Petersburg zu spielen, dann scheint es unattraktiv, rational zu sein.

  • 1. Die Geschichte des St. Petersburger Paradoxons
  • 2. Das moderne St. Petersburg-Paradoxon
  • 3. Unrealistische Annahmen?
  • 4. Eine begrenzte Dienstprogrammfunktion?
  • 5. Kleine Wahrscheinlichkeiten ignorieren?
  • 6. Relativ erwartete Nützlichkeitstheorie
  • 7. Das Pasadena-Spiel
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Die Geschichte des St. Petersburger Paradoxons

Das St. Petersburger Paradoxon ist nach einer der führenden wissenschaftlichen Zeitschriften des 18. Jahrhunderts benannt, Commentarii Academiae Scientiarum Imperialis Petropolitanae (Artikel der Kaiserlichen Akademie der Wissenschaften in Petersburg), in der Daniel Bernoulli (1700–1782) einen Artikel mit dem Titel „ Exemplar Theoriae Novae de Mensura Sortis “(„ Darstellung einer neuen Theorie zur Risikomessung “) im Jahr 1738. Daniel Bernoulli hatte von seinem Bruder Nicolaus II (1695–1726), der eine frühe, aber unnötig komplexe Version vorschlug, von dem Problem erfahren des Paradoxons in einem Brief an Pierre Rémond de Montmort am 9. September 1713 (zu diesem und verwandten Briefen siehe J. Bernoulli 1975). Nicolaus bat de Montmort, sich ein Beispiel vorzustellen, in dem ein gewöhnlicher Würfel gewürfelt wird, bis eine 6 auftaucht:

[W] Was ist die Erwartung von B… wenn A B verspricht, ihm in dieser Folge 1, 2, 4, 8, 16 usw. oder 1, 3, 9, 27 usw. oder 1, 4, 9 einige Münzen zu geben, 16, 25 usw. oder 1, 8, 27, 64 anstelle von 1, 2, 3, 4, 5 usw. wie zuvor. Obwohl diese Probleme größtenteils nicht schwierig sind, werden Sie jedoch etwas sehr Merkwürdiges finden. (N. Bernoulli nach Montmort, 9. September 1713)

Es scheint, dass Montmort Nicolaus 'Punkt nicht sofort verstanden hat. Montmort antwortete, dass diese Probleme

keine Schwierigkeit haben, das einzige Problem ist, die Summe der Reihen zu finden, deren Zähler sich im Verlauf von Quadraten, Würfeln usw. befinden. Die Nenner befinden sich im geometrischen Verlauf. (Montmort an N. Bernoulli, 15. November 1713)

Er führte jedoch nie Berechnungen durch. Wenn er es getan hätte, hätte er festgestellt, dass der erwartete Wert der ersten Serie (1, 2, 4, 8, 16 usw.) ist:

) sum_ {n = 1} ^ { infty} frac {5 ^ {n-1}} {6 ^ n} cdot 2 ^ {n-1}.)

Für diese Serie gilt das

) lim_ {n / to / infty} left | / frac {a_ {n + 1}} {a_n} right | / gt 1,)

Durch Anwendung des Verhältnis-Tests kann leicht überprüft werden, ob die Reihen divergieren. (Dieser Test wurde 1768 von d'Alembert entdeckt, daher könnte es unfair sein, Montmort dafür zu kritisieren, dass er dies nicht gesehen hat.) Das mathematische Argument von Nicolaus selbst war jedoch auch etwas skizzenhaft und würde zeitgenössische Mathematiker nicht beeindrucken. Die gute Nachricht ist, dass seine Schlussfolgerung richtig war:

Daraus folgt, dass B A eine unendliche Summe und sogar mehr als unendlich geben muss (wenn es erlaubt ist, so zu sprechen), damit er den Vorteil nutzen kann, ihm in dieser Folge 1, 2, 4 einige Münzen zu geben, 8, 16 usw. (N. Bernoulli nach Montmort, 20. Februar 1714)

Der nächste wichtige Beitrag zur Debatte wurde 1728 von Cramér geleistet. Er las in einem von Montmort veröffentlichten Buch über Nicolaus 'ursprüngliches Problem und schlug in einem Brief an Nicolaus eine einfachere und elegantere Formulierung vor:

Um den Fall einfacher zu machen, nehme ich an, dass A ein Stück Geld in die Luft wirft und B sich verpflichtet, ihm eine Münze zu geben, wenn die Seite der Köpfe auf den ersten Wurf fällt, 2, wenn es nur der zweite ist, 4, wenn es der 3. Wurf ist, 8, wenn es der 4. Wurf ist usw. Das Paradox besteht darin, dass die Berechnung für das Äquivalent ergibt, dass A B eine unendliche Summe geben muss, was absurd erscheint. (Cramér an N. Bernoulli, 21. Mai 1728)

Im selben Brief schlug Cramér eine Lösung vor, die das aufkommende Feld der Entscheidungstheorie revolutionierte. Cramér wies darauf hin, dass es nicht der erwartete Geldwert ist, der die Entscheidungen eines rationalen Agenten leiten sollte, sondern vielmehr der „Gebrauch“, den „vernünftige Männer“mit Geld machen können. Laut Cramér sind zwanzig Millionen nicht mehr als zehn Millionen wert, weil zehn Millionen ausreichen, um alle Wünsche eines Agenten zu erfüllen:

Mathematiker schätzen Geld im Verhältnis zu seiner Menge und vernünftige Männer im Verhältnis zu dem Gebrauch, den sie daraus machen können. Was die mathematische Erwartung unendlich macht, ist die erstaunliche Summe, die ich erhalten kann, wenn die Seite der Köpfe nur sehr spät fällt, der 100. oder 1000. Wurf. Nun, diese Summe, wenn ich als vernünftiger Mann argumentiere, ist nicht mehr für mich, macht mir nicht mehr Freude, verpflichtet mich nicht mehr, das Spiel anzunehmen, als wenn es nur 10 oder 20 Millionen Münzen wären. (21. Mai 1728)

Der Punkt, den Cramér in dieser Passage gemacht hat, kann verallgemeinert werden. Angenommen, die obere Grenze des Wertes eines Ergebnisses ist (2 ^ m.). Wenn ja, wird dieses Ergebnis erhalten, wenn die Münze auf dem m- ten Wurf landet. Dies bedeutet, dass der erwartete Wert aller unendlich vielen möglichen Ergebnisse, bei denen die Münze mehr als m Mal geworfen wird, endlich ist: Es ist das (2 ^ m) -fache der Wahrscheinlichkeit, dass dies geschieht, sodass er (2) nicht überschreiten kann ^ m). Dazu müssen wir den aggregierten Wert der ersten m möglichen Ergebnisse addieren, was offensichtlich endlich ist. Da die Summe von zwei endlichen Zahlen endlich ist, ist der erwartete Wert von Cramérs Version des Spiels in St. Petersburg endlich.

Cramér war sich bewusst, dass es umstritten wäre zu behaupten, dass es eine Obergrenze gibt, über die hinaus zusätzliche Reichtümer überhaupt keine Rolle spielen. Er wies jedoch darauf hin, dass seine Lösung auch dann funktioniert, wenn der Wert des Geldes streng steigt, der relative Anstieg jedoch immer kleiner wird (21. Mai 1728):

Wenn man annehmen möchte, dass der moralische Wert von Waren die Quadratwurzel der mathematischen Größen war … wird meine moralische Erwartung sein

) frac {1} {2} cdot / sqrt {1} + / frac {1} {4} cdot / sqrt {2} + / frac {1} {8} cdot / sqrt {4} + / frac {1} {16} cdot / sqrt {8} ldots)

Dies ist die erste klare Aussage darüber, was zeitgenössische Entscheidungstheoretiker und Ökonomen als abnehmenden Grenznutzen bezeichnen: Der zusätzliche Nutzen von mehr Geld ist niemals Null, aber je reicher Sie sind, desto weniger gewinnen Sie, wenn Sie Ihr Vermögen weiter erhöhen. Cramér berechnete den erwarteten Nutzen („moralischer Wert“) des Spiels in St. Petersburg korrekt auf etwa 2,9 Einheiten für einen Agenten, dessen Nutzen des Geldes durch die Wurzelfunktion gegeben ist.

Daniel Bernoulli schlug eine sehr ähnliche Idee in seinem berühmten Artikel von 1738 vor, der am Anfang dieses Abschnitts erwähnt wurde. Daniel argumentierte, dass der Nutzen des Agenten für Reichtum gleich dem Logarithmus des Geldbetrags ist, was bedeutet, dass unwahrscheinliche, aber große Geldpreise weniger zum erwarteten Nutzen des Spiels beitragen als wahrscheinlichere, aber kleinere Geldbeträge. Als sein Artikel veröffentlicht werden sollte, erwähnte Daniels Bruder Nicolaus ihm gegenüber, dass Cramér 1728 eine sehr ähnliche Idee vorgeschlagen hatte (in dem oben zitierten Brief). In der endgültigen Fassung des Textes hat Daniel dies offen anerkannt:

In der Tat habe ich [Cramérs] Theorie so ähnlich wie meine gefunden, dass es wunderbar erscheint, dass wir unabhängig voneinander eine so enge Einigung über diese Art von Thema erzielt haben. (Daniel Bernoulli 1738 [1954: 33])

2. Das moderne St. Petersburg-Paradoxon

Cramérs Bemerkung über den abnehmenden Grenznutzen des Geldes durch den Agenten löst die ursprüngliche Version des St. Petersburger Paradoxons. Moderne Entscheidungstheoretiker sind sich jedoch einig, dass diese Lösung zu eng ist. Das Paradoxon kann wiederhergestellt werden, indem die Werte der Ergebnisse bis zu dem Punkt erhöht werden, an dem die Agentin für ihren abnehmenden Grenznutzen des Geldes vollständig entschädigt wird (siehe Menger 1934 [1979]). Die in der modernen Literatur diskutierte Version des St. Petersburg-Paradoxons kann daher wie folgt formuliert werden:

Eine faire Münze wird geworfen, bis sie auftaucht. Zu diesem Zeitpunkt gewinnt der Spieler einen Preis im Wert von (2 ^ n) Gebrauchseinheiten auf der persönlichen Gebrauchsskala des Spielers, wobei n die Häufigkeit ist, mit der die Münze geworfen wurde.

Beachten Sie, dass der erwartete Nutzen dieses Glücksspiels unendlich ist, selbst wenn der Grenznutzen des Geldes durch den Agenten abnimmt. Wir können offen lassen, woraus die Preise bestehen. Es muss kein Geld sein.

Es ist hervorzuheben, dass keiner der Preise im Spiel in St. Petersburg einen unendlichen Wert hat. Egal wie oft die Münze geworfen wird, der Spieler gewinnt immer eine begrenzte Menge an Nutzen. Der erwartete Nutzen des Spiels in St. Petersburg ist nicht endlich, aber das tatsächliche Ergebnis wird immer endlich sein. Es wäre daher ein Fehler, das Paradox zu verwerfen, indem man argumentiert, dass keine tatsächlichen Preise einen unendlichen Nutzen haben können. Für die Konstruktion des Paradoxons sind keine tatsächlichen Unendlichkeiten erforderlich, nur potenzielle. (Für eine Diskussion der Unterscheidung zwischen tatsächlichen und potenziellen Unendlichkeiten siehe Linnebo und Shapiro 2019.) In Diskussionen über das St. Petersburger Paradoxon ist es oft hilfreich, den Begriff „unendlicher Nutzen“als „nicht endlich“zu interpretieren, sondern ihn den Philosophen zu überlassen der Mathematik zu bestimmen, ob es ist oder sich nur der Unendlichkeit nähert.

Einige Autoren haben genau diskutiert, was mit der Behauptung problematisch ist, dass der erwartete Nutzen des modifizierten St. Petersburg-Spiels unendlich ist (sprich: nicht endlich). Ist es nur die Tatsache, dass der faire Preis des Einsatzes „zu hoch“ist, oder gibt es noch etwas, das die Sorge auslöst? James M. Joyce stellt das fest

Eine Wette mit unendlichem Nutzen wird einer ihrer Auszahlungen strikt vorgezogen, da letztere alle endlich sind. Dies ist absurd, da wir unsere Aufmerksamkeit auf Wetter beschränken, die Wetten nur als Mittel zum Zweck der Steigerung ihres Vermögens schätzen. (Joyce 1999: 37)

Der Punkt von Joyce scheint zu sein, dass eine Agentin, die den fairen Preis der Wette zahlt, sicher weiß, dass es ihr tatsächlich schlechter geht, nachdem sie die Gebühr bezahlt hat. Dies scheint jedoch vorauszusetzen, dass tatsächliche Unendlichkeiten existieren. Wenn nur potenzielle Unendlichkeiten existieren, kann der Spieler keine unendliche Gebühr für das Spielen des Spiels „bezahlen“. Wenn ja, könnten wir Joyce vielleicht so interpretieren, dass sie uns daran erinnert, dass der erwartete Nutzen immer höher sein wird, egal welchen endlichen Betrag der Spieler tatsächlich gewinnt, was bedeutet, dass es vernünftig gewesen wäre, noch mehr zu zahlen. Entscheidungstheoretiker analysieren einen Mittel-Zweck-Begriff der Rationalität, wonach es rational ist, das zu tun, was das beste Mittel zum eigenen Zweck ist. Der Spieler weiß also, dass das Bezahlen von mehr als dem, was man tatsächlich gewinnt, nicht das beste Mittel sein kann, um den Nutzen zu maximieren. Diese Beobachtung ermöglicht es uns, das ursprüngliche „Paradoxon“(aus dem kein formaler Widerspruch abgeleitet wird) in eine stärkere Version zu stärken, die aus drei inkompatiblen Behauptungen besteht:

  1. Der Nutzen, den es vernünftig ist, für das Spielen des Spiels in St. Petersburg zu zahlen, ist nicht begrenzt.
  2. Der Spieler weiß, dass die tatsächliche Menge an Nutzen, die er oder sie gewinnen wird, endlich ist.
  3. Es ist nicht rational, wissentlich mehr für ein Spiel zu bezahlen, als man gewinnen wird.

Viele Diskussionen über das St. Petersburger Paradoxon haben sich auf (1) konzentriert. Wie wir in den nächsten Abschnitten sehen werden, argumentieren viele Wissenschaftler, dass der Wert des Spiels in St. Petersburg aus dem einen oder anderen Grund endlich ist. Eine seltene Ausnahme sind Hájek und Nover. Sie bieten das folgende Argument für die Annahme von (1):

Das Spiel in St. Petersburg kann als die Grenze einer Folge von abgeschnittenen Spielen in St. Petersburg mit sukzessive höheren endlichen Kürzungspunkten angesehen werden. Beispielsweise wird das Spiel abgebrochen, wenn die Köpfe beim zehnten Wurf nicht erreicht werden. bis zum elften Wurf; durch den zwölften Wurf;…. Wenn wir Dominanz-Argumentation akzeptieren, können diese aufeinanderfolgenden Kürzungen unsere Einschätzung des Werts des St. Petersburg-Spiels leiten: Es wird unten durch jeden ihrer Werte begrenzt, wobei diese Grenzen monoton zunehmen. Wir haben also einen grundsätzlichen Grund zu akzeptieren, dass es sich lohnt, einen endlichen Betrag zu zahlen, um das Spiel in St. Petersburg zu spielen. (Hájek und Nover 2006: 706)

Obwohl sie dies nicht ausdrücklich sagen, würden Hájek und Nover dies wahrscheinlich ablehnen (3). Die am wenigsten kontroverse Behauptung ist vielleicht (2). Es ist natürlich logisch möglich, dass die Münze jedes Mal, wenn sie geworfen wird, Schwänze landet, obwohl eine unendliche Folge von Schwänzen die Wahrscheinlichkeit 0 hat. (Eine Diskussion dieser Möglichkeit finden Sie in Williamson 2007.) Einige Ereignisse mit der Wahrscheinlichkeit 0 treten tatsächlich auf, und in unzähligen Wahrscheinlichkeitsräumen ist es unmöglich, dass alle Ergebnisse eine Wahrscheinlichkeit von mehr als 0 haben. Trotzdem gewinnt der Agent 0 Nutzeneinheiten, wenn die Münze jedes Mal, wenn sie geworfen wird, den Schwanz landet. Also würde (2) immer noch zutreffen.

3. Unrealistische Annahmen?

Einige Autoren behaupten, dass das Spiel in St. Petersburg abgelehnt werden sollte, weil es auf Annahmen beruht, die niemals erfüllt werden können. Zum Beispiel argumentiert Jeffrey (1983: 154), dass "jeder, der anbietet, den Agenten das Glücksspiel in St. Petersburg spielen zu lassen, ein Lügner ist, weil er vorgibt, eine unendlich große Bank zu haben". Ähnliche Einwände wurden im 18. Jahrhundert von Buffon und Fontaine erhoben (siehe Dutka 1988).

Es ist jedoch nicht klar, warum Jeffreys Standpunkt zu realen Einschränkungen relevant wäre. Was ist falsch daran, ein hoch idealisiertes Spiel zu bewerten? Wir haben wenig Grund zu der Annahme, dass wir jemals spielen werden? Hájek und Smithson (2012) weisen darauf hin, dass das St. Petersburg-Paradoxon in folgendem Sinne ansteckend ist: Solange Sie der Hypothese, dass das Versprechen der Bank glaubwürdig ist, eine Wahrscheinlichkeit ungleich Null zuweisen, wird der erwartete Nutzen unendlich sein, egal wie gering Ihre Glaubwürdigkeit ist in der Hypothese ist. Jede Wahrscheinlichkeit ungleich Null mal unendlich ist gleich unendlich, daher hat jede Option, bei der Sie das Spiel in St. Petersburg mit einer Wahrscheinlichkeit ungleich Null spielen können, einen unendlich erwarteten Nutzen.

Es ist auch erwähnenswert, dass das Spiel in St. Petersburg möglicherweise nicht so unrealistisch ist, wie Jeffrey behauptet. Die Tatsache, dass der Bank kein unbestimmter Geldbetrag (oder andere Vermögenswerte) zur Verfügung steht, bevor die Münze geworfen wird, sollte kein Problem sein. Alles, was zählt, ist, dass die Bank dem Spieler ein glaubwürdiges Versprechen geben kann, dass der richtige Betrag innerhalb eines angemessenen Zeitraums nach Abschluss des Flippens zur Verfügung gestellt wird. Wie viel Geld die Bank im Tresor hat, wenn der Spieler das Spiel spielt, spielt keine Rolle. Dies ist wichtig, da, wie in Abschnitt 2 erwähnt, der Betrag, den der Spieler tatsächlich gewinnt, immer begrenzt ist. Wir können uns also vorstellen, dass das Spiel wie folgt funktioniert: Wir werfen zuerst die Münze und sobald wir wissen, welchen endlichen Betrag die Bank dem Spieler schuldet, wird der CEO dafür sorgen, dass die Bank genug Geld sammelt.

Wenn dies den Spieler nicht überzeugt, können wir uns vorstellen, dass die Zentralbank einen Blankoscheck ausstellt, bei dem der Spieler den richtigen Betrag eingeben kann, sobald die Münze geworfen wurde. Da der Scheck von der Zentralbank ausgestellt wird, kann er nicht zurückspringen. Neues Geld wird automatisch erstellt, wenn von der Zentralbank ausgestellte Schecks in die Wirtschaft eingeführt werden. Jeffrey weist diese Version des Spiels in St. Petersburg mit folgendem Argument zurück:

[Stellen Sie sich vor, dass] die Finanzabteilung dem Gewinner eine neue Milliarden-Milliarden-Dollar-Rechnung liefert. Aufgrund der daraus resultierenden Inflation wären die marginalen Erwünschtheiten derart hoher Auszahlungen vermutlich niedrig genug, um die Aussicht auf ein Spiel endlich zu erwarten [Nutzen]. (Jeffrey 1983: 155)

Jeffrey hat wahrscheinlich Recht, dass "ein knackiger neuer Milliarden-Dollar-Schein" eine gewisse Inflation auslösen würde, aber dies scheint etwas zu sein, das wir bei der Entwicklung des Spiels berücksichtigen könnten. Alles, was zählt, ist, dass die Dienstprogramme im Auszahlungsschema linear sind.

Leser, die sich von diesem Argument nicht überzeugt fühlen, möchten sich vielleicht eine Version des Spiels in St. Petersburg vorstellen, in der der Spieler an Nozicks Experience Machine angeschlossen ist (siehe Abschnitt 2.3 im Eintrag über Hedonismus). Durch die Konstruktion kann diese Maschine jede angenehme Erfahrung erzeugen, die der Agent wünscht. Sobald die Münze n-mal geworfen wurde, erzeugt die Experience Machine eine angenehme Erfahrung im Wert von (2 ^ n) Gebrauchseinheiten auf der persönlichen Gebrauchsskala des Spielers. Aumann (1977) stellt fest, ohne die Experience Machine ausdrücklich zu erwähnen, dass:

Die Auszahlungen müssen nicht in Form einer festen endlichen Anzahl von Waren ausgedrückt werden können, oder in Bezug auf Waren überhaupt […] könnte der Lottoschein […] eine Art unbefristete Aktivität sein - eine, die zu Empfindungen führen könnte, die er hat bisher nicht erlebt. Beispiele könnten religiöse, ästhetische oder emotionale Erfahrungen sein, wie das Betreten eines Klosters, das Besteigen eines Berges oder das Forschen mit möglicherweise spektakulären Ergebnissen. (Aumann 1977: 444)

Ein mögliches Beispiel für die Art von Erfahrung, die Aumann im Sinn hat, könnte die Anzahl der Tage im Himmel sein. Es ist nicht klar, warum die im Himmel verbrachte Zeit einen geringeren Grenznutzen haben muss.

Eine andere Art von praktischer Sorge betrifft die zeitliche Dimension des Spiels in St. Petersburg. Brito (1975) behauptet, dass das Umwerfen von Münzen einfach zu lange dauern kann. Wenn jeder Flip n Sekunden dauert, müssen wir sicherstellen, dass es möglich ist, ihn ausreichend oft zu drehen, bevor der Spieler stirbt. Wenn es eine Obergrenze dafür gibt, wie oft die Münze geworfen werden kann, wäre der erwartete Nutzen natürlich auch endlich.

Eine einfache Antwort auf diese Sorge ist die Vorstellung, dass das Umdrehen gestern stattgefunden hat und auf Video aufgezeichnet wurde. Der erste Flip erfolgte pünktlich um 23 Uhr, der zweite Flip (frac {60} {2}) Minuten später, der dritte (frac {60} {4}) Minuten nach dem zweiten und so weiter. Das Video wurde noch niemandem zur Verfügung gestellt, aber sobald der Spieler die Gebühr für das Spielen des Spiels bezahlt hat, wird das Video öffentlich zugänglich gemacht. Beachten Sie, dass die Münze im Prinzip innerhalb einer Stunde unendlich oft geworfen werden konnte. (Dies ist ein Beispiel für eine „Supertask“; siehe den Eintrag zu Supertasks.)

Es ist wahr, dass dieses zufällige Experiment erfordert, dass die Münze immer schneller geworfen wird. Irgendwann müssten wir die Münze schneller als mit Lichtgeschwindigkeit drehen. Dies ist logisch nicht unmöglich, obwohl diese Annahme gegen ein Naturgesetz verstößt. Wenn Sie dies problematisch finden, können wir uns stattdessen vorstellen, dass jemand einen Pfeil auf die reale Linie zwischen 0 und 1 wirft. Die Wahrscheinlichkeit, dass der Pfeil die erste Hälfte des Intervalls trifft, (left [0, / frac {1} { 2} rechts),) ist (frac {1} {2}.) Und die Wahrscheinlichkeit, dass der Pfeil das nächste Viertel trifft, (links) frac {1} {2}, / frac { 3} {4} right),) ist (frac {1} {4}) und so weiter. Wenn auf diese Weise „Münzwürfe“erzeugt werden, ist das zufällige Experiment in kürzester Zeit beendet. Um die Sorge zu vermeiden, dass kein realer Pfeil unendlich scharf ist, können wir den Punkt, an dem der Pfeil auf die reale Linie trifft, wie folgt definieren: Sei a die Fläche des Pfeils. Der Punkt, an dem der Pfeil auf das Intervall [0,1] trifft, ist so definiert, dass die Hälfte der Fläche von a rechts von einer vertikalen Linie durch a und die andere Hälfte links von der vertikalen Linie liegt. Der Punkt, an dem die vertikale Linie das Intervall [0,1] kreuzt, ist das Ergebnis des Zufallsexperiments.

In der zeitgenössischen Literatur zum St. Petersburger Paradoxon werden praktische Sorgen oft ignoriert, entweder weil man sich Szenarien vorstellen kann, in denen sie nicht auftreten, oder weil hoch idealisierte Entscheidungsprobleme mit unbegrenzten Versorgungsleistungen und unendlichen Zustandsräumen als interessant angesehen werden ihr eigenes Recht.

4. Eine begrenzte Dienstprogrammfunktion?

Arrow (1970: 92) schlägt vor, die Nutzfunktion eines rationalen Agenten als „begrenzte Funktion zu verstehen.… Da eine solche Annahme erforderlich ist, um das Paradoxon von [St. Petersburg] zu vermeiden“. Basset (1987) macht einen ähnlichen Punkt; siehe auch Samuelson (1977) und McClennen (1994).

Der Punkt von Arrow ist, dass Versorgungsunternehmen begrenzt werden müssen, um das St. Petersburger Paradoxon zu vermeiden, und dass traditionelle axiomatische Darstellungen des erwarteten Versorgungsprinzips dies garantieren. Die bekannten Axiomatisierungen, die Ramsey (1926), von Neumann und Morgenstern (1947) und Savage (1954) vorgeschlagen haben, führen beispielsweise alle dazu, dass die Nutzenfunktion des Entscheidungsträgers begrenzt ist. (Siehe Abschnitt 2.3 im Eintrag zur Entscheidungstheorie für einen Überblick über die Axiomatisierung von Neumann und Morgenstern.)

Wenn die Utility-Funktion begrenzt ist, ist der erwartete Nutzen des St. Petersburg-Spiels natürlich begrenzt. Aber warum garantieren die Axiome der erwarteten Nützlichkeitstheorie, dass die Nützlichkeitsfunktion begrenzt ist? Die entscheidende Annahme ist, dass rational zulässige Präferenzen gegenüber Lotterien kontinuierlich sind. Um die Bedeutung dieses Axioms zu erklären, ist es hilfreich, einige Symbole einzuführen. Sei ({pA, (1-p) B }) die Lotterie, die zu A mit der Wahrscheinlichkeit p und B mit der Wahrscheinlichkeit (1-p) führt. Der Ausdruck (A / preceq B) bedeutet, dass der Agent B als mindestens so gut wie A betrachtet, dh B gegenüber A schwach bevorzugt. Darüber hinaus bedeutet (A / sim B), dass A und B gleich bevorzugt sind, und (A / prec B) bedeutet, dass B gegenüber A bevorzugt ist. Erwägen:

Das Kontinuitätsaxiom: Angenommen, (A / preceq B / preceq C). Dann gibt es eine Wahrscheinlichkeit (p / in [0,1]), so dass ({pA, (1-p) C } sim B)

Um zu erklären, warum dieses Axiom beinhaltet, dass kein Objekt einen unendlichen Wert haben kann, nehmen wir für die Reduktion an, dass A ein Preisscheck im Wert von 1 USD ist, B ein Scheck im Wert von 2 USD ist und C ein Preis ist, dem der Agent einen unendlichen Nutzen zuweist. Die Präferenz des Entscheidungsträgers ist (A / prec B / prec C), aber es gibt keine Wahrscheinlichkeit p, so dass ({pA, (1-p) C / sim B). Immer wenn p ungleich Null ist, wird der Entscheidungsträger ({pA, (1-p) C }) gegenüber B strikt bevorzugen, und wenn p 0 ist, wird der Entscheidungsträger B strikt bevorzugen. Da also kein Objekt (Lotterie oder Ergebnis) einen unendlichen Wert haben kann und eine Dienstprogrammfunktion durch die Dienstprogramme definiert wird, die sie diesen Objekten zuweist (Lotterien oder Ergebnisse), muss die Dienstprogrammfunktion begrenzt werden.

Löst dies das St. Petersburg-Paradoxon? Die Antwort hängt davon ab, ob wir der Meinung sind, dass ein rationaler Agent, der angeboten wird, das Spiel in St. Petersburg zu spielen, einen Grund hat, das Kontinuitätsaxiom zu akzeptieren. Eine mögliche Ansicht ist, dass jeder, dem angeboten wird, das Spiel in St. Petersburg zu spielen, Grund hat, das Kontinuitätsaxiom abzulehnen. Da das Spiel in St. Petersburg einen unendlichen Nutzen hat, hat der Agent keinen Grund, Lotterien in der von diesem Axiom festgelegten Weise zu bewerten. Wie in Abschnitt 3 erläutert, können wir uns unbegrenzt wertvolle Auszahlungen vorstellen.

Einige könnten einwenden, dass das Kontinuitätsaxiom sowie die anderen von Neumann und Morgenstern (sowie Ramsey und Savage) vorgeschlagenen Axiome für die mathematisch genaue Definition des Nutzens wesentlich sind. Es wäre daher sinnlos, über Nützlichkeit zu sprechen, wenn wir das Kontinuitätsaxiom ablehnen. Dieses Axiom ist Teil dessen, was es bedeutet zu sagen, dass etwas einen höheren Nutzen hat als etwas anderes. Eine gute Antwort könnte darin bestehen, eine Nützlichkeitstheorie zu entwickeln, in der Präferenzen gegenüber Lotterien nicht zur Definition der Bedeutung des Konzepts herangezogen werden. siehe Luce (1959) für ein frühes Beispiel einer solchen Theorie. Eine andere Antwort könnte darin bestehen, eine Nützlichkeitstheorie zu entwickeln, in der das Kontinuitätsaxiom ausdrücklich abgelehnt wird; siehe Skala (1975).

5. Kleine Wahrscheinlichkeiten ignorieren?

Buffon argumentierte 1777, dass ein rationaler Entscheider die Möglichkeit, im Spiel in St. Petersburg viel Geld zu gewinnen, außer Acht lassen sollte, da die Wahrscheinlichkeit dafür sehr gering ist. Laut Buffon sind einige ausreichend unwahrscheinliche Ergebnisse „moralisch unmöglich“und sollten daher ignoriert werden. Aus technischer Sicht ist diese Lösung sehr einfach: Das St. Petersburg-Paradoxon entsteht, weil der Entscheidungsträger bereit ist, unendlich viele äußerst wertvolle, aber höchst unwahrscheinliche Ergebnisse zusammenzufassen. Wenn wir also die Menge der „möglichen“Ergebnisse einschränken, indem wir sie ausreichend ausschließen unwahrscheinlich, der erwartete Nutzen wird natürlich endlich sein.

Aber warum sollten kleine Wahrscheinlichkeiten ignoriert werden? Und wie ziehen wir die Grenze zwischen kleinen Wahrscheinlichkeiten, die nicht von Belang sind, und anderen, die es nicht sind? Dutka fasst Buffons lange Antwort wie folgt zusammen:

Um einen geeigneten Schwellenwert zu erreichen, stellt [Buffon] fest, dass ein sechsundfünfzigjähriger Mann, der glaubt, dass seine Gesundheit gut ist, die Wahrscheinlichkeit, dass er innerhalb von vierundzwanzig Stunden sterben würde, außer Acht lassen würde, obwohl Sterbetafeln darauf hinweisen, dass die Chancen dagegen stehen Sein Sterben in diesem Zeitraum beträgt nur 10189 zu 1. Buffon nimmt daher eine Wahrscheinlichkeit von 1 / 10.000 oder weniger für ein Ereignis als eine Wahrscheinlichkeit, die ignoriert werden kann. (Dutka 1988: 33)

Ist das ein überzeugendes Argument? Laut Buffon sollten wir einige kleine Wahrscheinlichkeiten ignorieren, weil Leute wie er (56-jährige Männer) sie tatsächlich ignorieren. Buffon kann daher beschuldigt werden, versucht zu haben, ein "Soll" aus einem "Ist" abzuleiten. Um Humes Einwand zu vermeiden, müsste Buffon eine Prämisse hinzufügen, dass die alltäglichen Reaktionen der Menschen auf Risiken immer rational sind. Aber warum sollten wir eine solche Prämisse akzeptieren?

Ein weiterer Einwand ist, dass wir manchmal alle möglichen Ergebnisse eines Ereignisses ignorieren müssen, wenn wir kleine Wahrscheinlichkeiten ignorieren. Betrachten Sie das folgende Beispiel: Ein normales Kartenspiel hat 52 Karten, sodass es in genau 52 Karten angeordnet werden kann! verschiedene Wege. Die Wahrscheinlichkeit einer gegebenen Anordnung beträgt somit ungefähr 1 in (8 / cdot 10 ^ {67}). Dies ist eine sehr geringe Wahrscheinlichkeit. (Wenn man dem Kartenspiel sechs Karten hinzufügen würde, würde die Anzahl der möglichen Ordnungen die Anzahl der Atome im bekannten, beobachtbaren Universum überschreiten.) Jedes Mal, wenn wir ein Kartenspiel mischen, wissen wir jedoch, dass genau eine der Karten mögliche Ergebnisse werden eintreten. Warum sollten wir also all diese sehr unwahrscheinlichen Ergebnisse ignorieren?

Nicholas JJ Smith (2014) verteidigt eine moderne Version von Buffons Lösung. Er stützt seine Argumentation auf das folgende Prinzip:

Rational vernachlässigbare Wahrscheinlichkeiten (RNP): Für jede Lotterie, die in einem Entscheidungsproblem eines Agenten vorkommt, gibt es ein (epsilon> 0), sodass der Agent die Ergebnisse dieser Lotterie mit einer Wahrscheinlichkeit von weniger als (epsilon) nicht berücksichtigen muss) Eingang zu einer völlig rationalen Entscheidung. (Smith 2014: 472)

Smith weist darauf hin, dass die Reihenfolge der Quantifizierer in RNP entscheidend ist. Die Behauptung ist, dass es für jede Lotterie einen Wahrscheinlichkeitsschwellenwert (epsilon) gibt, unter dem alle Wahrscheinlichkeiten ignoriert werden sollten, aber es wäre ein Fehler zu glauben, dass ein und dasselbe (epsilon) für jede Lotterie gilt. Dies ist wichtig, da wir sonst argumentieren könnten, dass RNP es uns ermöglicht, Tausende oder Millionen separater Ereignisse mit einer Wahrscheinlichkeit von weniger als (epsilon.) Zu kombinieren. Es wäre offensichtlich wenig sinnvoll, beispielsweise eine halbe Million One-In zu ignorieren -eine Million Ereignisse. Wenn man bedenkt, dass das entsprechende (epsilon) von Fall zu Fall variieren kann, kann diese Sorge abgewiesen werden.

Smith weist auch darauf hin, dass wir, wenn wir Wahrscheinlichkeiten kleiner als (epsilon,) ignorieren, einige andere Wahrscheinlichkeiten erhöhen müssen, um sicherzustellen, dass alle Wahrscheinlichkeiten gemäß den Wahrscheinlichkeitsaxiomen eins ergeben (siehe Abschnitt 1 im Eintrag zu Interpretationen der Wahrscheinlichkeit). Smith schlägt ein Prinzip vor, um dies systematisch zu tun.

Warum sollten wir jedoch RNP akzeptieren? Was ist das Argument für die Akzeptanz dieses umstrittenen Prinzips, abgesehen von der Tatsache, dass es das Paradoxon von St. Petersburg lösen würde? Smiths Argument lautet wie folgt:

Eine unendliche Präzision kann nicht erforderlich sein. Vielmehr muss es in einem bestimmten Kontext eine endliche Toleranz geben - eine positive Schwelle, so dass das Ignorieren aller Ergebnisse, deren Wahrscheinlichkeiten unter dieser Schwelle liegen, als normgerecht gilt. Es gibt eine Norm der Entscheidungstheorie, die besagt, Ergebnisse zu ignorieren, deren Wahrscheinlichkeit Null ist. Da diese Norm einen bestimmten Wahrscheinlichkeitswert (Null) erwähnt, ist es die Art von Norm, in der es sinnvoll ist, eine Toleranz aufzuerlegen: Null plus oder minus (epsilon) (die zu Null plus (epsilon,) gegeben wird dass die Wahrscheinlichkeiten alle zwischen 0 und 1 liegen)… die Idee dahinter (RNP) ist, dass man in einem tatsächlichen Kontext, in dem eine Entscheidung getroffen werden soll, niemals auf diese Weise unendlich genau sein muss - dass es niemals wichtig ist. Es gibt (für jedes Entscheidungsproblem jede Lotterie darin)und jeder Agent) einen Schwellenwert, so dass der Agent nicht irrational wäre, wenn er einfach Ergebnisse ignorieren würde, deren Wahrscheinlichkeiten unter diesem Schwellenwert liegen. (Smith 2014: 472–474)

Angenommen, wir akzeptieren die Behauptung, dass in der Entscheidungstheorie keine unendliche Präzision erforderlich ist. Dies würde nach Smiths Argumentation bedeuten, dass es rational zulässig ist, Wahrscheinlichkeiten zu ignorieren, die kleiner als (epsilon) sind. Um jedoch sicherzustellen, dass der Entscheidungsträger niemals ein Vermögen für das Spielen des Spiels in St. Petersburg zahlt, müsste Smith anscheinend die stärkere Behauptung verteidigen, dass Entscheidungsträger rational verpflichtet sind, kleine Wahrscheinlichkeiten zu ignorieren, dh dass es nicht zulässig ist, dies nicht zu tun ignoriere sie. Entscheidungsträger, die mit Smiths Ansicht einverstanden sind, laufen Gefahr, einen sehr hohen Betrag für das Spielen des Spiels in St. Petersburg zu zahlen, ohne etwas zu tun, das von RNP als irrational angesehen wird. Dieser Punkt ist wichtig, da es wohl schwieriger zu zeigen ist, dass Entscheidungsträger rational verpflichtet sind, „unendliche Präzision“bei Entscheidungen zu vermeiden, bei denen dies ein erreichbares und vollständig realistisches Ziel ist, wie beispielsweise das Spiel in St. Petersburg. Für eine Kritik an RNP und eine Diskussion einiger verwandter Themen siehe Hájek (2014).

Ein weiterer Einwand gegen RNP wurde von Yoaav Isaacs (2016) vorgeschlagen. Er zeigt, dass RNP zusammen mit einem zusätzlichen von Smith gebilligten Prinzip (schwache Konsistenz) dazu führt, dass der Entscheidungsträger manchmal willkürlich viel Risiko für willkürlich wenig Belohnung eingeht.

Lara Buchak (2013) schlägt eine wohl elegantere Version dieser Lösung vor. Ihr Vorschlag ist, dass wir kleinen Wahrscheinlichkeiten bei der Berechnung des Werts einer Option exponentiell weniger Gewicht zuweisen sollten. Eine mögliche Gewichtungsfunktion r, die von Buchak diskutiert wird, ist (r (p) = p ^ 2.). Ihr Vorschlag ist daher, dass Sie bei einer Wahrscheinlichkeit von (frac {1} {8}) $ 8 gewinnen Zusätzlich zu dem, was Sie bereits haben und Ihr Geldnutzen linear zunimmt, sollten Sie Ihren Nutzengewinn nicht mit (frac {1} {8},) multiplizieren, sondern mit ((frac {1}) multiplizieren. {8}) ^ 2 = / frac {1} {64}.) Wenn die Wahrscheinlichkeit (frac {1} {16}) ist, dass Sie zusätzlich zu dem, was Sie bereits haben, 16 $ gewinnen, sollten Sie dies auch tun Multiplizieren Sie Ihren Gewinn mit (frac {1} {256},) und so weiter. Dies bedeutet, dass kleine Wahrscheinlichkeiten nur sehr wenig zum risikogewichteten erwarteten Nutzen beitragen.

Buchaks Vorschlag ähnelt vage der bekannten Vorstellung, dass unser Grenznutzen von Geld abnimmt. Wie Cramér und Daniel Bernoulli betonten, ist mehr Geld immer besser als weniger, aber der Nutzen aus jedem zusätzlichen Dollar nimmt ab. Laut Buchak ist das Gewicht, das wir der Wahrscheinlichkeit eines Ergebnisses zuweisen sollten, ebenfalls nichtlinear: Kleine Wahrscheinlichkeiten sind weniger wichtig, je kleiner sie sind, und ihre relative Bedeutung nimmt exponentiell ab:

Die Intuition hinter der abnehmenden Grenznutzenanalyse der Risikoaversion war, dass das Hinzufügen von Geld zu einem Ergebnis von geringerem Wert ist, je mehr Geld das Ergebnis bereits enthält. Die Intuition hinter der vorliegenden Analyse der Risikoaversion ist, dass das Hinzufügen der Wahrscheinlichkeit zu einem Ergebnis von größerem Wert ist, je wahrscheinlicher es ist, dass das Ergebnis bereits erzielt wird. (Buchak 2014: 1099.)

Buchak stellt fest, dass dieser Schritt das St. Petersburger Paradoxon nicht von sich aus löst. Aus Gründen, die denen ähneln, die Menger (1934 [1979]) in seinem Kommentar zu Bernoullis Lösung erwähnt, kann das Paradoxon wieder eingeführt werden, indem die Ergebnisse so angepasst werden, dass die Summe linear ansteigt (Einzelheiten siehe Buchak 2013: 73–74). Aus diesem Grund ist Buchak auch RNP verpflichtet, dh der umstrittenen Annahme, dass die Wahrscheinlichkeit so gering sein wird, dass sie keinen Einfluss auf den Gesamtwert des Glücksspiels hat.

Eine weitere Sorge ist, dass, da Buchak das Prinzip der Maximierung des erwarteten Nutzens ablehnt und es durch das Prinzip der risikogewichteten Maximierung des erwarteten Nutzens ersetzt, viele der von Theoretikern gegen Verstöße gegen das Prinzip des erwarteten Nutzens erhobenen Einwände gegen ihr Prinzip als erhoben werden können Gut. Wenn Sie beispielsweise das Prinzip der risikogewichteten Maximierung des erwarteten Nutzens akzeptieren, müssen Sie das Unabhängigkeitsaxiom ablehnen. Dies bedeutet, dass Sie in einem clever gestalteten pragmatischen Argument ausgenutzt werden können. Siehe Briggs (2015) für eine Diskussion einiger Einwände gegen Buchaks Theorie.

6. Relativ erwartete Nützlichkeitstheorie

In dem von Colyvan (2008) eingeführten Petrograd-Spiel gewinnt der Spieler 1 $ mehr als im St. Petersburg-Spiel, unabhängig davon, wie oft die Münze geworfen wird. Anstatt also 2 Utility-Einheiten zu gewinnen, wenn die Münze beim ersten Wurf Köpfe landet, gewinnt der Spieler 3; und so weiter. Siehe Tabelle 1.

Tabelle 1

Wahrscheinlichkeit (frac {1} {2}) (frac {1} {4}) (frac {1} {8})
St. Petersburg 2 4 8
Petrograd (2 + 1) (4 + 1) (8 + 1)

Es scheint offensichtlich, dass das Spiel Petrograd mehr wert ist als das Spiel St. Petersburg. Es ist jedoch nicht leicht zu erklären, warum. Beide Spiele haben einen unendlichen erwarteten Nutzen, daher gibt das Prinzip des erwarteten Nutzens die falsche Antwort. Es ist nicht wahr, dass das Petrograder Spiel mehr wert ist als das St. Petersburger Spiel, weil sein erwarteter Nutzen höher ist; Die beiden Spiele haben genau den gleichen erwarteten Nutzen. Dies zeigt, dass das Prinzip des erwarteten Nutzens nicht universell auf alle riskanten Entscheidungen anwendbar ist, was für sich genommen eine interessante Beobachtung ist.

Ist das Petrograder Spiel mehr wert als das St. Petersburger Spiel, weil die Ergebnisse des Petrograder Spiels die des St. Petersburger Spiels dominieren? In diesem Zusammenhang bedeutet Dominanz, dass der Spieler immer 1 $ mehr gewinnt, unabhängig davon, welcher Zustand der Welt sich als der wahre Zustand herausstellt, dh unabhängig davon, wie oft die Münze geworfen wird. Das Problem ist, dass man sich leicht Versionen des Petrograder Spiels vorstellen kann, auf die das Dominanzprinzip nicht anwendbar wäre. Stellen Sie sich zum Beispiel eine Version des Petersburger Spiel, das genau wie die in Tabelle 1 mit der Ausnahme, dass für einige sehr unwahrscheinliche Ergebnis ist (sagen wir, wenn die Münze landet Köpfe zum ersten Mal auf der 100 thFlip) Der Spieler gewinnt 1 Einheit weniger als im Spiel in St. Petersburg. Dieses Spiel, das Petrogradskij-Spiel, dominiert das Spiel in St. Petersburg nicht. Da es jedoch fast sicher ist, dass der Spieler durch das Spielen des Petrogradskij-Spiels besser dran ist, sollte eine plausible Entscheidungstheorie erklären können, warum das Petrogradskij-Spiel mehr wert ist als das St. Petersburg-Spiel.

Colyvan behauptet, dass wir dieses Rätsel lösen können, indem wir eine neue Version der erwarteten Nützlichkeitstheorie namens Relative Expected Utility Theory (REUT) einführen. Laut REUT sollten wir die Differenz des erwarteten Nutzens zwischen den beiden Optionen für jedes mögliche Ergebnis berechnen. Formal ist der relative erwartete Nutzen ((reu)) von act (A_k) über (A_l)

) reu (A_k, A_l) = / sum_ {i = 1} ^ n p_i (u_ {ki} - u_ {li}).)

Laut Colyvan ist es sinnvoll, (A_k) genau dann (A_l) zu wählen, wenn (reu (A_k, A_l) gt 0).

Colyvans REUT erklärt genau, warum das Petrograd-Spiel mehr wert ist als das St. Petersburg-Spiel, weil der relativ erwartete Nutzen 1 beträgt. REUT erklärt auch, warum das Petrogradskij-Spiel mehr wert ist als das St. Petersburg-Spiel: Der Unterschied im erwarteten Nutzen ist (1 - (frac {1} {2}) ^ {100}), was> 0 ist.

Peterson (2013) stellt jedoch fest, dass REUT nicht erklären kann, warum das Leningradskij-Spiel mehr wert ist als das Leningrad-Spiel (siehe Tabelle 2). Das Leningradskij-Spiel ist die Version des Petrograder Spiels, bei der der Spieler nicht nur eine begrenzte Anzahl von Gebrauchseinheiten erhält, sondern auch das St. Petersburg-Spiel (SP) spielen kann, wenn die Münze in der zweiten Runde mit dem Kopf nach oben landet. Im Leningrader Spiel darf der Spieler das Spiel St. Petersburg (SP) spielen, wenn die Münze in der dritten Runde mit dem Kopf nach oben landet.

Tabelle 2

Wahrscheinlichkeit (frac {1} {2}) (frac {1} {4}) (frac {1} {8}) (frac {1} {16})
Leningrad 2 4 (8+ / textrm {SP}) 16
Leningradskij 2 (4+ / textrm {SP}) 8 16

Es ist offensichtlich, dass das Leningradskij-Spiel mehr wert ist als das Leningrad-Spiel, da die Wahrscheinlichkeit, dass der Spieler SP als Bonus spielt (was einen unendlich erwarteten Nutzen hat), höher ist. REUT kann jedoch nicht erklären, warum. Der Unterschied im erwarteten Nutzen für den Zustand, der mit der Wahrscheinlichkeit (frac {1} {4}) in Tabelle 2 auftritt, beträgt (- / infty) und (+ / infty) für den Zustand, der auftritt mit der Wahrscheinlichkeit (frac {1} {8}.) Daher, weil (p / cdot / infty = / infty) für alle positiven Wahrscheinlichkeiten (p) und "(infty - / infty ")”Ist in der Standardanalyse undefiniert, REUT kann nicht auf diese Spiele angewendet werden.

Bartha (2016) schlägt eine komplexere Version von Colyvans Theorie vor, um die oben beschriebenen Sorgen anzugehen. Sein Vorschlag ist, den Agenten zu bitten, ein „problematisches“Spiel mit einer Lotterie zwischen zwei anderen Spielen zu vergleichen. Wenn zum Beispiel Petrograd + das Spiel ist, bei dem der Spieler immer 2 Einheiten mehr gewinnt als im Spiel in St. Petersburg, unabhängig davon, wie oft die Münze geworfen wird, kann der Spieler das Petrograd-Spiel mit einer Lotterie zwischen Petrograd + vergleichen und das Spiel in St. Petersburg. Indem Sie bestimmen, für welche Wahrscheinlichkeiten eine Lotterie in welcher Petrograd + gespielt wirdmit der Wahrscheinlichkeit p und das St. Petersburg-Spiel mit der Wahrscheinlichkeit (1-p) ist besser als das Petrograd-Spiel, man kann sicher ein Maß für den relativen Wert von Petrograd im Vergleich zu Petrograd + oder St. Petersburg ermitteln. (Einzelheiten siehe Abschn. 5 in Bartha 2016. Siehe auch Colyvan und Hájeks Diskussion 2016 über Barthas Theorie.)

Erwähnen wir auch eine andere, recht einfache Variante des ursprünglichen St. Petersburg-Spiels, die wie folgt gespielt wird (siehe Peterson 2015: 87): Eine manipulierte Münze landet mit einer Wahrscheinlichkeit von 0,4 und der Spieler gewinnt einen Preis im Wert von (2 ^) n) Gebrauchseinheiten, wobei n die Häufigkeit ist, mit der die Münze geworfen wurde. Dieses Spiel, das Moskauer Spiel, liefert mit größerer Wahrscheinlichkeit eine lange Folge von Flips und ist daher mehr wert als das Spiel in St. Petersburg, aber der erwartete Nutzen beider Spiele ist der gleiche, da beide Spiele einen unendlich erwarteten Nutzen haben. Es könnte verlockend sein zu sagen, dass das Moskauer Spiel attraktiver ist, weil das Moskauer Spiel das Spiel in St. Petersburg stochastisch dominiert. (Dass ein Spiel ein anderes Spiel stochastisch dominiert, bedeutet, dass für jedes mögliche Ergebnis,Das erste Spiel hat eine mindestens so hohe Wahrscheinlichkeit, einen Preis im Wert von mindestens u Nutzeneinheiten zu erhalten wie das zweite Spiel. und für einige u ergibt das erste Spiel u mit einer höheren Wahrscheinlichkeit als das zweite.) Das stochastische Dominanzprinzip ist jedoch nicht auf Spiele anwendbar, bei denen ein geringes Risiko besteht, dass der Spieler einen Preis gewinnt, der etwas weniger wert ist als im anderen Spiel. Wir können uns zum Beispiel vorstellen, dass wenn die Münze auf der 100 landetBeim Umdrehen zahlt das Moskauer Spiel eine Einheit weniger als das Spiel in St. Petersburg. In diesem Szenario dominiert keines der beiden Spiele stochastisch das andere. Trotzdem scheint es immer noch vernünftig zu sein, darauf zu bestehen, dass das Spiel, das mit ziemlicher Sicherheit zu einem besseren Ergebnis führt (im oben erläuterten Sinne), mehr wert ist. Die Herausforderung besteht darin, auf robuste und nicht willkürliche Weise zu erklären, warum.

7. Das Pasadena-Spiel

Das von Nover und Hájek (2004) eingeführte Pasadena-Paradoxon ist vom Spiel in St. Petersburg inspiriert, aber der Auszahlungsplan ist anders. Wie üblich wird eine faire Münze n-mal geworfen, bis sie zum ersten Mal auftaucht. Wenn n ungerade ist, gewinnt der Spieler ((2 ^ n) / n) Nutzeneinheiten; Wenn jedoch n gerade ist, muss der Spieler ((2 ^ n) / n) Einheiten bezahlen. Wie viel sollte man bereit sein, für dieses Spiel zu bezahlen?

Wenn wir die Begriffe in der zeitlichen Reihenfolge zusammenfassen, in der die Ergebnisse auftreten, und den erwarteten Nutzen auf die übliche Weise berechnen, stellen wir fest, dass das Pasadena-Spiel Folgendes wert ist:

) begin {align} frac {1} {2} cdot / frac {2} {1} - / frac {1} {4} cdot / frac {4} {2} + / frac {1} {8} cdot / frac {8} {3} & - / frac {1} {16} cdot / frac {16} {4} + / frac {1} {32} cdot / frac {16} { 5} - / cdots \& = 1 - / frac {1} {2} + / frac {1} {3} - / frac {1} {4} + / frac {1} {5} - / cdots & = / sum_n / frac {(- 1) ^ {n-1}} {n} end {align})

Diese unendliche Summe konvergiert gegen ln 2 (ungefähr 0,69 Gebrauchseinheiten). Nover und Hájek weisen jedoch darauf hin, dass wir ein ganz anderes Ergebnis erzielen würden, wenn wir die Reihenfolge ändern würden, in der dieselben Zahlen zusammengefasst werden. Hier ist eines von vielen möglichen Beispielen für diese mathematische Tatsache:

) begin {align} 1 - / frac {1} {2} - / frac {1} {4} + / frac {1} {3} - / frac {1} {6} - / frac {1} {8} + / frac {1} {5} - / frac {1} {10} & - / frac {1} {12} + / frac {1} {7} - / frac {1} {14} - / frac {1} {16} cdots \& = / frac {1} {2} (ln 2). / end {align})

Dies ist natürlich keine Neuigkeit für Mathematiker. Die unendliche Summe, die durch das Pasadena-Spiel erzeugt wird, ist als alternierende harmonische Reihe bekannt, bei der es sich um eine bedingt konvergente Reihe handelt. (Eine Reihe (a_n) ist bedingt konvergent, wenn (sum_ {j = 1} ^ { infty} a_n) konvergiert, aber (sum_ {j = 1} ^ { infty} lvert a_n / rvert) divergiert.) Aufgrund eines Theorems, das als Riemann-Umlagerungssatz bekannt ist, wissen wir, dass wenn eine unendliche Reihe bedingt konvergent ist, ihre Terme immer so umgeordnet werden können, dass die Summe gegen eine beliebige endliche Zahl oder gegen (+ / infty konvergiert) oder zu (- / infty).

Der Punkt von Nover und Hájek ist, dass es willkürlich erscheint, die Begriffe im Pasadena-Spiel in der zeitlichen Reihenfolge zusammenzufassen, die durch die Münzwürfe erzeugt wird. Um zu sehen warum, ist es hilfreich, sich eine leicht modifizierte Version des Spiels vorzustellen. Nover und Hájek bitten uns in ihrer Originalarbeit, uns Folgendes vorzustellen:

Wir werfen eine faire Münze, bis sie zum ersten Mal die Köpfe landet. Wir haben auf aufeinanderfolgenden Karten Ihre Auszahlung für jedes mögliche Ergebnis geschrieben. Die Karten lauten wie folgt: (oberste Karte) Wenn der erste = Kopf auf Wurf Nr. 1 ist, zahlen wir Ihnen 2 $. […] Aus Versehen lassen wir die Karten fallen und nachdem wir sie aufgehoben und auf den Tisch gestapelt haben, stellen wir fest, dass sie neu angeordnet wurden. Egal, Sie sagen - offensichtlich hat sich das Spiel nicht geändert, da der Auszahlungsplan derselbe bleibt. Schließlich wird das Spiel durch die auf den Karten angegebenen Bedingungen korrekt und vollständig spezifiziert, und wir haben lediglich die Reihenfolge geändert, in der die Bedingungen dargestellt werden. (Nover und Hájek 2004: 237–239)

Unter den hier beschriebenen Umständen scheinen wir keinen Grund zu haben, eine bestimmte Reihenfolge zu bevorzugen, in der die Begriffe der unendlichen Reihe zusammengefasst werden. So ist der erwartete Wert des Pasadena-Spiels (ln 2) oder (frac {1} {2} (ln 2)) oder (frac {1} {3}) oder (- / infty) oder 345,68? Alle diese Vorschläge scheinen gleichermaßen willkürlich. Gleiches gilt auch für das Altadena-Spiel, bei dem jede Auszahlung um einen Dollar erhöht wird. Das Altadena-Spiel ist eindeutig besser als das Pasadena-Spiel, aber Befürworter der erwarteten Nützlichkeitstheorie scheinen nicht erklären zu können, warum.

Die Literatur zum Pasadena-Spiel ist umfangreich. Siehe z. B. Hájek und Nover (2006), Fine (2008), Smith (2014) und Bartha (2016). Eine besonders einflussreiche Lösung ist Easwaran (2008). Er führt eine Unterscheidung zwischen einer starken und einer schwachen Version des erwarteten Nutzenprinzips ein, inspiriert von der bekannten Unterscheidung zwischen der starken und der schwachen Version des Gesetzes der großen Zahlen. Nach dem starken Gesetz der großen Zahlen konvergiert der durchschnittliche Nutzen eines Spiels mit der Wahrscheinlichkeit eins gegen seinen erwarteten Nutzen, wenn die Anzahl der Iterationen gegen unendlich geht. Das schwache Gesetz der großen Zahlen besagt, dass für einen ausreichend großen Satz von Versuchen die Wahrscheinlichkeit willkürlich klein gemacht werden kann, dass sich der durchschnittliche Nutzen nicht um mehr als einen kleinen vorgegebenen Betrag vom erwarteten Nutzen unterscheidet. Nach dem schwach erwarteten Nutzenprinzip

Indem im Voraus eine ausreichend hohe Anzahl von n Spielen festgelegt wird, kann fast garantiert werden, dass die durchschnittliche Auszahlung pro Spiel willkürlich nahe bei ln 2 liegt.

während die starke Version des Prinzips dies beinhaltet

Wenn eine Spielerin immer wieder entscheiden muss, ob sie erneut spielt oder aufgibt, kann sie mit ziemlicher Sicherheit so viel Gewinn garantieren, wie sie möchte, unabhängig vom (konstanten) Preis pro Spiel. (Easwaran 2008: 635)

Easwarans Ansicht ist, dass das schwache Prinzip des erwarteten Nutzens die Wahl des Agenten leiten sollte und dass der zu zahlende faire Preis ln 2 beträgt.

Die Lösung von Easwaran kann jedoch nicht auf andere Spiele mit leicht unterschiedlichen Auszahlungsschemata übertragen werden. Bartha (2016: 805) beschreibt eine Version des Pasadena-Spiels, die keinen erwarteten Wert hat. In diesem Spiel, dem Arroyo-Spiel, gewinnt der Spieler (- 1 ^ {n + 1} (n + 1)) mit der Wahrscheinlichkeit (p_n = / frac {1} / {(n + 1)}). Wenn wir den erwarteten Nutzen in der Reihenfolge berechnen, in der die Ergebnisse erstellt werden, erhalten wir das gleiche Ergebnis wie beim Pasadena-Spiel: (1 - / frac {1} {2} + / frac {1} {3} - / frac {1} {4} cdots) Aus Gründen, die von Bartha erklärt (und bewiesen) wurden, hat das Arroyo-Spiel keinen schwachen erwarteten Nutzen.

Es ist auch zu beachten, dass Pasadena-ähnliche Szenarien in nicht-probabilistischen Kontexten auftreten können (siehe Peterson 2013). Stellen Sie sich zum Beispiel eine unendliche Population vor, in der der Nutzen der einzelnen Zahl j (frac {(- 1) ^ {j-1}} {j}) ist. Was ist der Gesamtnutzen dieser Bevölkerung? Oder stellen Sie sich vor, Sie sind stolzer Besitzer eines Gemäldes von Jackson Pollock. Ein Kunsthändler sagt Ihnen, dass der ästhetische Gesamtwert des Gemäldes die Summe einiger seiner Teile ist. Sie nummerieren die Punkte im Bild mit beliebigen Zahlen 1, 2, 3,… (vielleicht indem Sie die Zahlen auf Karten aufschreiben und dann alle Karten auf den Boden fallen lassen); Der ästhetische Wert jedes Punktes j ist (frac {(- 1) ^ {j-1}} {j}). Was ist der ästhetische Gesamtwert des Gemäldes? Diese Beispiele sind nicht-probabilistische Versionen des Pasadena-Problems.auf die das erwartete Nutzenprinzip nicht anwendbar ist. Es gibt keine Unsicherheit über einen Naturzustand; Der Entscheider weiß genau, wie die Welt ist. Dies bedeutet, dass Easwarans Unterscheidung zwischen schwachen und starken Erwartungen nicht anwendbar ist.

Obwohl einige dieser Probleme etwas esoterisch erscheinen mögen, können wir sie nicht abweisen. Alle Pasadena-ähnlichen Probleme sind dem gleichen Ansteckungsproblem ausgesetzt wie das Spiel in St. Petersburg (siehe Abschnitt 2). Hájek und Smithson bieten die folgende farbenfrohe Illustration an:

Zum Abendessen können Sie zwischen Pizza und Chinesisch wählen. Die Wünschbarkeit jeder Option hängt davon ab, wie Sie wahrscheinlich verschiedene Szenarien abwägen (verbrannte Pizza, perfekt gekochte Pizza,… übergewürztes Chinesisch, perfekt gewürztes Chinesisch…) und welche Dienstprogramme Sie ihnen zuweisen. Lassen Sie uns festlegen, dass keine Wahl die andere dominiert, aber es sollte für Sie völlig einfach sein, eine Wahl zu treffen. Aber es ist nicht so, dass die Erwartungen an Pizza und Chinesen durch eine winzige Zuweisung von Glaubwürdigkeit an das Pasadena-Spiel kontaminiert werden. Wenn die Tür nur einen Spalt geöffnet wird, tritt sie gegen die Tür und überschwemmt alle erwarteten Nutzenberechnungen. Sie können nicht einmal zwischen Pizza und Chinesisch wählen. (Hájek und Smithson 2012: 42, Hervorhebung hinzugefügt.)

Colyvan (2006) schlägt vor, dass wir die Kugel auf das Pasadena-Spiel beißen und akzeptieren sollten, dass es keinen erwarteten Nutzen hat. Das Ansteckungsproblem zeigt, dass wir in diesem Fall zugeben müssten, dass das Prinzip der Maximierung des erwarteten Nutzens auf nahezu keine Entscheidungen anwendbar wäre. Da das Ansteckungsproblem für alle in diesem Eintrag behandelten Spiele (St. Petersburg, Pasadena, Arroyo usw.) gleichermaßen gilt, scheint es außerdem erforderlich zu sein, dass all diese Probleme eine einheitliche Lösung erfordern.

Seit Hunderten von Jahren sind sich Entscheidungstheoretiker einig, dass rationale Agenten den erwarteten Nutzen maximieren sollten. Die Diskussion konzentrierte sich hauptsächlich auf die Interpretation dieses Prinzips, insbesondere bei Entscheidungen, bei denen die kausale Struktur der Welt ungewöhnlich ist. Bis vor kurzem hat jedoch niemand ernsthaft in Frage gestellt, dass das Prinzip der Maximierung des erwarteten Nutzens das richtige Prinzip ist. Die reiche und wachsende Literatur zu den vielen Rätseln, die vom St. Petersburger Paradoxon inspiriert wurden, deutet darauf hin, dass dies ein Fehler gewesen sein könnte. Vielleicht sollte das Prinzip der Maximierung des erwarteten Nutzens durch ein völlig anderes Prinzip ersetzt werden?

Literaturverzeichnis

  • Alexander, JM, 2011, „Expectations and Choiceworthiness“, Mind, 120 (479): 803–817. doi: 10.1093 / mind / fzr049
  • Arrow, Kenneth J., 1970, Essays in the Theory of Risk-Bearing, Amsterdam: Nordholland.
  • Aumann, Robert J., 1977, „Das St. Petersburger Paradoxon: Eine Diskussion einiger neuerer Kommentare“, Journal of Economic Theory, 14 (2): 443–445. doi: 10.1016 / 0022-0531 (77) 90143-0
  • Bartha, Paul FA, 2016, „Ohne Erwartungen auskommen“, Mind, 125 (499): 799–827. doi: 10.1093 / mind / fzv152
  • Bassett, Gilbert W., 1987, „Das St. Petersburger Paradoxon und der begrenzte Nutzen“, History of Political Economy, 19 (4): 517–523. doi: 10.1215 / 00182702-19-4-517
  • Bernoulli, Daniel, 1738 [1954], „Exemplar Theoriae Novae de Mensura Sortis“, Commentarii Academiae Scientiarum Imperialis Petropolitanae, 5: 175–192. Englische Übersetzung, 1954, „Darstellung einer neuen Theorie zur Risikomessung“, Econometrica, 22 (1): 23–36. doi: 10.2307 / 1909829
  • Bernoulli, Jakob, 1975, Die Werke von Jakob Bernoulli, Band III, Basel: Birkhäuser. Eine Übersetzung von Richard J. Pulskamp von Nicolas Bernoullis Briefen zum Spiel in St. Petersburg ist online verfügbar.
  • Briggs, Rachael, 2015, „Kosten für die Aufgabe des Sure-Thing-Prinzips“, Canadian Journal of Philosophy, 45 (5–6): 827–840. doi: 10.1080 / 00455091.2015.1122387
  • Brito, DL, 1975, „Beckers Theorie der Zeitverteilung und das St. Petersburger Paradoxon“, Journal of Economic Theory, 10 (1): 123–126. doi: 10.1016 / 0022-0531 (75) 90067-8
  • Buchak, Lara, 2013, Risiko und Rationalität, New York: Oxford University Press. doi: 10.1093 / acprof: oso / 9780199672165.001.0001
  • –––, 2014, „Risk and Tradeoffs“, Erkenntnis, 79 (S6): 1091–1117. doi: 10.1007 / s10670-013-9542-4
  • Buffon, GLL, 1777, "Essai d'Arithmdéétique Motale", in Suppléments à l'Histoire Naturelle. Nachdruck in Oeuvres Philosophiques de Buffon, Paris, 1954.
  • Chalmers, David J., 2002, „The St. Petersburg Two-Envelope Paradox“, Analysis, 62 (2): 155–157. doi: 10.1093 / analys / 62.2.155
  • Chen, Eddy Keming und Daniel Rubio, in Kürze „Surreale Entscheidungen“, Philosophie und phänomenologische Forschung, Erst online: 5. Juni 2018. doi: 10.1111 / phpr.12510
  • Colyvan, Mark, 2006, „No Expectations“, Mind, 115 (459): 695–702. doi: 10.1093 / mind / fzl695
  • –––, 2008, „Relative Expectation Theory“:, Journal of Philosophy, 105 (1): 37–44. doi: 10.5840 / jphil200810519
  • Colyvan, Mark und Alan Hájek, 2016, „Lärm machen ohne Erwartungen“:, Mind, 125 (499): 829–857. doi: 10.1093 / mind / fzv160
  • Cowen, Tyler und Jack High, 1988, „Time, Bounded Utility und das St. Petersburg-Paradoxon“, Theory and Decision, 25 (3): 219–223. doi: 10.1007 / BF00133163
  • Dutka, Jacques, 1988, „Über das St. Petersburger Paradoxon“, Archiv für Geschichte der exakten Wissenschaften, 39 (1): 13–39. doi: 10.1007 / BF00329984
  • Easwaran, Kenny, 2008, „Starke und schwache Erwartungen“, Mind, 117 (467): 633–641. doi: 10.1093 / mind / fzn053
  • Fine, Terrence L., 2008, „Bewertung der Glücksspiele in Pasadena, Altadena und St. Petersburg“, Mind, 117 (467): 613–632. doi: 10.1093 / mind / fzn037
  • Hájek, Alan, 2014, „Unerwartete Erwartungen“, Mind, 123 (490): 533–567. doi: 10.1093 / mind / fzu076
  • Hájek, Alan und Harris Nover, 2006, „Perplexing Expectations“, Mind, 115 (459): 703–720. doi: 10.1093 / mind / fzl703
  • –––, 2008, „Complex Expectations“, Mind, 117 (467): 643–664. doi: 10.1093 / mind / fzn086
  • Hájek, Alan und Michael Smithson, 2012, „Rationalität und unbestimmte Wahrscheinlichkeiten“, Synthese, 187 (1): 33–48. doi: 10.1007 / s11229-011-0033-3
  • Isaacs, Yoaav, 2016, „Wahrscheinlichkeiten können nicht rational vernachlässigt werden“, Mind, 125 (499): 759–762. doi: 10.1093 / mind / fzv151
  • Jeffrey, Richard C., 1983, The Logic of Decision, 2. Auflage, Chicago: University of Chicago Press.
  • Jordan, Jeff, 1994, „Das St. Petersburger Paradoxon und Pascals Wette“, Philosophia, 23 (1–4): 207–222. doi: 10.1007 / BF02379856
  • Joyce, James M., 1999, Die Grundlagen der kausalen Entscheidungstheorie, Cambridge: Cambridge University Press.
  • Lauwers, Luc und Peter Vallentyne, 2016, „Entscheidungstheorie ohne endlichen erwarteten Standardwert“, Economics and Philosophy, 32 (3): 383–407. doi: 10.1017 / S0266267115000334
  • Linnebo, Øystein und Stewart Shapiro, 2019, „Tatsächliche und potenzielle Unendlichkeit: Tatsächliche und potenzielle Unendlichkeit“, Noûs, 53 (1): 160–191. doi: 10.1111 / nous.12208
  • Luce, R. Duncan, 1959, „Über die möglichen psychophysischen Gesetze“, Psychological Review, 66 (2): 81–95. doi: 10.1037 / h0043178
  • McClennen, Edward F., 1994, „Pascals Wette und Theorie der endlichen Entscheidung“, in Gambling on God: Essays über Pascals Wette, Jeff Jordan (Hrsg.), Boston: Rowman & Littlefield, 115–138.
  • Menger, Karl, 1934 [1979], Zeitschrift für Nationalökonomie, 5 (4): 459–485. Übersetzt 1979 als „Die Rolle der Unsicherheit in der Wirtschaft“in Mengers ausgewählten Arbeiten zu Logik und Grundlagen, Didaktik, Wirtschaft, Dordrecht: Springer Netherlands, 259–278. doi: 10.1007 / BF01311578 (de) doi: 10.1007 / 978-94-009-9347-1_25 (en)
  • Nover, Harris und Alan Hájek, 2004, „Vexing Expectations“, Mind, 113 (450): 237–249. doi: 10.1093 / mind / 113.450.237
  • Peterson, Martin, 2011, „Eine neue Wendung zum St. Petersburger Paradoxon“:, Journal of Philosophy, 108 (12): 697–699. doi: 10.5840 / jphil20111081239
  • –––, 2013, „Eine Verallgemeinerung des Pasadena-Puzzles: Eine Verallgemeinerung des Pasadena-Puzzles“, Dialectica, 67 (4): 597–603. doi: 10.1111 / 1746-8361.12046
  • –––, 2009 [2017], Eine Einführung in die Entscheidungstheorie, Cambridge: Cambridge University Press; zweite Ausgabe 2017. doi: 10.1017 / CBO9780511800917 doi: 10.1017 / 9781316585061
  • –––, 2019, „Intervallwerte und rationale Wahl“, Economics and Philosophy, 35 (1): 159–166. doi: 10.1017 / S0266267118000147
  • Ramsey, Frank Plumpton, 1926 [1931], „Wahrheit und Wahrscheinlichkeit“, gedruckt in The Foundations of Mathematics und anderen logischen Aufsätzen, RB Braithwaite (Hrsg.), London: Kegan Paul, Trench, Trubner & Co., 156–198. Nachdruck in Wahrscheinlichkeitsphilosophie: Zeitgenössische Lesungen, Antony Eagle (Hrsg.), New York: Routledge, 2011: 52–94. [Ramsey 1926 [1931] online verfügbar]
  • Samuelson, Paul A., 1977, „St. Petersburger Paradoxe: Defanged, seziert und historisch beschrieben “, Journal of Economic Literature, 15 (1): 24–55.
  • Savage, Leonard J., 1954, Die Grundlagen der Statistik, (Wiley Publications in Statistics), New York: Wiley. Zweite Ausgabe, Courier Corporation, 1974.
  • Skala, Heinz J., 1975, Nicht-archimedische Gebrauchstheorie, Dordrecht: D. Reidel.
  • Smith, Nicholas JJ, 2014, „Ist evaluative Kompositionalität eine Voraussetzung für Rationalität?“, Mind, 123 (490): 457–502. doi: 10.1093 / mind / fzu072
  • von Neumann, John und Oskar Morgenstern, 1947, Theorie der Spiele und des wirtschaftlichen Verhaltens, zweite überarbeitete Ausgabe, Princeton, NJ: Princeton University Press.
  • Weirich, Paul, 1984, „The St. Petersburg Gamble and Risk“, Theorie und Entscheidung, 17 (2): 193–202. doi: 10.1007 / BF00160983
  • Williamson, Timothy, 2007, „Wie wahrscheinlich ist eine unendliche Folge von Köpfen?“, Analysis, 67 (295): 173–180. doi: 10.1111 / j.1467-8284.2007.00671.x

Akademische Werkzeuge

Sep Mann Symbol
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

[Bitte kontaktieren Sie den Autor mit Vorschlägen.]

Empfohlen: