Erstveröffentlichung Di 13. März 2007; inhaltliche Überarbeitung Do 19. Juli 2018
Seit den 1970er Jahren haben sich Risikostudien zu einem wichtigen interdisziplinären Forschungsfeld entwickelt. Obwohl relativ wenige Philosophen ihre Arbeit auf das Risiko konzentriert haben, gibt es wichtige Verbindungen zwischen Risikostudien und mehreren philosophischen Subdisziplinen. Dieser Eintrag fasst die am besten entwickelten dieser Zusammenhänge zusammen und stellt einige der Hauptthemen der Risikophilosophie vor. Es besteht aus sechs Abschnitten, die sich mit der Definition von Risiken und der Behandlung von Risiken in Bezug auf Erkenntnistheorie, Wissenschaftsphilosophie, Technologiephilosophie, Ethik und Wirtschaftsphilosophie befassen.
1. Risiko definieren
2. Erkenntnistheorie
3. Wissenschaftstheorie
4. Philosophie der Technologie
5. Ethik
6. Entscheidungstheorie
7. Risiko in der Wirtschaftsanalyse
Literaturverzeichnis
Akademische Werkzeuge
Andere Internetquellen
Verwandte Einträge
1. Risiko definieren
In nichttechnischen Kontexten bezieht sich das Wort „Risiko“oft eher vage auf Situationen, in denen es möglich, aber nicht sicher ist, dass ein unerwünschtes Ereignis eintreten wird. In technischen Kontexten hat das Wort mehrere speziellere Verwendungen und Bedeutungen. Fünf davon sind besonders wichtig, da sie disziplinübergreifend weit verbreitet sind:
Risiko = ein unerwünschtes Ereignis, das auftreten kann oder nicht
Ein Beispiel für diese Verwendung ist: „Lungenkrebs ist eines der größten Risiken, die Raucher betreffen.“
Risiko = die Ursache eines unerwünschten Ereignisses, das auftreten kann oder nicht
Ein Beispiel für diese Verwendung ist: „Rauchen ist bei weitem das wichtigste Gesundheitsrisiko in Industrieländern.“(Das unerwünschte Ereignis, auf das hier implizit Bezug genommen wird, ist eine durch Rauchen verursachte Krankheit.) Sowohl (1) als auch (2) sind qualitative Risikosinne. Das Wort hat auch quantitative Sinne, von denen der folgende der älteste ist:
Risiko = die Wahrscheinlichkeit eines unerwünschten Ereignisses, das auftreten kann oder nicht
Diese Verwendung wird durch die folgende Aussage veranschaulicht: „Das Risiko, dass das Leben eines Rauchers durch eine rauchbedingte Krankheit verkürzt wird, beträgt etwa 50%.“
Risiko = der statistische Erwartungswert eines unerwünschten Ereignisses, das auftreten kann oder nicht
Der Erwartungswert eines möglichen negativen Ereignisses ist das Produkt seiner Wahrscheinlichkeit und ein Maß für seine Schwere. Es ist üblich, die Anzahl der getöteten Personen als Maß für die Schwere eines Unfalls zu verwenden. Mit diesem Schweregrad entspricht das mit einem möglichen Unfall verbundene „Risiko“(im Sinne von 4) der statistisch erwarteten Anzahl von Todesfällen. Andere Schweregrade führen zu anderen Risikomaßnahmen.
Obwohl Erwartungswerte haben sich seit der 17 berechnet th Jahrhundert, ist die Verwendung des Begriffs „Risiko“in diesem Sinne relativ neu. Es wurde in die Risikoanalyse in der einflussreichen Reaktorsicherheitsstudie WASH-1400 (Rasmussen et al., 1975, Rechard 1999) eingeführt. Heute ist es in vielen Disziplinen die übliche technische Bedeutung des Begriffs „Risiko“. Es wird von einigen Risikoanalysten als die einzig richtige Verwendung des Begriffs angesehen.
Risiko = die Tatsache, dass eine Entscheidung unter Bedingungen bekannter Wahrscheinlichkeiten getroffen wird („Entscheidung unter Risiko“im Gegensatz zu „Entscheidung unter Unsicherheit“)
Zusätzlich zu diesen fünf gebräuchlichen Bedeutungen von „Risiko“gibt es mehrere weitere technische Bedeutungen, die in speziellen Untersuchungsgebieten gut etabliert sind. Einige der wichtigsten Risikodefinitionen, die in der Wirtschaftsanalyse verwendet werden, werden nachstehend in Abschnitt 6.1 vorgestellt.
Obwohl die meisten der oben genannten Bedeutungen von „Risiko“von Philosophen erwähnt wurden, bezieht sich ein großer Teil der philosophischen Literatur über Risiken auf Risiken im informelleren Sinne, die zu Beginn dieses Abschnitts erwähnt wurden, nämlich als Staat von Angelegenheiten, in denen ein unerwünschtes Ereignis auftreten kann oder nicht. Mehrere Philosophen haben die technischen Definitionen des Risikos als zu begrenzt kritisiert und nicht alle Aspekte abgedeckt, die in Risikobewertungen einbezogen werden sollten (Buchak 2014, Pritchard 2015, Shrader-Frechette 1991). Sprachliche Hinweise deuten darauf hin, dass technische Definitionen des Risikos praktisch keinen Einfluss auf die nichttechnische Verwendung des Wortes hatten (Boholm et al. 2016).
Terminologische Anmerkung: Einige Philosophen unterscheiden zwischen „subjektiven“und „objektiven“Wahrscheinlichkeiten. Andere behalten sich den Begriff „Wahrscheinlichkeit“für den subjektiven Begriff vor. Hier wird die erstere Terminologie verwendet, dh "Wahrscheinlichkeit" kann sich entweder auf subjektive Wahrscheinlichkeit oder auf objektive Chancen beziehen.
2. Erkenntnistheorie
Wenn ein Risiko besteht, muss es etwas geben, das unbekannt ist oder ein unbekanntes Ergebnis hat. Daher ist Wissen über Risiken Wissen über mangelndes Wissen. Diese Kombination aus Wissen und Mangel an Wissen trägt dazu bei, Risikoprobleme aus erkenntnistheoretischer Sicht zu komplizieren.
Im nicht regulierten Gebrauch unterscheiden sich „Risiko“und „Unsicherheit“entlang der subjektiv-objektiven Dimension. Während „Unsicherheit“zum subjektiven Bereich zu gehören scheint, hat „Risiko“eine starke objektive Komponente. Wenn eine Person nicht weiß, ob die Grasschlange giftig ist oder nicht, befindet sie sich in einem Zustand der Unsicherheit hinsichtlich ihrer Fähigkeit, sie zu vergiften. Da diese Art jedoch kein Gift hat, besteht kein Risiko, von ihr vergiftet zu werden. Die Beziehung zwischen den beiden Begriffen „Risiko“und „Unsicherheit“scheint teilweise analog zu der zwischen „Wahrheit“und „Glaube“zu sein.
Die regulierte entscheidungstheoretische Verwendung unterscheidet sich davon. In der Entscheidungstheorie wird eine Entscheidung als "unter Risiko" getroffen, wenn die relevanten Wahrscheinlichkeiten verfügbar sind, und "unter Unsicherheit", wenn sie nicht verfügbar oder nur teilweise verfügbar sind. Teilweise bestimmte Wahrscheinlichkeiten werden manchmal mit Wahrscheinlichkeitsintervallen ausgedrückt, z. B. „Die Regenwahrscheinlichkeit liegt morgen zwischen 0,1 und 0,4“. (Der Begriff "Entscheidung unter Unwissenheit" wird manchmal für den Fall verwendet, dass überhaupt keine probabilistischen Informationen verfügbar sind.)
Obwohl diese Unterscheidung zwischen Risiko und Unsicherheit entscheidungstheoretisch sinnvoll ist, bedarf sie aus erkenntnistheoretischer Sicht einer Klärung. Nur sehr selten sind Wahrscheinlichkeiten mit Sicherheit bekannt. Streng genommen scheinen die einzigen eindeutigen Fälle von „Risiko“(bekannte Wahrscheinlichkeiten) idealisierte Lehrbuchfälle zu sein, die sich auf Geräte wie Würfel oder Münzen beziehen, von denen mit Sicherheit bekannt ist, dass sie fair sind. In realen Situationen sind wir nicht ganz sicher, ob diese Schätzung genau korrekt ist, selbst wenn wir auf eine bestimmte Wahrscheinlichkeitsschätzung reagieren, daher besteht Unsicherheit. Daraus folgt, dass fast alle Entscheidungen „unter Unsicherheit“getroffen werden. Wenn ein Entscheidungsproblem als eine Entscheidung „unter Risiko“behandelt wird, bedeutet dies nicht, dass die betreffende Entscheidung unter Bedingungen vollständig bekannter Wahrscheinlichkeiten getroffen wird. Lieber,Dies bedeutet, dass eine Entscheidung getroffen wurde, um die Beschreibung dieses Entscheidungsproblems zu vereinfachen, indem es als Fall bekannter Wahrscheinlichkeiten behandelt wird. Dies ist oft eine sehr nützliche Idealisierung in der Entscheidungstheorie. In der Praxis ist es jedoch wichtig, zwischen den Wahrscheinlichkeiten zu unterscheiden, die als bekannt behandelt werden können, und denen, die unsicher sind und daher viel mehr einer kontinuierlichen Aktualisierung bedürfen. Typische Beispiele für erstere sind die Ausfallhäufigkeiten einer technischen Komponente, die aus umfangreichen und gut dokumentierten Erfahrungen mit ihrer Verwendung abgeleitet werden. Der letztere Fall wird durch Expertenschätzungen der erwarteten Ausfallhäufigkeiten eines neuen Komponententyps veranschaulicht. Dies ist oft eine sehr nützliche Idealisierung in der Entscheidungstheorie. In der Praxis ist es jedoch wichtig, zwischen den Wahrscheinlichkeiten zu unterscheiden, die als bekannt behandelt werden können, und denen, die unsicher sind und daher viel mehr einer kontinuierlichen Aktualisierung bedürfen. Typische Beispiele für erstere sind die Ausfallhäufigkeiten einer technischen Komponente, die aus umfangreichen und gut dokumentierten Erfahrungen mit ihrer Verwendung abgeleitet werden. Der letztere Fall wird durch Expertenschätzungen der erwarteten Ausfallhäufigkeiten eines neuen Komponententyps veranschaulicht. Dies ist oft eine sehr nützliche Idealisierung in der Entscheidungstheorie. In der Praxis ist es jedoch wichtig, zwischen den Wahrscheinlichkeiten zu unterscheiden, die als bekannt behandelt werden können, und denen, die unsicher sind und daher viel mehr einer kontinuierlichen Aktualisierung bedürfen. Typische Beispiele für erstere sind die Ausfallhäufigkeiten einer technischen Komponente, die aus umfangreichen und gut dokumentierten Erfahrungen mit ihrer Verwendung abgeleitet werden. Der letztere Fall wird durch Expertenschätzungen der erwarteten Ausfallhäufigkeiten eines neuen Komponententyps veranschaulicht. Typische Beispiele für erstere sind die Ausfallhäufigkeiten einer technischen Komponente, die aus umfangreichen und gut dokumentierten Erfahrungen mit ihrer Verwendung abgeleitet werden. Der letztere Fall wird durch Expertenschätzungen der erwarteten Ausfallhäufigkeiten eines neuen Komponententyps veranschaulicht. Typische Beispiele für erstere sind die Ausfallhäufigkeiten einer technischen Komponente, die aus umfangreichen und gut dokumentierten Erfahrungen mit ihrer Verwendung abgeleitet werden. Der letztere Fall wird durch Expertenschätzungen der erwarteten Ausfallhäufigkeiten eines neuen Komponententyps veranschaulicht.
Ein Hauptproblem in der Erkenntnistheorie des Risikos ist der Umgang mit den schwerwiegenden Einschränkungen, die unser Wissen über das Verhalten einzigartiger komplexer Systeme charakterisieren, die für Risikoabschätzungen wie Klimasystem, Ökosysteme, Weltwirtschaft usw. von wesentlicher Bedeutung sind dieser Systeme enthält so viele Komponenten und mögliche Wechselwirkungen, dass wichtige Aspekte davon unvorhersehbar sind. Trotz dieser grundsätzlichen Unsicherheit können zu einigen Aspekten dieser Systeme einigermaßen verlässliche Aussagen getroffen werden. Der erkenntnistheoretische Status solcher Aussagen und die Art der damit verbundenen Unsicherheit müssen noch weiter geklärt werden (McKinney 1996, Shrader-Frechette 1997).
In den Risikowissenschaften wird häufig zwischen „objektivem Risiko“und „subjektivem Risiko“unterschieden. Das erstere Konzept ist im Prinzip ziemlich unproblematisch, da es sich auf eine häufig auftretende Interpretation der Wahrscheinlichkeit bezieht. Das letztere Konzept ist mehrdeutig. In der frühen psychometrischen Risikoliteratur (ab den 1970er Jahren) wurde das subjektive Risiko häufig als subjektive Schätzung des objektiven Risikos verstanden. In der neueren Literatur hat sich ein komplexeres Bild ergeben. Subjektive Einschätzungen des (Schweregrads) des Risikos hängen in hohem Maße von Faktoren ab, die in traditionellen Maßnahmen des objektiven Risikos (wie Kontrolle und Manipulation der Natur) nicht berücksichtigt werden. Wenn die Begriffe in diesem Sinne verstanden werden, wird das subjektive Risiko durch die subjektive Schätzung des objektiven Risikos beeinflusst, kann jedoch nicht damit identifiziert werden. In der psychologischen LiteraturDas subjektive Risiko wird häufig als Gesamtbewertung der Schwere einer Gefahr oder einer angeblichen Gefahr durch den Einzelnen verstanden. Solche individuellen Einschätzungen werden allgemein als „Risikowahrnehmung“bezeichnet, aber genau genommen ist der Begriff irreführend. Dies ist keine Frage der Wahrnehmung, sondern der Einstellungen und Erwartungen. Das subjektive Risiko kann mit Methoden der Einstellungsmessung und der psychologischen Skalierung untersucht werden (Sjöberg 2004).
3. Wissenschaftstheorie
Die Rolle von Werten in der Wissenschaft war in Risikofragen besonders umstritten. Risikobewertungen wurden häufig dafür kritisiert, dass sie „versteckte“Werte enthalten, die zu einer zu hohen Risikoakzeptanz führen (Cranor 2016; 2017; Intemann 2016; Heinzerling 2000). Es gibt auch eine Diskussion über die Notwendigkeit, die Auswirkungen bestimmter Werte bei der Risikobewertung zu stärken, beispielsweise auf Überlegungen zur Gerechtigkeit (Shrader-Frechette 2005a), zu Menschenrechten (Shrader-Frechette 2005b) sowie zu den Rechten und zum Wohlergehen künftiger Menschen (Caney) 2009, Ng 2005). Risikoprobleme haben auch zu heftigen Debatten darüber geführt, welche wissenschaftlichen Erkenntnisse für politische Entscheidungen erforderlich sind. Die Beweisstandards der Wissenschaft können Schwierigkeiten verursachen, wenn die Wissenschaft auf praktische Probleme angewendet wird, die andere Beweisstandards oder Beweise als die der Wissenschaft erfordern.
Eine Entscheidung, eine wissenschaftliche Aussage (zum Beispiel eine Hypothese) anzunehmen oder abzulehnen, unterliegt in der Praxis immer der Möglichkeit eines Fehlers. Die Wahrscheinlichkeit eines solchen Fehlers wird oft als induktives Risiko bezeichnet (Hempel 1965, 92). Es gibt zwei Haupttypen von Fehlern. Die erste davon besteht in der Schlussfolgerung, dass es ein Phänomen oder eine Wirkung gibt, obwohl es tatsächlich keine gibt. Dies wird als Fehler vom Typ I (falsch positiv) bezeichnet. Die zweite besteht darin, ein vorhandenes Phänomen oder einen vorhandenen Effekt zu verpassen. Dies wird als Fehler vom Typ II (falsch negativ) bezeichnet. Im internen Umgang mit der Wissenschaft werden Fehler vom Typ I im Allgemeinen als problematischer angesehen als solche vom Typ II. Die gemeinsamen wissenschaftlichen Standards von statistischer Signifikanz verringern das Risiko von Fehlern des Typs I erheblich, schützen jedoch nicht vor Fehlern des Typs II (Shrader-Frechette 2008; John 2017).
Viele Kontroversen zur Risikobewertung betreffen das Gleichgewicht zwischen Risiken von Typ I- und Typ II-Fehlern. Während die Wissenschaft der Vermeidung von Fehlern des Typs I eine höhere Priorität einräumt als der Vermeidung von Fehlern des Typs II, kann sich das Gleichgewicht verschieben, wenn Fehler praktische Konsequenzen haben. Dies ist aus einem Fall ersichtlich, in dem es ungewiss ist, ob ein Flugzeugmotor einen schwerwiegenden Defekt aufweist. Ein Fehler vom Typ II, dh wenn er so auftritt, als ob es keinen solchen Fehler gäbe, würde in diesem Fall als schwerwiegender angesehen als ein Fehler vom Typ I, dh als würde er einen solchen Fehler aufweisen, wenn es keinen gibt. (Die Unterscheidung zwischen Typ I- und Typ II-Fehlern hängt von der Abgrenzung des untersuchten Effekts ab. In Risikodiskussionen ist diese Abgrenzung meist unumstritten; siehe Lemons et al. 1997, van den Belt und Gremmen 2002.)
In diesem speziellen Fall ist es ziemlich unumstritten, dass der Vermeidung von Typ-II-Fehlern Vorrang vor der Vermeidung von Typ-I-Fehlern eingeräumt werden sollte. Mit anderen Worten, es ist besser, den Flug zu verzögern und dann herauszufinden, dass der Motor in gutem Zustand ist, als mit einem Motor zu fliegen, der sich als fehlerhaft herausstellt. In anderen Fällen ist das Gleichgewicht zwischen den beiden Fehlertypen jedoch kontroverser. Es gibt beispielsweise häufig Kontroversen darüber, inwieweit Beweise für Maßnahmen gegen mögliche negative Auswirkungen chemischer Substanzen auf die menschliche Gesundheit und die Umwelt erforderlich sein sollten.
Abbildung 1
Abbildung 1. Verwendung wissenschaftlicher Daten für politische Zwecke.
Solche Kontroversen können mit Hilfe eines einfachen, aber anschaulichen Modells geklärt werden, wie wissenschaftliche Daten sowohl wissenschaftliche Urteile als auch praktische Entscheidungen beeinflussen (Hansson 2008). Wissenschaftliche Erkenntnisse beginnen mit Daten, die aus Experimenten und anderen Beobachtungen stammen. (Siehe Abbildung 1.) Durch einen Prozess der kritischen Bewertung entsteht aus diesen Daten der wissenschaftliche Korpus (Pfeil 1). Grob gesagt besteht der Korpus aus solchen Aussagen, die vorerst ohne Vorbehalt in einem (hinreichend detaillierten) Lehrbuch rechtmäßig gemacht werden könnten. Bei der Entscheidung, ob eine wissenschaftliche Hypothese als Teil des Korpus akzeptiert werden soll oder nicht, liegt die Beweislast vorerst bei seinen Anhängern. Ebenso haben diejenigen, die die Existenz eines noch nicht nachgewiesenen Phänomens behaupten, die Beweislast. Diese Beweisstandards sind für die Integrität der Wissenschaft von wesentlicher Bedeutung.
Der naheliegendste Weg, wissenschaftliche Informationen für die Politikgestaltung zu verwenden, besteht darin, Informationen aus dem Korpus zu verwenden (Pfeil 2). Für viele Zwecke ist dies das einzig Vernünftige. Bei Risikomanagemententscheidungen kann jedoch die ausschließliche Abhängigkeit vom Korpus unerwünschte Folgen haben. Angenommen, toxikologische Untersuchungen werden an einem Stoff durchgeführt, der bisher aus toxikologischer Sicht nicht untersucht wurde. Diese Untersuchungen erweisen sich als nicht schlüssig. Sie lassen wissenschaftlich begründete Vermutungen aufkommen, dass der Stoff für die menschliche Gesundheit gefährlich ist, stellen jedoch keinen vollständigen wissenschaftlichen Beweis dar. Da die Beweise nicht ausreichen, um eine Ergänzung des wissenschaftlichen Korpus zu rechtfertigen, können diese Informationen die Richtlinien nicht auf die übliche Weise beeinflussen (über die Pfeile 1 und 2). Es besteht eine strikte Anforderung, Fehler vom Typ I in dem durch Pfeil 1 dargestellten Prozess zu vermeiden, und dieser Prozess filtert Informationen heraus, die in diesem Fall praktisch relevant gewesen sein könnten und bestimmte Schutzmaßnahmen gerechtfertigt haben.
In solchen Fällen wird häufig ein direkter Weg von Daten zu Richtlinien eingeschlagen (Pfeil 3). Dies bedeutet, dass im Einzelfall ein Gleichgewicht zwischen Fehlern des Typs I und des Typs II auf der Grundlage praktischer Überlegungen ermittelt wird, anstatt sich auf das wissenschaftliche Standardverfahren zu stützen, bei dem die Vermeidung von Fehlern des Typs I im Vordergrund steht.
Hierbei ist unbedingt zwischen zwei Arten von risikobezogenen Entscheidungsprozessen zu unterscheiden. Eine besteht darin, zu bestimmen, welche Aussagen über Risiken in den wissenschaftlichen Korpus aufgenommen werden sollen. Die andere besteht darin zu bestimmen, wie risikobezogene Informationen praktische Maßnahmen zum Schutz von Gesundheit und Umwelt beeinflussen sollen. Es wäre ein seltsamer Zufall, wenn die Beweiskriterien für diese beiden Arten von Entscheidungen immer dieselben wären. Es können starke Gründe für strenge wissenschaftliche Beweisstandards angegeben werden, dh hohe Einreisebestimmungen für das Korpus. Gleichzeitig kann es triftige politische Gründe geben, die es ermöglichen, Risikomanagemententscheidungen durch fundierte wissenschaftliche Gefahrenindikatoren zu beeinflussen, die noch nicht hinreichend etabliert sind, um für die Aufnahme in das wissenschaftliche Korpus in Frage zu kommen.
Politische Fragen in Bezug auf Risiken waren oft das Ziel umfangreicher Desinformationskampagnen, die durch Wissenschaftsverweigerung und andere Formen der Pseudowissenschaften gekennzeichnet waren (Oreskes 2010). Mehrere Philosophen haben sich aktiv für die Ablehnung ungültiger Ansprüche und die Verteidigung der Wissenschaft in risikobezogenen Fragen eingesetzt (Cranor 2005, 2016, 2017; Goodwin 2009, Prothero 2013, Shrader-Frechette 2014, Hansson 2017).
4. Philosophie der Technologie
Sicherheit und Risikovermeidung sind wichtige Anliegen in der praktischen Technik. Sicherheitstechnik ist auch zunehmend Gegenstand akademischer Untersuchungen geworden. Diese Diskussionen sind jedoch weitgehend zwischen verschiedenen Technologiebereichen aufgeteilt. Dieselben Grundideen oder „Sicherheitsphilosophien“werden unter verschiedenen Namen diskutiert, beispielsweise in der Chemie-, Nuklear- und Elektrotechnik. Trotzdem scheint ein Großteil des Grunddenkens in den verschiedenen Bereichen der Sicherheitstechnik gleich zu sein (Möller und Hansson 2008).
Einfache Sicherheitsprinzipien, die oft als Daumenregeln ausgedrückt werden können, spielen in der Sicherheitstechnik eine zentrale Rolle. Drei der wichtigsten davon sind inhärente Sicherheit, Sicherheitsfaktoren und mehrere Barrieren.
Inhärente Sicherheit, auch Primärprävention genannt, besteht in der Beseitigung einer Gefahr. Es steht im Gegensatz zur Sekundärprävention, die darin besteht, das mit einer Gefahr verbundene Risiko zu verringern. Betrachten Sie als einfaches Beispiel einen Prozess, bei dem brennbare Materialien verwendet werden. Inhärente Sicherheit würde darin bestehen, sie durch nicht brennbare Materialien zu ersetzen. Sekundärprävention würde darin bestehen, Zündquellen zu entfernen oder zu isolieren und / oder Feuerlöschgeräte zu installieren. Wie dieses Beispiel zeigt, umfasst die Sekundärprävention normalerweise zusätzliche Sicherheitsausrüstung. Der Hauptgrund, die inhärente Sicherheit der Sekundärprävention vorzuziehen, besteht darin, dass die Gefahr, solange sie noch besteht, durch ein unerwartetes auslösendes Ereignis erkannt werden kann. Selbst mit den besten Kontrollmaßnahmen, wenn brennbare Materialien vorhanden sind,Einige unvorhergesehene Ereignisse können ein Feuer auslösen.
Sicherheitsfaktoren sind numerische Faktoren, die im Rahmen des Entwurfsprozesses für unsere Häuser, Brücken, Fahrzeuge, Werkzeuge usw. verwendet oder verwendet werden, um sicherzustellen, dass unsere Konstruktionen stärker sind als das für ihre Funktionen erforderliche Minimum. In Normen und Normen wurden ausgefeilte Systeme von Sicherheitsfaktoren festgelegt. Ein Sicherheitsfaktor bezieht sich am häufigsten auf das Verhältnis zwischen einem Maß für die maximale Last, die nicht zur angegebenen Art des Ausfalls führt, und einem entsprechenden Maß für die maximal erwartete Last. Es ist üblich, Brücken und andere Konstruktionen so stark zu machen, dass sie der zwei- oder dreifachen vorhergesagten maximalen Belastung standhalten. Dies bedeutet, dass ein Sicherheitsfaktor von zwei oder drei verwendet wird.
Sicherheitsbarrieren sind oft in Ketten angeordnet. Im Idealfall ist jede Barriere unabhängig von ihren Vorgängern. Wenn also die erste ausfällt, ist die zweite noch intakt usw. Wenn beispielsweise in einer alten Festung der Feind die erste Mauer passieren konnte, würden zusätzliche Schichten die Verteidigung schützen Kräfte. Einige technische Sicherheitsbarrieren folgen dem gleichen Prinzip konzentrischer physikalischer Barrieren. Andere sind eher zeitlich oder funktional als räumlich seriell angeordnet. Eine der Lehren, die Ingenieure aus der Titanic-Katastrophe gezogen haben, ist, dass ein verbesserter Bau früher Barrieren keine große Hilfe ist, wenn die späteren Barrieren (in diesem Fall Rettungsboote) vernachlässigt werden.
Das Hauptproblem beim Bau von Sicherheitsbarrieren besteht darin, sie so unabhängig wie möglich voneinander zu machen. Wenn zwei oder mehr Barrieren für dieselbe Art von Aufprall empfindlich sind, kann ein und dieselbe zerstörerische Kraft sie alle auf einen Schlag beseitigen. Wenn beispielsweise drei Sicherheitsventile in ein und derselben Fabrikhalle mit einer Ausfallwahrscheinlichkeit von jeweils 1/1000 installiert sind, folgt daraus nicht, dass die Wahrscheinlichkeit eines Ausfalls aller drei Ventile (1 / mal 10 ^ {- 9} beträgt.). Die drei Ventile können alle bei demselben Brand zerstört oder durch denselben Fehler bei Wartungsarbeiten beschädigt werden. Dies ist eine häufige Situation bei vielen Arten von Geräten.
Inhärente Sicherheit, Sicherheitsfaktoren und mehrere Barrieren haben ein wichtiges gemeinsames Merkmal: Sie alle zielen darauf ab, uns nicht nur vor Risiken zu schützen, denen aussagekräftige Wahrscheinlichkeitsschätzungen zugewiesen werden können, sondern auch vor Gefahren, die nicht wahrscheinlich sind, wie beispielsweise der Möglichkeit eines unerwarteten Typs Ereignis führt zu einem Unfall. Es bleibt jedoch den Technologiephilosophen überlassen, die Prinzipien der Sicherheitstechnik genauer zu untersuchen und zu klären, wie sie sich auf andere Prinzipien des technischen Entwurfs beziehen (Doorn und Hansson 2015).
Es wurden viele Versuche unternommen, die Risiken aufkommender und zukünftiger Technologien vorherzusagen. Die Rolle der Philosophen bei diesen Bemühungen bestand oft darin, auf die Schwierigkeiten und Unsicherheiten hinzuweisen, die mit solchen Vorhersagen verbunden sind (Allhoff 2009; Gordijn 2005). Die Erfahrung zeigt, dass auch nach umfangreichen Bemühungen um die Sicherheit eines neuen Produkts eine Überwachung nach dem Inverkehrbringen (PMS) erforderlich ist, um unerwartete Probleme zu entdecken. Zum Beispiel führten Sicherheitsingenieure vor der massiven Einführung von Auto-Airbags um 1990 Labortests verschiedener Crash-Szenarien mit Dummies durch, die eine Vielzahl von Körpergewichten und -konfigurationen (einschließlich Säuglingen und schwangeren Frauen) repräsentierten. Trotz der Anpassungen der Konstruktion, die diese Tests hervorriefen, verursachten aufgeblasene Airbags eine beträchtliche Anzahl von (meist geringfügigen) Verletzungen. Durch sorgfältige Analyse der Erfahrungen mit tatsächlichen Unfällen konnten die Ingenieure die Häufigkeit und Schwere solcher Verletzungen erheblich reduzieren (Wetmore 2008). Für Arzneimittel und einige Medizinprodukte ist in vielen Ländern eine Überwachung nach dem Inverkehrbringen gesetzlich vorgeschrieben.
5. Ethik
5.1 Eine Schwierigkeit für Moraltheorien
Bis vor kurzem wurden Risikoprobleme in der Moralphilosophie nicht systematisch behandelt. Eine mögliche Verteidigung dieser Einschränkung besteht darin, dass die Moralphilosophie es der Entscheidungstheorie überlassen kann, die Komplexität zu analysieren, die Indeterminismus und mangelndes Wissen im wirklichen Leben hervorrufen. Gemäß der konventionellen Arbeitsteilung zwischen den beiden Disziplinen liefert die Moralphilosophie Bewertungen des menschlichen Verhaltens in genau festgelegten Situationen. Die Entscheidungstheorie nimmt Bewertungen dieser Fälle für gegeben, fügt die verfügbaren probabilistischen Informationen hinzu und leitet Bewertungen für rationales Verhalten in einer unsicheren und unbestimmten Welt ab. Nach dieser Auffassung ist keine zusätzliche Eingabe moralischer Werte erforderlich, um mit Indeterminismus oder mangelndem Wissen umzugehen, da die Entscheidungstheorie ausschließlich mit Rationalitätskriterien arbeitet.
Es sind leicht Beispiele zu finden, die die Problematik dieser Trennung zwischen den beiden Disziplinen aufzeigen. Vergleichen Sie den Vorgang, einen Ziegelstein auf eine Person aus einem hohen Gebäude zu werfen, mit dem Vorgang, einen Ziegelstein aus einem hohen Gebäude zu werfen, ohne vorher sicherzustellen, dass sich niemand darunter befindet, der von dem Ziegelstein getroffen werden kann. Der moralische Unterschied zwischen diesen beiden Handlungen ist in einer Wahrscheinlichkeitsrechnung offensichtlich nicht ausdrückbar. Eine ethische Analyse des Unterschieds muss sich auf die moralischen Aspekte des Eingehens von Risiken im Vergleich zu vorsätzlichem Fehlverhalten beziehen. Allgemeiner gesagt muss eine hinreichend vollständige Darstellung der Risikoethik zwischen absichtlicher und unbeabsichtigter Risikoexposition sowie zwischen freiwilligem Eingehen von Risiken, Risiken für eine Person, die sie akzeptiert, und Risiken für eine Person, die sie nicht akzeptiert, unterscheiden. Dies kann nicht in einem Rahmen erfolgen, der Risiken als probabilistische Ergebnismischungen behandelt. Grundsätzlich können diese Ergebnisse so weit definiert werden, dass sie alle relevanten moralischen Aspekte umfassen, einschließlich Rechtsverletzungen sowie Intentionalität und andere relevante mentale Zustände. Dies würde jedoch immer noch nicht die moralischen Auswirkungen des Eingehens von Risiken an sich abdecken, da dies keine inhärenten Eigenschaften eines der potenziellen Ergebnisse sind.
Es werden Methoden der moralischen Analyse benötigt, die Entscheidungen über Risikobereitschaft und Risikoauferlegung leiten können. Ein erster Schritt besteht darin zu untersuchen, wie Standard-Moraltheorien mit Risikoproblemen umgehen können, die auf die gleiche Weise wie in der Entscheidungstheorie dargestellt werden, nämlich als (moralische) Bewertung probabilistischer Mischungen von (deterministischen) Szenarien.
5.2 Utilitarismus
In der utilitaristischen Theorie gibt es zwei offensichtliche Ansätze für solche Probleme. Eine ist die aktuellste Lösung. Es besteht darin, einer (probabilistischen) Mischung potenzieller Ergebnisse einen Nutzen zuzuweisen, der dem Nutzen des tatsächlich eintretenden Ergebnisses entspricht. Um diesen Ansatz zu veranschaulichen, überlegen Sie, ob eine Brücke verstärkt werden soll, bevor sie für einen einzelnen, sehr schweren Transport verwendet wird. Es besteht ein 50% iges Risiko, dass die Brücke herunterfällt, wenn sie nicht verstärkt wird. Angenommen, es wird beschlossen, die Brücke nicht zu verstärken, und alles läuft gut. Die Brücke ist nicht beschädigt. Nach dem aktuellistischen Ansatz war die Entscheidung richtig. Dies widerspricht natürlich den üblichen moralischen Intuitionen.
Der andere etablierte utilitaristische Ansatz ist die Maximierung des erwarteten Nutzens. Dies bedeutet, dass der Nutzen einer Mischung potenzieller Ergebnisse als der wahrscheinlichkeitsgewichtete Durchschnitt der Nutzen dieser Ergebnisse definiert wird.
Das erwartete Nutzenkriterium wurde in mehrfacher Hinsicht kritisiert. Ein Kritikpunkt ist, dass es eine übliche Form der Vorsicht verbietet, nämlich die unverhältnismäßige Vermeidung großer Katastrophen. Vorausgesetzt, dass Todesfälle bei Menschen gleich und additiv bewertet werden, wie es die meisten Utilitaristen tun, erlaubt dieser Rahmen nicht, dass man eine Wahrscheinlichkeit von 1 zu 1000 bevorzugt, dass eine Person stirbt, zu einer Wahrscheinlichkeit von 1 zu 100000, dass fünfzig Personen wird sterben. Der erwartete Nutzenrahmen kann auch dafür kritisiert werden, dass ein gemeinsamer Ausdruck des Strebens nach Fairness, nämlich die unverhältnismäßige Vermeidung von Risiken mit hoher Wahrscheinlichkeit für bestimmte Personen, nicht zugelassen wird. Bei der Wahl zwischen der Exposition einer Person gegenüber einer Wahrscheinlichkeit von 0,9, getötet zu werden, und der Exposition jeder von hundert Personen gegenüber einer Wahrscheinlichkeit von 0,01, getötet zu werden,es erfordert, dass die erstere Alternative gewählt wird. Zusammenfassend lässt sich sagen, dass die erwartete Nutzenmaximierung moralisch vernünftige Standpunkte in Bezug auf Risikobereitschaft und Risikoauferlegung verbietet.
Es ist jedoch zu beachten, dass das erwartete Nutzenkriterium nicht unbedingt aus dem Utilitarismus folgt. Utilitarismus im weitesten Sinne (Scanlon 1982) ist mit anderen Methoden zur Bewertung unsicherer Ergebnisse vereinbar (insbesondere mit Utilitarismus mit tatsächlichen Konsequenzen, aber im Prinzip auch zum Beispiel mit einem Maximin-Kriterium). Kritik gegen die erwartete Nutzenmaximierung zeigt daher nicht unbedingt einen Mangel im utilitaristischen Denken.
5.3 Auf Rechten basierende Moraltheorien
Das Problem des Umgangs mit Risiken in rechtsbasierten Moraltheorien wurde von Robert Nozick formuliert: „Auferlegen, wie gering die Wahrscheinlichkeit eines Schadens, der die Rechte eines Menschen verletzt, auch seine Rechte verletzt?“(Nozick 1974, 74).
Eine Ausweitung einer auf Rechten basierenden Moraltheorie auf unbestimmte Fälle kann erreicht werden, indem vorgeschrieben wird, dass A, wenn A das Recht hat, dass B kein bestimmtes Ergebnis erzielt, auch das Recht hat, dass B (überhaupt) keine Handlung ausführt) erhöht die Wahrscheinlichkeit dieses Ergebnisses. Leider ist eine derart strikte Ausweitung der Rechte in der sozialen Praxis unhaltbar. Vermutlich hat A das Recht, nicht von B getötet zu werden, aber es wäre nicht sinnvoll, dieses Recht auf alle Handlungen von B auszudehnen, die zu einem sehr geringen Anstieg des Risikos führen, dass A stirbt - beispielsweise das Autofahren in der Stadt, in der A lebt. Eine solch strenge Interpretation würde die menschliche Gesellschaft unmöglich machen.
Daher muss ein Recht, keinem Risiko ausgesetzt zu sein, nicht durchführbar sein, damit es in einigen (aber nicht unbedingt allen) Fällen außer Kraft gesetzt werden kann, wenn die Wahrscheinlichkeitszunahme gering ist. Es bleibt jedoch ein glaubwürdiges Kriterium zu finden, wann es überschrieben werden sollte. Wie Nozick bemerkte, ist eine Wahrscheinlichkeitsgrenze in „einer Tradition, die besagt, dass der Diebstahl eines Pennys oder einer Stecknadel oder irgendetwas von jemandem, der seine Rechte verletzt, nicht glaubwürdig. Diese Tradition wählt kein Schwellenmaß für den Schaden als Untergrenze für den Fall, dass bestimmte Schäden auftreten werden “(Nozick 1974, 75).
5.4 Deontologische Moraltheorien
Das Problem des Umgangs mit Risiken in deontologischen Theorien ähnelt dem entsprechenden Problem in rechtsbasierten Theorien. Die Pflicht, anderen Menschen keinen Schaden zuzufügen, kann auf die Pflicht ausgedehnt werden, keine Handlungen durchzuführen, die ihr Verletzungsrisiko erhöhen. Die Gesellschaft, wie wir sie kennen, ist jedoch nicht ohne Ausnahmen von dieser Regel möglich. Die Festlegung von Kriterien für solche Ausnahmen ist ebenso problematisch wie für rechtsbasierte Theorien. Alle vernünftigen Systeme moralischer Verpflichtungen enthalten ein ziemlich allgemeines Verbot von Handlungen, die eine andere Person töten. Ein solches Verbot kann (und sollte) auf Handlungen ausgedehnt werden, bei denen ein großes Risiko besteht, dass eine Person getötet wird. Es kann jedoch nicht auf alle Aktionen ausgedehnt werden, die zu einer geringfügigen Erhöhung des Risikos führen, dass eine Person getötet wird.da in diesem Fall zum Beispiel kein Auto gefahren werden durfte. Es muss eine Grenze zwischen angemessenen und unangemessenen Risikoauflagen gezogen werden. Es scheint, als müssten solche Abgrenzungen Konzepte wie Wahrscheinlichkeiten und / oder die Größe des durch das Eingehen eines Risikos erzielten Nutzens ansprechen, die nicht Teil der internen Ressourcen deontologischer Theorien sind.
5.5 Vertragstheorien
Vertragstheorien mögen etwas vielversprechender erscheinen als die oben diskutierten Theorien. Das Kriterium, das sie für den deterministischen Fall bieten, nämlich die Zustimmung aller Beteiligten, kann auch auf riskante Optionen angewendet werden. Es könnte behauptet werden, dass Risikoauferlegungen nur dann akzeptabel sind, wenn sie durch einen Konsens gestützt werden. Ein solcher Konsens, wie er in Vertragstheorien gedacht ist, ist entweder tatsächlich oder hypothetisch.
Der tatsächliche Konsens ist in einer komplexen Gesellschaft unrealistisch, in der jeder Handlungen mit geringfügigen, aber additiven Auswirkungen auf das Leben vieler Menschen ausführt. Nach dem Kriterium des tatsächlichen Konsenses hat jeder Bürger vor Ort ein Veto gegen jeden anderen, der in der Stadt, in der er lebt, Auto fahren möchte. Auf diese Weise können sich die Bürger gegenseitig blockieren und eine Gesellschaft der Pattsituationen schaffen.
Als Kriterium in der Vertragstheorie wurde ein hypothetischer Konsens entwickelt, um interindividuelle Probleme zu lösen. Wir sind eingeladen, eine hypothetische Ausgangssituation zu betrachten, in der die soziale Ordnung einer zukünftigen Gesellschaft noch nicht entschieden ist. Wenn sich seine zukünftigen Bürger treffen, um eine soziale Ordnung zu wählen, kennt jeder von ihnen seine Position in keiner der sozialen Arrangements, unter denen er wählen kann. Nach John Rawls 'Theorie der Gerechtigkeit werden sich dann alle für eine maximale Lösung entscheiden, dh eine soziale Ordnung, in der die schlechteste Position, die jeder in dieser Gesellschaft haben kann, so gut wie möglich ist. Bei der Argumentation für diese Lösung stützte sich Rawls stark auf die Annahme, dass keiner der Teilnehmer überhaupt etwas über die Wahrscheinlichkeit weiß, dass sie in einer zukünftigen Position in der einen oder anderen Position landen wird (Rawls 1957,1971, 1974). John Harsanyi, der dieses Problem vor Rawls diskutierte, ging davon aus, dass die Wahrscheinlichkeit, sich in einer bestimmten sozialen Position zu befinden, gleich dem Anteil der Bevölkerung ist, die die betreffende Position haben wird, und dass dies auch allen Teilnehmern bekannt ist. Wenn also ein Fünftel der Bevölkerung in einem bestimmten Gesellschaftstyp Wanderarbeiter sein wird, geht jede Teilnehmerin an Harsanyis Ausgangssituation davon aus, dass sie eine Wahrscheinlichkeit von 20 Prozent hat, Wanderarbeiterin zu werden, während keiner der Teilnehmer an Rawls 'Initiale Die Situation wird eine Ahnung haben, wie hoch diese Wahrscheinlichkeit sein kann. In Harsanyis Ausgangssituation wählen die Teilnehmer die soziale Ordnung mit dem höchsten erwarteten Nutzen (wahrscheinlichkeitsgewichteter Nutzen). Dabei werden alle potenziellen zukünftigen Positionen berücksichtigt und nicht nur die ungünstigsten (Harsanyi 1953, 1955, 1975).
In Diskussionen über verschiedene Risiken in unseren bestehenden Gesellschaften haben wir jedoch wenig Verwendung für die hypothetischen Ausgangssituationen der Vertragstheorie. Die Risiken und Ungewissheiten im wirklichen Leben sind ganz anderer Natur als die hypothetische Ungewissheit (oder Unwissenheit) über die eigene soziale Position und die eigenen Bedingungen, die in der Ausgangssituation von entscheidender Bedeutung ist. Das Gedankenexperiment einer Ausgangssituation scheint uns keine intellektuellen Werkzeuge für die moralische Einschätzung von Risiken zu liefern, zusätzlich zu denen, zu denen wir Zugang haben, auch ohne zu versuchen, darüber nachzudenken, wer wir sind.
5.6 Zusammenfassung und Ausblick
Zusammenfassend scheint das Problem der Risikobewertung unter moralischen Gesichtspunkten in den gängigen Versionen der oben genannten Arten von Moraltheorien keine zufriedenstellende Lösung zu haben. Das Folgende sind drei mögliche Elemente einer Lösung:
Es kann nützlich sein, den Fokus von Risiken, die zweidimensional in Bezug auf Wahrscheinlichkeit und Schweregrad (oder eindimensional als Produkt davon) beschrieben werden, auf risikobehaftete und risikobehaftete Maßnahmen zu verlagern. Solche Handlungen haben zusätzlich zu den beiden genannten Dimensionen viele moralisch relevante Eigenschaften, z. B. wer auf welche Weise und mit welchen Absichten kausal zum Risiko beiträgt und wie das Risiko und die damit verbundenen Vorteile verteilt werden.
Wichtige moralische Intuitionen werden berücksichtigt, indem angenommen wird, dass jede Person ein auf den ersten Blick moralisches Recht hat, nicht durch die Handlungen anderer dem Risiko negativer Auswirkungen wie Schäden an ihrer Gesundheit oder ihrem Eigentum ausgesetzt zu sein. Dies ist jedoch ein Anscheinsrecht, das in einigen Fällen außer Kraft gesetzt werden muss, um das soziale Leben überhaupt zu ermöglichen. Die Anerkennung dieses Rechts führt daher zu einem sogenannten Ausnahmeproblem, nämlich dem Problem, festzustellen, wann es zu Recht außer Kraft gesetzt wird.
Ein Teil der Lösung des Ausnahmeproblems kann durch gegenseitigen Austausch von Risiken und Vorteilen erzielt werden. Wenn A also ein Auto fahren darf und B bestimmten Risiken ausgesetzt ist, darf B im Gegenzug ein Auto fahren und A den entsprechenden Risiken aussetzen. Um die Komplexität der modernen Gesellschaft zu bewältigen, muss dieses Prinzip auch auf den Austausch verschiedener Arten von Risiken und Vorteilen angewendet werden. Die Gefährdung einer Person kann dann als akzeptabel angesehen werden, wenn sie Teil eines gerechten sozialen Risikosystems ist, das zu ihrem Vorteil wirkt. (Ein solches System kann Mechanismen enthalten, die soziale Ungleichheiten, die durch Krankheit und Behinderung verursacht werden, beseitigen oder ausgleichen.) (Hansson 2003)
Weitere Diskussionen zum Gesamtproblem der Risikoakzeptanz finden sich in Macpherson 2008, Hansson 2013 und Oberdick 2014. Gerechtigkeit in Risikoauferlegungen wird in Ferretti 2010 und Heyward & Roser 2016 erörtert. Fragen zu Rechten und Risiken werden in Thomson 1986 und mit besonderem Schwerpunkt auf Verantwortlichkeiten in Kermisch 2012 und van de Poel et al. 2012.
6. Entscheidungstheorie
Die Entscheidungstheorie befasst sich mit der Bestimmung des besten Weges, um angesichts der uns vorliegenden Werte ein möglichst wertvolles Ergebnis zu erzielen. In der Entscheidungstheorie werden unsere Werte und Ziele als gegeben angesehen, und die Analyse betrifft, wie sie am besten so weit wie möglich erreicht werden können. Entscheidungsfindung unter Risiko und Unsicherheit ist eines der Hauptthemen der Entscheidungstheorie. Es wird normalerweise angenommen, dass, wenn die Werte einer Reihe potenzieller Ergebnisse bekannt sind (z. B. aus der Moralphilosophie), rein instrumentelle Überlegungen ausreichen, um zu bestimmen, wie unter Risiko oder Unsicherheit am besten gehandelt werden kann, um das bestmögliche Ergebnis zu erzielen. (Für eine kritische Diskussion dieser Vermutung siehe Hansson 2013, S. 49–51.)
Die in der entscheidungstheoretischen Analyse gegebenen Werte können, müssen aber nicht moralische Werte der Typen sein, die in der Moralphilosophie entwickelt und analysiert werden. Die Entscheidungstheorie hat traditionell eine Vorliebe für Utilitarismus, dessen Struktur für die meisten formalen Modelle der Entscheidungsfindung geeignet ist. Der standardmäßige entscheidungstheoretische Ansatz für das Risiko ist die Maximierung des erwarteten Nutzens, was als reibungslose Erweiterung des (Akt-) Utilitarismus angesehen werden kann.
Die erwartete Nutzenmaximierung ist jedoch nicht unangefochten. Es wurden einflussreiche Vorschläge für alternative Entscheidungsregeln gemacht. Es gibt zwei Hauptbegründungen für solche Bemühungen. Zunächst wurden Beispiele angeführt, in denen es unplausibel erscheint, zu behaupten, dass die erwartete Nutzenmaximierung die einzige normativ vernünftige Entscheidungsregel ist (Allais 1953, Ellsberg 1961). Zweitens haben zahlreiche psychologische Experimente gezeigt, dass menschliche Entscheidungsträger dazu neigen, erheblich von der erwarteten Nutzenmaximierung abzuweichen. Die erste Art der Rechtfertigung stellt die normative Solidität des erwarteten Nutzens in Frage, wobei die zweite ihre Mängel als beschreibendes Modell aufdeckt.
In einer wichtigen Klasse alternativer Entscheidungsregeln werden die Wahrscheinlichkeiten, die für erwartete Nutzenberechnungen verwendet werden, durch einige andere Zahlen („Entscheidungsgewichte“) ersetzt. Dieser Ansatz wurde bereits 1961 von William Fellner (1961) vorgeschlagen. In den meisten dieser Konstruktionen werden alle Wahrscheinlichkeiten durch eine Transformationsfunktion r transformiert. Anstatt das erwartete Standarddienstprogramm [p (x) cdot u (x)) zu maximieren, maximiert der Agent dann [r (p (x)) cdot u (x))
Es wurden mehrere Entscheidungsregeln mit dieser Struktur vorgeschlagen. Einer der frühesten war Handa (1977). Derzeit ist die Prospekttheorie (Kahneman und Tversky 1979) der bekannteste Vorschlag in dieser Tradition, der entwickelt wurde, um Beobachtungen aus psychologischen Entscheidungsexperimenten genauer als in der erwarteten Nützlichkeitstheorie zu beschreiben. Die Prospekttheorie a ist eine ziemlich komplexe Theorie, die auch andere Abweichungen von der erwarteten Nützlichkeitstheorie enthält. Der traditionelle Fokus auf Ergebnisse wird durch einen Fokus auf Verluste und Gewinne ersetzt, die asymmetrisch behandelt werden.
Ein Problem mit der Funktion r, wie oben definiert, besteht darin, dass die transformierten Wahrscheinlichkeiten, zu denen sie führt, sich nicht zu 1 addieren, außer im trivialen Fall, wenn r die Identitätsfunktion ist (Fishburn 1978). Um dieses Problem zu lösen, führte Quiggin (1982) die Regel der Maximierung des erwarteten Nutzens ein (auch als Nutzen mit rangabhängigen Wahrscheinlichkeiten bezeichnet). Anstatt (p (x)) durch eine Funktion der individuellen Wahrscheinlichkeit (r (p (x))) zu ersetzen, ersetzte er sie durch eine Funktion, die auch von den anderen Wahrscheinlichkeiten und Dienstprogrammen abhängt, die an dem Problem beteiligt sind. Die Ergebnisse werden zuerst vom schlechtesten zum besten geordnet, was zu einem Vektor (langle x_1, x_2, / ldots, x_n / rangle) der Ergebnisse führt, so dass (u (x_1) leq u (x_2) leq / ldots / leq u (x_n)). Jedem Ergebnis kann dann ein Entscheidungsgewicht zugewiesen werden.unter Berücksichtigung sowohl seiner Wahrscheinlichkeit als auch seiner Position in der Rangfolge der Ergebnisse. Da das Entscheidungsgewicht für Ergebnisse mit derselben Wahrscheinlichkeit unterschiedlich sein kann, gilt das Trivialisierungsergebnis von Fishburn hier nicht. Es gibt Hinweise darauf, dass rangabhängige Gebrauchsmuster empirisch angemessener sind als die Prospekttheorie (Harrison und Ross 2017).
Es wurden mehrere andere Modelle vorgeschlagen, die die Wahrscheinlichkeiten der erwarteten Nutzenmaximierung durch eine andere Art von Entscheidungsgewicht ersetzen (Gilboa und Schmeidler 1994, Buchak 2014).
7. Risiko in der Wirtschaftsanalyse
Risiken spielen bei wirtschaftlichen Aktivitäten eine zentrale Rolle. In kapitalistischen Marktwirtschaften ist das Eingehen wirtschaftlicher Risiken ein wesentlicher Bestandteil der Rolle des Unternehmers. Entscheidungen über Investitionen und Aktivitäten auf den Finanzmärkten können nur vor dem Hintergrund der damit verbundenen Risiken verstanden werden. Daher ist es nicht verwunderlich, dass die moderne Wirtschaftstheorie mit ihrem Schwerpunkt auf mathematischen Modellen wirtschaftlicher Aktivitäten mehrere formale Modelle der Risikobereitschaft entwickelt hat.
7.1 Messung wirtschaftlicher Risiken
Die Portfolioanalyse, die in den 1950er Jahren von Harry Markowitz (1952), James Tobin (1958) und anderen entwickelt wurde, war ein wichtiger Schritt vorwärts in der wirtschaftlichen Risikoanalyse. Diese Autoren verwendeten ein einfaches statistisches Maß, nämlich die Standardabweichung (oder alternativ die Varianz, dh das Quadrat der Standardabweichung), als Maß für das Risiko. In einem Vergleich zwischen zwei Anlagealternativen wird daher diejenige als die riskanteste angesehen, deren wirtschaftliches Ergebnis mit der größten Standardabweichung berechnet wird. Bei einem Vergleich zwischen verschiedenen derartigen Alternativen kann jede von ihnen durch zwei Zahlen charakterisiert werden, nämlich ihren Erwartungswert und ihre Standardabweichung oder Risikobereitschaft. Anleger bevorzugen in der Regel Anlagen mit möglichst hohen Erwartungswerten und möglichst geringem Risiko. Jedoch,Anleger unterscheiden sich im relativen Gewicht, das sie den Erwartungen bzw. der Risikovermeidung zuweisen. Mit diesen Entscheidungsgewichten kann das optimale Portfolio einer Person bestimmt werden.
Seit den späten 1960er Jahren wurden alternative Risikomaßnahmen entwickelt. Der vielleicht einflussreichste davon wurde von Michael Rothschild und Joseph Stiglitz (1970) geliefert: Wenn wir die Wahrscheinlichkeitsmasse vom Zentrum zu den Schwänzen einer Wahrscheinlichkeitsverteilung bewegen, während ihr Mittelwert unverändert bleibt, erhöhen wir das mit der Verteilung verbundene Risiko. Es kann ein auf diesem Prinzip basierendes Maß (mittlere konservierende Streuung) konstruiert werden, das attraktivere mathematische Eigenschaften aufweist als das ältere Standardabweichungsmaß.
7.2 Maßnahmen zur Einstellung zu Risiken
Wir unterscheiden uns in unserer Einstellung zum Risiko. Einige von uns gehen bereitwillig Risiken ein, die andere für viel zu groß halten. Der Begriff der sicherheitsäquivalenten Ergebnisse kann verwendet werden, um solche Unterschiede zu spezifizieren. Betrachten Sie ein riskantes Ergebnis X. Ein anderes Ergebnis Y ist genau dann ein sicherheitsäquivalentes Ergebnis für X, wenn (1) Y keine Unsicherheit beinhaltet und (2) X und Y vom Agenten als gleich gut angesehen werden. Zum Beispiel sei X ein Lottoschein mit einer 50-prozentigen Gewinnchance, der Sie 10 Utiles (Utility Units) zuweisen, und einer 50-prozentigen Gewinnchance. Der erwartete Nutzen dieses Tickets beträgt 5 Utiles. Angenommen, es ist Ihnen gleichgültig, ob Sie sicher 3 Utiles empfangen oder X empfangen. Dann ist Ihre Einstellung risikoscheu. Das allgemeine Kriterium für die Risikoaversion (Risikovermeidung, Vorsicht) ist (CE (X) <EU (X)). Ähnlich,Sie sind in Bezug auf X risikoneutral, wenn (CE (X) = EU (X)), und Sie sind risikobezogen (risikosuchend, risikoliebend), wenn (EU (X) <CE (X)).
In der Wirtschaft hängt die Risikoaversion normalerweise mit Geld zusammen. Lassen Sie X einen Lottoschein mit einer 50-prozentigen Gewinnchance von 100 € darstellen, und nehmen Sie an, dass Sie dieses Ticket für 30 € wert halten. Wir haben dann (EU (X) = u (100) / 2) und (CE (X) = u (30)). Dies bedeutet, dass (u (30) = u (100) / 2). Wenn dies ein konsistentes Muster ist, wird der Nutzen von Geld, wie in einem Diagramm mit Beträgen x Geld auf der x-Achse und deren Nutzen (u (x)) auf der y-Achse dargestellt, durch eine Konkave dargestellt (hügelartige Kurve. Ebenso, wenn ein risikoaffines Verhalten durch eine konvexe (talähnliche Kurve) dargestellt wird. Vorausgesetzt, die Nutzfunktion u ist zweimal kontinuierlich differenzierbar, kann dies genauer in Form des Arrow-Pratt-Maßes für Risikoaversion / -affinität ausgedrückt werden.wonach die Risikoaversion des Agenten an einem beliebigen Punkt x gleich (- u '' (x) / u '(x)) ist. Daher ist eine Person mit der Utility-Funktion (u_1) an einem Punkt x risikoaverser als eine Person mit der Utility-Funktion (u_2), wenn und nur wenn [- {u_1} '' (x) / {u_1} '(x)> - {u_2}' '(x) / {u_2}' (x)) (Arrow 1965, Pratt 1964). Das Arrow-Pratt-Maß hat den Vorteil, dass es bei Transformationen der Utility-Funktion, die die von ihm dargestellte Präferenzbeziehung beibehalten, invariant ist (dh bei Multiplikation des Utility mit einer positiven Konstante und Addition einer beliebigen Konstante invariant ist). Andererseits kann aus philosophischen Gründen in Frage gestellt werden, ob die Risikohaltung durch Unterschiede im Nutzen des Geldes angemessen dargestellt werden kann. Es kann argumentiert werden, dass Vorsicht und der Nutzen von Geld zwei getrennte Themen sind und dass sie daher unabhängige Vertretungen haben sollten.
7.3 Experimentelle Ökonomie
Studien zur experimentellen Ökonomie zeigen, dass tatsächliche Wirkstoffe häufig nicht den theoretisch abgeleiteten Rationalitätskriterien entsprechen. Eine der beliebtesten deskriptiven Theorien, die versucht, das tatsächliche Risikoverhalten zu erfassen, ist die Perspektiventheorie, die von Daniel Kahneman und Amos Tversky um 1980 entwickelt wurde (Tversky & Kahneman 1986). Es unterscheidet zwei Phasen eines Entscheidungsprozesses. In der ersten Phase werden die Bearbeitungsphase, Gewinne und Verluste in den verschiedenen Optionen identifiziert. Sie werden relativ zu einem neutralen Bezugspunkt definiert, bei dem es sich normalerweise um die aktuelle Vermögensposition handelt. In der zweiten Phase, der Bewertungsphase, werden die Optionen auf eine Weise bewertet, die der erwarteten Nutzenanalyse ähnelt, aber sowohl Nutzen als auch Wahrscheinlichkeiten werden durch andere, ähnliche Maßnahmen ersetzt. Der Nutzen wird durch eine Maßnahme ersetzt, die zwischen Gewinnen und Verlusten asymmetrisch ist. Objektive Wahrscheinlichkeiten werden durch eine Funktion transformiert, die Wahrscheinlichkeitsunterschieden nahe den Enden mehr Gewicht verleiht als solchen nahe dem Zentrum der Verteilung. Daher ist es wichtiger, die Wahrscheinlichkeit eines negativen Ergebnisses von 2 auf 1 Prozent zu verringern, als sie von 51 auf 50 Prozent zu verringern.
Die Prospekttheorie kann einige der Arten erklären, in denen das tatsächliche Verhalten von den theoretischen Modellen des rationalen Risikoverhaltens abweicht. Daher kann die Übergewichtung von Wahrscheinlichkeitsänderungen nahe Null oder Eins verwendet werden, um zu erklären, warum Menschen sowohl Versicherungen als auch Lottoscheine kaufen. Die Perspektiventheorie ist jedoch als normative Theorie für rationales Risikoverhalten nicht plausibel. Wahrscheinlich müssen normative und deskriptive Risikotheorien in verschiedene Richtungen gehen.
7.4 Risiko-Nutzen-Analyse
Die Risiko-Nutzen-Analyse (RBA), auch Kosten-Nutzen-Analyse (CBA) genannt, ist eine Sammlung von Entscheidungshilfetechniken, bei denen Vor- und Nachteile numerisch abgewogen werden. In einer typischen Risiko-Nutzen-Analyse werden mehrdimensionale Probleme auf eine einzige Dimension reduziert. Dies wird erreicht, indem allen potenziellen Ergebnissen Geldwerte zugewiesen werden. In der Regel werden unsichere Ergebnisse gemäß dem erwarteten Gebrauchsmuster bewertet. Dies bedeutet, dass die Abwertung eines Risikos erhalten wird, indem die Wahrscheinlichkeit des unerwünschten Ereignisses mit einem Geldwert multipliziert wird, der seine Schwere darstellt (Sen 2000; Sunstein 2005).
Der größte Teil der philosophischen Diskussion über die Risiko-Nutzen-Analyse konzentrierte sich auf die Zuordnung eines Geldwerts zum Verlust eines menschlichen Lebens (MacLean 1994, Heinzerling 2000, 2002). Es wurde behauptet, dass Leben und Geld nicht miteinander vereinbar sind und dass die Bestimmung und Verwendung solcher „lebendigen Werte“einen Mangel an Respekt für das menschliche Leben zum Ausdruck bringt. Verteidiger der Risiko-Nutzen-Analyse haben kontert, dass diese Werte nur technische Konstrukte sind, die darstellen, was die Gesellschaft tendenziell zahlt (alternativ: sollte zahlen), um ein menschliches Leben zu retten. Die Risiko-Nutzen-Analyse kann Entscheidungsträgern helfen, so viele Leben wie möglich zu retten, da sie über eine bestimmte Menge an Ressourcen verfügen, die sie lebensrettenden Maßnahmen zuweisen können (Sunstein 2005).
Viele der in der Kosten-Nutzen-Analyse verwendeten Wertzuweisungen basieren auf Schätzungen oder Messungen der (hypothetischen) Zahlungsbereitschaft. Solche Schätzungen werden wohlhabenden Menschen mehr Einfluss geben, da sie mehr als andere dafür bezahlen können. Dies kann durch einkommensabhängige Anpassungen der gemeldeten Zahlungsbereitschaft korrigiert werden. Die Durchführung und Interpretation von Zahlungsbereitschaftsstudien ist jedoch mit erheblichen Problemen verbunden (Grüne-Yanoff 2009).
Die Risiko-Nutzen-Analyse führt zu mehreren anderen philosophischen Problemen von erheblichem philosophischem Interesse (Hansson 2007). Aufgrund seines quantitativen Charakters werden schwer quantifizierbare Probleme wie das Risiko kultureller Verarmung, sozialer Isolation und zunehmender Spannungen zwischen sozialen Schichten häufig ausgelassen. Darüber hinaus lassen Risiko-Nutzen-Analysen aufgrund ihrer aggregierten Struktur häufig soziale Gerechtigkeit und andere Verteilungsaspekte aus, obwohl diese tatsächlich einer quantitativen Behandlung zugänglich sind.
Literaturverzeichnis
Allais, M., 1953, Econometrica, 21: 503–546.
Allhoff, F., 2009, "Risk, Precaution and Emerging Technologies", Studien zu Ethik, Recht und Technologie, 3 (2), online veröffentlicht am 25. Juni 2009. doi: 10.2202 / 1941-6008.1078
Arrow, KJ, 1965, Aspekte der Risikotragfähigkeitstheorie. Yrjö Jahnsson Vorträge. Helsinki: Yrjö Jahnssonin Säätiö.
Boholm, M. et al., 2016, „Die Konzepte von Risiko, Sicherheit und Schutz: Anwendungen in der Alltagssprache.“, Risikoanalyse, 36 (2): 320–338.
Buchak, L., 2014, Risiko und Rationalität, Oxford: Oxford University Press.
Caney, S., 2009, „Klimawandel und Zukunft: Diskontierung von Zeit, Wohlstand und Risiko“, Journal of Social Philosophy, 40 (2): 163–186.
Cranor C., 1997, „Der normative Charakter der Risikobewertung: Merkmale und Möglichkeiten“, Risiko: Gesundheit, Sicherheit und Umwelt, 8: 123–36.
–––, 2005. „Der wissenschaftliche Schleier über der Politik des Deliktsrechts: Wie sollten wissenschaftliche Erkenntnisse im Gesetz über giftige Delikte genutzt werden?“, Law and Philosophy, 24 (2): 139–210.
–––, 2016, Toxic Torts: Wissenschaft, Recht und die Möglichkeit der Gerechtigkeit (zweite Ausgabe), Cambridge: Cambridge University Press.
–––, 2017, Tragische Fehler: Wie und warum wir durch giftige Chemikalien geschädigt werden, Oxford: Oxford University Press, 2017.
Doorn, N. und SO Hansson, 2015, „Design für den Wert der Sicherheit“, in J. van den Hoven, I. van de Poel und P. Vermaas (Hrsg.), Handbuch für Ethik, Werte und technologisches Design, Dordrecht: Springer, 491–511.
Ellsberg, D., 1961, „Risiko, Mehrdeutigkeit und die wilden Axiome“, Quarterly Journal of Economics, 75: 643–669.
Fellner, W. 1961, „Verzerrung subjektiver Wahrscheinlichkeiten als Reaktion auf Unsicherheit“, Quarterly Journal of Economics, 75: 670–689.
Ferretti, MP, 2010, „Risiko und Verteilungsgerechtigkeit: Der Fall der Regulierung neuer Technologien“, Science and Engineering Ethics, 16 (3): 501–515.
Fishburn, PC, 1978, „Über Handas 'Neue Theorie des Kardinalnutzens' und die Maximierung der erwarteten Rendite“, Journal of Political Economy, 86: 321–324.
Gigerenzer, G., 2002, Berechnete Risiken: Wie man weiß, wann Zahlen Sie täuschen, New York: Simon und Schuster.
Gilboa, I. und D. Schmeidler, 1994, „Additive Darstellungen nichtadditiver Maßnahmen und des Choquet-Integrals“, Annals of Operations Research, 52: 43–65.
Goodwin, W., 2009, „Wie trägt die Theologisierung der Physik zur globalen Erwärmung bei?“, Environmental Philosophy, 6 (2): 21–42.
Gordijn, B., 2005, „Nanoethik: Von utopischen Träumen und apokalyptischen Albträumen zu einer ausgewogeneren Sichtweise“, Science and Engineering Ethics, 11 (4): 521–533.
Grüne-Yanoff, T., 2009, „Den Wert des statistischen Lebens falsch messen“, Journal of Economic Methodology, 16 (2): 109–123.
Handa, J., 1977, „Risiko, Wahrscheinlichkeiten und eine neue Theorie des Kardinalnutzens“, Journal of Political Economy, 85: 97–122.
Hansson, SO, 2003, „Ethische Kriterien der Risikoakzeptanz“, Erkenntnis, 59: 291–309.
–––, 2004, „Abwägen von Risiken und Vorteilen“, Topoi, 23: 145–152.
–––, 2006, „Ökonomische (ir) Rationalität in der Risikoanalyse“, Economics and Philosophy, 22: 231–241.
–––, 2007, „Philosophische Probleme in der Kosten-Nutzen-Analyse“, Economics and Philosophy 23: 163–183.
–––, 2013, The Ethics of Risk: Ethische Analyse in einer unsicheren Welt, New York: Palgrave MacMillan.
Harrison, GW und D. Ross, 2017, „Die empirische Angemessenheit der kumulativen Prospekttheorie und ihre Auswirkungen auf die normative Bewertung“, Journal of Economic Methodology, 24: 150–165.
Harsanyi, JC, 1953, „Kardinaler Nutzen in der Wohlfahrtsökonomie und in der Theorie des Eingehens von Risiken“, Journal of Political Economy, 61: 434–435.
Harsanyi, JC, 1955, „Kardinalwohlfahrt, individualistische Ethik und zwischenmenschliche Vergleiche des Nutzens“, Journal of Political Economy, 63: 309–321.
Harsanyi, JC, 1975: „Kann das Maximin-Prinzip als Grundlage für die Moral dienen? Eine Kritik an John Rawls 'Theorie “, American Political Science Review, 69: 594–606.
–––, 2002, „Märkte für Arsen“, Georgetown Law Journal, 90: 2311–2339.
Hempel, CG, 1965, Aspekte der wissenschaftlichen Erklärung und andere Aufsätze in der Wissenschaftsphilosophie, New York: Free Press.
Heyward, C. und D. Roser (Hrsg.), 2016, Klimagerechtigkeit in einer nicht idealen Welt, Oxford: Oxford University Press.
Intemann, K., 2015, „Unterscheidung zwischen legitimen und illegitimen Werten bei der Klimamodellierung“, European Journal for Philosophy of Science, 5 (2): 217–232.
Jellinek, SD, 1981, „Über die Unvermeidlichkeit des Falschseins“, Annals of the New York Academy of Science, 363: 43–47.
John, S., 2017, „Von sozialen Werten zu P-Werten: Die soziale Erkenntnistheorie des Zwischenstaatlichen Gremiums für Klimawandel“, Journal of Applied Philosophy, 34 (2): 157–171.
Kahneman, D. und A. Tversky 1979, „Prospect Theory: Eine Analyse der Entscheidung unter Risiko“, Econometrica, 47: 263–293.
Kermisch, C., 2012, „Risiko und Verantwortung: Eine komplexe und sich entwickelnde Beziehung“, Science and Engineering Ethics, 18 (1): 91–102.
Lemons, J., et al., 1997, „Das Vorsorgeprinzip: Wissenschaftliche Unsicherheit und Fehler vom Typ I und Typ II“, Foundations of Science, 2 (2): 207–236.
MacLean, D. (Hrsg.), 1986, Values at Risk (Maryland-Studien in öffentlicher Philosophie), Totowa, NJ: Rowman und Littlefield.
Machina, MD und M. Rothschild, 1987, "Risk", in J. Eatwell, M. Milgate und P. Newman (Hrsg.), The New Palgrave: Ein Wörterbuch der Wirtschaftstheorie und -lehre (Band 4), London und New York: Macmillan und Stockton, S. 201–205.
Macpherson, JAE, 2008, „Sicherheit, Risikoakzeptanz und Moral“, Science and Engineering Ethics, 14 (3): 377–390.
McKerlie, D., 1986, „Rights and Risk“, Canadian Journal of Philosophy, 16: 239–52.
McKinney, WJ, 1996, „Vorhersage und Rolstons Umweltethik: Lehren aus der Wissenschaftstheorie“, Science and Engineering Ethics, 2 (4): 429–440.
Möller, N. und SO Hansson, 2008, „Grundsätze der technischen Sicherheit: Reduzierung von Risiken und Unsicherheiten“, Reliability Engineering and System Safety, 93: 776–783.
Ng, Y.-K., 2005, „Unparteilichkeit zwischen den Generationen: Ersetzen der Diskontierung durch Wahrscheinlichkeitsgewichtung“, Journal of Agricultural and Environmental Ethics, 18 (3): 237–257.
Nozick, Robert, 1974, Anarchie, Staat und Utopie, New York: Grundlegende Bücher.
Oberdiek, J., 2014, Imposing Risk: Ein normativer Rahmen, Oxford: Oxford University Press.
Pratt, JW, 1964, „Risikoaversion im Kleinen und im Großen“, Econometrica, 32: 122–136.
Pritchard, D., 2015, „Risk“, Metaphilosophy, 46 (3): 436–461.
Prothero, D., 2013, „Das Holocaust-Leugner-Spielbuch und die Tabak-Nebelwand: Gemeinsame Themen im Denken und in der Taktik von Denialisten und Pseudowissenschaftlern“, S. 341–358 in M. Pigliucci und M. Boudry (Hrsg.), Philosophy of Pseudoscience. Überdenken des Abgrenzungsproblems, Chicago: University of Chicago Press.
Quiggin, J., 1982, „Eine Theorie des erwarteten Nutzens“, Journal of Economic Behavior & Organization, 3: 323–343.
Rasmussen, Norman et al., 1975, "Reactory Safety Study", WASH-1400, Washington, DC: US NRC.
Rawls, J., 1957, „Gerechtigkeit als Fairness“, Journal of Philosophy, 54: 653–662.
–––, 1971, A Theory of Justice, Cambridge, Mass.: Harvard University Press.
–––, 1974, „Einige Gründe für das Maximin-Kriterium“, American Economic Review, 64: 141–146.
Rechard, RP, 1999, „Historischer Zusammenhang zwischen der Leistungsbewertung für die Entsorgung radioaktiver Abfälle und anderen Arten der Risikobewertung“, Risk Analysis, 19 (5): 763–807.
Rothschild, M. und J. Stiglitz, 1970, „Zunehmendes Risiko: 1. Eine Definition“, Journal of Economic Theory, 2: 225–243.
Scanlon, TM, 1982, "Contractualism and Utilitarianism", in A. Sen und B. Williams, Utilitarianism and Beyond, Cambridge: Cambridge University Press.
Schelling TC, 1996, „Research By Accident“, Technologische Prognose und sozialer Wandel, 53: 15–20.
Sen, A., 2000, „Die Disziplin der Kosten-Nutzen-Analyse“, Journal of Legal Studies, 29: 931–952.
Shrader-Frechette, K., 1991, Risiko und Rationalität. Philosophische Grundlagen für populistische Reformen, Berkeley: University of California Press.
–––, 1997, „Hydrogeologie- und Rahmenfragen mit politischen Konsequenzen“, Philosophy of Science (Supplement), 64: S149-S160.
–––, 2005, „Fehlerhafte Angriffe auf die zeitgenössischen Menschenrechte: Laudan, Sunstein und der Kosten-Nutzen-Staat“, Human Rights Review, 7 (1): 92–110.
–––, 2005, Umweltgerechtigkeit: Gleichstellung schaffen, Demokratie zurückfordern, New York: Oxford University Press.
Sjöberg, L., 2004, „Die Methodik der Risikowahrnehmungsforschung“, Qualität und Quantität, 34: 407–418.
Sunstein, CR, 2005, „Kosten-Nutzen-Analyse und Umwelt“, Ethics, 115: 351–385.
Thompson, PB, 1985, „Riskieren oder bereit sein: Hamlet und der DC-10“, Journal of Value Inquiry, 19: 301–310.
Thomson, JJ, 1985, „Imposing Risks“, in Um frei zu atmen, Mary Gibson (Hrsg.), Totowa, NJ: Rowman und Allanheld, 124–140.
–––, 1986, Rechte, Wiedergutmachung und Risiko: Essays in Moral Philosophy, Cambridge, Mass.: Harvard University Press.
Tobin, J., 1958, „Liquiditätspräferenz als Risikoverhalten“, Review of Economic Studies 25 (2): 65–86.
Tversky, A. und D. Kahneman, 1986, „Rational Choice and the Framing of Decisions“, Journal of Business, 59: 251–278.
van den Belt, H. und B. Gremmen., 2002, „Zwischen Vorsorgeprinzip und„ Klangwissenschaft “: Verteilung der Beweislast.“, Journal of Agricultural and Environmental Ethics, 15 (1): 103–122.
van de Poel, I., et al., 2012, „Das Problem vieler Hände: Klimawandel als Beispiel“, Science and Engineering Ethics, 18 (1): 49–67.
Wagner, WE, 1995, „The Science Charade In Toxic Risk Regulation“, Columbia Law Review, 95: 1613–1723.
Weinberg, AM, 1972, „Science and Trans-Science“, Minerva, 10: 209–222.
Wetmore, JM, 2008, „Engineering mit Unsicherheit: Überwachung der Airbag-Leistung“, Science and Engineering Ethics, 14 (2): 201–218.
Akademische Werkzeuge
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.
Andere Internetquellen
[Bitte kontaktieren Sie den Autor mit Vorschlägen.]