Computersimulationen In Der Wissenschaft

Inhaltsverzeichnis:

Computersimulationen In Der Wissenschaft
Computersimulationen In Der Wissenschaft
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Computersimulationen in der Wissenschaft

Erstveröffentlichung Montag, 6. Mai 2013; inhaltliche Überarbeitung Do 26. September 2019

Die Computersimulation wurde in der Zeit unmittelbar nach dem Zweiten Weltkrieg als wissenschaftliches Werkzeug in der Meteorologie und Kernphysik entwickelt und ist seitdem in einer wachsenden Anzahl von Disziplinen unverzichtbar geworden. Die Liste der Wissenschaften, die die Computersimulation in großem Umfang nutzen, ist um Astrophysik, Teilchenphysik, Materialwissenschaften, Ingenieurwissenschaften, Strömungsmechanik, Klimawissenschaft, Evolutionsbiologie, Ökologie, Ökonomie, Entscheidungstheorie, Medizin, Soziologie, Epidemiologie und viele andere erweitert worden. Es gibt sogar einige Disziplinen wie die Chaostheorie und die Komplexitätstheorie, deren Existenz sich neben der Entwicklung der von ihnen untersuchten Rechenmodelle herausgebildet hat.

Nach einem langsamen Start haben Wissenschaftsphilosophen begonnen, der Rolle der Computersimulation in der Wissenschaft mehr Aufmerksamkeit zu widmen. Es haben sich mehrere Bereiche von philosophischem Interesse für die Computersimulation herausgebildet: Wie ist die Erkenntnistheorie der Computersimulation aufgebaut? Welche Beziehung besteht zwischen Computersimulation und Experiment? Wirft die Computersimulation Probleme für die Wissenschaftsphilosophie auf, die von den jüngsten Arbeiten an Modellen im Allgemeinen nicht vollständig abgedeckt werden? Was lehrt uns die Computersimulation über die Entstehung? Über die Struktur wissenschaftlicher Theorien? Über die Rolle (falls vorhanden) von Fiktionen bei der wissenschaftlichen Modellierung?

  • 1. Was ist Computersimulation?

    • 1.1 Eine enge Definition
    • 1.2 Eine breite Definition
    • 1.3 Eine alternative Sichtweise
  • 2. Arten von Computersimulationen

    • 2.1 Gleichungsbasierte Simulationen
    • 2.2 Agentenbasierte Simulationen
    • 2.3 Multiskalensimulationen
    • 2.4 Monte-Carlo-Simulationen
  • 3. Zwecke der Simulation
  • 4. Die Erkenntnistheorie von Computersimulationen

    • 4.1 Neue Funktionen von EOCS
    • 4.2 EOCS und Erkenntnistheorie des Experiments
    • 4.3 Überprüfung und Validierung
    • 4.4 EOCS und epistemischer Anspruch
    • 4.5 Pragmatische Ansätze für EOCS
  • 5. Simulation und Experiment
  • 6. Computersimulation und die Struktur wissenschaftlicher Theorien
  • 7. Entstehung
  • 8. Fiktionen
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Was ist Computersimulation?

Eine einheitliche Definition der Computersimulation ist nicht angemessen. Erstens wird der Begriff sowohl im engeren als auch im weitesten Sinne verwendet. Zweitens möchte man den Begriff vielleicht aus mehr als einer Perspektive verstehen.

1.1 Eine enge Definition

Im engsten Sinne ist eine Computersimulation ein Programm, das auf einem Computer ausgeführt wird und schrittweise Methoden verwendet, um das ungefähre Verhalten eines mathematischen Modells zu untersuchen. Normalerweise ist dies ein Modell eines realen Systems (obwohl das fragliche System ein imaginäres oder hypothetisches sein kann). Ein solches Computerprogramm ist ein Computersimulationsmodell. Ein Programmlauf auf dem Computer ist eine Computersimulation des Systems. Der Algorithmus verwendet als Eingabe eine Spezifikation des Systemzustands (den Wert aller seiner Variablen) zu einem bestimmten Zeitpunkt t. Es berechnet dann den Systemzustand zum Zeitpunkt t + 1. Aus den Werten, die diesen zweiten Zustand charakterisieren, wird dann der Zustand des Systems zum Zeitpunkt t + 2 usw. berechnet. Wenn der Algorithmus auf einem Computer ausgeführt wird, erzeugt er somit ein numerisches Bild der Entwicklung des Systemzustands.wie es im Modell konzeptualisiert ist.

Diese Wertesequenz für die Modellvariablen kann als große Sammlung von „Daten“gespeichert werden und wird häufig mithilfe von Visualisierungsmethoden auf einem Computerbildschirm angezeigt. Oft, aber sicherlich nicht immer, sind die Visualisierungsmethoden so konzipiert, dass sie die Ausgabe eines wissenschaftlichen Instruments nachahmen - so dass die Simulation ein interessierendes System zu messen scheint.

Manchmal werden die schrittweisen Methoden der Computersimulation verwendet, weil das interessierende Modell kontinuierliche (Differential-) Gleichungen enthält (die kontinuierliche zeitliche Änderungsraten angeben), die weder im Prinzip noch nur in der Praxis analytisch gelöst werden können. Dies untermauert den Geist der folgenden Definition von Paul Humphreys: „Jede computerimplementierte Methode zur Untersuchung der Eigenschaften mathematischer Modelle, für die keine Analysemethoden verfügbar sind“(1991, 500). Aber auch als enge Definition sollte diese sorgfältig gelesen werden und nicht als Hinweis darauf verstanden werden, dass Simulationen nur verwendet werden, wenn das Modell analytisch unlösbare Gleichungen enthält. Computersimulationen werden häufig verwendet, entweder weil das ursprüngliche Modell selbst diskrete Gleichungen enthält - die direkt in einem für die Simulation geeigneten Algorithmus implementiert werden können - oder weil das ursprüngliche Modell aus etwas besteht, das besser als Evolutionsregeln als als Gleichungen beschrieben wird.

Im ersteren Fall, wenn Gleichungen "diskretisiert" werden (das Umwandeln von Gleichungen, die kontinuierliche Änderungsraten in diskrete Gleichungen beschreiben), sollte betont werden, dass, obwohl es üblich ist, von Simulationen zu sprechen, die diese Gleichungen "lösen", eine Diskretisierung kann bestenfalls nur etwas finden, das der Lösung kontinuierlicher Gleichungen mit einem gewünschten Grad an Genauigkeit nahekommt. Wenn wir schließlich im engeren Sinne von „einer Computersimulation“sprechen, sollten wir von einer bestimmten Implementierung des Algorithmus auf einem bestimmten digitalen Computer sprechen, der in einer bestimmten Sprache geschrieben ist, einen bestimmten Compiler verwendet usw. Es gibt Fälle, in denen Aufgrund von Abweichungen in diesen Angaben können unterschiedliche Ergebnisse erzielt werden.

1.2 Eine breite Definition

Im weiteren Sinne können wir uns Computersimulation als umfassende Methode zur Untersuchung von Systemen vorstellen. In diesem weiteren Sinne bezieht sich der Begriff auf einen gesamten Prozess. Dieser Prozess umfasst die Auswahl eines Modells; einen Weg finden, dieses Modell in einer Form zu implementieren, die auf einem Computer ausgeführt werden kann; Berechnen der Ausgabe des Algorithmus; und Visualisieren und Studieren der resultierenden Daten. Die Methode umfasst den gesamten Prozess, der verwendet wird, um Rückschlüsse auf das Zielsystem zu ziehen, das modelliert werden soll, sowie die Verfahren, mit denen diese Rückschlüsse sanktioniert werden. Dies ist mehr oder weniger die Definition von Computersimulationsstudien in Winsberg 2003 (111). „Erfolgreiche Simulationsstudien können mehr als nur Zahlen berechnen. Sie verwenden eine Vielzahl von Techniken, um aus diesen Zahlen Rückschlüsse zu ziehen. Simulationen nutzen kreativ Berechnungstechniken, die nur extra-mathematisch und extra-theoretisch motiviert werden können. Im Gegensatz zu einfachen Berechnungen, die auf einem Computer ausgeführt werden können, sind die Ergebnisse von Simulationen nicht automatisch zuverlässig. Mit viel Aufwand und Fachwissen wird entschieden, welche Simulationsergebnisse zuverlässig sind und welche nicht. “Wenn Wissenschaftsphilosophen über Computersimulation schreiben und Aussagen darüber machen, welche erkenntnistheoretischen oder methodischen Eigenschaften „Computersimulationen“haben, meinen sie normalerweise den Begriff, der in diesem weiten Sinne einer Computersimulationsstudie zu verstehen ist. Mit viel Aufwand und Fachwissen wird entschieden, welche Simulationsergebnisse zuverlässig sind und welche nicht. “Wenn Wissenschaftsphilosophen über Computersimulation schreiben und Aussagen darüber machen, welche erkenntnistheoretischen oder methodischen Eigenschaften „Computersimulationen“haben, meinen sie normalerweise den Begriff, der in diesem weiten Sinne einer Computersimulationsstudie zu verstehen ist. Mit viel Aufwand und Fachwissen wird entschieden, welche Simulationsergebnisse zuverlässig sind und welche nicht. “Wenn Wissenschaftsphilosophen über Computersimulation schreiben und Aussagen darüber machen, welche erkenntnistheoretischen oder methodischen Eigenschaften „Computersimulationen“haben, meinen sie normalerweise den Begriff, der in diesem weiten Sinne einer Computersimulationsstudie zu verstehen ist.

1.3 Eine alternative Sichtweise

Bei beiden obigen Definitionen geht es bei der Computersimulation im Wesentlichen darum, einen Computer zum Lösen oder annähernden Lösen der mathematischen Gleichungen eines Modells zu verwenden, das ein reales oder hypothetisches System darstellen soll. Ein anderer Ansatz besteht darin, zu versuchen, "Simulation" unabhängig vom Begriff der Computersimulation zu definieren und dann "Computersimulation" kompositorisch zu definieren: als Simulation, die von einem programmierten digitalen Computer ausgeführt wird. Bei diesem Ansatz ist eine Simulation jedes System, von dem angenommen oder gehofft wird, dass es ein dynamisches Verhalten aufweist, das einem anderen System ähnlich genug ist, so dass das erstere untersucht werden kann, um etwas über das letztere zu lernen.

Wenn wir beispielsweise ein Objekt untersuchen, weil wir glauben, dass es einem Flüssigkeitsbecken dynamisch ähnlich genug ist, um durch Untersuchung des Objekts etwas über Flüssigkeitsbecken zu lernen, bietet es eine Simulation von Flüssigkeitsbecken. Dies steht im Einklang mit der Definition von Simulation, die wir bei Hartmann finden: Es ist etwas, das „einen Prozess durch einen anderen Prozess imitiert. In dieser Definition bezieht sich der Begriff „Prozess“ausschließlich auf ein Objekt oder System, dessen Zustand sich mit der Zeit ändert “(1996, 83). Hughes (1999) beanstandete, dass Hartmanns Definition Simulationen ausschloss, die eher die Struktur eines Systems als seine Dynamik imitieren. Humphreys überarbeitete seine Definition der Simulation, um den Bemerkungen von Hartmann und Hughes wie folgt zu entsprechen:

System S bietet eine Kernsimulation eines Objekts oder Prozesses B für den Fall, dass S ein konkretes Rechengerät ist, das über einen zeitlichen Prozess Lösungen für ein Rechenmodell erzeugt, das B entweder dynamisch oder statisch korrekt darstellt. Wenn zusätzlich das von S verwendete Rechenmodell die Struktur des realen Systems R korrekt darstellt, liefert S eine Kernsimulation des Systems R in Bezug auf B. (2004, S. 110)

(Beachten Sie, dass Humphreys hier Computersimulation definiert, nicht Simulation im Allgemeinen, aber er tut dies im Sinne der Definition eines Kompositionsbegriffs.) Es sollte beachtet werden, dass Humphreys 'Definitionen Simulation zu einem Erfolgsbegriff machen, und das scheint unglücklich. Eine bessere Definition wäre eine, die wie die im letzten Abschnitt ein Wort wie "geglaubt" oder "gehofft" enthielt, um dieses Problem anzugehen.

In den meisten philosophischen Diskussionen über Computersimulation ist das in 1.2 definierte Konzept nützlicher. Die Ausnahme ist, wenn es ausdrücklich das Ziel der Diskussion ist, die Computersimulation als Beispiel für eine Simulation allgemeiner zu verstehen (siehe Abschnitt 5). Beispiele für Simulationen, die keine Computersimulationen sind, sind das berühmte physikalische Modell der Bucht von San Francisco (Huggins & Schultz 1973). Dies ist ein funktionierendes Modell im hydraulischen Maßstab der San Francisco Bay und des Sacramento-San Joaquin River Delta Systems, das in den 1950er Jahren vom Army Corps of Engineers gebaut wurde, um mögliche technische Eingriffe in die Bucht zu untersuchen. Ein weiteres schönes Beispiel, das in (Dardashti et al., 2015, 2019) ausführlich diskutiert wird, ist die Verwendung von akustischen „dummen Löchern“aus Bose-Einstein-Kondensaten zur Untersuchung des Verhaltens von Schwarzen Löchern. Der Physiker Bill Unruh bemerkte, dass in bestimmten Flüssigkeiten etwas Ähnliches wie ein Schwarzes Loch entstehen würde, wenn sich Bereiche der Flüssigkeit so schnell bewegen würden, dass sich Wellen schneller bewegen müssten als die Schallgeschwindigkeit (etwas, was sie nicht können), um dies zu tun Flucht vor ihnen (Unruh 1981). Solche Regionen hätten tatsächlich einen Schallereignishorizont. Unruh nannte einen solchen physischen Aufbau ein "dummes Loch" ("dumm" wie in "stumm") und schlug vor, dass es untersucht werden könnte, um Dinge zu lernen, die wir über schwarze Löcher nicht wissen. Für einige Zeit wurde dieser Vorschlag als nichts anderes als eine kluge Idee angesehen, aber Physiker haben kürzlich erkannt, dass sie mit Bose-Einstein-Kondensaten tatsächlich dumme Löcher im Labor bauen und untersuchen können. Es ist klar, warum wir uns ein solches Setup als Simulation vorstellen sollten: Das dumme Loch simuliert das Schwarze Loch. Anstatt ein Computerprogramm zur Simulation der Schwarzen Löcher zu finden, finden Physiker einen fluiddynamischen Aufbau, für den sie glauben, ein gutes Modell zu haben, und für den dieses Modell grundlegende mathematische Ähnlichkeiten mit dem Modell der interessierenden Systeme aufweist. Sie beobachten das Verhalten des Flüssigkeitsaufbaus im Labor, um Rückschlüsse auf die Schwarzen Löcher zu ziehen. Bei den Definitionen der Simulation in diesem Abschnitt geht es darum zu verstehen, in welchem Sinne Computersimulation und diese Art von Aktivitäten Arten derselben Gattung sind. Wir könnten dann besser verstehen, warum sich eine Simulation im Sinne von 1.3, die zufällig auf einem Computer ausgeführt wird, mit einer Simulation im Sinne von 1.2 überschneidet. Wir werden in Abschnitt 5 darauf zurückkommen. Physiker finden einen fluiddynamischen Aufbau, für den sie glauben, ein gutes Modell zu haben, und für den dieses Modell grundlegende mathematische Ähnlichkeiten mit dem Modell der interessierenden Systeme aufweist. Sie beobachten das Verhalten des Flüssigkeitsaufbaus im Labor, um Rückschlüsse auf die Schwarzen Löcher zu ziehen. Bei den Definitionen der Simulation in diesem Abschnitt geht es darum zu verstehen, in welchem Sinne Computersimulation und diese Art von Aktivitäten Arten derselben Gattung sind. Wir könnten dann besser verstehen, warum sich eine Simulation im Sinne von 1.3, die zufällig auf einem Computer ausgeführt wird, mit einer Simulation im Sinne von 1.2 überschneidet. Wir werden in Abschnitt 5 darauf zurückkommen. Physiker finden einen fluiddynamischen Aufbau, für den sie glauben, ein gutes Modell zu haben, und für den dieses Modell grundlegende mathematische Ähnlichkeiten mit dem Modell der interessierenden Systeme aufweist. Sie beobachten das Verhalten des Flüssigkeitsaufbaus im Labor, um Rückschlüsse auf die Schwarzen Löcher zu ziehen. Bei den Definitionen der Simulation in diesem Abschnitt geht es darum zu verstehen, in welchem Sinne Computersimulation und diese Art von Aktivitäten Arten derselben Gattung sind. Wir könnten dann besser verstehen, warum sich eine Simulation im Sinne von 1.3, die zufällig auf einem Computer ausgeführt wird, mit einer Simulation im Sinne von 1.2 überschneidet. Wir werden in Abschnitt 5 darauf zurückkommen.

Barberousse et al. (2009) haben diese Analogie jedoch kritisiert. Sie weisen darauf hin, dass Computersimulationen nicht so funktionieren wie die Simulation von Unruh. Es ist nicht so, dass der Computer als materielles Objekt und das Zielsystem denselben Differentialgleichungen folgen. Eine gute Referenz zu Simulationen, die keine Computersimulationen sind, ist Trenholme 1994.

2. Arten von Computersimulationen

Oft werden zwei Arten von Computersimulationen unterschieden: gleichungsbasierte Simulationen und agentenbasierte (oder individuelle) Simulationen. Computersimulationen beider Typen werden für drei verschiedene allgemeine Zwecke verwendet: Vorhersage (sowohl punktuell als auch global / qualitativ), Verständnis sowie explorative oder heuristische Zwecke.

2.1 Gleichungsbasierte Simulationen

Gleichungsbasierte Simulationen werden am häufigsten in den Naturwissenschaften und anderen Wissenschaften verwendet, in denen es eine maßgebliche Theorie gibt, die die Konstruktion mathematischer Modelle auf der Grundlage von Differentialgleichungen leiten kann. Ich verwende den Begriff "gleichungsbasiert" hier, um Simulationen zu bezeichnen, die auf den Arten globaler Gleichungen basieren, die wir mit physikalischen Theorien assoziieren - im Gegensatz zu "Evolutionsregeln" (die im nächsten Abschnitt erörtert werden). Gleichungsbasierte Simulationen können entweder sein Teilchenbasiert, wo es n viele diskrete Körper und eine Reihe von Differentialgleichungen gibt, die ihre Wechselwirkung steuern, oder sie können feldbasiert sein, wo es eine Reihe von Gleichungen gibt, die die zeitliche Entwicklung eines kontinuierlichen Mediums oder Feldes regeln. Ein Beispiel für Ersteres ist eine Simulation der Galaxienbildung,in dem die Gravitationswechselwirkung zwischen einer endlichen Ansammlung diskreter Körper zeitlich und räumlich diskretisiert wird. Ein Beispiel für Letzteres ist die Simulation einer Flüssigkeit, beispielsweise eines meteorologischen Systems wie eines schweren Sturms. Hier wird das System als kontinuierliches Medium behandelt - eine Flüssigkeit - und ein Feld, das seine Verteilung der relevanten Variablen im Raum darstellt, wird im Raum diskretisiert und dann in diskreten Zeitintervallen aktualisiert.

2.2 Agentenbasierte Simulationen

Agentenbasierte Simulationen sind in den Sozial- und Verhaltenswissenschaften am verbreitetsten, obwohl wir sie auch in Disziplinen wie künstlichem Leben, Epidemiologie, Ökologie und allen Disziplinen finden, in denen die vernetzte Interaktion vieler Individuen untersucht wird. Agentenbasierte Simulationen ähneln partikelbasierten Simulationen darin, dass sie das Verhalten von n-vielen diskreten Individuen darstellen. Im Gegensatz zu Simulationen auf der Basis von Gleichungsteilchen gibt es jedoch keine globalen Differentialgleichungen, die die Bewegungen der Individuen steuern. In agentenbasierten Simulationen wird das Verhalten der Personen vielmehr durch ihre eigenen lokalen Regeln bestimmt

Um ein Beispiel zu nennen: Eine berühmte und bahnbrechende agentenbasierte Simulation war Thomas Schellings (1971) Modell der „Segregation“. Die Agenten in seiner Simulation waren Personen, die auf einem Schachbrett „lebten“. Die Individuen wurden in zwei Gruppen in der Gesellschaft eingeteilt (z. B. zwei verschiedene Rassen, Jungen und Mädchen, Raucher und Nichtraucher usw.). Jedes Quadrat auf der Tafel stellte ein Haus dar, mit höchstens einer Person pro Haus. Eine Person ist glücklich, wenn sie einen bestimmten Prozentsatz der Nachbarn ihrer eigenen Gruppe hat. Glückliche Agenten bleiben, wo sie sind, unglückliche Agenten ziehen an freie Orte. Schelling stellte fest, dass sich das Board schnell zu einem stark getrennten Standortmuster entwickelte, wenn die „Glücksregeln“der Agenten so festgelegt wurden, dass die Trennung stark begünstigt wurde. Überraschenderweise jedochEr stellte auch fest, dass anfänglich integrierte Boards in eine vollständige Trennung übergingen, selbst wenn die Glücksregeln der Agenten nur eine milde Präferenz für Nachbarn ihres eigenen Typs ausdrückten.

2.3 Multiskalensimulationen

In Abschnitt 2.1 haben wir gleichungsbasierte Modelle diskutiert, die auf Partikelmethoden basieren, und solche, die auf Feldmethoden basieren. Einige Simulationsmodelle sind jedoch Hybride verschiedener Arten von Modellierungsmethoden. Insbesondere Multiskalensimulationsmodelle koppeln Modellierungselemente aus verschiedenen Beschreibungsskalen miteinander. Ein gutes Beispiel hierfür wäre ein Modell, das die Dynamik von Schüttgütern simuliert, indem das Material als ein Feld behandelt wird, das auf einer relativ groben Beschreibungsebene Spannungen und Dehnungen ausgesetzt ist, das jedoch in bestimmte Bereiche des Materials zoomt, in denen wichtige Effekte im kleinen Maßstab auftreten stattfinden, und modelliert diese kleineren Regionen mit relativ feinkörnigeren Modellierungsmethoden. Solche Methoden könnten auf Molekulardynamik oder Quantenmechanik beruhen.oder beides - jedes davon ist eine feinkörnigere Beschreibung der Materie, als dies durch die Behandlung des Materials als Feld möglich ist. Multiskalensimulationsmethoden können weiter in serielle Multiskalen- und parallele Multiskalenmethoden unterteilt werden. Die traditionellere Methode ist die serielle Multiskalenmodellierung. Hier geht es darum, eine Region auszuwählen, sie auf der unteren Beschreibungsebene zu simulieren, die Ergebnisse in einer Reihe von Parametern zusammenzufassen, die vom übergeordneten Modell verdaulich sind, und sie an den Teil des Algorithmus weiterzugeben, der auf der höheren Ebene berechnet. Fassen Sie die Ergebnisse in einer Reihe von Parametern zusammen, die vom übergeordneten Modell verdaulich sind, und geben Sie sie an den Teil des Algorithmus weiter, der auf der höheren Ebene berechnet. Fassen Sie die Ergebnisse in einer Reihe von Parametern zusammen, die vom übergeordneten Modell verdaulich sind, und geben Sie sie an den Teil des Algorithmus weiter, der auf der höheren Ebene berechnet.

Serielle Multiskalenmethoden sind nicht effektiv, wenn die verschiedenen Skalen stark miteinander gekoppelt sind. Wenn die verschiedenen Skalen stark interagieren, um das beobachtete Verhalten zu erzeugen, ist ein Ansatz erforderlich, der jede Region gleichzeitig simuliert. Dies wird als parallele Multiskalenmodellierung bezeichnet. Die parallele Multiskalenmodellierung ist die Grundlage einer nahezu allgegenwärtigen Simulationsmethode: der sogenannten Sub-Grid-Modellierung. Die Subgittermodellierung bezieht sich auf die Darstellung wichtiger physikalischer Prozesse im kleinen Maßstab, die auf Längenskalen ablaufen, die aufgrund der Gittergröße einer bestimmten Simulation nicht angemessen aufgelöst werden können. (Denken Sie daran, dass viele Simulationen kontinuierliche Gleichungen diskretisieren, sodass sie eine relativ willkürliche endliche „Gittergröße“haben.) Bei der Untersuchung von Turbulenzen in Flüssigkeiten zum BeispielEine übliche praktische Berechnungsstrategie besteht darin, die fehlenden kleinen Wirbel (oder Wirbel) zu berücksichtigen, die in die Gitterzellen fallen. Dies erfolgt durch Hinzufügen einer Wirbelviskosität zu der Bewegung im großen Maßstab, die den Transport und die Ableitung von Energie in der Strömung im kleineren Maßstab charakterisiert - oder durch ein solches Merkmal, das in einem zu kleinen Maßstab auftritt, um vom Gitter erfasst zu werden.

In der Klimawissenschaft und verwandten Disziplinen wird die Sub-Grid-Modellierung als „Parametrisierung“bezeichnet. Dies bezieht sich wiederum auf die Methode, Prozesse, die zu klein oder zu komplex sind, um im Modell physikalisch dargestellt zu werden, durch eine einfachere mathematische Beschreibung zu ersetzen. Dies steht im Gegensatz zu anderen Prozessen - z. B. der großräumigen Strömung der Atmosphäre -, die auf Gitterebene gemäß der Grundtheorie berechnet werden. Dies wird als "Parametrisierung" bezeichnet, da verschiedene nicht-physikalische Parameter erforderlich sind, um die hochgradig approximativen Algorithmen zur Berechnung der Teilgitterwerte zu steuern. Beispiele für die Parametrisierung in Klimasimulationen sind die Abstiegsrate von Regentropfen, die Geschwindigkeit des atmosphärischen Strahlungstransfers und die Geschwindigkeit der Wolkenbildung. Zum Beispiel die durchschnittliche Bewölkung über 100 km 2Die Gitterbox hängt nicht sauber mit der durchschnittlichen Luftfeuchtigkeit über der Box zusammen. Mit zunehmender durchschnittlicher Luftfeuchtigkeit nimmt jedoch auch die durchschnittliche Bewölkung zu. Daher könnte es einen Parameter geben, der die durchschnittliche Bewölkung mit der durchschnittlichen Luftfeuchtigkeit in einem Gitterfeld verknüpft. Obwohl die heutigen Parametrisierungen der Wolkenbildung komplexer sind, wird die Grundidee durch das Beispiel gut veranschaulicht. Die Verwendung von Sub-Grid-Modellierungsmethoden in der Simulation hat wichtige Konsequenzen für das Verständnis der Struktur der Erkenntnistheorie der Simulation. Dies wird in Abschnitt 4 näher erläutert.

Sub-Grid-Modellierungsmethoden können mit einer anderen Art von parallelem Multiskalenmodell verglichen werden, bei dem die Sub-Grid-Algorithmen theoretischer sind, aber durch eine Theorie auf einer anderen Beschreibungsebene motiviert sind. In dem oben erwähnten Beispiel der Simulation von Schüttgütern wird beispielsweise der Algorithmus, der die kleinere Beschreibungsebene steuert, nicht vom Sitz der Hose erstellt. Der Algorithmus, der die kleinere Ebene steuert, ist tatsächlich theoretischer als die höhere Ebene in dem Sinne, dass die Physik grundlegender ist: Quantenmechanik oder Molekulardynamik vs. Kontinuumsmechanik. Mit anderen Worten, diese Art von Multiskalenmodellen bündelt die Ressourcen von Theorien auf verschiedenen Beschreibungsebenen. Sie liefern also interessante Beispiele, die unser Denken über intertheoretische Beziehungen anregen.und das stellt die weit verbreitete Ansicht in Frage, dass ein inkonsistenter Satz von Gesetzen keine Modelle haben kann.

2.4 Monte-Carlo-Simulationen

In der wissenschaftlichen Literatur gibt es eine weitere große Klasse von Computersimulationen, die als Monte-Carlo-Simulationen (MC-Simulationen) bezeichnet werden. MC-Simulationen sind Computeralgorithmen, die Zufälligkeit verwenden, um die Eigenschaften eines mathematischen Modells zu berechnen, und bei denen die Zufälligkeit des Algorithmus kein Merkmal des Zielmodells ist. Ein schönes Beispiel ist die Verwendung eines Zufallsalgorithmus zur Berechnung des Wertes von π. Wenn Sie ein Einheitsquadrat auf ein Blatt Papier zeichnen und einen Kreis darin einschreiben und dann zufällig eine Sammlung von Objekten innerhalb des Quadrats ablegen, entspricht der Anteil der Objekte, die im Kreis landen, ungefähr π / 4. Eine Computersimulation, die eine solche Prozedur simuliert, würde als MC-Simulation zur Berechnung von π bezeichnet.

Viele Wissenschaftsphilosophen sind hier von der gewöhnlichen wissenschaftlichen Sprache abgewichen und haben sich gescheut, MC-Simulationen als echte Simulationen zu betrachten. Grüne-Yanoff und Weirich (2010) führen folgende Argumentation an: „Der Monte-Carlo-Ansatz hat keinen mimetischen Zweck: Er ahmt das deterministische System nicht nach, um als Ersatz zu dienen, der an seiner Stelle untersucht wird, sondern nur, um anzubieten eine alternative Berechnung der Eigenschaften des deterministischen Systems “(S. 30). Dies zeigt, dass MC-Simulationen nicht passend zu einer der obigen Definitionen passen. Andererseits kann die Kluft zwischen Philosophen und gewöhnlicher Sprache vielleicht dadurch ausgeglichen werden, dass festgestellt wird, dass MC-Simulationen einen imaginären Prozess simulieren, der zur Berechnung von etwas verwendet werden kann, das für das Studium eines anderen Prozesses relevant ist. Angenommen, ich modelliere eine Planetenbahn und für meine Berechnung muss ich den Wert von π kennen. Wenn ich die im letzten Absatz erwähnte MC-Simulation durchführe, simuliere ich den Prozess des zufälligen Ablegens von Objekten in ein Quadrat, aber was ich modelliere, ist eine Planetenbahn. In diesem Sinne sind MC-Simulationen Simulationen, aber keine Simulationen der Systeme, mit denen sie untersucht werden. Wie Beisbart und Norton (2012) hervorheben, handelt es sich bei einigen MC-Simulationen (dh solchen, die MC-Techniken verwenden, um stochastische dynamische Gleichungen zu lösen, die sich auf ein physikalisches System beziehen) tatsächlich um Simulationen der Systeme, die sie untersuchen. In diesem Sinne sind MC-Simulationen Simulationen, aber keine Simulationen der Systeme, mit denen sie untersucht werden. Wie Beisbart und Norton (2012) hervorheben, handelt es sich bei einigen MC-Simulationen (dh solchen, die MC-Techniken verwenden, um stochastische dynamische Gleichungen zu lösen, die sich auf ein physikalisches System beziehen) tatsächlich um Simulationen der Systeme, die sie untersuchen. In diesem Sinne sind MC-Simulationen Simulationen, aber keine Simulationen der Systeme, mit denen sie untersucht werden. Wie Beisbart und Norton (2012) hervorheben, handelt es sich bei einigen MC-Simulationen (dh solchen, die MC-Techniken verwenden, um stochastische dynamische Gleichungen zu lösen, die sich auf ein physikalisches System beziehen) tatsächlich um Simulationen der Systeme, die sie untersuchen.

3. Zwecke der Simulation

Es gibt drei allgemeine Kategorien von Zwecken, für die Computersimulationen verwendet werden können. Simulationen können für heuristische Zwecke verwendet werden, um Daten vorherzusagen, die wir nicht haben, und um ein Verständnis für Daten zu generieren, die wir bereits haben.

Unter der Kategorie der heuristischen Modelle können Simulationen weiter unterteilt werden in solche, die verwendet werden, um Wissen an andere weiterzugeben, und solche, die verwendet werden, um Informationen für uns selbst darzustellen. Wenn Watson und Crick mit Weißblech und Draht spielten, machten sie zuerst Letzteres und Ersteres, als sie anderen die Ergebnisse zeigten. Als das Armeekorps das Modell der Bucht von San Francisco baute, um die stimmberechtigte Bevölkerung davon zu überzeugen, dass eine bestimmte Intervention gefährlich war, verwendeten sie es für diese Art von heuristischem Zweck. Computersimulationen können für beide Arten von Zwecken verwendet werden, um Merkmale möglicher Repräsentationsstrukturen zu untersuchen; oder um Wissen an andere weiterzugeben. Zum Beispiel: Computersimulationen natürlicher Prozesse wie Bakterienreproduktion, tektonische Verschiebung, chemische Reaktionen,und Evolution wurden alle im Klassenzimmer eingesetzt, um den Schülern zu helfen, verborgene Strukturen in Phänomenen und Prozessen zu visualisieren, die in einer „nassen“Laborumgebung unpraktisch, unmöglich oder kostspielig zu veranschaulichen sind.

Eine weitere breite Klasse von Zwecken, für die Computersimulationen verwendet werden können, besteht darin, uns zu erklären, wie wir erwarten sollten, dass sich ein System in der realen Welt unter bestimmten Umständen verhält. Grob gesagt: Computersimulation kann zur Vorhersage verwendet werden. Wir können Modelle verwenden, um die Zukunft vorherzusagen oder die Vergangenheit nachzubilden. Wir können sie verwenden, um präzise Vorhersagen zu treffen oder um lose und allgemeine Vorhersagen zu treffen. In Bezug auf die relative Genauigkeit der Vorhersagen, die wir mit Simulationen treffen, können wir in unserer Taxonomie etwas feinkörniger sein. Es gibt a) Punktvorhersagen: Wo wird der Planet Mars am 21. Oktober 2300 sein? b) "Qualitative" oder globale oder systemische Vorhersagen:Ist die Umlaufbahn dieses Planeten stabil? Welches Skalierungsgesetz tritt bei solchen Systemen auf? Was ist die fraktale Dimension des Attraktors für Systeme dieser Art? und c) Reichweitenvorhersagen: Es ist 66% wahrscheinlich, dass die globale mittlere Oberflächentemperatur bis zum Jahr 2100 um 2–5 ° C ansteigt; Es ist „sehr wahrscheinlich“, dass der Meeresspiegel um mindestens zwei Fuß ansteigt. Es ist „unplausibel“, dass die Thermohaline in den nächsten 50 Jahren abgeschaltet wird.

Schließlich können Simulationen verwendet werden, um Systeme und ihr Verhalten zu verstehen. Wenn wir bereits Daten haben, die uns sagen, wie sich ein System verhält, können wir mithilfe der Computersimulation Fragen beantworten, wie diese Ereignisse möglicherweise aufgetreten sein könnten. oder darüber, wie diese Ereignisse tatsächlich aufgetreten sind.

Wenn wir über das Thema des nächsten Abschnitts, die Erkenntnistheorie von Computersimulationen, nachdenken, sollten wir auch berücksichtigen, dass die Verfahren, die zur Sanktionierung der Ergebnisse von Simulationen erforderlich sind, häufig zu einem großen Teil von dem oben genannten Zweck oder den oben genannten Zwecken abhängen Die Simulation wird durchgeführt.

4. Die Erkenntnistheorie von Computersimulationen

Da Computersimulationsmethoden in immer mehr Disziplinen an Bedeutung gewonnen haben, ist das Problem ihrer Vertrauenswürdigkeit bei der Generierung neuen Wissens gewachsen, insbesondere wenn Simulationen mit Experimenten und traditionellen analytisch-theoretischen Methoden als epistemische Peers gelten sollen. Die relevante Frage ist immer, ob die Ergebnisse einer bestimmten Computersimulation für den beabsichtigten Zweck genau genug sind oder nicht. Wenn eine Simulation zur Vorhersage des Wetters verwendet wird, sagt sie die Variablen, an denen wir interessiert sind, mit einer Genauigkeit voraus, die ausreicht, um die Bedürfnisse ihrer Verbraucher zu erfüllen? Wenn eine Simulation der Atmosphäre über einer Ebene des Mittleren Westens verwendet wird, um die Struktur eines schweren Gewitters zu verstehen,Haben wir das Vertrauen, dass die Strukturen im Fluss - diejenigen, die eine erklärende Rolle in unserem Bericht darüber spielen, warum sich der Sturm manchmal in zwei Teile teilt oder warum er manchmal Tornados bildet - genau genug dargestellt werden, um unser Vertrauen in die Erklärung zu stützen ? Wenn eine Simulation in Engineering und Design verwendet wird, sind die von der Simulation gemachten Vorhersagen zuverlässig genug, um eine bestimmte Auswahl von Designparametern zu sanktionieren oder um unsere Überzeugung zu sanktionieren, dass ein bestimmtes Design des Flugzeugflügels funktionieren wird? Unter der Annahme, dass die Antwort auf diese Fragen manchmal „Ja“lautet, dh dass diese Art von Schlussfolgerungen zumindest manchmal gerechtfertigt sind, lautet die zentrale philosophische Frage: Was rechtfertigt sie? Allgemeiner,Wie kann die Behauptung bewertet werden, dass eine Simulation für den beabsichtigten Zweck gut genug ist? Dies sind die zentralen Fragen der Erkenntnistheorie der Computersimulation (EOCS).

Angesichts der Tatsache, dass die Bestätigungstheorie eines der traditionellen Themen in der Wissenschaftsphilosophie ist, könnte es offensichtlich erscheinen, dass letztere über die Ressourcen verfügt, um sich diesen Fragen zu nähern. Winsberg (1999) argumentierte jedoch, dass sich die Wissenschaftsphilosophie bei Themen im Zusammenhang mit der Beglaubigung von Wissensansprüchen traditionell mit der Rechtfertigung von Theorien befasst, nicht mit ihrer Anwendung. Die meisten Simulationen hingegen tendieren dazu, in dem Maße, in dem sie die Theorie verwenden, dazu, die gut etablierte Theorie zu verwenden. Mit anderen Worten, bei EOCS geht es selten darum, die grundlegenden Theorien zu testen, die in die Simulation einfließen können, und meistens darum, die Glaubwürdigkeit der Hypothesen festzustellen, die teilweise das Ergebnis der Anwendung dieser Theorien sind.

4.1 Neue Funktionen von EOCS

Winsberg (2001) argumentierte, dass ein adäquates EOCS im Gegensatz zu den erkenntnistheoretischen Fragen, die in der traditionellen Bestätigungstheorie im Mittelpunkt stehen, drei Bedingungen erfüllen muss. Insbesondere muss berücksichtigt werden, dass das durch Computersimulationen erzeugte Wissen das Ergebnis von Schlussfolgerungen ist, die nach unten, bunt und autonom sind.

Abwärts. EOCS muss die Tatsache widerspiegeln, dass in einer Vielzahl von Fällen anerkannte wissenschaftliche Theorien der Ausgangspunkt für die Konstruktion von Computersimulationsmodellen sind und eine wichtige Rolle bei der Rechtfertigung von Schlussfolgerungen aus Simulationsergebnissen zu Schlussfolgerungen über reale Zielsysteme spielen. Das Wort „abwärts“sollte die Tatsache signalisieren, dass wir im Gegensatz zu den meisten wissenschaftlichen Schlussfolgerungen, die traditionell interessierte Philosophen haben, die von Beobachtungsinstanzen zu Theorien aufsteigen, hier Schlussfolgerungen haben, die (teilweise) von der Hochtheorie bis zu bestimmten gezogen werden Merkmale von Phänomenen.

Bunt. EOCS muss berücksichtigen, dass Simulationsergebnisse in der Regel nicht nur von der Theorie, sondern auch von vielen anderen Modellbestandteilen und -ressourcen abhängen, einschließlich Parametrisierungen (siehe oben), numerischen Lösungsmethoden, mathematischen Tricks, Approximationen und Idealisierungen, direkten Fiktionen und Ad-hoc-Annahmen, Funktionsbibliotheken, Compiler und Computerhardware und vielleicht am wichtigsten das Blut, der Schweiß und die Tränen vieler Versuche und Irrtümer.

Autonom. EOCS muss die Autonomie des durch Simulation erzeugten Wissens in dem Sinne berücksichtigen, dass das durch Simulation erzeugte Wissen nicht vollständig durch Vergleich mit Beobachtung sanktioniert werden kann. Simulationen werden normalerweise verwendet, um Phänomene zu untersuchen, bei denen nur wenige Daten vorliegen. Unter diesen Umständen sollen Simulationen Experimente und Beobachtungen als Datenquellen über die Welt ersetzen, da die relevanten Experimente oder Beobachtungen aus prinzipiellen, praktischen oder ethischen Gründen unerreichbar sind.

Parker (2013) hat darauf hingewiesen, dass die Nützlichkeit dieser Bedingungen durch die Tatsache etwas beeinträchtigt wird, dass sie sich zu stark auf Simulationen in den Naturwissenschaften und anderen Disziplinen konzentrieren, in denen die Simulation theoretisch und gleichungsbasiert ist. Das scheint richtig zu sein. In den Sozial- und Verhaltenswissenschaften sowie in anderen Disziplinen, in denen agentenbasierte Simulationen (siehe 2.2) eher die Norm sind und in denen Modelle ohne etablierte und quantitative Theorien erstellt werden, sollte EOCS wahrscheinlich anders charakterisiert werden.

Zum Beispiel verfolgen einige Sozialwissenschaftler, die eine agentenbasierte Simulation verwenden, eine Methode, bei der soziale Phänomene (zum Beispiel ein beobachtetes Muster wie Segregation) erklärt oder erklärt werden, indem in ihren Simulationen ähnlich aussehende Phänomene erzeugt werden (Epstein und Axtell 1996; Epstein 1999). Dies wirft jedoch seine eigenen erkenntnistheoretischen Fragen auf. Was genau wurde erreicht, welche Art von Wissen wurde erworben, wenn ein beobachtetes soziales Phänomen durch eine agentenbasierte Simulation mehr oder weniger reproduziert wird? Zählt dies als Erklärung für das Phänomen? Eine mögliche Erklärung? (siehe zB Grüne-Yanoff 2007). Giuseppe Primiero (2019) argumentiert, dass es eine ganze Domäne von „künstlichen Wissenschaften“gibt, die sich auf agentenbasierte und multiagentensystembasierte Simulationen stützen.und dass es eine eigene Erkenntnistheorie erfordert - eine, bei der die Validierung nicht durch Vergleich mit einem bestehenden realen System definiert werden kann, sondern gegenüber einem beabsichtigten System definiert werden muss.

Es ist auch fair zu sagen, wie Parker (2013), dass die oben beschriebenen Bedingungen den verschiedenen und unterschiedlichen Zwecken, für die Simulationen verwendet werden, nicht genügend Beachtung schenken (wie in 2.4 erläutert). Wenn wir eine Simulation verwenden, um detaillierte quantitative Vorhersagen über das zukünftige Verhalten eines Zielsystems zu treffen, erfordert die Erkenntnistheorie solcher Schlussfolgerungen möglicherweise strengere Standards als diejenigen, die beteiligt sind, wenn es sich bei den Schlussfolgerungen um das allgemeine qualitative Verhalten eines Ganzen handelt Klasse von Systemen. In der Tat kann man auch sagen, dass viel mehr Arbeit geleistet werden könnte, um die Art der Zwecke zu klassifizieren, für die Computersimulationen verwendet werden, und die Einschränkungen, die diese Zwecke der Struktur ihrer Erkenntnistheorie auferlegen.

Frigg und Reiss (2009) argumentierten, dass keine dieser drei Bedingungen für die Computersimulation neu ist. Sie argumentierten, dass gewöhnliche "Papier- und Bleistift" -Modelle diese Merkmale beinhalten. In der Tat argumentierten sie, dass Computersimulationen möglicherweise keine neuen erkenntnistheoretischen Probleme aufwerfen könnten, da die erkenntnistheoretischen Probleme sauber in die Frage der Angemessenheit des der Simulation zugrunde liegenden Modells unterteilt werden könnten, das mit den erkenntnistheoretischen Problemen identisch ist, die normalerweise auftreten Modellierung und die Frage nach der Richtigkeit der Lösung der von der Simulation gelieferten Modellgleichungen. Dies ist eine mathematische Frage, die sich nicht auf die Erkenntnistheorie der Wissenschaft bezieht. Zum ersten Punkt antwortete Winsberg (2009b), dass es der gleichzeitige Zusammenfluss aller drei Merkmale sei, der für die Simulation neu sei. Wir werden auf den zweiten Punkt in Abschnitt 4.3 zurückkommen

4.2 EOCS und Erkenntnistheorie des Experiments

Einige der Arbeiten am EOCS haben Analogien zwischen Computersimulationen entwickelt, um auf neuere Arbeiten in der Erkenntnistheorie des Experiments zurückzugreifen, insbesondere auf die Arbeiten von Allan Franklin; siehe den Eintrag zu Experimenten in der Physik.

Franklin (1986, 1989) identifizierte in seiner Arbeit zur Erkenntnistheorie des Experiments eine Reihe von Strategien, mit denen Experimentatoren das rationale Vertrauen in ihre Ergebnisse erhöhen. Weissart (1997) und Parker (2008a) plädierten für verschiedene Formen der Analogie zwischen diesen Strategien und einer Reihe von Strategien, die Simulationisten zur Verfügung stehen, um ihre Ergebnisse zu sanktionieren. Die detaillierteste Analyse dieser Beziehungen findet sich in Parker 2008a, wo sie diese Analogien auch verwendet, um Schwachstellen in aktuellen Ansätzen zur Bewertung von Simulationsmodellen hervorzuheben.

Winsberg (2003) verwendet auch Ian Hackings (1983, 1988, 1992) Arbeit zur Experimentierphilosophie. Eine der zentralen Erkenntnisse von Hacking über Experimente ist in seinem Slogan festgehalten, dass Experimente ein Eigenleben haben “(1992: 306). Hacking sollte mit diesem Slogan zwei Dinge vermitteln. Das erste war eine Reaktion gegen das instabile Bild der Wissenschaft, das zum Beispiel von Kuhn stammt. Hacking (1992) legt nahe, dass experimentelle Ergebnisse trotz dramatischer Veränderungen in den anderen Teilen der Wissenschaften stabil bleiben können. Der zweite verwandte Punkt, den er vermitteln wollte, war, dass "Experimente organisch sind, sich entwickeln, verändern und dennoch eine gewisse langfristige Entwicklung beibehalten, die uns über das Wiederholen und Replizieren von Experimenten sprechen lässt" (1992: 307). Einige der Techniken, mit denen Simulationisten ihre Modelle erstellen, werden auf die gleiche Weise zertifiziert, wie es Hacking sagt, dass Instrumente und experimentelle Verfahren und Methoden dies tun. Die Referenzen entwickeln sich über einen längeren Zeitraum und sind tief traditionsgebunden. In Hackings Sprache werden die Techniken und Annahmen, die Simulationisten verwenden, "selbstbestätigend". Vielleicht wäre ein besserer Ausdruck, dass sie ihre eigenen Anmeldeinformationen tragen. Dies liefert eine Antwort auf das in 4.1 aufgeworfene Problem, zu verstehen, wie Simulation trotz der bunten und autonomen Natur ihrer Schlussfolgerungen eine tragfähige Erkenntnistheorie haben könnte. Die Techniken und Annahmen, die Simulationisten verwenden, werden selbstbestätigend. Vielleicht wäre ein besserer Ausdruck, dass sie ihre eigenen Anmeldeinformationen tragen. Dies liefert eine Antwort auf das in 4.1 aufgeworfene Problem, zu verstehen, wie Simulation trotz der bunten und autonomen Natur ihrer Schlussfolgerungen eine tragfähige Erkenntnistheorie haben könnte. Die Techniken und Annahmen, die Simulationisten verwenden, werden selbstbestätigend. Vielleicht wäre ein besserer Ausdruck, dass sie ihre eigenen Anmeldeinformationen tragen. Dies liefert eine Antwort auf das in 4.1 aufgeworfene Problem, zu verstehen, wie Simulation trotz der bunten und autonomen Natur ihrer Schlussfolgerungen eine tragfähige Erkenntnistheorie haben könnte.

Parker (2008b) lässt sich von einem anderen Experimentphilosophen (Mayo 1996) inspirieren und schlägt vor, einige der Mängel der aktuellen Ansätze zur Bewertung von Simulationsmodellen zu beheben. In dieser Arbeit schlägt Parker vor, dass Mayos fehlerstatistischer Ansatz zum Verständnis des traditionellen Experiments, bei dem der Begriff eines „schweren Tests“verwendet wird, Licht in die Erkenntnistheorie der Simulation bringen könnte. Die zentrale Frage der Erkenntnistheorie der Simulation aus einer fehlerstatistischen Perspektive lautet: „Was rechtfertigt es, dass wir eine Computersimulation als strengen Test für eine Hypothese über die natürliche Welt ansehen? Das heißt, was unsere Schlussfolgerung rechtfertigt, dass die Simulation wahrscheinlich nicht die Ergebnisse liefert, die sie tatsächlich liefert, wenn die Hypothese von Interesse falsch wäre (2008b,380)? Parker glaubt, dass zu viel von dem, was für die Bewertung von Simulationsmodellen gilt, nicht genau genug ist, weil es:

besteht aus kaum mehr als nebeneinander liegenden Vergleichen von Simulationsergebnissen und Beobachtungsdaten, wobei wenig oder keine explizite Argumentation darüber vorliegt, was diese Vergleiche, wenn überhaupt, über die Fähigkeit des Modells aussagen, Beweise für bestimmte wissenschaftliche Hypothesen von Interesse zu liefern. (2008b, 381)

Sie stützt sich explizit auf Mayos (1996) Arbeit und argumentiert, dass die Erkenntnistheorie der Simulation stattdessen eine Darstellung der auftretenden „kanonischen Fehler“sowie Strategien zur Prüfung ihrer Anwesenheit bieten sollte.

4.3 Überprüfung und Validierung

Praktiker der Simulation, insbesondere in technischen Kontexten, bei Waffentests und in der Klimawissenschaft, neigen dazu, das EOCS im Hinblick auf Verifizierung und Validierung zu konzipieren. Bei der Überprüfung wird festgestellt, ob die Ausgabe der Simulation den tatsächlichen Lösungen der Differentialgleichungen des ursprünglichen Modells nahekommt. Bei der Validierung wird dagegen festgestellt, ob das ausgewählte Modell für die Simulation eine ausreichend gute Darstellung des realen Systems darstellt. Die Literatur über Verifikation und Validierung von Ingenieuren und Wissenschaftlern ist riesig und wird von Philosophen zunehmend beachtet.

Die Überprüfung kann in Lösungsüberprüfung und Codeüberprüfung unterteilt werden. Ersteres bestätigt, dass die Ausgabe des beabsichtigten Algorithmus den wahren Lösungen der Differentialgleichungen des ursprünglichen Modells nahekommt. Letzteres überprüft, ob der geschriebene Code den beabsichtigten Algorithmus ausführt. Die Überprüfung des Codes wurde von Wissenschaftsphilosophen größtenteils ignoriert. wahrscheinlich, weil es in der Informatik eher als Problem als als als empirische Wissenschaft angesehen wurde - vielleicht als Fehler. Ein Teil der Lösungsüberprüfung besteht darin, die berechnete Ausgabe mit analytischen Lösungen (sogenannten „Benchmark-Lösungen“) zu vergleichen. Obwohl diese Methode natürlich dazu beitragen kann, die Ergebnisse einer Computersimulation zu belegen, ist sie an sich unzureichend.da Simulationen häufig genau deshalb verwendet werden, weil für interessierende Bereiche des Lösungsraums keine analytische Lösung verfügbar ist. Andere indirekte Techniken sind verfügbar: Die wichtigste davon ist wahrscheinlich die Überprüfung, ob und mit welcher Geschwindigkeit die berechnete Ausgabe zu einer stabilen Lösung konvergiert, wenn die zeitliche und räumliche Auflösung des Diskretisierungsgitters feiner wird.

Die Hauptstrategie der Validierung besteht darin, die Modellausgabe mit beobachtbaren Daten zu vergleichen. Auch hier ist diese Strategie natürlich in den meisten Fällen begrenzt, in denen Simulationen ausgeführt werden, da beobachtbare Daten spärlich sind. Es können jedoch komplexe Strategien angewendet werden, einschließlich des Vergleichs der Ausgabe von Subsystemen einer Simulation mit relevanten Experimenten (Parker, 2013; Oberkampf und Roy 2010).

Die Konzepte der Verifikation und Validierung wurden von Philosophen kritisiert. Oreskes et al. 1994, ein sehr häufig zitierter Artikel, kritisierte die Terminologie größtenteils und argumentierte, dass insbesondere „Gültigkeit“eine Eigenschaft ist, die nur für logische Argumente gilt und dass der Begriff daher, wenn er auf Modelle angewendet wird, zu Überbewusstsein führen könnte.

Winsberg (2010, 2018, S.155) hat argumentiert, dass die konzeptionelle Trennung zwischen Verifikation und Validierung irreführend sein kann, wenn man davon ausgeht, dass es eine Reihe von Methoden gibt, die allein zeigen können, dass wir die Gleichungen gelöst haben richtig, und dass es eine andere Reihe von Methoden gibt, die an sich zeigen können, dass wir die richtigen Gleichungen haben. Er argumentierte auch, dass es irreführend sei zu glauben, dass die Erkenntnistheorie der Simulation sauber in einen empirischen Teil (Verifikation) und einen mathematischen Teil (und Informatik) (Validierung) unterteilt sei. Diese irreführende Idee folgt jedoch häufig der Diskussion über Verifikation und Validierung. Wir finden dies sowohl in der Arbeit von Praktikern als auch von Philosophen.

Hier ist die Standardzeile eines Praktikers, Roy: „Die Überprüfung befasst sich mit Mathematik und befasst sich mit der Richtigkeit der numerischen Lösung für ein bestimmtes Modell. Die Validierung befasst sich dagegen mit der Physik und befasst sich mit der Eignung des Modells für die Reproduktion experimenteller Daten. Bei der Verifizierung kann davon ausgegangen werden, dass die ausgewählten Gleichungen korrekt gelöst werden, während bei der Validierung zunächst die richtigen Gleichungen ausgewählt werden “(Roy 2005).

Einige Philosophen haben diese Unterscheidung in Argumenten über die philosophische Neuheit der Simulation umgesetzt. Wir haben dieses Problem zuerst in Abschnitt 4.1 angesprochen, in dem Frigg und Reiss argumentierten, dass die Simulation keine erkenntnistheoretisch neuen Merkmale aufweisen könne, da sie zwei unterschiedliche Komponenten enthielt: eine Komponente, die mit der Erkenntnistheorie der gewöhnlichen Modellierung identisch ist, und eine Komponente, die vollständig mathematisch ist. „Wir sollten hier zwei verschiedene Vorstellungen von Zuverlässigkeit unterscheiden und zwei verschiedene Fragen beantworten. Erstens: Sind die Lösungen, die der Computer bietet, nahe genug an den tatsächlichen (aber nicht verfügbaren) Lösungen, um nützlich zu sein?… Dies ist eine rein mathematische Frage und fällt in die Klasse der Probleme, die wir gerade erwähnt haben. Aus philosophischer Sicht gibt es hier also nichts Neues, und es geht in der Tat um die Frage der Zahlenkalkulation. Zweite,Stellen die Rechenmodelle, die den Simulationen zugrunde liegen, das Zielsystem korrekt dar? Das heißt, sind die Simulationsergebnisse extern gültig? Dies ist eine ernste Frage, die jedoch vom ersten Problem unabhängig ist und gleichermaßen im Zusammenhang mit Modellen auftritt, die keine unlösbare Mathematik und gewöhnliche Experimente beinhalten “(Frigg und Reiss 2009).

Verifizierung und Validierung sind jedoch streng genommen nicht so sauber trennbar. Dies liegt daran, dass die meisten Validierungsmethoden für sich genommen viel zu schwach sind, um die Gültigkeit einer Simulation festzustellen. Und die meisten für die Simulation ausgewählten Modellgleichungen sind in keinem einfachen Sinne „die richtigen Gleichungen“; Sie sind nicht die Modellgleichungen, die wir in einer idealen Welt wählen würden. Wir haben guten Grund zu der Annahme, dass es Modellgleichungen gibt, die abstrakt eine bessere empirische Unterstützung genießen. Die Gleichungen, die wir wählen, spiegeln häufig einen Kompromiss zwischen dem wider, was unserer Meinung nach die Phänomene am besten beschreibt, und der rechnerischen Traktierbarkeit. Daher werden die gewählten Gleichungen für sich genommen selten gut „validiert“. Wenn wir verstehen wollen, warum Simulationsergebnisse als glaubwürdig angesehen werden,Wir müssen die Erkenntnistheorie der Simulation als ein integriertes Ganzes betrachten, das nicht so sauber in Verifikation und Validierung unterteilt ist - jede für sich würde für die Aufgabe unangemessen erscheinen.

Ein Punkt ist also, dass Verifikation und Validierung keine unabhängig erfolgreichen und trennbaren Aktivitäten sind. Der andere Punkt ist jedoch, dass es nicht zwei unabhängige Einheiten gibt, auf die diese Aktivitäten gerichtet werden können: ein Modell, das zur Diskretisierung ausgewählt wurde, und eine Methode zur Diskretisierung. Sobald man erkennt, dass die zu „lösenden“Gleichungen manchmal so gewählt werden, dass Diskretisierungsfehler usw. ausgeglichen werden (Lenhard 2007 hat ein sehr schönes Beispiel dafür, an dem der Arakawa-Operator beteiligt ist), wird es später schwieriger, diese Unterscheidung beizubehalten. So wird Erfolg in der Simulation mit einer Art hin und her, Versuch und Irrtum, stückweise Anpassung zwischen Modell und Berechnungsmethode erzielt. Und wenn dies der Fall ist, ist es schwer zu wissen, was es bedeutet zu sagen, dass eine Simulation separat verifiziert und validiert wird.

Niemand hat argumentiert, dass V & V keine nützliche Unterscheidung ist, sondern dass Wissenschaftler eine pragmatisch nützliche Unterscheidung nicht in ein sauberes methodisches Diktat überfüllen sollten, das die Unordnung ihrer eigenen Praxis falsch darstellt. Aus diesem Grund scheitert das Argument von Frigg und Reiss für das Fehlen einer erkenntnistheoretischen Neuheit in der Simulation. Es ist keine „rein mathematische Frage“, ob die vom Computer bereitgestellten Lösungen nahe genug an den tatsächlichen (aber nicht verfügbaren) Lösungen liegen, um nützlich zu sein. Zumindest nicht in dieser Hinsicht: Es ist keine Frage, die pragmatisch mit mathematischen Methoden beantwortet werden kann. Und daher ist es ein empirisches / erkenntnistheoretisches Problem, das bei der gewöhnlichen Modellierung nicht auftritt.

4.4 EOCS und epistemischer Anspruch

Ein Hauptstrang der gewöhnlichen Erkenntnistheorie (außerhalb der Wissenschaftsphilosophie) besteht darin, zu betonen, inwieweit dies eine Voraussetzung für die Möglichkeit des Wissens ist, dass wir uns auf unsere Sinne und das Zeugnis anderer Menschen auf eine Weise verlassen, die wir selbst nicht rechtfertigen können. Nach Tyler Burge (1993, 1998) ist der Glaube an die Ergebnisse dieser beiden Prozesse gerechtfertigt, aber nicht gerechtfertigt. Burge zufolge haben wir vielmehr Anspruch auf diese Überzeugungen. "[W] wir sind berechtigt, uns bei gleichem Maß auf Wahrnehmung, Gedächtnis, deduktives und induktives Denken und auf … das Wort anderer zu verlassen" (1993, S. 458). Überzeugungen, auf die ein Gläubiger Anspruch hat, sind solche, die nicht durch Beweise gestützt werden, die dem Gläubigen zur Verfügung stehen, denen der Gläubige jedoch im Glauben berechtigt ist.

Einige Arbeiten in EOCS haben Analogien zwischen Computersimulation und den Arten von Praktiken zur Wissenserzeugung entwickelt, die Burge mit Berechtigungen verbindet. (Siehe insbesondere Barberousse und Vorms, 2014, und Beisbart, 2017.) Dies ist in gewisser Weise ein natürliches Ergebnis von Burges Argumenten, dass wir computergestützte Beweise auf diese Weise betrachten (1998). Computersimulationen sind äußerst komplex, oft das Ergebnis der epistemischen Arbeit einer Vielzahl von Wissenschaftlern und anderen Experten, und vielleicht am wichtigsten, epistemisch undurchsichtig (Humphreys, 2004). Aufgrund dieser Merkmale argumentiert Beisbart, dass es vernünftig ist, Computersimulationen so zu behandeln, wie wir unsere Sinne und das Zeugnis anderer behandeln: einfach als Dinge, denen man vertrauen kann, wenn man davon ausgeht, dass alles reibungslos funktioniert. (Beisbart, 2017).

Symons und Alvarado (2019) argumentieren, dass es bei diesem Ansatz für EOCS ein grundlegendes Problem gibt, das mit einem Merkmal computergestützter Beweise zu tun hat, das für Burges ursprünglichen Bericht von entscheidender Bedeutung war: dem eines „transparenten Förderers“. „Es ist zum Beispiel sehr wichtig anzumerken, dass Burges Bericht über die Aufbewahrung von Inhalten und die transparente Übermittlung erfordert, dass der Empfänger bereits Grund hat, nicht an der Quelle zu zweifeln“(S. 13). Symons und Alvarado weisen jedoch auf viele Eigenschaften von Computersimulationen hin (Zeichnung aus Winsberg 2010 und Ruphy 2015), aufgrund derer sie diese Eigenschaften nicht besitzen. Auch hier sind Lenhard und Küster 2019 relevant,Sie argumentieren, dass es viele Merkmale der Computersimulation gibt, die ihre Reproduktion erschweren und daher einen Teil der Stabilität untergraben, die erforderlich wäre, damit sie transparente Förderer sind. Aus diesen und anderen Gründen, die mit vielen der in 4.2 und 4.3 diskutierten Merkmale zu tun haben, argumentieren Symons und Alvarado, dass es unplausibel ist, Computersimulation als eine grundlegende epistemische Praxis zu betrachten, die der Sinneswahrnehmung, dem Gedächtnis, dem Zeugnis oder der Gleichheit entspricht dergleichen.

4.5 Pragmatische Ansätze für EOCS

Ein weiterer Ansatz für EOCS besteht darin, es auf die praktischen Aspekte des Modellierungs- und Simulationshandwerks zu gründen. Mit anderen Worten, der beste Bericht, den wir über die Gründe für die Annahme der Ergebnisse von Computersimulationsstudien geben können, besteht darin, auf die praktischen Fähigkeiten und das Handwerk der Modellierer zu vertrauen, die sie verwenden. Ein gutes Beispiel für diese Art von Konto ist (Hubig und Kaminski, 2017). Das erkenntnistheoretische Ziel dieser Art von Arbeit ist es, den Ort unseres Vertrauens in Simulationen in praktischen Aspekten des Modellierungs- und Simulationshandwerks und nicht in irgendwelchen Merkmalen der Modelle selbst zu identifizieren. (Resch et al., 2017) argumentieren, dass ein großer Teil des Grundes, warum wir Simulationen vertrauen sollten, nicht auf die Simulationen selbst zurückzuführen ist.aber wegen der interpretativen Kunstfertigkeit derer, die ihre Kunst und ihr Können einsetzen, um Simulationsergebnisse zu interpretieren. Symons und Alvarado (2019) kritisieren diesen Ansatz ebenfalls und argumentieren, dass „ein Teil der Aufgabe der Erkenntnistheorie der Computersimulation darin besteht, den Unterschied zwischen der Position des zeitgenössischen Wissenschaftlers in Bezug auf erkenntnistheoretisch undurchsichtige Computersimulationen zu erklären.“(S.7) und die Gläubigen an die Beziehung eines mechanischen Orakels zu ihren Orakeln. Laut Symons und Alvarado existieren pragmatische und epistemische Überlegungen nebeneinander, und sie sind keine möglichen Konkurrenten für die korrekte Erklärung unseres Vertrauens in Simulationen - die epistemischen Gründe sind die ultimativen, die die pragmatischen erklären und begründen.argumentieren, dass "ein Teil der Aufgabe der Erkenntnistheorie der Computersimulation darin besteht, den Unterschied zwischen der Position des zeitgenössischen Wissenschaftlers in Bezug auf erkenntnistheoretisch undurchsichtige Computersimulationen zu erklären." (S.7) und den Gläubigen in der Beziehung eines mechanischen Orakels zu ihren Orakeln. Laut Symons und Alvarado existieren pragmatische und epistemische Überlegungen nebeneinander, und sie sind keine möglichen Konkurrenten für die korrekte Erklärung unseres Vertrauens in Simulationen - die epistemischen Gründe sind die ultimativen, die die pragmatischen erklären und begründen.argumentieren, dass "ein Teil der Aufgabe der Erkenntnistheorie der Computersimulation darin besteht, den Unterschied zwischen der Position des zeitgenössischen Wissenschaftlers in Bezug auf erkenntnistheoretisch undurchsichtige Computersimulationen zu erklären." (S.7) und den Gläubigen in der Beziehung eines mechanischen Orakels zu ihren Orakeln. Laut Symons und Alvarado existieren pragmatische und epistemische Überlegungen nebeneinander, und sie sind keine möglichen Konkurrenten für die korrekte Erklärung unseres Vertrauens in Simulationen - die epistemischen Gründe sind die ultimativen, die die pragmatischen erklären und begründen.und sie sind keine möglichen Konkurrenten für die korrekte Erklärung unseres Vertrauens in Simulationen - die epistemischen Gründe sind letztendlich das, was die pragmatischen erklärt und begründet.und sie sind keine möglichen Konkurrenten für die korrekte Erklärung unseres Vertrauens in Simulationen - die epistemischen Gründe sind letztendlich das, was die pragmatischen erklärt und begründet.

5. Simulation und Experiment

Arbeitende Wissenschaftler beschreiben Simulationsstudien manchmal experimentell. Die Verbindung zwischen Simulation und Experiment geht wahrscheinlich auf von Neumann zurück, der, als er sich sehr früh für den Einsatz von Computern in der Physik einsetzte, feststellte, dass viele schwierige Experimente nur durchgeführt werden mussten, um Tatsachen zu bestimmen, die im Prinzip zutreffen sollten aus der Theorie ableitbar sein. Als von Neumanns Vision Wirklichkeit wurde und einige dieser Experimente durch Simulationen ersetzt wurden, wurde es etwas natürlich, sie als Versionen des Experiments zu betrachten. Eine repräsentative Passage findet sich in einem populären Buch über Simulation:

Eine Simulation, die ein komplexes Phänomen genau nachahmt, enthält eine Fülle von Informationen über dieses Phänomen. Variablen wie Temperatur, Druck, Luftfeuchtigkeit und Windgeschwindigkeit werden vom Supercomputer an Tausenden von Punkten ausgewertet, da er beispielsweise die Entwicklung eines Sturms simuliert. Solche Daten, die weit über alles hinausgehen, was durch den Start einer Flotte von Wetterballons gewonnen werden könnte, enthüllen genaue Details darüber, was in der Sturmwolke vor sich geht. (Kaufmann und Smarr 1993, 4)

Die Idee von „in silico“-Experimenten wird noch plausibler, wenn in einer Simulationsstudie untersucht werden soll, was mit einem System als Ergebnis verschiedener möglicher Eingriffe geschieht: Was würde mit dem globalen Klima passieren, wenn der Atmosphäre x Kohlenstoffmenge zugesetzt würde ? Was passiert mit diesem Flugzeugflügel, wenn er so oder so belastet wird? Wie würden sich die Verkehrsmuster ändern, wenn an dieser Stelle eine Auffahrt hinzugefügt würde?

Infolgedessen haben Philosophen begonnen zu überlegen, in welchem Sinne Computersimulationen, wenn überhaupt, wie Experimente sind und in welchem Sinne sie sich unterscheiden. Ein verwandtes Thema ist die Frage, wann ein Prozess, der im Wesentlichen Computersimulation beinhaltet, als Messung gelten kann (Parker, 2017). In der Literatur hat sich eine Reihe von Ansichten ergeben, die sich auf die Verteidigung und Kritik zweier Thesen konzentrieren:

Die Identitätsthese. Computersimulationsstudien sind buchstäblich Beispiele für Experimente.

Die erkenntnistheoretische Abhängigkeitsthese. Die Identitätsthese wäre (wenn es wahr wäre) ein guter Grund (schwache Version) oder der beste Grund (stärkere Version) oder der einzige Grund (stärkste Version; es ist eine notwendige Bedingung) zu glauben, dass Simulationen Garantien dafür liefern können Glaube an die Hypothesen, die sie unterstützen. Eine Konsequenz der stärksten Version ist, dass nur dann, wenn die Identitätsthese wahr ist, Grund zu der Annahme besteht, dass Simulationen die Berechtigung zum Glauben an Hypothesen rechtfertigen können.

Die zentrale Idee hinter der erkenntnistheoretischen Abhängigkeitsthese ist, dass Experimente die kanonischen Einheiten sind, die eine zentrale Rolle bei der Rechtfertigung unseres Glaubens an wissenschaftliche Hypothesen spielen, und daher das Ausmaß, in dem wir glauben sollten, dass Simulationen auch eine Rolle bei der Rechtfertigung solcher Überzeugungen spielen können hängt davon ab, inwieweit sie als eine Art Experiment identifiziert werden können.

Philosophen argumentieren bereits in Humphreys 1995 und Hughes 1999 für die Identitätsthese. Und es gibt zumindest implizite Unterstützung für die (stärkere) Version der erkenntnistheoretischen Abhängigkeitsthese in Hughes. Das früheste explizite Argument für die erkenntnistheoretische Abhängigkeitsthese findet sich jedoch in Norton und Suppe 2001. Laut Norton und Suppe können Simulationen den Glauben rechtfertigen, gerade weil sie buchstäblich Experimente sind. Sie haben eine detaillierte Geschichte zu erzählen, in welchem Sinne sie Experimente sind und wie das alles funktionieren soll. Laut Norton und Suppe ist eine gültige Simulation eine Simulation, bei der bestimmte formale Beziehungen (was sie als "Realisierung" bezeichnen) zwischen einem Basismodell, dem modellierten physischen System selbst und dem Computer, auf dem der Algorithmus ausgeführt wird, bestehen. Wenn die richtigen Bedingungen erfüllt sind,'Eine Simulation kann als Instrument zur Untersuchung oder Erkennung von Phänomenen der realen Welt verwendet werden. Empirische Daten über reale Phänomene werden unter experimentellen Kontrollbedingungen erstellt “(S. 73).

Ein Problem bei dieser Geschichte ist, dass die formalen Bedingungen, die sie darlegen, viel zu streng sind. Es ist unwahrscheinlich, dass es sehr viele echte Beispiele für Computersimulationen gibt, die ihren strengen Standards entsprechen. Simulation ist fast immer ein weitaus idealisierenderes und näherungsfähigeres Unternehmen. Wenn Simulationen also Experimente sind, ist es wahrscheinlich nicht so, wie Norton und Suppe es sich vorgestellt haben.

Ganz allgemein hat die Identitätsthese Feuer von anderen Seiten gezogen.

Gilbert und Troitzsch argumentierten: „Der Hauptunterschied besteht darin, dass man in einem Experiment das eigentliche interessierende Objekt kontrolliert (zum Beispiel in einem Chemieexperiment die untersuchten Chemikalien), in einer Simulation mit einem experimentiert Modell und nicht das Phänomen selbst. “(Gilbert und Troitzsch 1999, 13). Das scheint aber nicht richtig zu sein. Viele (Guala 2002, 2008, Morgan 2003, Parker 2009a, Winsberg 2009a) haben auf Probleme mit der Behauptung hingewiesen. Wenn Gilbert und Troitzsch meinen, dass Simulationisten Modelle im Sinne abstrakter Objekte manipulieren, ist die Behauptung schwer zu verstehen - wie manipulieren wir eine abstrakte Entität? Wenn sie andererseits lediglich darauf hinweisen wollen, dass das physische Objekt, das Simulatoren manipulieren - ein digitaler Computer -, nicht das eigentliche interessierende Objekt ist,dann ist nicht klar, warum dies von gewöhnlichen Experimenten abweicht.

Es ist falsch, dass echte Experimente immer genau ihre interessierenden Ziele manipulieren. Tatsächlich besteht sowohl in realen Experimenten als auch in Simulationen eine komplexe Beziehung zwischen dem, was in der Untersuchung manipuliert wird, einerseits und den realen Systemen, die die Ziele der Untersuchung sind, andererseits. Sowohl in experimentellen als auch in simulierten Fällen ist daher ein Argument einer Substanz erforderlich, um die „externe Gültigkeit“der Untersuchung festzustellen - um festzustellen, dass das, was über das manipulierte System gelernt wird, auf das interessierende System anwendbar ist. Mendel manipulierte zum Beispiel Erbsenpflanzen, war aber daran interessiert, das Phänomen der Erblichkeit im Allgemeinen kennenzulernen. Die Idee eines Modellorganismus in der Biologie macht diese Idee übersichtlich. Wir experimentieren mit Caenorhabditis elegans, weil wir verstehen möchten, wie der Organismus im Allgemeinen Gene verwendet, um die Entwicklung und Genealogie zu steuern. Wir experimentieren mit Drosophila melanogaster, weil es ein nützliches Modell für Mutationen und genetische Vererbung darstellt. Die Idee ist jedoch nicht auf die Biologie beschränkt. Galileo experimentierte mit schiefen Ebenen, weil er daran interessiert war, wie Objekte fallen und wie sie sich verhalten würden, wenn keine störenden Kräfte auftreten - Phänomene, die die Experimente mit schiefen Ebenen nicht einmal tatsächlich instanziierten. Galileo experimentierte mit schiefen Ebenen, weil er daran interessiert war, wie Objekte fallen und wie sie sich verhalten würden, wenn keine störenden Kräfte auftreten - Phänomene, die die Experimente mit schiefen Ebenen nicht einmal tatsächlich instanziierten. Galileo experimentierte mit schiefen Ebenen, weil er daran interessiert war, wie Objekte fallen und wie sie sich verhalten würden, wenn keine störenden Kräfte auftreten - Phänomene, die die Experimente mit schiefen Ebenen nicht einmal tatsächlich instanziierten.

Natürlich ist diese Ansicht über Experimente nicht unbestritten. Es ist wahr, dass Experimentatoren häufig etwas über ein System ableiten, das sich von dem System unterscheidet, mit dem sie interferieren. Es ist jedoch nicht klar, ob diese Schlussfolgerung Teil des ursprünglichen Experiments ist. Peschard (2010) kritisiert diesbezüglich und kann daher als Verteidiger von Gilbert und Troitzsch angesehen werden. Peschard argumentiert, dass die grundlegende Annahme ihrer Kritiker - dass beim Experimentieren wie bei der Simulation ein System manipuliert wird, das für ein Zielsystem steht - verwirrt ist. Es verwechselt, so argumentiert Peschard, das epistemische Ziel eines Experiments mit seiner epistemischen Motivation. Sie argumentiert, dass die epistemische Motivation für Experimente mit C. elegans zwar weitreichend sein könnte,Das richtige epistemische Ziel für ein solches Experiment ist der Wurm selbst. In einer Simulation ist laut Peschard das epistemische Ziel jedoch niemals der digitale Computer selbst. Daher unterscheidet sich die Simulation von dem Experiment darin, dass sich ihr epistemisches Ziel (im Gegensatz zu lediglich seiner epistemischen Motivation) von dem zu manipulierenden Objekt unterscheidet. Roush (2017) kann auch als Verteidiger der Gilbert- und Troitzsch-Linie angesehen werden, aber Roush appelliert an die Gleichheit natürlicher Arten als das entscheidende Merkmal, das Experimente und Simulationen voneinander trennt. Weitere Gegner der Identitätsthese sind Giere (2009) sowie Beisbart und Norton (2012, Other Internet Resources)., dass sich sein epistemisches Ziel (im Gegensatz zu nur seiner epistemischen Motivation) von dem zu manipulierenden Objekt unterscheidet. Roush (2017) kann auch als Verteidiger der Gilbert- und Troitzsch-Linie angesehen werden, aber Roush appelliert an die Gleichheit natürlicher Arten als das entscheidende Merkmal, das Experimente und Simulationen voneinander trennt. Weitere Gegner der Identitätsthese sind Giere (2009) sowie Beisbart und Norton (2012, Other Internet Resources)., dass sich sein epistemisches Ziel (im Gegensatz zu nur seiner epistemischen Motivation) von dem zu manipulierenden Objekt unterscheidet. Roush (2017) kann auch als Verteidiger der Gilbert- und Troitzsch-Linie angesehen werden, aber Roush appelliert an die Gleichheit natürlicher Arten als das entscheidende Merkmal, das Experimente und Simulationen voneinander trennt. Weitere Gegner der Identitätsthese sind Giere (2009) sowie Beisbart und Norton (2012, Other Internet Resources). Andere Internetquellen). Andere Internetquellen).

Es ist nicht klar, wie dieser Streit zu beurteilen ist, und es scheint sich hauptsächlich um einen Unterschied in der Betonung zu drehen. Man kann den Unterschied zwischen Experiment und Simulation nach Gilbert und Troitzsch und Peschard hervorheben, indem man darauf besteht, dass Experimente uns zuerst über ihre epistemischen Ziele lehren und nur sekundär Rückschlüsse auf das Verhalten anderer Systeme zulassen. (Dh Experimente mit Würmern lehren uns in erster Linie über Würmer und erlauben uns nur sekundär, allgemeinere Rückschlüsse auf die genetische Kontrolle zu ziehen.) Dies würde sie konzeptionell von Computersimulationen unterscheiden, von denen nicht angenommen wird, dass sie uns lehren. in erster Linie über das Verhalten von Computern und nur in zweiter Instanz über Stürme oder Galaxien oder was auch immer.

Oder man kann Ähnlichkeit umgekehrt betonen. Man kann betonen, inwieweit experimentelle Ziele immer als Ersatz für das ausgewählt werden, was wirklich von Interesse ist. Morrison, 2009, ist wahrscheinlich der stärkste Verteidiger, der diesen Aspekt der Ähnlichkeit von Experiment und Simulation hervorhebt. Sie argumentiert, dass die meisten experimentellen Praktiken und in der Tat die meisten Messpraktiken die gleichen Arten von Modellierungspraktiken beinhalten wie Simulationen. Auf jeden Fall, Tempo Peschard, nichts als eine Debatte über die Nomenklatur - und vielleicht ein Appell an den gewöhnlichen Sprachgebrauch von Wissenschaftlern; Nicht immer das überzeugendste Argument - würde uns daran hindern zu sagen, dass das epistemische Ziel einer Sturmsimulation der Computer ist und dass der Sturm lediglich die epistemische Motivation für das Studium des Computers ist.

Wie dem auch sei, viele Simulationsphilosophen, einschließlich der in diesem Abschnitt diskutierten, haben den letzteren Weg gewählt - teilweise, um die Aufmerksamkeit auf die Art und Weise zu lenken, in der die Botschaft, die hinter Gilbert und Troitzschs zitierter Behauptung lauert, ein übermäßig vereinfachtes Bild von zeichnet Experiment. Es erscheint zu simpel, ein Bild zu malen, nach dem das Experiment die Welt direkt in den Griff bekommt, während die Situation der Simulation genau umgekehrt ist. Und das ist das Bild, das man aus dem Zitat von Gilber und Troitzsch zu bekommen scheint. Peschards differenzierteres Bild, das eine Unterscheidung zwischen epistemischen Zielen und epistemischen Motivationen beinhaltet, trägt wesentlich dazu bei, diese Bedenken auszuräumen, ohne uns in den Bereich des Denkens zu drängen, dass Simulation und Experiment in dieser Hinsicht genau gleich sind.

Trotz der Ablehnung von Gilbert und Troitzschs Charakterisierung des Unterschieds zwischen Simulation und Experiment lehnen Guala und Morgan die Identitätsthese ab. In Anlehnung an die Arbeit von Simon (1969) argumentiert Guala, dass sich Simulationen grundlegend von Experimenten darin unterscheiden, dass das Manipulationsobjekt in einem Experiment eine materielle Ähnlichkeit mit dem interessierenden Ziel aufweist, in einer Simulation jedoch lediglich die Ähnlichkeit zwischen Objekt und Ziel formal. Interessanterweise scheint Morgan, während sie dieses Argument gegen die Identitätsthese akzeptiert, an einer Version der erkenntnistheoretischen Abhängigkeitsthese festzuhalten. Sie argumentiert mit anderen Worten:dass der Unterschied zwischen Experimenten und Simulationen, die von Guala identifiziert wurden, impliziert, dass Simulationen erkenntnistheoretisch den realen Experimenten unterlegen sind - dass sie an sich weniger Macht haben, den Glauben an Hypothesen über die reale Welt zu rechtfertigen, weil sie keine Experimente sind.

Eine Verteidigung der epistemischen Kraft von Simulationen gegen Morgans (2002) Argument könnte in Form einer Verteidigung der Identitätsthese oder in Form einer Ablehnung der erkenntnistheoretischen Abhängigkeitsthese erfolgen. An der ersteren Front scheint es zwei Probleme mit Gualas (2002) Argument gegen die Identitätsthese zu geben. Der erste ist, dass der Begriff der materiellen Ähnlichkeit hier zu schwach ist, und der zweite ist, dass der Begriff der bloßen formalen Ähnlichkeit zu vage ist, um die erforderliche Arbeit zu leisten. Betrachten Sie zum Beispiel die Tatsache, dass es in den Ingenieurwissenschaften nicht ungewöhnlich ist, Simulationsmethoden zu verwenden, um das Verhalten von aus Silizium hergestellten Systemen zu untersuchen. Der Ingenieur möchte die Eigenschaften verschiedener Entwurfsmöglichkeiten für ein Siliziumgerät kennenlernen. Deshalb entwickelt sie ein Rechenmodell des Geräts und führt eine Simulation seines Verhaltens auf einem digitalen Computer durch. Es gibt tiefe materielle Ähnlichkeiten zwischen dem Zentralprozessor des Computers und der untersuchten Siliziumvorrichtung, und einige der gleichen materiellen Ursachen wirken. Nach Gualas Argumentation sollte dies dies als Beispiel für ein echtes Experiment markieren, aber das scheint falsch zu sein. Die Besonderheiten dieses Beispiels veranschaulichen das Problem ziemlich stark, aber das Problem ist in der Tat ziemlich allgemein: Zwei beliebige Systeme weisen einige materielle Ähnlichkeiten und einige Unterschiede auf. Dies sollte dies als Beispiel für ein echtes Experiment markieren, aber das scheint falsch zu sein. Die Besonderheiten dieses Beispiels veranschaulichen das Problem ziemlich stark, aber das Problem ist in der Tat ziemlich allgemein: Zwei beliebige Systeme weisen einige materielle Ähnlichkeiten und einige Unterschiede auf. Dies sollte dies als Beispiel für ein echtes Experiment markieren, aber das scheint falsch zu sein. Die Besonderheiten dieses Beispiels veranschaulichen das Problem ziemlich stark, aber das Problem ist in der Tat ziemlich allgemein: Zwei beliebige Systeme weisen einige materielle Ähnlichkeiten und einige Unterschiede auf.

Parke (2014) argumentiert gegen die erkenntnistheoretische Abhängigkeitsthese, indem sie zwei Prämissen untergräbt, von denen sie glaubt, dass sie sie unterstützen: Erstens, dass Experimente eine größere Inferenzkraft erzeugen als Simulationen, und zweitens, dass Simulationen uns nicht auf die gleiche Weise überraschen können wie Experimente.

Auf der anderen Seite ist die Vorstellung, dass das Vorhandensein einer formalen Ähnlichkeit zwischen zwei materiellen Einheiten etwas Interessantes markieren könnte, konzeptionell verwirrt. Angesichts von zwei ausreichend komplexen Einheiten gibt es viele Möglichkeiten, wie sie formal identisch sind, ganz zu schweigen von ähnlich. Es gibt auch Möglichkeiten, wie sie formal völlig unterschiedlich sind. Jetzt können wir locker sprechen und sagen, dass zwei Dinge eine formale Ähnlichkeit aufweisen, aber wir meinen wirklich, dass unsere besten formalen Darstellungen der beiden Entitäten formale Ähnlichkeiten aufweisen. Auf jeden Fall scheint es gute Gründe zu geben, sowohl die Gilbert- und Troitzsch- als auch die Morgan- und Guala-Gründe für die Unterscheidung von Experimenten und Simulationen abzulehnen.

Zurück zur Verteidigung der erkenntnistheoretischen Kraft von Simulationen, gibt es auch Gründe, die erkenntnistheoretische Abhängigkeitsthese abzulehnen. Wie Parker (2009a) hervorhebt, können wir sowohl im Experiment als auch in der Simulation relevante Ähnlichkeiten zwischen Computersimulationen und Zielsystemen aufweisen, und darauf kommt es an. Wenn das relevante Hintergrundwissen vorhanden ist, kann eine Simulation zuverlässigeres Wissen über ein System liefern als ein Experiment. Eine Computersimulation des Sonnensystems, die auf unseren ausgefeiltesten Modellen der Himmelsdynamik basiert, liefert bessere Darstellungen der Umlaufbahnen der Planeten als jedes Experiment.

Parke (2014) argumentiert gegen die erkenntnistheoretische Abhängigkeitsthese, indem sie zwei Prämissen untergräbt, von denen sie glaubt, dass sie sie unterstützen: Erstens, dass Experimente eine größere Inferenzkraft erzeugen als Simulationen, und zweitens, dass Simulationen uns nicht auf die gleiche Weise überraschen können wie Experimente. Das Argument, dass Simulationen uns nicht überraschen können, stammt von Morgan (2005). Pace Morgan, Parke, argumentiert, dass Simulationisten oft von ihren Simulationen überrascht sind, sowohl weil sie nicht rechnerisch allwissend sind als auch weil sie nicht immer die einzigen Schöpfer der Modelle und des Codes sind, die sie verwenden. Sie argumentiert außerdem, dass "[d] Unterschiede in den epistemischen Zuständen der Forscher allein die falschen Gründe für die Verfolgung einer Unterscheidung zwischen Experiment und Simulation zu sein scheinen" (258). Adrian Curry (2017) verteidigt Morgans ursprüngliche Intuition mit zwei freundlichen Änderungen. Er argumentiert, dass die Unterscheidung, nach der Morgan wirklich gesucht hat, zwischen zwei verschiedenen Arten von Überraschungen bestand, und insbesondere in Bezug auf die Quelle der Überraschung: Überraschungen durch das Herausbringen theoretischen Wissens in Kontakt mit der Welt sind experimentell charakteristisch. Er definiert Überraschung auch auf nicht-psychologische Weise genauer, so dass es sich um eine „Qualität handelt, deren Erreichung einen echten epistemischen Fortschritt darstellt“(S. 640).

6. Computersimulation und die Struktur wissenschaftlicher Theorien

Paul Humphreys (2004) hat argumentiert, dass Computersimulationen tiefgreifende Auswirkungen auf unser Verständnis der Struktur von Theorien haben; er argumentiert, dass sie Unzulänglichkeiten sowohl mit der semantischen als auch mit der syntaktischen Sichtweise wissenschaftlicher Theorien aufdecken. Diese Behauptung wurde von Roman Frigg und Julian Reiss (2009) scharf angezündet. Frigg und Reiss argumentieren, dass die Frage, ob ein Modell eine analytische Lösung zulässt oder nicht, keinen Einfluss darauf hat, wie es sich auf die Welt bezieht. Sie zeigen dies am Beispiel des Doppelpendels. Ob der innere Drehpunkt des Pendels festgehalten wird oder nicht (eine Tatsache, die bestimmt, ob das relevante Modell analytisch lösbar ist), hat keinen Einfluss auf die Semantik der Elemente des Modells. Daraus schließen sie, dass die Semantik eines Modells oder seine Beziehung zur Welt nicht davon beeinflusst wird, ob das Modell analytisch lösbar ist oder nicht.

Dies reagierte jedoch nicht auf die gemeinnützigste Lektüre dessen, worauf Humphreys hinwies. Die syntaktischen und semantischen Ansichten von Theorien waren schließlich nicht nur Berichte darüber, wie sich unsere abstrakten wissenschaftlichen Darstellungen auf die Welt beziehen. Insbesondere handelte es sich nicht um Geschichten über die Beziehung zwischen bestimmten Modellen und der Welt, sondern um die Beziehung zwischen Theorien und der Welt und die Rolle, die Modelle in dieser Beziehung spielten, wenn überhaupt.

Es waren auch Geschichten, die viel darüber zu sagen hatten, wo die philosophisch interessante Handlung ist, wenn es um wissenschaftliches Theoretisieren geht. Die syntaktische Sichtweise deutete darauf hin, dass die wissenschaftliche Praxis angemessen rational rekonstruiert werden könnte, indem Theorien als axiomatische Systeme betrachtet werden, und, was noch wichtiger ist, dass die logische Ableitung ein nützliches regulatives Ideal ist, um darüber nachzudenken, wie Schlussfolgerungen aus der Theorie zur Welt gezogen werden. Die syntaktische Sichtweise machte auch durch Auslassung deutlich, dass die Modellierung, wenn überhaupt, nur eine heuristische Rolle in der Wissenschaft spielte. (Dies war ein Merkmal der syntaktischen Sichtweise von Theorien, gegen die Frederick Suppe, einer seiner leidenschaftlichsten Kritiker, oft schimpfte.) Theorien selbst hatten nichts mit Modellen zu tun, und Theorien konnten ohne wichtige Rolle direkt mit der Welt verglichen werden zum Modellieren zu spielen.

Die semantische Sichtweise von Theorien betonte andererseits eine wichtige Rolle für Modelle, drängte aber auch darauf, dass Theorien nichtsprachliche Einheiten seien. Es forderte die Philosophen auf, sich nicht von den Eventualitäten der besonderen Form des sprachlichen Ausdrucks ablenken zu lassen, die eine Theorie beispielsweise in einem bestimmten Lehrbuch finden könnte.

Computersimulationen scheinen jedoch zu veranschaulichen, dass beide Themen falsch waren. Es war zutiefst falsch zu glauben, dass logische Deduktion das richtige Werkzeug war, um den Prozess der theoretischen Anwendung rational zu rekonstruieren. Computersimulationen zeigen, dass es Methoden der theoretischen Anwendung gibt, die die Inferenzkraft der logischen Deduktion bei weitem übertreffen. Der Raum der Lösungen, der zum Beispiel durch logische Ableitung aus der Theorie der Flüssigkeiten verfügbar ist, ist mikroskopisch im Vergleich zum Raum der Anwendungen, die durch Computersimulation untersucht werden können. Auf der anderen Seite scheinen Computersimulationen zu zeigen, dass, wie Humphreys (2004) gefordert hat, die Syntax eine Rolle spielt. Es stellte sich heraus, dass es falsch war, wie es die semantische Sichtweise tat, zu behaupten, dass die besondere sprachliche Form, in der eine wissenschaftliche Theorie ausgedrückt wird, philosophisch uninteressant ist. Die Syntax des Ausdrucks der Theorie wird einen tiefen Einfluss darauf haben, welche Schlussfolgerungen daraus gezogen werden können, welche Arten von Idealisierungen gut damit funktionieren usw. Humphreys formulierte den Punkt wie folgt: „Die spezifische verwendete syntaktische Darstellung ist oft entscheidend für die Lösbarkeit der Gleichungen der Theorie “(Humphreys 2009, S.620). Die Theorie der Flüssigkeiten kann verwendet werden, um diesen Punkt zu betonen: Ob wir diese Theorie in Euler- oder Lagrange-Form ausdrücken, wird tiefgreifend beeinflussen, was wir in der Praxis berechnen können und wie; Es wird sich darauf auswirken, welche Idealisierungen, Approximationen und Berechnungstechniken unter welchen Umständen effektiv und zuverlässig sind. Die Erkenntnistheorie der Computersimulation muss daher für die jeweilige syntaktische Formulierung einer Theorie und für die Berechtigung dieser bestimmten Formulierung von Bedeutung sein. Daher,Es scheint richtig zu sein, wie Humphreys (2004) zu betonen, dass Computersimulationen Unzulänglichkeiten sowohl mit der syntaktischen als auch mit der semantischen Theorie aufgedeckt haben.

7. Entstehung

Paul Humphreys (2004) und Mark Bedau (1997, 2011) haben argumentiert, dass Philosophen, die sich für das Thema Entstehung interessieren, durch die Betrachtung der Computersimulation viel lernen können. Philosophen, die sich für dieses Thema interessieren, sollten den Eintrag über aufstrebende Eigenschaften konsultieren, in dem die Beiträge all dieser Philosophen diskutiert wurden.

Der Zusammenhang zwischen Entstehung und Simulation wurde von Bedau in seinem (2011) vielleicht am besten artikuliert. Bedau argumentierte, dass jede Vorstellung von Entstehung die doppelten Merkmale erfüllen muss, um zu erklären, wie das Ganze von seinen Teilen abhängt und wie das Ganze von seinen Teilen unabhängig ist. Er argumentiert, dass sich Philosophen oft auf das konzentrieren, was er als „starkes“Auftauchen bezeichnet, was eine brutale Abwärtskausalität voraussetzt, die im Prinzip nicht reduzierbar ist. Aber er argumentiert, dass dies ein Fehler ist. Er konzentriert sich stattdessen auf das, was er als "schwache" Entstehung bezeichnet, was die Reduzierbarkeit von Ganzen auf Teile im Prinzip, aber nicht in der Praxis ermöglicht. Systeme, die emergente Eigenschaften erzeugen, sind bloße Mechanismen, aber die Mechanismen sind sehr komplex (sie haben sehr viele unabhängig voneinander interagierende Teile). Als Ergebnis,Es gibt keine Möglichkeit, genau herauszufinden, was unter bestimmten Anfangs- und Randbedingungen passieren wird, außer „das kausale Netz zu crawlen“. Hier entsteht die Verbindung zur Computersimulation. Schwach emergente Eigenschaften sind charakteristisch für komplexe Systeme in der Natur. Und es ist auch charakteristisch für komplexe Computersimulationen, dass es keine Möglichkeit gibt, vorherzusagen, was sie tun werden, außer sie laufen zu lassen. Eine schwache Entstehung erklärt laut Bedau, warum Computersimulationen eine zentrale Rolle in der Wissenschaft komplexer Systeme spielen. Der beste Weg, um zu verstehen und vorherzusagen, wie sich wirklich komplexe Systeme verhalten, besteht darin, sie zu simulieren, indem Sie das mikrokausale Web crawlen und sehen, was passiert. Schwach emergente Eigenschaften sind charakteristisch für komplexe Systeme in der Natur. Und es ist auch charakteristisch für komplexe Computersimulationen, dass es keine Möglichkeit gibt, vorherzusagen, was sie tun werden, außer sie laufen zu lassen. Eine schwache Entstehung erklärt laut Bedau, warum Computersimulationen eine zentrale Rolle in der Wissenschaft komplexer Systeme spielen. Der beste Weg, um zu verstehen und vorherzusagen, wie sich wirklich komplexe Systeme verhalten, besteht darin, sie zu simulieren, indem Sie das mikrokausale Web crawlen und sehen, was passiert. Schwach emergente Eigenschaften sind charakteristisch für komplexe Systeme in der Natur. Und es ist auch charakteristisch für komplexe Computersimulationen, dass es keine Möglichkeit gibt, vorherzusagen, was sie tun werden, außer sie laufen zu lassen. Eine schwache Entstehung erklärt laut Bedau, warum Computersimulationen eine zentrale Rolle in der Wissenschaft komplexer Systeme spielen. Der beste Weg, um zu verstehen und vorherzusagen, wie sich wirklich komplexe Systeme verhalten, besteht darin, sie zu simulieren, indem Sie das mikrokausale Web crawlen und sehen, was passiert. Der beste Weg, um zu verstehen und vorherzusagen, wie sich wirklich komplexe Systeme verhalten, besteht darin, sie zu simulieren, indem Sie das mikrokausale Web crawlen und sehen, was passiert. Der beste Weg, um zu verstehen und vorherzusagen, wie sich wirklich komplexe Systeme verhalten, besteht darin, sie zu simulieren, indem Sie das mikrokausale Web crawlen und sehen, was passiert.

8. Fiktionen

Modelle beinhalten natürlich Idealisierungen. Es wurde jedoch argumentiert, dass einige Arten der Idealisierung, die eine besonders wichtige Rolle bei der Modellierung in der Computersimulation spielen, insofern besonders sind, als sie den Titel „Fiktion“verdienen. In diesem Abschnitt werden Versuche erörtert, Fiktionen zu definieren und ihre Rolle in der Computersimulation zu untersuchen.

Es gibt zwei verschiedene Denkansätze zur Rolle von Fiktionen in der Wissenschaft. Nach einem sind alle Modelle Fiktionen. Diese Denkweise wird motiviert, indem beispielsweise die Rolle des „idealen Pendels“in der Wissenschaft betrachtet wird. Es wird argumentiert, dass Wissenschaftler häufig Behauptungen über diese Art von Entitäten aufstellen (z. B. „das ideale Pendel hat eine Periode, die proportional zur Quadratwurzel seiner Länge ist“), aber sie sind in der realen Welt nirgends zu finden; daher müssen sie fiktive Einheiten sein. Diese Argumentation über fiktive Entitäten in der Wissenschaft verbindet sich in keiner besonderen Weise mit Computersimulationslesern, die an diesem Thema interessiert sind, sollte den Eintrag über wissenschaftliche Repräsentation [in Kürze] konsultieren.

Eine andere Denkrichtung über Fiktionen befasst sich mit der Frage, welche Arten von Darstellungen in der Wissenschaft als fiktiv anzusehen sind. Hier geht es nicht so sehr um die Ontologie wissenschaftlicher Modellentitäten, sondern um den Repräsentationscharakter verschiedener postulierter Modellentitäten. Hier hat Winsberg (2009c) argumentiert, dass Fiktionen eine besondere Verbindung zu Computersimulationen haben. Oder besser gesagt, dass einige Computersimulationen Elemente enthalten, die am besten für das stehen, was wir als fiktive Darstellungen in der Wissenschaft bezeichnen könnten, selbst wenn diese Darstellungen in Simulationen nicht eindeutig vorhanden sind.

Er stellt fest, dass die erste oben erwähnte Konzeption einer Fiktion, die „jede Darstellung, die der Realität widerspricht, zu einer Fiktion macht“(S. 179), nicht unserer gewöhnlichen Verwendung des Begriffs entspricht: Eine grobe Karte ist keine Fiktion. Dann schlägt er eine alternative Definition vor: Sachbücher werden als „gut genug“Leitfaden für einen Teil der Welt angeboten (S. 181); Fiktion ist nicht. Die Definition muss jedoch verfeinert werden. Nimm die Fabel von der Heuschrecke und der Ameise. Obwohl die Fabel Lektionen darüber bietet, wie die Welt ist, ist sie immer noch Fiktion, weil sie "ein nützlicher Leitfaden für die Art und Weise ist, wie die Welt im allgemeinen Sinne ist" und nicht ein spezifischer Leitfaden für die Art und Weise, wie ein Teil der Welt ist, ihre " prima facie repräsentatives Ziel “, eine singende Heuschrecke und eine arbeitende Ameise. Sachbücher hingegen„Zeigen Sie auf einen bestimmten Teil der Welt“und geben Sie einen Leitfaden für diesen Teil der Welt (S. 181).

Diese Art von fiktiven Komponenten von Modellen wird in bestimmten Computersimulationen paradigmatisch veranschaulicht. Zwei seiner Beispiele sind das "Silogenatom" und die "künstliche Viskosität". Silogenatome treten in bestimmten nanomechanischen Modellen von Rissen in Silizium auf - einer Spezies der Art von Multiskalenmodellen, die die in Abschnitt 2.3 erwähnte Quantenmechanik und Molekularmechanik verbinden. Das silogenhaltige Modell der Rissausbreitung in Silizium beschreibt den Riss selbst mithilfe der Quantenmechanik und den Bereich, der den Riss unmittelbar umgibt, mithilfe der klassischen Molekulardynamik. Um die Modellierungsgerüste in den beiden Regionen zusammenzuführen, wird die Grenze so behandelt, als ob sie "Silogen" -Atome enthält, die eine Mischung aus den Eigenschaften von Silizium und denen von Wasserstoff aufweisen. Silogenatome sind Fiktionen. Sie werden nicht einmal als "gut genug" Beschreibung der Atome an der Grenze angeboten - ihre prima facie repräsentativen Ziele. Sie werden jedoch verwendet, damit das Gesamtmodell die Dinge richtig machen kann. Das Gesamtmodell ist also keine Fiktion, sondern eine seiner Komponenten. Die künstliche Viskosität ist ein ähnliches Beispiel. Flüssigkeiten mit abrupten Schocks lassen sich nur schwer auf einem Rechengitter modellieren, da sich der abrupte Schock in einer einzelnen Gitterzelle verbirgt und mit einem solchen Algorithmus nicht aufgelöst werden kann. Künstliche Viskosität ist eine Technik, die vorgibt, dass die Flüssigkeit hochviskos ist - eine Fiktion - genau dort, wo der Schock ist, so dass der Schock weniger abrupt wird und über mehrere Gitterzellen verschwimmt. Wenn die Viskosität und damit die Dicke des Stoßdämpfers falsch angegeben wird, kann das Gesamtmodell „gut genug“funktionieren. Nochmal,Das Gesamtmodell der Flüssigkeit ist keine Fiktion, sondern ein verlässlicher Leitfaden für das Verhalten der Flüssigkeit. Die als künstliche Viskosität bezeichnete Komponente ist jedoch eine Fiktion - sie wird nicht verwendet, um den Schock zuverlässig zu modellieren. Es wird in ein größeres Modellierungsframework integriert, um dieses größere Framework „zuverlässig genug“zu machen.

Dieser Bericht hat zwei Arten von Kritik hervorgerufen. Toon (2010) hat argumentiert, dass diese Definition einer Fiktion zu eng ist. Er gibt Beispiele für historische Fiktionen wie I, Claudius und Schindlers Arche, von denen er behauptet, dass sie Fiktionen sind, obwohl „sie diesen Menschen, Orten und Ereignissen in gewisser Hinsicht als„ gut genug “angeboten werden und wir dazu berechtigt sind nimm sie als solche. (S. 286–7). Vermutlich unterstützt Toon eine breitere Konzeption der Rolle von Fiktionen in der Wissenschaft, wonach sie in der Computersimulation keine besonders herausragende oder erhöhte Rolle spielen.

Gordon Purves (in Vorbereitung) argumentiert, dass es Beispiele für Fiktionen in Rechenmodellen gibt (sein Beispiel sind sogenannte „imaginäre Risse“) und anderswo, die die oben diskutierten strengen Anforderungen nicht erfüllen. Im Gegensatz zu Toon möchte er jedoch auch fiktive Modellierungselemente von den nicht fiktiven abgrenzen. Seine Hauptkritik bezieht sich auf das Kriterium der Fiktion in Bezug auf soziale Nutzungsnormen - und Purves argumentiert, dass wir in der Lage sein sollten, zu entscheiden, ob eine Modellierung eine Fiktion ist, wenn solche Normen fehlen. Daher möchte er eine intrinsische Charakterisierung einer wissenschaftlichen Fiktion finden. Sein Vorschlag geht davon aus, dass Modellfiktionen nicht die von Laymon (1985) als "stückweise Improvisierbarkeit" (PI) bezeichnete Eigenschaft aufweisen. PI ist ein Merkmal vieler Modelle, die Idealisierungen sind;Es heißt, dass Ihr Modell mit der De-Idealisierung immer genauer wird. Wenn Sie jedoch ein Silogenatom de-idealisieren, erhalten Sie keine immer genauere Simulation eines Siliziumrisses. Aber Purves nimmt dieses Versagen von PI als konstitutiv für eine Fiktion und nicht nur als symptomatisch für sie.

Literaturverzeichnis

  • Barberousse, A. und P. Ludwig, 2009. „Modelle als Fiktionen“in Fiktionen in der Wissenschaft. Philosophische Essays in Modellierung und Idealisierung, London: Routledge, 56–73.
  • Barberousse, A. und Vorms, M. 2014. „Über die Garantien computergestützten empirischen Wissens“, Synthese, 191 (15): 3595–3620.
  • Bedau, MA, 2011. „Schwache Entstehung und Computersimulation“in P. Humphreys und C. Imbert (Hrsg.), Models, Simulations and Representations, New York: Routledge, 91–114.
  • –––, 1997. „Weak Emergence“, Noûs (Supplement 11), 31: 375–399.
  • Beisbart, C. und J. Norton, 2012. „Warum Monte-Carlo-Simulationen Schlussfolgerungen und keine Experimente sind“, in International Studies in Philosophy of Science, 26: 403–422.
  • Beisbart, C., 2017. „Wissen durch Computersimulationen erweitern? Eine sokratische Übung “in M. Resch, A. Kaminski und P. Gehring (Hrsg.), Die Wissenschaft und Kunst der Simulation (Band I), Cham: Springer, S. 153–174./
  • Burge, T., 1993. „Content Preservation“, The Philosophical Review, 102 (4): 457–488.
  • –––, 1998. „Computerbeweis, Apriori-Wissen und andere Köpfe: Die sechste Vorlesung über philosophische Perspektiven“, Noûs, 32 (S12): 1–37.
  • Currie, Adrian, 2018. „Das Argument der Überraschung“, Canadian Journal of Philosophy, 48 (5): 639–661
  • Dardashti, R., Thebault, K. und Winsberg, E., 2015. „Bestätigung durch analoge Simulation: Was dumme Löcher über die Schwerkraft aussagen könnten“, im British Journal for the Philosophy of Science, 68 (1): 55– 89
  • Dardashti, R., Hartmann, S., Thebault, K. und Winsberg, E., 2019. „Hawking-Strahlung und analoge Experimente: Eine Bayes'sche Analyse“in Studies in History and Philosophy of Modern Physics, 67: 1–11.
  • Epstein, J. und R. Axtell, 1996. Wachsende künstliche Gesellschaften: Sozialwissenschaft von unten nach oben, Cambridge, MA: MIT Press.
  • Epstein, J., 1999. „Agentenbasierte Rechenmodelle und generative Sozialwissenschaften“, Complexity, 4 (5): 41–57.
  • Franklin, A., 1996. Die Vernachlässigung des Experiments, Cambridge: Cambridge University Press.
  • –––, 1989. „The Epistemology of Experiment“, The Uses of Experiment, D. Gooding, T. Pinch und S. Schaffer (Hrsg.), Cambridge: Cambridge University Press, 437–60.
  • Frigg, R. und J. Reiss, 2009. „Die Philosophie der Simulation: Heiße neue Ausgaben oder der gleiche alte Eintopf“, Synthese, 169: 593–613.
  • Giere, RN, 2009. „Verändert die Computersimulation das Gesicht des Experimentierens?“, Philosophical Studies, 143: 59–62
  • Gilbert, N. und K. Troitzsch, 1999. Simulation für den Sozialwissenschaftler, Philadelphia, PA: Open University Press.
  • Grüne-Yanoff, T., 2007. „Bounded Rationality“, Philosophy Compass, 2 (3): 534–563.
  • Grüne-Yanoff, T. und Weirich, P., 2010. „Philosophie der Simulation“, Simulation und Spiele: Eine interdisziplinäre Zeitschrift, 41 (1): 1–31.
  • Guala, F., 2002. „Modelle, Simulationen und Experimente“, Modellbasiertes Denken: Wissenschaft, Technologie, Werte, L. Magnani und N. Nersessian (Hrsg.), New York: Kluwer, 59–74.
  • –––, 2008. „Paradigmatische Experimente: Das Ultimatum-Spiel vom Testen zum Messgerät“, Philosophy of Science, 75: 658–669.
  • Hacking, I., 1983. Repräsentieren und Eingreifen: Einführungsthemen in die Philosophie der Naturwissenschaften, Cambridge: Cambridge University Press.
  • –––, 1988. „Zur Stabilität der Laborwissenschaften“, The Journal of Philosophy, 85: 507–15.
  • –––, 1992. „Haben Gedankenexperimente ein Eigenleben?“PSA (Band 2), A. Fine, M. Forbes und K. Okruhlik (Hrsg.), East Lansing: The Philosophy of Science Association, 302–10.
  • Hartmann, S., 1996. "Die Welt als Prozess: Simulationen in den Natur- und Sozialwissenschaften", in R. Hegselmann, et al. (Hrsg.), Modellierung und Simulation in den Sozialwissenschaften aus Sicht der Wissenschaftstheorie, Dordrecht: Kluwer, 77–100.
  • Hubig, C & Kaminski, A., 2017. „Umrisse einer pragmatischen Theorie von Wahrheit und Irrtum in der Computersimulation“, in M. Resch, A. Kaminski & P. Gehring (Hrsg.), The Science and Art of Simulation (Band I), Cham: Springer, S. 121–136.
  • Hughes, R., 1999. "Das Ising-Modell, Computersimulation und Universalphysik" in M. Morgan und M. Morrison (Hrsg.), Models as Mediators, Cambridge: Cambridge University Press.
  • Huggins, EM und EA Schultz, 1967. „Bucht von San Francisco in einem Lagerhaus“, Journal des Instituts für Umweltwissenschaften und -technologie, 10 (5): 9–16.
  • Humphreys, P., 1990. „Computersimulation“in A. Fine, M. Forbes und L. Wessels (Hrsg.), PSA 1990 (Band 2), East Lansing, MI: The Philosophy of Science Association, 497– 506.
  • –––, 1995. „Computerwissenschaft und wissenschaftliche Methode“in Minds and Machines, 5 (1): 499–512.
  • –––, 2004. Wir erweitern uns: Computerwissenschaft, Empirismus und wissenschaftliche Methode, New York: Oxford University Press.
  • –––, 2009. „Die philosophische Neuheit von Computersimulationsmethoden“, Synthese, 169: 615–626.
  • Kaufmann, WJ und LL Smarr, 1993. Supercomputing und die Transformation der Wissenschaft, New York: Scientific American Library.
  • Laymon, R., 1985. „Idealisierungen und das Testen von Theorien durch Experimentieren“in Beobachtung, Experiment und Hypothese in der modernen Physik, P. Achinstein und O. Hannaway (Hrsg.), Cambridge, MA: MIT Press, 147– 73.
  • Lenhard, J., 2007. „Computersimulation: Die Zusammenarbeit zwischen Experimentieren und Modellieren“, Philosophy of Science, 74: 176–94.
  • –––, 2019. Berechnete Überraschungen: Eine Philosophie der Computersimulation, Oxford: Oxford University Press
  • Lenhard, J. & Küster, U., 2019. Minds & Machines. 29: 19.
  • Morgan, M., 2003. „Experimente ohne materielle Intervention: Modellexperimente, virtuelle Experimente und virtuelle Experimente“in The Philosophy of Scientific Experimentation, H. Radder (Hrsg.), Pittsburgh, PA: University of Pittsburgh Press, 216–35.
  • Morrison, M., 2012. „Modelle, Messungen und Computersimulationen: Das sich wandelnde Gesicht des Experimentierens“, Philosophical Studies, 143: 33–57.
  • Norton, S. und F. Suppe, 2001. „Warum atmosphärische Modellierung eine gute Wissenschaft ist“in „Veränderung der Atmosphäre: Expertenwissen und Umweltgovernance“, C. Miller und P. Edwards (Hrsg.), Cambridge, MA: MIT Press 88–133.
  • Oberkampf, W. und C. Roy, 2010. Verifikation und Validierung im wissenschaftlichen Rechnen, Cambridge: Cambridge University Press.
  • Oreskes, N., mit K. Shrader-Frechette und K. Belitz, 1994. „Verifikation, Validierung und Bestätigung numerischer Modelle in den Geowissenschaften“, Science, 263 (5147): 641–646.
  • Parke, E., 2014. „Experimente, Simulationen und epistemische Privilegien“, Philosophy of Science, 81 (4): 516–36.
  • Parker, W., 2008a. „Franklin, Holmes und die Erkenntnistheorie der Computersimulation“, International Studies in the Philosophy of Science, 22 (2): 165–83.
  • –––, 2008b. „Computersimulation durch eine fehlerstatistische Linse“, Synthese, 163 (3): 371–84.
  • –––, 2009a. „Ist Materie wirklich wichtig? Computersimulationen, Experimente und Materialität “, Synthese, 169 (3): 483–96.
  • –––, 2013. „Computersimulation“in S. Psillos und M. Curd (Hrsg.), The Routledge Companion to Philosophy of Science, 2. Auflage, London: Routledge.
  • –––, 2017. „Computersimulation, Messung und Datenassimilation“, British Journal for the Philosophy of Science, 68 (1): 273–304.
  • Peschard, I., 2010. „Modellieren und Experimentieren“in P. Humphreys und C. Imbert (Hrsg.), Modelle, Simulationen und Darstellungen, London: Routledge, 42–61.
  • Primiero, G., 2019. „Eine minimalistische Erkenntnistheorie für agentenbasierte Simulationen in den künstlichen Wissenschaften“, Minds and Machines, 29 (1): 127–148.
  • Purves, GM, bevorstehend. „Wahrheit in Fiktionen finden: Nicht-Fiktionen in imaginären Rissen identifizieren“, Synthese.
  • Resch, MM, Kaminski, A. & Gehring, P. (Hrsg.), 2017. Die Wissenschaft und Kunst der Simulation I: Exploring-Understanding-Knowledge, Berlin: Springer.
  • Roush, S., 2015. „Die epistemische Überlegenheit des Experiments gegenüber der Simulation“, Synthese, 169: 1–24.
  • Roy, S., 2005. „Jüngste Fortschritte bei numerischen Methoden für Fluiddynamik und Wärmeübertragung“, Journal of Fluid Engineering, 127 (4): 629–30.
  • Ruphy, S., 2015. "Computersimulationen: Eine neue Art der wissenschaftlichen Untersuchung?" in SO Hansen (Hrsg.), Die Rolle der Technologie in der Wissenschaft: Philosophische Perspektiven, Dordrecht: Springer, S. 131–149
  • Schelling, TC, 1971. „Dynamische Modelle der Segregation“, Journal of Mathematical Sociology, 1: 143–186.
  • Simon, H., 1969. Die Wissenschaften des Künstlichen, Boston, MA: MIT Press.
  • Symons, J. & Alvarado, R., 2019. „Epistemische Ansprüche und die Praxis der Computersimulation“, Minds and Machines, 29 (1): 37–60.
  • Toon, A., 2010. „Neuartige Ansätze für Modelle“, Metascience, 19 (2): 285–288.
  • Trenholme R., 1994. „Analog Simulation“, Philosophy of Science, 61: 115–131.
  • Unruh, WG, 1981. "Experimentelle Verdampfung von Schwarzen Löchern?" Physical Review Letters, 46 (21): 1351–53.
  • Winsberg, E., 2018. Philosophie und Klimawissenschaft, Cambridge: Cambridge University Press
  • –––, 2010. Wissenschaft im Zeitalter der Computersimulation, Chicago: The University of Chicago Press.
  • –––, 2009a. "Eine Geschichte von zwei Methoden", Synthese, 169 (3): 575–92
  • –––, 2009b. „Computersimulation und Wissenschaftstheorie“, Philosophy Compass, 4/5: 835–845.
  • –––, 2009c. "Eine Funktion für Fiktionen: Erweiterung des Umfangs der Wissenschaft" in Fiktionen in der Wissenschaft: Philosophische Essays über Modellierung und Idealisierung, M. Suarez (Hrsg.), London: Routledge.
  • –––, 2006. „Händeschütteln nach oben: Inkonsistenz und Fälschung bei der intertheoretischen Reduktion“, Philosophy of Science, 73: 582–594.
  • –––, 2003. „Simulierte Experimente: Methodik für eine virtuelle Welt“, Philosophy of Science, 70: 105–125.
  • –––, 2001. „Simulationen, Modelle und Theorien: Komplexe physikalische Systeme und ihre Darstellungen“, Philosophy of Science, 68: S442 - S454.
  • –––, 1999. „Sanktionsmodelle: Die Erkenntnistheorie der Simulation“, Science in Context, 12 (3): 275–92.

Akademische Werkzeuge

Sep Mann Symbol
Sep Mann Symbol
Wie man diesen Eintrag zitiert.
Sep Mann Symbol
Sep Mann Symbol
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.
Inpho-Symbol
Inpho-Symbol
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.
Phil Papers Ikone
Phil Papers Ikone
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • Phys.org - Computersimulationen.
  • Computersimulation auf sciencedaily.com.
  • IPPC - Zwischenstaatliches Gremium für Klimawandel.

Empfohlen: