Wissenschaftliche Methode

Inhaltsverzeichnis:

Wissenschaftliche Methode
Wissenschaftliche Methode

Video: Wissenschaftliche Methode

Video: Wissenschaftliche Methode
Video: Die Wissenschaftliche Methode: Schritte, Beispiele, Tips und eine Aufgabe 2023, November
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Wissenschaftliche Methode

Erstveröffentlichung am 13. November 2015

Die Wissenschaft ist ein enorm erfolgreiches menschliches Unternehmen. Das Studium der wissenschaftlichen Methode ist der Versuch, die Aktivitäten zu erkennen, mit denen dieser Erfolg erzielt wird. Zu den Aktivitäten, die häufig als charakteristisch für die Wissenschaft identifiziert werden, gehören systematisches Beobachten und Experimentieren, induktives und deduktives Denken sowie die Bildung und Prüfung von Hypothesen und Theorien. Wie diese im Detail durchgeführt werden, kann sehr unterschiedlich sein, aber Merkmale wie diese wurden als Mittel zur Abgrenzung wissenschaftlicher Aktivitäten von nichtwissenschaftlichen Aktivitäten angesehen, bei denen nur Unternehmen, die eine kanonische Form wissenschaftlicher Methoden oder Methoden anwenden, als Wissenschaft betrachtet werden sollten (siehe auch der Eintrag über Wissenschaft und Pseudowissenschaft). Andererseits,Die neuere Debatte hat in Frage gestellt, ob es so etwas wie ein festes Toolkit von Methoden gibt, das in der Wissenschaft und nur in der Wissenschaft üblich ist.

Wissenschaftliche Methoden sollten von den Zielen und Produkten der Wissenschaft wie Wissen, Vorhersagen oder Kontrolle unterschieden werden. Methoden sind die Mittel, mit denen diese Ziele erreicht werden. Die wissenschaftliche Methode sollte auch von der Metamethodik unterschieden werden, die die Werte und Begründungen für eine bestimmte Charakterisierung der wissenschaftlichen Methode (dh eine Methodik) enthält - Werte wie Objektivität, Reproduzierbarkeit, Einfachheit oder vergangene Erfolge. Zur Steuerung der Methode werden methodische Regeln vorgeschlagen, und es ist eine metamethodologische Frage, ob Methoden, die diesen Regeln entsprechen, bestimmte Werte erfüllen. Schließlich unterscheidet sich die Methode bis zu einem gewissen Grad von den detaillierten und kontextbezogenen Praktiken, mit denen Methoden implementiert werden. Letzteres kann Folgendes umfassen: spezifische Labortechniken;mathematische Formalismen oder andere Fachsprachen, die in Beschreibungen und Überlegungen verwendet werden; technologische oder andere materielle Mittel; Möglichkeiten zur Kommunikation und zum Austausch von Ergebnissen, sei es mit anderen Wissenschaftlern oder mit der Öffentlichkeit insgesamt; oder die Konventionen, Gewohnheiten, erzwungenen Bräuche und institutionellen Kontrollen darüber, wie und welche Wissenschaft betrieben wird.

Während es wichtig ist, diese Unterscheidungen zu erkennen, sind ihre Grenzen verschwommen. Daher können Methodenberichte nicht vollständig von ihren methodischen und metamethodologischen Motivationen oder Begründungen getrennt werden. Darüber hinaus spielt jeder Aspekt eine entscheidende Rolle bei der Identifizierung von Methoden. Streitigkeiten über Methoden haben sich daher auf Detail-, Regel- und Metaregelebene abgespielt. Beispielsweise haben Änderungen in der Überzeugung über die Gewissheit oder Fehlbarkeit wissenschaftlicher Erkenntnisse (was eine metamethodologische Überlegung dessen ist, was wir für Methoden erhoffen können) unterschiedliche Schwerpunkte auf deduktives und induktives Denken oder auf die relative Bedeutung gelegt, die damit verbunden ist Argumentation über Beobachtung (dh Unterschiede über bestimmte Methoden). Überzeugungen über die Rolle der Wissenschaft in der Gesellschaft wirken sich auf den Platz aus, den man Werten in wissenschaftlichen Methoden einräumt.

Das Thema, das die Debatten über wissenschaftliche Methoden im letzten halben Jahrhundert am meisten geprägt hat, ist die Frage, wie pluralistisch wir über Methoden sein müssen. Die Vereinigungisten halten weiterhin an einer Methode fest, die für die Wissenschaft wesentlich ist. Der Nihilismus ist eine Form des radikalen Pluralismus, der die Wirksamkeit jeder methodischen Vorschrift als so kontextsensitiv betrachtet, dass sie für sich genommen nicht erklärend ist. Ein gewisser mittlerer Pluralismus in Bezug auf die in der wissenschaftlichen Praxis verkörperten Methoden erscheint angemessen. Die Einzelheiten der wissenschaftlichen Praxis variieren jedoch je nach Zeit und Ort, von Institution zu Institution, zwischen Wissenschaftlern und ihren Untersuchungsgegenständen. Wie bedeutend sind die Unterschiede für das Verständnis der Wissenschaft und ihren Erfolg? Wie viel kann Methode von der Praxis abstrahiert werden? Dieser Eintrag beschreibt einige der Versuche, wissenschaftliche Methoden oder Methoden zu charakterisieren, sowie Argumente für einen kontextsensitiveren Ansatz für Methoden, die in tatsächliche wissenschaftliche Praktiken eingebettet sind.

  • 1. Themen überblicken und organisieren
  • 2. Historischer Rückblick: Aristoteles zu Mühle
  • 3. Logik der Methode und kritische Antworten

    • 3.1 Logischer Konstruktionismus und Operationalismus
    • 3.2. HD als Bestätigungslogik
    • 3.3. Popper und Fälschung
    • 3.4 Metamethodik und Methodenende
  • 4. Statistische Methoden zum Testen von Hypothesen
  • 5. Methode in der Praxis

    • 5.1 Kreative und explorative Praktiken
    • 5.2 Computermethoden und der „dritte Weg“, Wissenschaft zu betreiben
  • 6. Diskurs über wissenschaftliche Methoden

    • 6.1 „Die wissenschaftliche Methode“im naturwissenschaftlichen Unterricht und aus Sicht der Wissenschaftler
    • 6.2 Privilegierte Methoden und Goldstandards
    • 6.3 Wissenschaftliche Methode im Gerichtssaal
    • 6.4 Abweichende Praktiken
  • 7. Schlussfolgerung
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Themen überblicken und organisieren

Dieser Eintrag könnte den Titel "Wissenschaftliche Methoden" erhalten und Bände gefüllt haben, oder er könnte extrem kurz gewesen sein und aus einer kurzen zusammenfassenden Ablehnung der Idee bestehen, dass es überhaupt eine einzigartige wissenschaftliche Methode gibt. Beide unglücklichen Aussichten sind auf die Tatsache zurückzuführen, dass die wissenschaftlichen Aktivitäten je nach Disziplin, Zeit, Ort und Wissenschaftler so unterschiedlich sind, dass jeder Bericht, der es schafft, alles zu vereinheitlichen, entweder aus überwältigenden beschreibenden Details oder trivialen Verallgemeinerungen besteht.

Die Wahl des Anwendungsbereichs für den vorliegenden Eintrag ist optimistischer und orientiert sich an der jüngsten Bewegung in der Wissenschaftsphilosophie hin zu einer stärkeren Beachtung der Praxis: dem, was Wissenschaftler tatsächlich tun. Diese „Hinwendung zur Praxis“kann als die neueste Form des Studiums von Methoden in der Wissenschaft angesehen werden, sofern sie einen Versuch darstellt, die wissenschaftliche Tätigkeit zu verstehen, jedoch durch Berichte, die weder universell und einheitlich noch singulär und eng beschreibend sein sollen. In gewissem Maße kann gesagt werden, dass verschiedene Wissenschaftler zu unterschiedlichen Zeiten und an unterschiedlichen Orten dieselbe Methode anwenden, obwohl in der Praxis die Details unterschiedlich sind.

Ob der Kontext, in dem Methoden durchgeführt werden, überhaupt relevant ist oder in welchem Umfang dies der Fall sein wird, hängt weitgehend davon ab, wie man die Ziele der Wissenschaft sieht und welche eigenen Ziele man verfolgt. Für den größten Teil der Geschichte der wissenschaftlichen Methodik wurde angenommen, dass das wichtigste Ergebnis der Wissenschaft das Wissen ist. Daher sollte das Ziel der Methodik darin bestehen, die Methoden zu entdecken, mit denen wissenschaftliches Wissen erzeugt wird.

Die Wissenschaft verkörperte die erfolgreichste Form des Denkens (aber welche Form?) Für die sichersten Wissensansprüche (aber wie sicher?) Auf der Grundlage systematisch gesammelter Beweise (aber was zählt als Beweis und sollte insbesondere der Beweis sein) der Sinne oder eher der rationalen Einsicht haben Vorrang?) Abschnitt 2 gibt einen Überblick über einen Teil der Geschichte und verweist auf zwei Hauptthemen. Ein Thema ist die Suche nach dem richtigen Gleichgewicht zwischen Beobachtung und Argumentation (und den damit verbundenen Argumentationsformen, die sie verwenden). Das andere ist, wie bestimmte wissenschaftliche Erkenntnisse sind oder sein können.

Abschnitt 3 Umdrehungen bis 20 - ten Jahrhundert Debatten über wissenschaftliche Methode. In der zweiten Hälfte des 20 ..Jahrhundert stand das epistemische Privileg der Wissenschaft vor mehreren Herausforderungen und viele Wissenschaftsphilosophen gaben die Rekonstruktion der Logik der wissenschaftlichen Methode auf. Die Ansichten darüber, welche Funktionen der Wissenschaft erfasst werden sollten und warum, haben sich erheblich geändert. Für einige war der Erfolg der Wissenschaft besser mit sozialen oder kulturellen Merkmalen zu identifizieren. Historische und soziologische Wendungen in der Wissenschaftsphilosophie wurden mit der Forderung gemacht, den nicht-epistemischen Aspekten der Wissenschaft wie soziologischen, institutionellen, materiellen und politischen Faktoren größere Aufmerksamkeit zu widmen. Auch außerhalb dieser Bewegungen gab es eine zunehmende Spezialisierung auf die Wissenschaftsphilosophie, wobei der Schwerpunkt immer mehr auf bestimmten Bereichen der Wissenschaft lag. Das kombinierte Ergebnis war, dass nur noch wenige Philosophen für eine großartige einheitliche Wissenschaftsmethodik plädierten. In den Abschnitten 3 und 4 werden die wichtigsten Positionen zur wissenschaftlichen Methode in 20ten Jahrhundert Philosophie der Wissenschaft, die sich auf, wo sie in ihrer Präferenz für die Bestätigung oder Fälschung unterscheiden oder für ganz die Idee einer speziellen wissenschaftlichen Methode verzichtet.

In den letzten Jahrzehnten wurde vor allem wissenschaftlichen Aktivitäten Aufmerksamkeit geschenkt, die traditionell unter die Rubrik Methode fallen, wie z. B. Versuchsplanung und allgemeine Laborpraxis, Verwendung von Statistiken, Erstellung und Verwendung von Modellen und Diagrammen, interdisziplinäre Zusammenarbeit und Wissenschaftskommunikation. In den Abschnitten 4–6 wird versucht, eine Karte der aktuellen Bereiche des Studiums methodischer Methoden zu erstellen.

Wie diese Abschnitte zeigen, ist die Frage der Methode immer noch von zentraler Bedeutung für den wissenschaftlichen Diskurs. Die wissenschaftliche Methode bleibt ein Thema für die Bildung, für die Wissenschaftspolitik und für Wissenschaftler. Es entsteht im öffentlichen Bereich, wo es um die Abgrenzung der Wissenschaft geht. Einige Philosophen sind daher kürzlich auf die Frage zurückgekehrt, was die Wissenschaft zu einem einzigartigen Kulturprodukt macht. Dieser Eintrag schließt mit einigen dieser jüngsten Versuche, die Aktivitäten zu erkennen und zusammenzufassen, mit denen wissenschaftliche Erkenntnisse gewonnen werden.

2. Historischer Rückblick: Aristoteles zu Mühle

Der Versuch einer Geschichte wissenschaftlicher Methoden verstärkt den weiten Bereich des Themas. Dieser Abschnitt gibt einen kurzen Überblick über die Hintergründe moderner methodischer Debatten. Was als klassische Sichtweise bezeichnet werden kann, reicht bis in die Antike zurück und ist ein Ausgangspunkt für spätere Abweichungen. [1]

Wir beginnen mit einem Punkt, den Laudan (1968) in seinem historischen Überblick über wissenschaftliche Methoden angesprochen hat:

Die vielleicht schwerwiegendste Hemmung für die Entstehung der Geschichte der Theorien der wissenschaftlichen Methode als ein respektables Forschungsgebiet war die Tendenz, sie mit der allgemeinen Geschichte der Erkenntnistheorie zu verschmelzen, wobei angenommen wurde, dass die narrativen Kategorien und klassifizierenden Taubenlöcher für die Letztere sind auch grundlegend für die ersteren. (1968: 5)

Wissen über die natürliche Welt allgemein als unter Wissen fallend zu betrachten, ist eine verständliche Verschmelzung. Geschichten von Methodentheorien würden natürlich die gleichen narrativen Kategorien und klassifizierenden Taubenlöcher verwenden. Ein wichtiges Thema der erkenntnistheoretischen Geschichte ist beispielsweise die Vereinheitlichung des Wissens, ein Thema, das sich in der Frage der Vereinheitlichung der Methode in der Wissenschaft widerspiegelt. Diejenigen, die Unterschiede in den Arten von Wissen festgestellt haben, haben oft auch verschiedene Methoden identifiziert, um diese Art von Wissen zu erlangen (siehe den Eintrag über die Einheit der Wissenschaft).

Bezogen auf die Vielfalt dessen, was bekannt ist und wie, gibt es Unterschiede darüber, was bekannt sein kann. Platon (429–347 v. Chr.) Unterteilte die Bereiche der Dinge in das Sichtbare und das Verständliche. Nur letztere, die Formen, könnten Objekte des Wissens sein. Die verständlichen Wahrheiten könnten mit der Gewissheit der Geometrie und des deduktiven Denkens bekannt sein. Was jedoch von der materiellen Welt beobachtet werden konnte, war per Definition unvollkommen und trügerisch, nicht ideal. Die platonische Art des Wissens betonte daher das Denken als Methode und spielte die Bedeutung der Beobachtung herunter. Aristoteles (384–322 v. Chr.) War anderer Meinung und lokalisierte die Formen in der natürlichen Welt als die Grundprinzipien, die durch die Untersuchung der Natur entdeckt werden sollten.

Aristoteles gilt als die früheste systematische Abhandlung über die Natur der wissenschaftlichen Forschung in der westlichen Tradition, die Beobachtung und Argumentation über die natürliche Welt umfasste. In der Prior- und Posterior-Analytik reflektiert Aristoteles zuerst die Ziele und dann die Methoden der Naturforschung. Es gibt eine Reihe von Merkmalen, die von den meisten immer noch als wesentlich für die Wissenschaft angesehen werden. Für Aristoteles ist Empirismus, sorgfältige Beobachtung (aber passive Beobachtung, nicht kontrolliertes Experiment) der Ausgangspunkt, obwohl das Ziel nicht nur die Aufzeichnung von Fakten ist. Wissenschaft (epistêmê) ist für Aristoteles ein Körper ordentlich angeordneten Wissens oder Lernens - die empirischen Fakten, aber auch ihre Reihenfolge und Darstellung sind von entscheidender Bedeutung. Die Ziele der Entdeckung, Ordnung,Die Darstellung von Fakten bestimmt teilweise die Methoden, die für eine erfolgreiche wissenschaftliche Untersuchung erforderlich sind. Determinant ist auch die Art des gesuchten Wissens und die für diese Art von Wissen geeigneten erklärenden Ursachen (siehe die Erörterung der vier Ursachen im Eintrag über Aristoteles zur Kausalität).

Zusätzlich zur sorgfältigen Beobachtung erfordert die wissenschaftliche Methode eine Logik als Argumentationssystem, um das, was durch Beobachtung bekannt ist, richtig anzuordnen, aber auch darüber hinaus zu schließen. Argumentationsmethoden können unter anderem Induktion, Vorhersage oder Analogie umfassen. Aristoteles 'System (zusammen mit seinem Katalog trügerischer Argumentation) wurde unter dem Titel Organon gesammelt. Dieser Titel wird in späteren Arbeiten zum wissenschaftlichen Denken wie Novum Organon von Francis Bacon und Novum Organon Restorum von William Whewell (siehe unten) wiederholt. Im Organon wird das Denken hauptsächlich in zwei Formen unterteilt, eine grobe Unterteilung, die bis in die Neuzeit anhält. Die Unterteilung, die heute am häufigsten als deduktive versus induktive Methode bekannt ist, erscheint in anderen Epochen und Methoden als Analyse / Synthese, nicht ampliativ / ampliativ,oder sogar Bestätigung / Verifikation. Die Grundidee ist, dass es bei unseren Untersuchungsmethoden zwei „Richtungen“gibt: eine weg von dem, was beobachtet wird, hin zu den grundlegenderen, allgemeineren und umfassenderen Prinzipien; die andere führt von den grundlegenden und allgemeinen zu anderen möglichen spezifischen Instanziierungen dieser Prinzipien.

Das grundlegende Ziel und die Methode der Untersuchung, die hier identifiziert wurden, können als ein Thema angesehen werden, das sich über die nächsten zwei Jahrtausende der Reflexion über den richtigen Weg zur Suche nach Wissen erstreckt: Beobachten Sie die Natur sorgfältig und suchen Sie dann nach Regeln oder Prinzipien, die ihre Funktionsweise erklären oder vorhersagen. Das aristotelische Korpus bildete den Rahmen für eine Kommentartradition zu wissenschaftlichen Methoden, die von der Wissenschaft selbst (ihrer Physik und ihrem Kosmos) unabhängig sind. Im Mittelalter waren Figuren wie Albertus Magnus (1206–1280), Thomas von Aquin (1225–1274) und Robert Grosseteste (1175–1253), Roger Bacon (1214 / 1220–1292), Wilhelm von Ockham (1287–1347), Andreas Vesalius (1514–1546) und Giacomo Zabarella (1533–1589) arbeiteten alle daran, die Art des Wissens zu klären, das könnte durch Beobachtung und Induktion erhalten werden, die Quelle der Rechtfertigung der Induktion,und die besten Regeln für seine Anwendung.[2] Viele ihrer Beiträge halten wir heute für wesentlich für die Wissenschaft (siehe auch Laudan 1968). Da Aristoteles und Platon einen Denkrahmen entweder „zu den Formen“oder „weg von den Formen“verwendet hatten, verwendeten mittelalterliche Denker Richtungen weg von den Phänomenen oder zurück zu den Phänomenen. In der Analyse wurde ein Phänomen untersucht, um seine grundlegenden Erklärungsprinzipien zu entdecken. In der Synthese wurden Erklärungen eines Phänomens aus ersten Prinzipien konstruiert.

Während der wissenschaftlichen Revolution wurden diese verschiedenen Argumentations-, Experimentier- und Vernunftstränge zu einer dominanten epistemischen Autorität. Die 16 th -18 thJahrhunderte waren nicht nur eine Zeit dramatischen Fortschritts des Wissens über die Funktionsweise der natürlichen Welt - Fortschritte bei mechanischen, medizinischen, biologischen, politischen, wirtschaftlichen Erklärungen -, sondern auch des Selbstbewusstseins für die stattfindenden revolutionären Veränderungen und der intensiven Reflexion über die Quelle und Legitimation der Methode, mit der die Fortschritte erzielt wurden. Der Kampf um die Errichtung der neuen Autorität beinhaltete methodische Schritte. Das Buch der Natur wurde nach der Metapher von Galileo Galilei (1564–1642) oder Francis Bacon (1561–1626) in der Sprache der Mathematik, der Geometrie und der Zahl geschrieben. Dies motivierte die Betonung der mathematischen Beschreibung und der mechanischen Erklärung als wichtige Aspekte der wissenschaftlichen Methode. Durch Figuren wie Henry More und Ralph Cudworth,Eine neoplatonische Betonung der Bedeutung der metaphysischen Reflexion der Natur hinter den Erscheinungen, insbesondere in Bezug auf das Geistige als Ergänzung zur rein mechanischen, blieb ein wichtiger methodischer Faden der wissenschaftlichen Revolution (siehe die Einträge zu Cambridge-Platonikern; Boyle; Henry More; Galileo).

In Novum Organum (1620) kritisierte Bacon die aristotelische Methode, zu schnell voranzukommen und von Einzelheiten zu Universalien zu springen, was weitgehend durch die syllogistische Form des Denkens vorgegeben ist, die diese beiden Arten von Aussagen regelmäßig vermischte. Bacon zielte auf die Erfindung neuer Künste, Prinzipien, Bezeichnungen und Anweisungen für Werke ab. Seine Methode würde auf einer methodischen Sammlung von Daten und Beobachtungen beruhen, verbunden mit einer Korrektur unserer Sinne (und insbesondere auf Einschränkungen zur Vermeidung der Idole, wie er sie nannte, Arten systematischer Fehler, für die naive Beobachter anfällig sind) von Wissenschaftlern könnte dann durch einen vorsichtigen, allmählichen und ungebrochenen Aufstieg zu verlässlichen allgemeinen Behauptungen aufsteigen.

Bacons Methode wurde als unpraktisch und für jeden lebenden, praktizierenden Wissenschaftler zu unflexibel kritisiert. Whewell kritisierte Bacon später in seinem System of Logic dafür, dass er den Praktiken von Wissenschaftlern zu wenig Aufmerksamkeit schenkte. Es ist schwer, überzeugenden Beispiele von Bacons Methode zu finden, in der Geschichte der Wissenschaft in der Praxis umgesetzt werden, aber es gibt ein paar, die als reale Beispiele von 16 gehalten wurden th Jahrhundert wissenschaftlich, induktive Methode, wenn auch nicht in dem starren Baconian Schimmel: Figuren wie Robert Boyle (1627–1691) und William Harvey (1578–1657) (siehe Eintrag zu Bacon).

Isaac Newton (1642–1727) haben jedoch Wissenschaftshistoriker und Methodologen bei weitem die größte Aufmerksamkeit geschenkt. Angesichts des enormen Erfolgs seiner Principia Mathematica und Opticks ist dies verständlich. Die Untersuchung der Newtonschen Methode hatte zwei Hauptschübe: die implizite Methode der Experimente und Überlegungen, die in den Opticks vorgestellt wurden, und die expliziten methodischen Regeln, die in Buch III der Principia als Regeln für das Philosophieren (die Regulae) angegeben sind. [3]Newtons Gravitationsgesetz, der Dreh- und Angelpunkt seiner neuen Kosmologie, brach mit erklärenden Konventionen der Naturphilosophie, zunächst, weil er anscheinend Fernwirkung vorschlug, aber allgemeiner, weil er keine „wahren“physikalischen Ursachen lieferte. Das Argument für sein System der Welt (Principia, Buch III) basierte auf Phänomenen, nicht auf begründeten ersten Prinzipien. Dies wurde (hauptsächlich auf dem Kontinent) als unzureichend für die richtige Naturphilosophie angesehen. Die Regulae wirken diesem Einwand entgegen und definieren die Ziele der Naturphilosophie neu, indem sie die Methode neu definieren, der Naturphilosophen folgen sollten.

  • Regel I: Es sollten nicht mehr Ursachen für natürliche Dinge zugelassen werden, als sowohl wahr als auch ausreichend sind, um ihre Phänomene zu erklären.
  • Regel II: Daher müssen die Ursachen, die natürlichen Wirkungen derselben Art zugeordnet werden, so weit wie möglich dieselben sein.
  • Regel III: Die Eigenschaften von Körpern, die nicht beabsichtigt und erlassen werden können und die zu allen Körpern gehören, an denen Experimente durchgeführt werden können, sollten allgemein als Eigenschaften aller Körper angesehen werden.
  • Regel IV: In der experimentellen Philosophie sollten Sätze, die durch Induktion aus Phänomenen gewonnen wurden, ungeachtet gegenteiliger Hypothesen als genau oder nahezu wahr angesehen werden, bis andere Phänomene solche Sätze entweder genauer machen oder Ausnahmen unterliegen.

Zu seiner Liste methodischer Vorschriften sollte Newtons berühmter Ausdruck "Hypothesen non fingo" (allgemein übersetzt als "Ich rahme keine Hypothesen") hinzugefügt werden. Der Wissenschaftler sollte keine Systeme erfinden, sondern Erklärungen aus Beobachtungen ableiten, wie Bacon befürwortet hatte. Dies würde als Induktivismus bekannt werden. Im Jahrhundert nach Newton wurden signifikante Klarstellungen der Newtonschen Methode vorgenommen. Colin Maclaurin (1698–1746) rekonstruierte beispielsweise die wesentliche Struktur der Methode so, dass sie komplementäre Analyse- und Synthesephasen aufweist, wobei eine von den Phänomenen der Verallgemeinerung ausgeht, die andere von den allgemeinen Aussagen, um Erklärungen für neue Phänomene abzuleiten. Denis Diderot (1713–1784) und Herausgeber der Encyclopédie haben viel zur Konsolidierung und Popularisierung des Newtonianismus beigetragen, ebenso wie Francesco Algarotti (1721–1764). Die Betonung war oft dieselbe, sowohl auf den Charakter des Wissenschaftlers als auch auf seinen Prozess, ein Charakter, der immer noch allgemein angenommen wird. Der Wissenschaftler ist demütig gegenüber der Natur, nicht dem Dogma verpflichtet, gehorcht nur seinen Augen und folgt der Wahrheit, wohin sie führt. Es waren sicherlich Voltaire (1694–1778) und du Chatelet (1706–1749), die die letztgenannte Vision des Wissenschaftlers und seines Handwerks mit Newton als Helden am meisten propagierten. Die wissenschaftliche Methode wurde zu einer revolutionären Kraft der Aufklärung. (Siehe auch die Einträge zu Newton, Leibniz, Descartes, Boyle, Hume, Erleuchtung sowie Shank 2008 für einen historischen Überblick.)gehorcht nur seinen Augen und folgt der Wahrheit, wohin sie führt. Es waren sicherlich Voltaire (1694–1778) und du Chatelet (1706–1749), die die letztgenannte Vision des Wissenschaftlers und seines Handwerks mit Newton als Helden am meisten propagierten. Die wissenschaftliche Methode wurde zu einer revolutionären Kraft der Aufklärung. (Siehe auch die Einträge zu Newton, Leibniz, Descartes, Boyle, Hume, Erleuchtung sowie Shank 2008 für einen historischen Überblick.)gehorcht nur seinen Augen und folgt der Wahrheit, wohin sie führt. Es waren sicherlich Voltaire (1694–1778) und du Chatelet (1706–1749), die die letztgenannte Vision des Wissenschaftlers und seines Handwerks mit Newton als Helden am meisten propagierten. Die wissenschaftliche Methode wurde zu einer revolutionären Kraft der Aufklärung. (Siehe auch die Einträge zu Newton, Leibniz, Descartes, Boyle, Hume, Erleuchtung sowie Shank 2008 für einen historischen Überblick.)sowie Shank 2008 für einen historischen Überblick.)sowie Shank 2008 für einen historischen Überblick.)

Nicht alle 18 th Jahrhundert Reflexionen über wissenschaftliche Methode waren so feierlich. Berühmt sind auch George Berkeleys (1685–1753) Angriff auf die Mathematik der neuen Wissenschaft sowie die Überbetonung der Beobachtung durch Newtonianer; und David Humes (1711–1776) Untergrabung des für wissenschaftliche Ansprüche angebotenen Haftbefehls durch induktive Rechtfertigung (siehe die Einträge zu: George Berkeley; David Hume; Humes Newtonianismus und Anti-Newtonianismus). Humes Induktionsproblem motivierte Immanuel Kant (1724–1804), nach neuen Grundlagen für empirische Methoden zu suchen, allerdings als epistemische Rekonstruktion und nicht als praktischer Leitfaden für Wissenschaftler. Sowohl Hume als auch Kant beeinflussten die methodischen Überlegungen des nächsten Jahrhunderts, wie die Debatte zwischen Mill und Whewell über die Gewissheit induktiver Schlussfolgerungen in der Wissenschaft.

Die Debatte zwischen John Stuart Mill (1806–1873) und William Whewell (1794–1866) ist zur kanonischen methodologischen Debatte des 19. Jahrhunderts gewordenJahrhundert. Obwohl oft als Debatte zwischen Induktivismus und Hypothetisch-Deduktivismus charakterisiert, ist die Rolle der beiden Methoden auf jeder Seite tatsächlich komplexer. Auf der hypothetisch-deduktiven Rechnung arbeiten Wissenschaftler daran, Hypothesen zu entwickeln, aus denen echte Beobachtungsfolgen abgeleitet werden können - daher hypothetisch-deduktiv. Da Whewell in seinem Methodenbericht sowohl Hypothesen als auch Deduktionen hervorhebt, kann er als eine bequeme Folie für den Induktivismus von Mill angesehen werden. Genauso, wenn nicht sogar wichtiger für Whewells Darstellung der wissenschaftlichen Methode ist das, was er als "fundamentale Antithese" bezeichnet. Wissen ist ein Produkt des Ziels (was wir in der Welt um uns herum sehen) und des Subjektiven (die Beiträge unseres Geistes dazu, wie wir das, was wir erleben, wahrnehmen und verstehen, was er die Grundideen nannte). Beide Elemente sind laut Whewell wesentlich, und er kritisierte Kant daher, weil er sich zu sehr auf das Subjektive konzentrierte, und John Locke (1632–1704) und Mill, weil er sich zu sehr auf die Sinne konzentrierte. Ein interessanter Aspekt von Whewells Grundgedanken ist, dass sie relativ zu Disziplin sein können. Eine Idee kann grundlegend sein, auch wenn sie nur innerhalb einer bestimmten wissenschaftlichen Disziplin (z. B. chemische Affinität zur Chemie) für Wissen erforderlich ist. (Dies unterscheidet grundlegende Ideen von den Formen und Kategorien der Intuition von Kant. Siehe Whewell-Eintrag.)Eine Idee kann grundlegend sein, auch wenn sie nur innerhalb einer bestimmten wissenschaftlichen Disziplin (z. B. chemische Affinität zur Chemie) für Wissen erforderlich ist. (Dies unterscheidet grundlegende Ideen von den Formen und Kategorien der Intuition von Kant. Siehe Whewell-Eintrag.)Eine Idee kann grundlegend sein, auch wenn sie nur innerhalb einer bestimmten wissenschaftlichen Disziplin (z. B. chemische Affinität zur Chemie) für Wissen erforderlich ist. (Dies unterscheidet grundlegende Ideen von den Formen und Kategorien der Intuition von Kant. Siehe Whewell-Eintrag.)

Die Klärung grundlegender Ideen ist daher ein wesentlicher Bestandteil der wissenschaftlichen Methode und des wissenschaftlichen Fortschritts. Whewell nannte diesen Prozess "Discoverer's Induction". Es war eine Induktion nach Bacon oder Newton, aber Whewell versuchte, Bacons Bericht wiederzubeleben, indem er die Rolle von Ideen bei der klaren und sorgfältigen Formulierung induktiver Hypothesen betonte. Whewells Induktion ist nicht nur das Sammeln objektiver Fakten. Das Subjektive spielt eine Rolle durch das, was Whewell die Kolligation von Tatsachen nennt, einen kreativen Akt des Wissenschaftlers, die Erfindung einer Theorie. Eine Theorie wird dann durch Testen bestätigt, wobei mehr Fakten unter die Theorie gebracht werden, die als Konsilienz der Induktionen bezeichnet wird. Whewell war der Ansicht, dass dies die Methode war, mit der die wahren Naturgesetze entdeckt werden konnten: Klärung grundlegender Konzepte, geschickte Erfindung von Erklärungen,und sorgfältige Prüfung. Mill scheint in seiner Kritik an Whewell und anderen, die Whewell als Vorreiter der hypothetisch-deduktivistischen Sichtweise angesehen haben, die Bedeutung dieser Entdeckungsphase für Whewells Methodenverständnis unterschätzt zu haben (Snyder 1997a, b, 1999)). Das Herunterspielen der Entdeckungsphase würde die Methodik der frühen 20er Jahre charakterisierenten Jahrhundert (siehe Abschnitt 3).

Mill vertritt in seinem System der Logik stattdessen eine engere Auffassung von Induktion als der Essenz wissenschaftlicher Methoden. Induktion ist für Mill die erste Suche nach Regelmäßigkeiten zwischen Ereignissen. Einige dieser Regelmäßigkeiten werden weiterhin für weitere Beobachtungen gelten und schließlich den Status von Gesetzen erlangen. Man kann auch nach Regelmäßigkeiten zwischen den in einem Bereich entdeckten Gesetzen suchen, dh nach einem Gesetz der Gesetze. Welches „Gesetz“gilt, ist zeit- und disziplinabhängig und sollte zur Überarbeitung offen gehalten werden. Ein Beispiel ist das Gesetz der universellen Verursachung, und Mill schlug spezifische Methoden zur Identifizierung von Ursachen vor, die heute allgemein als Mills Methoden bekannt sind. Diese fünf Methoden suchen nach Umständen, die unter den interessierenden Phänomenen gemeinsam sind, nach solchen, die fehlen, wenn die Phänomene vorliegen, oder nach solchen, bei denen beide zusammen variieren. Mills Methoden werden immer noch als Erfassung grundlegender Intuitionen über experimentelle Methoden zur Ermittlung der relevanten Erklärungsfaktoren angesehen (System of Logic (1843), siehe Mill-Eintrag). Die von Whewell und Mill empfohlenen Methoden sehen am Ende ähnlich aus. Beide beinhalten die Einführung und Verallgemeinerung von Gesetzen. Sie unterscheiden sich jedoch dramatisch in Bezug auf die Notwendigkeit des erreichten Wissens; das heißt, auf metamethodologischer Ebene (siehe die Einträge zu Whewell- und Mill-Einträgen).das heißt, auf metamethodologischer Ebene (siehe die Einträge zu Whewell- und Mill-Einträgen).das heißt, auf metamethodologischer Ebene (siehe die Einträge zu Whewell- und Mill-Einträgen).

3. Logik der Methode und kritische Antworten

Die Quanten und relativistische Revolutionen in der Physik im frühen 20. th Jahrhundert hatten einen profunden Effekt auf Methodik. Die konzeptionellen Grundlagen dieser beiden physikalischen Theorien wurden verwendet, um die Unlösbarkeit selbst der scheinbar sichersten vernünftigen Intuitionen über Raum, Zeit und physische Körper zu zeigen. Die Gewissheit des Wissens über die natürliche Welt wurde daher als unerreichbar anerkannt, und stattdessen wurde ein erneuter Empirismus angestrebt, der die Wissenschaft fehlbar, aber gleichzeitig rational gerechtfertigt machte.

Um dies zu unterstützen, wurde eine Analyse der Argumentation von Wissenschaftlern durchgeführt, wonach die Aspekte der wissenschaftlichen Methode, die von vorrangiger Bedeutung waren, das Mittel zum Testen und Bestätigen von Theorien waren. In der Methodik wurde zwischen den Kontexten der Entdeckung und der Rechtfertigung unterschieden. Die Unterscheidung könnte als Keil zwischen einerseits den Besonderheiten, wo und wie Theorien oder Hypothesen zustande kommen, und andererseits den zugrunde liegenden Argumentationswissenschaftlern (unabhängig davon, ob sie sich dessen bewusst sind oder nicht) bei der Bewertung von Theorien verwendet werden und Beurteilung ihrer Angemessenheit auf der Grundlage der verfügbaren Beweise. Im Großen und Ganzen für den größten Teil des 20 ..Jahrhundert konzentrierte sich die Wissenschaftsphilosophie auf den zweiten Kontext, obwohl sich die Philosophen darin unterschieden, ob sie sich auf Bestätigung oder Widerlegung konzentrieren sollten sowie auf die vielen Details, wie Bestätigung oder Widerlegung herbeigeführt werden konnte oder nicht. Durch die Mitte des 20. ten Jahrhunderts diese Versuche, das Verfahren zur Rechtfertigung der Definition und den Kontext Unterscheidung selbst unter Druck gerieten. Im gleichen Zeitraum entwickelte sich die Wissenschaftsphilosophie rasch, und ab Abschnitt 4 wird sich dieser Eintrag daher von einer primär historischen Behandlung der wissenschaftlichen Methode zu einer primär thematischen verschieben.

3.1 Logischer Konstruktionismus und Operationalismus

Fortschritte in Logik und Wahrscheinlichkeit versprachen die Möglichkeit einer detaillierten Rekonstruktion wissenschaftlicher Theorien und empirischer Methoden. Das beste Beispiel dafür ist Rudolf Carnaps Die logische Struktur der Welt (1928). Hier versuchte Carnap zu zeigen, dass eine wissenschaftliche Theorie als formales axiomatisches System verstanden werden kann, dh als Logik. Soweit sich dieses System auf die Welt bezog, tat es dies, weil einige seiner Grundsätze als Beobachtungen oder Operationen verstanden werden konnten, die man ausführen konnte, um sie zu testen. Der Rest des theoretischen Systems, einschließlich Sätzen mit theoretischen oder nicht beobachtbaren Begriffen (wie Elektron oder Kraft), wäre dann entweder sinnvoll, weil sie auf Beobachtungen reduziert werden könnten, oder sie hatten rein logische Bedeutungen (analytisch genannt, wie mathematische Identitäten). Dies wurde als Überprüfbarkeitskriterium der Bedeutung bezeichnet. Nach dem Kriterium war jede Aussage, die weder analytisch noch überprüfbar war, streng bedeutungslos. Obwohl die Ansicht 1928 von Carnap gebilligt wurde, sah er sie später als zu restriktiv an (Carnap 1956). Eine andere bekannte Version dieser Idee ist der Operationalismus von Percy William Bridgman. In The Logic of Modern Physics (1927) behauptete Bridgman, dass jedes physikalische Konzept in Bezug auf die Operationen definiert werden könne, die man ausführen würde, um die Anwendung dieses Konzepts zu verifizieren. Die Operationalisierung eines Konzepts auch nur so einfach wie die Länge zu machen, kann jedoch leicht enorm komplex (zum Beispiel zum Messen sehr kleiner Längen) oder unpraktisch (zum Messen großer Entfernungen wie Lichtjahre) werden. Jede Aussage, die weder analytisch noch überprüfbar war, war streng bedeutungslos. Obwohl die Ansicht 1928 von Carnap gebilligt wurde, sah er sie später als zu restriktiv an (Carnap 1956). Eine andere bekannte Version dieser Idee ist der Operationalismus von Percy William Bridgman. In The Logic of Modern Physics (1927) behauptete Bridgman, dass jedes physikalische Konzept in Bezug auf die Operationen definiert werden könne, die man ausführen würde, um die Anwendung dieses Konzepts zu verifizieren. Die Operationalisierung eines Konzepts auch nur so einfach wie die Länge zu machen, kann jedoch leicht enorm komplex (zum Beispiel zum Messen sehr kleiner Längen) oder unpraktisch (zum Messen großer Entfernungen wie Lichtjahre) werden. Jede Aussage, die weder analytisch noch überprüfbar war, war streng bedeutungslos. Obwohl die Ansicht 1928 von Carnap gebilligt wurde, sah er sie später als zu restriktiv an (Carnap 1956). Eine andere bekannte Version dieser Idee ist der Operationalismus von Percy William Bridgman. In The Logic of Modern Physics (1927) behauptete Bridgman, dass jedes physikalische Konzept in Bezug auf die Operationen definiert werden könne, die man ausführen würde, um die Anwendung dieses Konzepts zu verifizieren. Die Operationalisierung eines Konzepts auch nur so einfach wie die Länge zu machen, kann jedoch leicht enorm komplex (zum Beispiel zum Messen sehr kleiner Längen) oder unpraktisch (zum Messen großer Entfernungen wie Lichtjahre) werden.er würde es später als zu restriktiv ansehen (Carnap 1956). Eine andere bekannte Version dieser Idee ist der Operationalismus von Percy William Bridgman. In The Logic of Modern Physics (1927) behauptete Bridgman, dass jedes physikalische Konzept in Bezug auf die Operationen definiert werden könne, die man ausführen würde, um die Anwendung dieses Konzepts zu verifizieren. Die Operationalisierung eines Konzepts auch nur so einfach wie die Länge zu machen, kann jedoch leicht enorm komplex (zum Beispiel zum Messen sehr kleiner Längen) oder unpraktisch (zum Messen großer Entfernungen wie Lichtjahre) werden.er würde es später als zu restriktiv ansehen (Carnap 1956). Eine andere bekannte Version dieser Idee ist der Operationalismus von Percy William Bridgman. In The Logic of Modern Physics (1927) behauptete Bridgman, dass jedes physikalische Konzept in Bezug auf die Operationen definiert werden könne, die zur Überprüfung der Anwendung dieses Konzepts ausgeführt würden. Die Operationalisierung eines Konzepts auch nur so einfach wie die Länge zu machen, kann jedoch leicht enorm komplex (zum Beispiel zum Messen sehr kleiner Längen) oder unpraktisch (zum Messen großer Entfernungen wie Lichtjahre) werden. Die Operationalisierung eines Konzepts auch nur so einfach wie die Länge zu machen, kann jedoch leicht enorm komplex (zum Beispiel zum Messen sehr kleiner Längen) oder unpraktisch (zum Messen großer Entfernungen wie Lichtjahre) werden. Die Operationalisierung eines Konzepts auch nur so einfach wie die Länge zu machen, kann jedoch leicht enorm komplex (zum Beispiel zum Messen sehr kleiner Längen) oder unpraktisch (zum Messen großer Entfernungen wie Lichtjahre) werden.

Carl Hempels (1950, 1951) Kritik am Überprüfbarkeitskriterium der Bedeutung hatte enormen Einfluss. Er wies darauf hin, dass universelle Verallgemeinerungen, wie die meisten wissenschaftlichen Gesetze, für das Kriterium nicht unbedingt von Bedeutung seien. Überprüfbarkeit und Operationalismus schienen beide zu restriktiv, um die üblichen wissenschaftlichen Ziele und Praktiken zu erfassen. Und die schwache Verbindung zwischen diesen Rekonstruktionen und der tatsächlichen wissenschaftlichen Praxis wurde auf andere Weise kritisiert. In beiden Ansätzen werden wissenschaftliche Methoden stattdessen in methodischen Rollen neu gefasst. Messungen wurden zum Beispiel als Mittel angesehen, um Begriffen Bedeutungen zu geben. Das Ziel des Wissenschaftsphilosophen war es nicht, die Methoden an sich zu verstehen, sondern sie zu verwenden, um Theorien, ihre Bedeutungen und ihre Beziehung zur Welt zu rekonstruieren. Wenn Wissenschaftler diese Operationen jedoch durchführen,Sie werden nicht berichten, dass sie dies tun, um Begriffen in einem formalen axiomatischen System Bedeutung zu verleihen. Diese Trennung zwischen Methodik und den Details der tatsächlichen wissenschaftlichen Praxis scheint den Empirismus zu verletzen, dem sich die Logical Positivists oder Bridgman verschrieben hatten. Die Ansicht, dass Methodik (in gewissem Maße) der Praxis entsprechen sollte, wurde als Historismus oder Intuitionismus bezeichnet. Wir wenden uns diesen Kritikpunkten und Antworten in Abschnitt 3.4 zu. Wir wenden uns diesen Kritikpunkten und Antworten in Abschnitt 3.4 zu. Wir wenden uns diesen Kritikpunkten und Antworten in Abschnitt 3.4 zu.[4]

Der Positivismus musste sich auch mit der Erkenntnis auseinandersetzen, dass ein rein induktivistischer Ansatz nach dem Vorbild von Bacon-Newton-Mill unhaltbar war. Für den Anfang gab es keine reine Beobachtung. Alle Beobachtungen waren theoretisch beladen. Die Theorie ist für jede Beobachtung erforderlich, daher kann nicht jede Theorie allein aus der Beobachtung abgeleitet werden. (Siehe auch den Eintrag zu Theorie und Beobachtung in der Wissenschaft). Selbst unter Berücksichtigung einer Beobachtungsgrundlage hatte Hume bereits darauf hingewiesen, dass man nicht für induktive Schlussfolgerungen argumentieren könne, ohne die Frage zu stellen, indem man den Erfolg der induktiven Methode voraussetzt. Ebenso wurden positivistische Versuche, zu analysieren, wie eine Verallgemeinerung durch Beobachtungen ihrer Instanzen bestätigt werden kann, kritisiert. In seinem Induktionsrätsel wies Goodman (1965) darauf hin, dass für eine Reihe von BeobachtungenEs wird mehrere Hypothesen geben, die gleichermaßen unterstützt werden. Zum Beispiel würde die Beobachtung, dass alle vor heute untersuchten Smaragde grün waren, die beiden Verallgemeinerungen "Alle Smaragde sind grün" und "Alle Smaragde sind grün" unterstützen, wobei "x ist grün", wenn entweder x vor heute untersucht wurde und grün ist oder x wurde bis heute nicht untersucht und ist blau. Goodman schlug vor, zwischen Verallgemeinerungen, die von ihren Instanzen unterstützt wurden, und solchen, die nicht durch Vergleich der Verankerung ihrer Prädikate unterstützt wurden, zu unterscheiden, dh dem Grad, in dem sie Teil von Verallgemeinerungen waren, die erfolgreich projiziert wurden, um neue Instanzen zu berücksichtigen. Auf diese Weise könnte "alle Smaragde sind grün" als fester verwurzelt als "alle Smaragde sind grün" unterschieden werden. Im 'Raven Paradox',Hempel (1965) wies darauf hin, dass eine Beobachtung, die eine bestimmte Hypothese bestätigt, auch alle anderen Hypothesen bestätigt, die logisch äquivalent dazu sind. Beispielsweise entspricht die Verallgemeinerung "Alle Raben sind schwarz" logisch der Verallgemeinerung "Alle nicht schwarzen Objekte sind keine Raben", und die Beobachtung eines schwarzen Raben, eines roten Herings und eines weißen Schuhs würde daher die Hypothese bestätigen dass Raben schwarz sind. Viele finden dies paradox, aber Hempel behauptete, dass unsere Intuition auf einem stillschweigenden Appell an das Hintergrundwissen über die Verbreitung von Raben und Nicht-Raben beruht, der uns dazu veranlasst, dem Beweis, dass Raben schwarz sind, mehr Gewicht zu geben als dem Beweis von nicht schwarzen Gegenständen Nicht-Raben sein. (Weitere Informationen zu diesen Kritikpunkten sowie zu deren Erfüllung finden Sie in den Einträgen zur Bestätigung und zum Problem der Induktion). Wir werden auf neuere Versuche zurückkommen, zu erklären, wie Beobachtungen dazu dienen können, eine wissenschaftliche Theorie in Abschnitt 4 unten zu bestätigen.

3.2. HD als Bestätigungslogik

Der Standardstartpunkt für eine nichtinduktive Analyse der Bestätigungslogik ist als hypothetisch-deduktive (HD) Methode bekannt. In seiner einfachsten Form besteht die Idee darin, dass eine Theorie oder genauer gesagt ein Satz dieser Theorie, der eine Hypothese ausdrückt, durch ihre wahren Konsequenzen bestätigt wird. Wie in Abschnitt 2 erwähnt, hatte diese Methode von Whewell fortgeschritten im 19 - ten Jahrhundert, sowie Nicod (1924) und andere in dem 20 thJahrhundert. Oft wurde Hempels (1966) Beschreibung der HD-Methode, die durch den Fall von Semmelweiss 'Inferenzverfahren zur Feststellung der Ursache von Kinderbettfieber veranschaulicht wird, als Schlüsselbericht über die HD sowie als Folie für die Kritik des HD-Bestätigungskontos (siehe zum Beispiel Liptons (2004) Diskussion über den Rückschluss auf die beste Erklärung (auch den Eintrag zur Bestätigung). Hempel beschrieb das Verfahren von Semmelsweiss als die Untersuchung verschiedener Hypothesen, die die Frage nach der Ursache des Kinderbettfiebers beantworten würden. Einige Hypothesen standen im Widerspruch zu beobachtbaren Tatsachen und konnten sofort als falsch zurückgewiesen werden. Andere mussten experimentell getestet werden, indem abgeleitet wurde, welche beobachtbaren Ereignisse folgen sollten, wenn die Hypothese wahr war (was Hempel die Testimplikationen der Hypothese nannte). Führen Sie dann ein Experiment durch und beobachten Sie, ob die Auswirkungen auf den Test aufgetreten sind oder nicht. Wenn das Experiment zeigte, dass die Testimplikation falsch ist, könnte die Hypothese zurückgewiesen werden. Wenn das Experiment hingegen zeigte, dass die Auswirkungen auf den Test wahr sind, hat dies die Hypothese nicht als wahr erwiesen. Obwohl die Bestätigung einer Testimplikation keine Hypothese bestätigt, hat Hempel zugelassen, dass „sie zumindest eine gewisse Unterstützung, eine gewisse Bestätigung oder Bestätigung dafür bietet“(Hempel 1966: 8). Der Grad dieser Unterstützung hängt dann von der Menge, Vielfalt und Präzision der Belege ab. Obwohl die Bestätigung einer Testimplikation keine Hypothese bestätigt, hat Hempel zugelassen, dass „sie zumindest eine gewisse Unterstützung, eine gewisse Bestätigung oder Bestätigung dafür bietet“(Hempel 1966: 8). Der Grad dieser Unterstützung hängt dann von der Menge, Vielfalt und Präzision der Belege ab. Obwohl die Bestätigung einer Testimplikation keine Hypothese bestätigt, hat Hempel zugelassen, dass „sie zumindest eine gewisse Unterstützung, eine gewisse Bestätigung oder Bestätigung dafür bietet“(Hempel 1966: 8). Der Grad dieser Unterstützung hängt dann von der Menge, Vielfalt und Präzision der Belege ab.

3.3. Popper und Fälschung

Ein anderer Ansatz, der sich von den Schwierigkeiten mit der induktiven Inferenz abhebt, ist Karl Poppers kritischer Rationalismus oder Falsifikationismus (Popper 1959, 1963). Die Fälschung ist deduktiv und der Huntington-Krankheit insofern ähnlich, als Wissenschaftler Beobachtungsfolgen aus der getesteten Hypothese ableiten. Für Popper war jedoch nicht die Bestätigung der Hypothesen eine erfolgreiche Vorhersage, sondern die logische Asymmetrie zwischen solchen Bestätigungen, die eine induktive Inferenz erfordern, und einer Fälschung, die auf einer deduktiven Inferenz beruhen kann. Diese einfache Opposition wurde später unter anderem von Lakatos in Frage gestellt. (Siehe den Eintrag zu historistischen Theorien der wissenschaftlichen Rationalität.)

Popper betonte, dass wir unabhängig von der Menge der bestätigenden Beweise niemals sicher sein können, dass eine Hypothese wahr ist, ohne den Irrtum zu begehen, die Konsequenz zu bestätigen. Stattdessen führte Popper den Begriff der Bestätigung als Maß dafür ein, wie gut eine Theorie oder Hypothese frühere Tests überstanden hat - ohne jedoch zu implizieren, dass dies auch ein Maß für die Wahrscheinlichkeit ist, dass sie wahr ist.

Popper war auch motiviert von seinen Zweifeln am wissenschaftlichen Status von Theorien wie der marxistischen Geschichtstheorie oder der Psychoanalyse und wollte deshalb eine Grenze zwischen Wissenschaft und Pseudowissenschaft ziehen. Popper sah darin eine wesentlich andere Unterscheidung als die Abgrenzung der Wissenschaft von der Metaphysik. Die letztere Abgrenzung war das Hauptanliegen vieler logischer Empiriker. Popper benutzte die Idee der Fälschung, um stattdessen eine Grenze zwischen Pseudo und richtiger Wissenschaft zu ziehen. Wissenschaft war Wissenschaft, weil sie ihre Theorien strengen Tests unterzog, die eine hohe Wahrscheinlichkeit für ein Scheitern und damit eine Widerlegung der Theorie boten. Ziel war es nicht, auf diese Weise eine Theorie zu verifizieren. Dies könnte allzu leicht geschehen, selbst in Fällen, in denen Beobachtungen zunächst nicht mit den daraus abgeleiteten Konsequenzen der Theorie vereinbar waren. Zum Beispiel durch die Einführung von Hilfshypothesen, die explizit zur Rettung der Theorie entwickelt wurden, sogenannte Ad-hoc-Modifikationen. Dies sah er in der Pseudowissenschaft, wo die Theorien in der Lage zu sein schienen, alles zu erklären, was auf dem Gebiet geschah, auf das sie sich bezogen. Im Gegensatz dazu ist die Wissenschaft riskant; Wenn Beobachtungen zeigten, dass die Vorhersagen einer Theorie nicht vorhanden waren, würde die Theorie widerlegt. Daher müssen wissenschaftliche Hypothesen fälschbar sein. Es muss nicht nur eine mögliche Beobachtungsaussage existieren, die die Hypothese oder Theorie verfälschen könnte, wenn sie beobachtet wird (Popper nannte diese die potenziellen Fälscher der Hypothese), es ist für die popperianische wissenschaftliche Methode entscheidend, dass solche Fälschungen regelmäßig aufrichtig versucht werden. Dies sah er in der Pseudowissenschaft, wo die Theorien in der Lage zu sein schienen, alles zu erklären, was auf dem Gebiet geschah, auf das sie sich bezogen. Im Gegensatz dazu ist die Wissenschaft riskant; Wenn Beobachtungen zeigten, dass die Vorhersagen einer Theorie nicht vorhanden waren, würde die Theorie widerlegt. Daher müssen wissenschaftliche Hypothesen fälschbar sein. Es muss nicht nur eine mögliche Beobachtungsaussage existieren, die die Hypothese oder Theorie verfälschen könnte, wenn sie beobachtet wird (Popper nannte diese die potenziellen Fälscher der Hypothese), es ist für die popperianische wissenschaftliche Methode entscheidend, dass solche Fälschungen regelmäßig aufrichtig versucht werden. Dies sah er in der Pseudowissenschaft, wo die Theorien in der Lage zu sein schienen, alles zu erklären, was auf dem Gebiet geschah, auf das sie sich bezogen. Im Gegensatz dazu ist die Wissenschaft riskant; Wenn Beobachtungen zeigten, dass die Vorhersagen einer Theorie nicht vorhanden waren, würde die Theorie widerlegt. Daher müssen wissenschaftliche Hypothesen fälschbar sein. Es muss nicht nur eine mögliche Beobachtungsaussage existieren, die die Hypothese oder Theorie verfälschen könnte, wenn sie beobachtet wird (Popper nannte diese die potenziellen Fälscher der Hypothese), es ist für die popperianische wissenschaftliche Methode entscheidend, dass solche Fälschungen regelmäßig aufrichtig versucht werden. Wenn Beobachtungen zeigten, dass die Vorhersagen einer Theorie nicht vorhanden waren, würde die Theorie widerlegt. Daher müssen wissenschaftliche Hypothesen fälschbar sein. Es muss nicht nur eine mögliche Beobachtungsaussage existieren, die die Hypothese oder Theorie verfälschen könnte, wenn sie beobachtet wird (Popper nannte diese die potenziellen Fälscher der Hypothese), es ist für die popperianische wissenschaftliche Methode entscheidend, dass solche Fälschungen regelmäßig aufrichtig versucht werden. Wenn Beobachtungen zeigten, dass die Vorhersagen einer Theorie nicht vorhanden waren, würde die Theorie widerlegt. Daher müssen wissenschaftliche Hypothesen fälschbar sein. Es muss nicht nur eine mögliche Beobachtungsaussage existieren, die die Hypothese oder Theorie verfälschen könnte, wenn sie beobachtet wird (Popper nannte diese die potenziellen Fälscher der Hypothese), es ist für die popperianische wissenschaftliche Methode entscheidend, dass solche Fälschungen regelmäßig aufrichtig versucht werden.

Je mehr potenzielle Fälscher einer Hypothese vorhanden sind, desto fälschbarer wäre sie und desto mehr wird die Hypothese behauptet. Umgekehrt behaupteten Hypothesen ohne Fälscher sehr wenig oder gar nichts. Ursprünglich war Popper der Ansicht, dass die Einführung von Ad-hoc-Hypothesen nur zur Rettung einer Theorie nicht als gute wissenschaftliche Methode angesehen werden sollte. Diese würden die Fälschbarkeit einer Theorie untergraben. Später erkannte Popper jedoch, dass die Einführung von Modifikationen (Immunisierungen, wie er sie nannte) häufig ein wichtiger Bestandteil der wissenschaftlichen Entwicklung war. Die Reaktion auf überraschende oder scheinbar gefälschte Beobachtungen brachte oft wichtige neue wissenschaftliche Erkenntnisse hervor. Poppers eigenes Beispiel war die beobachtete Bewegung von Uranus, die ursprünglich nicht mit den Newtonschen Vorhersagen übereinstimmte. Die Ad-hoc-Hypothese eines äußeren Planeten erklärte jedoch die Meinungsverschiedenheit und führte zu weiteren fälschbaren Vorhersagen. Popper versuchte, die Ansicht in Einklang zu bringen, indem er die Unterscheidung zwischen fälschbar und nicht fälschbar verwischte und anstelle von Grad der Testbarkeit sprach (Popper 1985: 41f.).

3.4 Metamethodik und Methodenende

Ab den 1960er Jahren entstand eine anhaltende metamethodologische Kritik, die den philosophischen Fokus von der wissenschaftlichen Methode ablenkte. Hier muss etwas Kurzes zu diesen Kritikpunkten gesagt werden, aber Empfehlungen zur weiteren Lektüre finden Sie am Ende des Eintrags.

Thomas Kuhns The Structure of Scientific Revolutions (1962) beginnt mit einem bekannten Schuss über den Bug für Wissenschaftsphilosophen:

Die Geschichte könnte, wenn sie als Aufbewahrungsort für mehr als Anekdoten oder Chronologien betrachtet wird, eine entscheidende Veränderung im Bild der Wissenschaft bewirken, über die wir jetzt verfügen. (1962: 1)

Die Art von Bild, die Kuhn transformieren wollte, war die a-historische, rationale Rekonstruktion, nach der viele der logischen Positivisten suchten, obwohl Carnap und andere Positivisten Kuhns Ansichten tatsächlich recht sympathisch gegenüberstanden. (Siehe Eintrag am Wiener Kreis). Kuhn teilt mit anderen seiner Zeitgenossen wie Feyerabend und Lakatos die Verpflichtung zu einem empirischeren Ansatz der Wissenschaftsphilosophie. Die Wissenschaftsgeschichte liefert nämlich wichtige Daten und notwendige Überprüfungen für die Wissenschaftsphilosophie, einschließlich jeder Theorie wissenschaftlicher Methoden.

Eine Untersuchung der Wissenschaftsgeschichte zeigt laut Kuhn, dass die wissenschaftliche Entwicklung in wechselnden Phasen erfolgt. Während der normalen Wissenschaft halten sich die Mitglieder der wissenschaftlichen Gemeinschaft an das bestehende Paradigma. Ihr Engagement für das Paradigma bedeutet ein Engagement für die zu lösenden Rätsel und die akzeptablen Lösungswege. Das Vertrauen in das Paradigma bleibt bestehen, solange bei der Lösung der gemeinsamen Rätsel stetige Fortschritte erzielt werden. Die Methode in dieser normalen Phase arbeitet innerhalb einer Disziplinarmatrix (Kuhns späteres Konzept eines Paradigmas), die Standards für die Problemlösung enthält und den Bereich der Probleme definiert, auf die die Methode angewendet werden sollte. Ein wichtiger Teil einer Disziplinarmatrix sind die Werte, die die Normen und Ziele für wissenschaftliche Methoden liefern. Die Hauptwerte, die Kuhn identifiziert, sind Vorhersage, Problemlösung,Einfachheit, Konsistenz und Plausibilität.

Ein wichtiges Nebenprodukt der normalen Wissenschaft ist jedoch die Anhäufung von Rätseln, die mit den Ressourcen des aktuellen Paradigmas nicht gelöst werden können. Sobald die Anhäufung dieser Anomalien eine kritische Masse erreicht hat, kann dies einen gemeinsamen Wechsel zu einem neuen Paradigma und einer neuen Phase der normalen Wissenschaft auslösen. Wichtig ist, dass sich die Werte, die die Normen und Ziele für wissenschaftliche Methoden liefern, in der Zwischenzeit möglicherweise geändert haben. Die Methode kann daher relativ zu Disziplin, Zeit oder Ort sein

Feyerabend identifizierte auch die Ziele der Wissenschaft als Fortschritt, argumentierte jedoch, dass jede methodische Vorschrift diesen Fortschritt nur ersticken würde (Feyerabend 1988). Seine Argumente basieren auf der Überprüfung akzeptierter „Mythen“über die Geschichte der Wissenschaft. Helden der Wissenschaft wie Galileo sind ebenso auf Rhetorik und Überzeugung angewiesen wie auf Vernunft und Demonstration. Andere, wie Aristoteles, haben sich in ihren Ansichten als weitaus vernünftiger und weitreichender erwiesen, als ihnen zugetraut wird. Infolgedessen war die einzige Regel, die eine ausreichende Freiheit bieten konnte, das leere „Alles geht“. Im Allgemeinen ist sogar die methodische Einschränkung, dass Wissenschaft der beste Weg ist, um Wissen zu verfolgen und Wissen zu erweitern, zu restriktiv. Feyerabend schlug stattdessen vor, dass die Wissenschaft tatsächlicheine Bedrohung für eine freie Gesellschaft sein, weil sie und ihr Mythos so dominant geworden waren (Feyerabend 1978).

Eine noch grundlegendere Art der Kritik wurde von mehreren Wissenschaftssoziologen ab den 1970er Jahren geäußert, die das, was sie als falsche Unterscheidung zwischen philosophischen Darstellungen der rationalen Entwicklung der Wissenschaft und soziologischen Darstellungen der irrationalen Fehler betrachteten, ablehnten. Stattdessen hielten sie an einer Symmetriethese fest, bei der jede kausale Erklärung, wie wissenschaftliche Erkenntnisse begründet sind, symmetrisch sein muss, um Wahrheit und Falschheit, Rationalität und Irrationalität, Erfolg und Fehler durch dieselben kausalen Faktoren zu erklären (siehe z. B. Barnes und Bloor 1982) Bloor 1991). Bewegungen in der Wissenschaftssoziologie wie dem Starken Programm oder in den sozialen Dimensionen und Ursachen des Wissens im Allgemeinen führten zu einer erweiterten und genauen Untersuchung detaillierter Fallstudien in der zeitgenössischen Wissenschaft und ihrer Geschichte.(Siehe die Einträge zu den sozialen Dimensionen wissenschaftlicher Erkenntnisse und sozialer Erkenntnistheorie.) Bekannte Untersuchungen von Latour und Woolgar (1979/1986), Knorr-Cetina (1981), Pickering (1984), Shapin und Schaffer (1985) schienen dies zu tun Stellen Sie fest, dass soziale Ideologien (auf Makroebene) oder individuelle Interaktionen und Umstände (auf Mikroskala) die Hauptursachen für die Bestimmung waren, welche Überzeugungen den Status wissenschaftlicher Erkenntnisse erlangten. Mit anderen Worten, erklärende Appelle an wissenschaftliche Methoden waren aus ihrer Sicht empirisch nicht gut begründet. Shapin und Schaffer (1985) schienen zu bestätigen, dass soziale Ideologien (auf Makroebene) oder individuelle Interaktionen und Umstände (auf Mikroskala) die Hauptursachen für die Bestimmung waren, welche Überzeugungen den Status wissenschaftlicher Erkenntnisse erlangten. Mit anderen Worten, erklärende Appelle an wissenschaftliche Methoden waren aus ihrer Sicht empirisch nicht gut begründet. Shapin und Schaffer (1985) schienen zu bestätigen, dass soziale Ideologien (auf Makroebene) oder individuelle Interaktionen und Umstände (auf Mikroskala) die Hauptursachen für die Bestimmung waren, welche Überzeugungen den Status wissenschaftlicher Erkenntnisse erlangten. Mit anderen Worten, erklärende Appelle an wissenschaftliche Methoden waren aus ihrer Sicht empirisch nicht gut begründet.

Durch das Ende des 20 - ten Jahrhunderts wird die Suche von Philosophen für die wissenschaftliche Methode wurde markieren. Nola und Sankey (2000b) könnten ihren Band zur Methode vorstellen, indem sie bemerken, dass „für einige die ganze Idee einer Theorie der wissenschaftlichen Methode die Debatte des vergangenen Jahres ist…“.

4. Statistische Methoden zum Testen von Hypothesen

Trotz der vielen Schwierigkeiten, auf die Philosophen stießen, als sie versuchten, eine klare Methodik für die Konformation (oder Widerlegung) bereitzustellen, wurden immer noch wichtige Fortschritte beim Verständnis erzielt, wie Beobachtung Beweise für eine bestimmte Theorie liefern kann. Die Arbeit in der Statistik war entscheidend, um zu verstehen, wie Theorien empirisch getestet werden können, und in den letzten Jahrzehnten hat sich eine riesige Literatur entwickelt, die versucht, die Bestätigung in Bayes'schen Begriffen neu zu formulieren. Hier können diese Entwicklungen nur kurz behandelt werden, und wir verweisen auf den Eintrag zur Bestätigung für weitere Details und Referenzen.

Statistik hat sich aus der 19 eine zunehmend wichtige Rolle in der Methodik der experimentellen Wissenschaften spielen th Jahrhundert. Zu dieser Zeit, Statistiken und Wahrscheinlichkeitstheorie nahmen eine methodische Rolle als eine Analyse des induktiven Schließens, und Versuche, die Rationalität der Induktion in den Axiomen der Wahrscheinlichkeitstheorie an Masse haben im ganzen 20 fortgesetzt ten Jahrhundert und in bis zur Gegenwart. Entwicklungen in der Theorie der Statistik selbst haben inzwischen zur Messung der Unsicherheit der Beobachtungen wie die Methode der kleinsten Quadrate, entwickelt von Legendre und Gauß in den frühen 19 einen direkten und immensen Einfluss auf der experimentellen Methode, einschließlich Methoden hatten th Jahrhundert, Kriterien für die Ablehnung von Ausreißern, die Peirce Mitte 19 vorgeschlagen hatteten Jahrhundert und die Signifikanztests von Gosset entwickelt (auch bekannt als „Student“), Fisher, Neyman & Pearson und andere in den 1920er und 1930er Jahren (siehe zB Swijtink 1987 für einen kurzen historischen Überblick, und auch der Eintrag auf CS Peirce).

Diese Entwicklungen innerhalb der Statistik führten dann wiederum zu einer reflektierten Diskussion sowohl unter Statistikern als auch unter Wissenschaftsphilosophen darüber, wie der Prozess des Hypothesentests wahrgenommen werden kann: ob es sich um eine strenge statistische Inferenz handelt, die einen numerischen Ausdruck des Vertrauensgrades in die getesteten liefern kann Hypothese oder ob es als Entscheidung zwischen verschiedenen Vorgehensweisen gesehen werden sollte, die auch eine Wertkomponente beinhalteten. Dies führte zu einer großen Kontroverse zwischen Fisher einerseits und Neyman und Pearson andererseits (siehe insbesondere Fisher 1955, Neyman 1956 und Pearson 1955 sowie Analysen der Kontroverse, z. B. Howie 2002, Marks 2000, Lenhard 2006). Nach Ansicht von Fisher war das Testen von Hypothesen eine Methode, um eine statistische Hypothese zu akzeptieren oder abzulehnen.nämlich, dass eine Hypothese durch Beweise zurückgewiesen werden sollte, wenn diese Beweise im Verhältnis zu anderen möglichen Ergebnissen unwahrscheinlich wären, wenn die Hypothese wahr wäre. Im Gegensatz dazu musste nach Ansicht von Neyman und Pearson die Konsequenz des Fehlers auch bei der Entscheidung zwischen Hypothesen eine Rolle spielen. Sie führten die Unterscheidung zwischen dem Fehler der Zurückweisung einer wahren Hypothese (Fehler Typ I) und der Annahme einer falschen Hypothese (Fehler Typ II) ein und argumentierten, dass es von den Folgen des Fehlers abhängt, zu entscheiden, ob es wichtiger ist, die Ablehnung einer wahren Hypothese zu vermeiden Hypothese oder Akzeptieren einer falschen. Daher strebte Fisher eine Theorie der induktiven Inferenz an, die einen numerischen Ausdruck des Vertrauens in eine Hypothese ermöglichte. Für ihn war der wichtige Punkt die Suche nach der Wahrheit, nicht die Nützlichkeit. Im Gegensatz,Der Neyman-Pearson-Ansatz lieferte eine Strategie des induktiven Verhaltens zur Entscheidung zwischen verschiedenen Vorgehensweisen. Hier ging es nicht darum, ob eine Hypothese wahr ist, sondern ob man so tun soll, als ob es wahr wäre.

Ähnliche Diskussionen finden sich in der philosophischen Literatur. Auf der einen Seite argumentierten Churchman (1948) und Rudner (1953), dass eine vollständige Analyse der Methoden der wissenschaftlichen Folgerung ethische Urteile beinhaltet, bei denen die Wissenschaftler entscheiden müssen, ob die Beweise ausreichend stark sind oder nicht, da wissenschaftliche Hypothesen niemals vollständig überprüft werden können dass die Wahrscheinlichkeit ausreichend hoch ist, um die Annahme der Hypothese zu rechtfertigen, was wiederum davon abhängt, wie wichtig es ist, einen Fehler bei der Annahme oder Ablehnung der Hypothese zu machen. Andere, wie Jeffrey (1956) und Levi (1960), waren anderer Meinung und verteidigten stattdessen eine wertneutrale Sicht der Wissenschaft, nach der Wissenschaftler ihre Einstellungen, Vorlieben, Temperamente und Werte einklammern sollten, wenn sie die Richtigkeit ihrer Schlussfolgerungen beurteilen. Für weitere Details zu diesem wertfreien Ideal in der Wissenschaftsphilosophie und ihrer historischen Entwicklung siehe Douglas (2009) und Howard (2003).

In den letzten Jahrzehnten konzentrierten sich die philosophischen Diskussionen über die Bewertung probabilistischer Hypothesen durch statistische Inferenz weitgehend auf den Bayesianismus, der die Wahrscheinlichkeit als Maß für den Grad des Glaubens einer Person an ein Ereignis angesichts der verfügbaren Informationen versteht, und auf den Frequentismus, der die Wahrscheinlichkeit stattdessen als lang versteht -Laufhäufigkeit eines wiederholbaren Ereignisses. Daher beziehen sich Wahrscheinlichkeiten für Bayesianer auf einen Wissensstand, während sich Wahrscheinlichkeiten für Frequentisten auf Häufigkeiten von Ereignissen beziehen (siehe z. B. Sober 2008, Kapitel 1 für eine detaillierte Einführung in Bayesianismus und Frequentismus sowie in Likelihoodismus). Der Bayesianismus zielt darauf ab, eine quantifizierbare, algorithmische Darstellung der Glaubensrevision bereitzustellen, wobei die Glaubensrevision eine Funktion früherer Überzeugungen (dh Hintergrundwissen) und eingehender Beweise ist. Der Bayesianismus verwendet eine Regel, die auf dem Bayes'schen Theorem basiert, einem Theorem der Wahrscheinlichkeitsrechnung, das bedingte Wahrscheinlichkeiten in Beziehung setzt. Die Wahrscheinlichkeit, dass eine bestimmte Hypothese wahr ist, wird als Grad des Glaubens oder der Glaubwürdigkeit des Wissenschaftlers interpretiert. Es wird auch eine Wahrscheinlichkeit und ein gewisses Maß an Überzeugung geben, dass eine Hypothese wahr sein wird, vorausgesetzt, dass ein Beweisstück (etwa eine Beobachtung) wahr ist. Der Bayesianismus verbietet, dass es für den Wissenschaftler vernünftig ist, seinen Glauben an die Hypothese auf diese bedingte Wahrscheinlichkeit zu aktualisieren, falls sich herausstellt, dass die Beweise tatsächlich beobachtet werden. Der aus der Arbeit von Neyman und Person stammende Frequentismus zielt darauf ab, die Werkzeuge zur Reduzierung langfristiger Fehlerraten bereitzustellen.wie der von Mayo (1996) entwickelte fehlerstatistische Ansatz, der sich darauf konzentriert, wie Experimentatoren sowohl Fehler vom Typ I als auch vom Typ II vermeiden können, indem sie ein Repertoire von Verfahren aufbauen, die Fehler genau dann erkennen, wenn sie vorhanden sind. Sowohl der Bayesianismus als auch der Frequentismus haben sich im Laufe der Zeit entwickelt, sie werden von ihren verschiedenen Befürwortern unterschiedlich interpretiert, und ihre Beziehungen zu früherer Kritik zu Versuchen, wissenschaftliche Methoden zu definieren, werden von Befürwortern und Kritikern unterschiedlich gesehen. Die Literatur, Umfragen, Rezensionen und Kritik in diesem Bereich sind umfangreich und der Leser wird auf die Einträge zur Bayes'schen Erkenntnistheorie und Bestätigung verwiesen. Sie werden von ihren verschiedenen Befürwortern unterschiedlich interpretiert, und ihre Beziehungen zu früherer Kritik an Versuchen, wissenschaftliche Methoden zu definieren, werden von Befürwortern und Kritikern unterschiedlich gesehen. Die Literatur, Umfragen, Rezensionen und Kritik in diesem Bereich sind umfangreich und der Leser wird auf die Einträge zur Bayes'schen Erkenntnistheorie und Bestätigung verwiesen. Sie werden von ihren verschiedenen Befürwortern unterschiedlich interpretiert, und ihre Beziehungen zu früherer Kritik an Versuchen, wissenschaftliche Methoden zu definieren, werden von Befürwortern und Kritikern unterschiedlich gesehen. Die Literatur, Umfragen, Rezensionen und Kritik in diesem Bereich sind umfangreich und der Leser wird auf die Einträge zur Bayes'schen Erkenntnistheorie und Bestätigung verwiesen.

5. Methode in der Praxis

Die Aufmerksamkeit für die wissenschaftliche Praxis ist, wie wir gesehen haben, selbst nicht neu. Allerdings kann das wiederum zu der Praxis in der Philosophie der Wissenschaft in der letzten Zeit als Korrektur des Pessimismus in Bezug auf Methode in der Philosophie der Wissenschaft in der späteren Teilen der 20 zu sehen th Jahrhundert, und als versuchte Versöhnung zwischen soziologischen und rationalistischen Erklärungen wissenschaftliches Wissen. Ein Großteil dieser Arbeit betrachtet die Methode als detaillierte und kontextspezifische Problemlösungsverfahren, und methodische Analysen sind gleichzeitig beschreibend, kritisch und beratend (siehe Nickles 1987 für eine Darstellung dieser Ansicht). Der folgende Abschnitt enthält einen Überblick über einige der Praxisschwerpunkte. In diesem Abschnitt wenden wir uns eher den Themen als der Chronologie zu.

5.1 Kreative und explorative Praktiken

Ein Problem mit der Unterscheidung zwischen Entdeckungs- und Rechtfertigungskontexten, das in der Wissenschaftsphilosophie in der ersten Hälfte des 20. Jahrhunderts eine so herausragende Rolle spielteJahrhundert (siehe Abschnitt 2) ist, dass keine solche Unterscheidung in der wissenschaftlichen Tätigkeit klar erkennbar ist (siehe Arabatzis 2006). So wurde in den letzten Jahrzehnten erkannt, dass das Studium der konzeptuellen Innovation und des Wandels nicht auf die Psychologie und Soziologie der Wissenschaft beschränkt sein sollte, sondern auch wichtige Aspekte der wissenschaftlichen Praxis sind, mit denen sich die Wissenschaftsphilosophie befassen sollte (siehe auch den Eintrag über wissenschaftliche Entdeckungen)). Die Suche nach Praktiken, die konzeptionelle Innovationen vorantreiben, hat Philosophen dazu veranlasst, sowohl die Argumentationspraktiken von Wissenschaftlern als auch den weiten Bereich experimenteller Praktiken zu untersuchen, die nicht eng auf das Testen von Hypothesen, dh explorative Experimente, ausgerichtet sind.

Nersessian (2008) untersuchte die Argumentationspraktiken historischer und zeitgenössischer Wissenschaftler und argumentierte, dass neue wissenschaftliche Konzepte als Lösungen für spezifische Probleme durch systematisches Denken konstruiert werden und dass Analogie, visuelle Darstellung und Gedankenexperimente zu den wichtigen Argumentationspraktiken gehören. Diese allgegenwärtigen Argumentationsformen sind zuverlässige, aber auch fehlbare Methoden der konzeptuellen Entwicklung und Veränderung. Modellbasiertes Denken besteht ihrer Ansicht nach aus Zyklen der Konstruktion, Simulation, Bewertung und Anpassung von Modellen, die als Zwischeninterpretationen des zu lösenden Zielproblems dienen. Oft führt dieser Prozess zu Änderungen oder Erweiterungen und einem neuen Zyklus der Simulation und Bewertung. Nersessian betont dies jedoch auch

Kreatives modellbasiertes Denken kann nicht als einfaches Rezept angewendet werden, ist nicht immer produktiv für Lösungen, und selbst seine vorbildlichsten Verwendungen können zu falschen Lösungen führen. (Nersessian 2008: 11)

Während sie einerseits vielen früheren Philosophen zustimmt, dass es keine Logik der Entdeckung gibt, können Entdeckungen aus begründeten Prozessen stammen, so dass ein großer und integraler Bestandteil der wissenschaftlichen Praxis ist

die Schaffung von Konzepten, mit denen physikalische Phänomene verstanden, strukturiert und kommuniziert werden können. (Nersessian 1987: 11)

In ähnlicher Weise präsentieren Arbeiten von Wissenschaftlern wie Darden (1991) und Bechtel & Richardson (1993) zur Heuristik für die Entdeckung und Theoriekonstruktion die Wissenschaft als Problemlösung und untersuchen die wissenschaftliche Problemlösung als einen speziellen Fall der Problemlösung im Allgemeinen. Sie stützten sich hauptsächlich auf Fälle aus den Biowissenschaften und konzentrierten sich hauptsächlich auf Argumentationsstrategien für die Erzeugung, Bewertung und Überarbeitung mechanistischer Erklärungen komplexer Systeme.

Andere Wissenschaftsphilosophen haben sich mit einem anderen Aspekt der Kontextunterscheidung befasst, nämlich der traditionellen Ansicht, dass die Hauptaufgabe von Experimenten darin besteht, theoretische Hypothesen nach dem HD-Modell zu testen, und sich für zusätzliche Rollen ausgesprochen, die Experimente spielen können. Der Begriff des explorativen Experimentierens wurde eingeführt, um Experimente zu beschreiben, die auf dem Wunsch beruhen, empirische Regelmäßigkeiten zu erhalten, und Konzepte und Klassifikationen zu entwickeln, in denen diese Regelmäßigkeiten beschrieben werden können (Steinle 1997, 2002; Burian 1997; Waters 2007). Der Unterschied zwischen theoretischem Experimentieren und explorativem Experimentieren sollte jedoch nicht als scharfe Unterscheidung angesehen werden. Theoriebetriebene Experimente zielen nicht immer auf das Testen von Hypothesen ab, sondern können auch auf verschiedene Arten der Erfassung von Fakten gerichtet sein, beispielsweise auf die Bestimmung numerischer Parameter. Umgekehrt werden explorative Experimente normalerweise auf verschiedene Weise von der Theorie beeinflusst und sind daher nicht theoretisch frei. Stattdessen werden in explorativen Experimenten Phänomene untersucht, ohne zuvor die möglichen Ergebnisse des Experiments auf der Grundlage der vorhandenen Theorie über die Phänomene einzuschränken.

In den letzten Jahren hat die Entwicklung von Instrumenten mit hohem Durchsatz in der Molekularbiologie und in benachbarten Bereichen zu einer speziellen Art von explorativen Experimenten geführt, bei denen sehr große Datenmengen gesammelt und analysiert werden. Diese neuen "Omics" -Disziplinen werden oft als Bruch bezeichnet mit dem Ideal der hypothesengetriebenen Wissenschaft (Burian 2007; Elliott 2007; Waters 2007; O'Malley 2007) und stattdessen beschrieben als alt = "sep man icon" /> Wie man diesen Eintrag zitiert.

Sep Mann Symbol
Sep Mann Symbol

Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.

Inpho-Symbol
Inpho-Symbol

Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.

Phil Papers Ikone
Phil Papers Ikone

Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • Blackmun Opinion, in Daubert gegen Merrell Dow Pharmaceuticals (92-102), 509 US 579 (1993).
  • Wissenschaftliche Methode bei Zeitungen. Darrell Rowbottom (Hrsg.).
  • Aktuelle Artikel | Wissenschaftliche Methode | Das Scientist Magazine

Empfohlen: