Inhaltsverzeichnis:
- Philosophie der statistischen Mechanik
- 1. Historische Skizze
- 2. Philosophen über Wahrscheinlichkeit und statistische Erklärung
- 3. Gleichgewichtstheorie
- 4. Nichtgleichgewichtstheorie
- 5. Irreversibilität
- 6. Die Reduktion (?) Der Thermodynamik auf die statistische Mechanik
- 7. Die Richtung der Zeit
- 8. Quantendynamik
- 9. Phasenwechsel
- Literaturverzeichnis
- Akademische Werkzeuge
- Andere Internetquellen

Video: Philosophie Der Statistischen Mechanik

2023 Autor: Noah Black | [email protected]. Zuletzt bearbeitet: 2023-11-26 16:05
Eintragsnavigation
- Eintragsinhalt
- Literaturverzeichnis
- Akademische Werkzeuge
- Freunde PDF Vorschau
- Autor und Zitierinfo
- Zurück nach oben
Philosophie der statistischen Mechanik
Erstveröffentlichung Do 12. April 2001; inhaltliche Überarbeitung Fr 24.07.2015
Die statistische Mechanik war die erste grundlegende physikalische Theorie, in der probabilistische Konzepte und probabilistische Erklärungen eine grundlegende Rolle spielten. Für den Philosophen ist es ein entscheidender Testfall, um die Vorstellungen der Philosophen über die Bedeutung probabilistischer Behauptungen und die Rolle der Wahrscheinlichkeit bei der Erklärung mit dem zu vergleichen, was tatsächlich passiert, wenn die Wahrscheinlichkeit in eine grundlegende physikalische Theorie eintritt. Die Darstellung der statistischen Mechanik der zeitlichen Asymmetrie physikalischer Prozesse spielt auch eine wichtige Rolle für den Versuch des Philosophen, die angeblichen Asymmetrien der Kausalität und der Zeit selbst zu verstehen.
- 1. Historische Skizze
- 2. Philosophen über Wahrscheinlichkeit und statistische Erklärung
- 3. Gleichgewichtstheorie
- 4. Nichtgleichgewichtstheorie
- 5. Irreversibilität
- 6. Die Reduktion (?) Der Thermodynamik auf die statistische Mechanik
- 7. Die Richtung der Zeit
- 8. Quantendynamik
- 9. Phasenwechsel
- Literaturverzeichnis
- Akademische Werkzeuge
- Andere Internetquellen
- Verwandte Einträge
1. Historische Skizze
Ab dem 17. Jahrhundert wurde erkannt, dass materielle Systeme oft durch eine kleine Anzahl beschreibender Parameter beschrieben werden konnten, die auf einfache gesetzmäßige Weise miteinander in Beziehung standen. Diese Parameter bezogen sich auf geometrische, dynamische und thermische Eigenschaften der Materie. Typisch für die Gesetze war das ideale Gasgesetz, das das Produkt aus Druck und Volumen eines Gases mit der Temperatur des Gases in Beziehung setzte.
Es wurde schnell klar, dass ein grundlegendes Konzept das Gleichgewicht war. Überlassene Systeme würden die Werte ihrer Parameter ändern, bis sie einen Zustand erreichen, in dem keine weiteren Änderungen beobachtet wurden, den Gleichgewichtszustand. Ferner wurde deutlich, dass dieser spontane Ansatz zum Gleichgewicht ein zeitasymmetrischer Prozess war. Beispielsweise änderten sich ungleichmäßige Temperaturen, bis die Temperaturen gleichmäßig waren. Der gleiche "Vereinheitlichungsprozess" wurde für Dichten durchgeführt.
Tiefgreifende Studien von S. Carnot über die Fähigkeit, Motoren, die aufgrund des Temperaturunterschieds zwischen Kessel und Kondensator betrieben wurden, mechanische Arbeit zu entziehen, führten dazu, dass R. Clausius einen weiteren wichtigen Parameter einführte, der ein Materialsystem beschreibt, seine Entropie. Wie war die Existenz dieses einfachen Satzes von Parametern zur Beschreibung der Materie und der sie verbindenden gesetzmäßigen Regelmäßigkeiten zu erklären? Was war für die Annäherung an das Gleichgewicht und seine Zeitasymmetrie verantwortlich? Dass der Wärmeinhalt eines Körpers eine Energieform war, die in und aus mechanischer Arbeit umgewandelt werden konnte, bildete ein Grundprinzip. Die Unfähigkeit eines isolierten Systems, sich spontan in einen geordneteren Zustand zu bewegen, seine Entropie zu senken, bildete einen anderen. Aber warum waren diese Gesetze wahr?
Ein Ansatz, der von P. Duhem und E. Mach und den "Energetikern", bestand darin, darauf zu bestehen, dass diese Prinzipien autonome phänomenologische Gesetze waren, die keiner weiteren Grundlage in einigen anderen physikalischen Prinzipien bedurften. Ein alternativer Ansatz bestand darin, zu behaupten, dass die als Wärmeinhalt gespeicherte Energie in einem Körper eine Bewegungsenergie einer Art versteckter mikroskopischer Bestandteile des Körpers sei, und darauf zu bestehen, dass die angegebenen Gesetze, die thermodynamischen Prinzipien, berücksichtigt werden müssten aus der Konstitution des makroskopischen Objekts aus seinen Teilen und den grundlegenden dynamischen Gesetzen, die die Bewegung dieser Teile regeln. Dies ist die kinetische Theorie der Wärme.
Frühe Arbeiten zur kinetischen Theorie von W. Herepath und J. Waterston wurden praktisch ignoriert, aber die Arbeit von A. Krönig machte die kinetische Theorie zu einem lebhaften Thema in der Physik. JC Maxwell machte einen großen Fortschritt, indem er aus einigen einfachen Postulaten ein Gesetz für die Verteilung der Geschwindigkeiten der Moleküle eines Gases im Gleichgewicht ableitete. Sowohl Maxwell als auch L. Boltzmann gingen weiter und leiteten auf unterschiedliche, aber verwandte Weise eine Gleichung für die Annäherung an das Gleichgewicht eines Gases ab. Die zuvor von Maxwell gefundene Gleichgewichtsverteilung könnte dann als stationäre Lösung dieser Gleichung gezeigt werden.
Diese frühe Arbeit stieß auf heftige Einwände. H. Poincaré hatte einen Wiederholungssatz für begrenzte dynamische Systeme bewiesen, der dem von der Thermodynamik geforderten monotonen Ansatz zum Gleichgewicht zu widersprechen schien. Der Satz von Poincaré zeigte, dass jedes angemessen begrenzte System, in dem Energie gespart wurde, notwendigerweise über eine unendliche Zeit unendlich oft in Zustände zurückkehren würde, die dem ursprünglichen dynamischen Zustand, in dem das System gestartet wurde, willkürlich nahe kommen. J. Loschmidt argumentierte, dass die zeitliche Irreversibilität der Thermodynamik nicht mit der Symmetrie unter Zeitumkehr der klassischen Dynamik vereinbar sei, von der angenommen wird, dass sie die Bewegung der molekularen Bestandteile des Objekts steuert.
Teilweise getrieben von der Notwendigkeit, sich explizit mit diesen Einwänden zu befassen, wurden von Maxwell und Boltzmann explizit probabilistische Begriffe in die Theorie eingeführt. Beide erkannten, dass Gleichgewichtswerte für Größen berechnet werden konnten, indem eine Wahrscheinlichkeitsverteilung über die mikroskopischen dynamischen Zustände auferlegt wurde, die mit den Einschränkungen des Systems vereinbar waren, und die beobachteten makroskopischen Werte mit Durchschnittswerten über Größen identifiziert wurden, die aus den mikroskopischen Zuständen unter Verwendung dieser Wahrscheinlichkeitsverteilung definierbar waren. Aber was war die physikalische Rechtfertigung für dieses Verfahren?
Beide argumentierten auch, dass die in der Nichtgleichgewichtstheorie geforderte Entwicklung zum Gleichgewicht auch probabilistisch verstanden werden könne. Maxwell führte die Vorstellung eines „Dämons“ein, der die mikroskopischen Zustände eines Systems manipulieren könnte, und argumentierte, dass das Gesetz der entropischen Zunahme nur wahrscheinlich gültig sei. Boltzmann bot eine probabilistische Version seiner Gleichung an, die den Ansatz zum Gleichgewicht beschreibt. Ohne große Sorgfalt kann das Boltzmannsche Bild jedoch immer noch den Einwänden von Wiederholung und Reversibilität widersprechen, die auf probabilistische Weise interpretiert werden.
Spät in seinem Leben reagierte Boltzmann auf die Einwände gegen die Wahrscheinlichkeitstheorie mit einer zeitsymmetrischen Interpretation der Theorie. Die Systeme befanden sich wahrscheinlich fast immer in der Nähe des Gleichgewichts. Es sind jedoch vorübergehende Schwankungen in Nichtgleichgewichtszustände zu erwarten. In einem Nichtgleichgewichtszustand war es sehr wahrscheinlich, dass das System sowohl nach als auch vor diesem Zustand näher am Gleichgewicht war. Warum lebten wir dann in einem Universum, das nicht nahe am Gleichgewicht war? Vielleicht war das Universum räumlich und zeitlich riesig und wir lebten in einem „kleinen“nicht im Gleichgewicht befindlichen schwankenden Teil davon. Wir konnten uns nur in einem solchen „unwahrscheinlichen“Teil befinden, denn nur in einer solchen Region konnten Lebewesen existieren. Warum nahm die Entropie in Richtung Zukunft und nicht in Richtung Vergangenheit zu? Hier war die Antwort, dass genau wie die lokale Richtung der Schwerkraft definierte, was wir mit der Abwärtsrichtung des Raums meinten, die lokale Richtung in der Zeit, in der die Entropie zunahm, festlegte, was wir als zukünftige Richtung der Zeit betrachteten.
In einer wichtigen Arbeit (in der Bibliographie aufgeführt) boten P. und T. Ehrenfest auch eine Lektüre der Boltzmann-Gleichgewichtsgleichung an, die wiederholte Einwände vermeidet. Hier wurde die Lösung der Gleichung gewählt, um nicht die „überwiegend wahrscheinliche Entwicklung“eines Systems zu beschreiben, sondern die Abfolge von Zuständen, die zu unterschiedlichen Zeiten in einer Sammlung von Systemen überwiegend dominant zu finden wären, die alle in derselben Nicht-System- Gleichgewichtsbedingung. Selbst wenn jedes einzelne System ungefähr zu seinen Anfangsbedingungen zurückkehren würde, könnte diese "Konzentrationskurve" immer noch eine monotone Änderung in Richtung Gleichgewicht von einem anfänglichen Nichtgleichgewichtszustand zeigen.
Viele der philosophischen Fragen in der statistischen Mechanik drehen sich um den Begriff der Wahrscheinlichkeit, wie er in der Theorie erscheint. Wie sind diese Wahrscheinlichkeiten zu verstehen? Was rechtfertigte die Wahl einer Wahrscheinlichkeitsverteilung anstelle einer anderen? Wie sind die Wahrscheinlichkeiten zu verwenden, um Vorhersagen innerhalb der Theorie zu treffen? Wie sollen sie verwendet werden, um die beobachteten Phänomene zu erklären? Und wie sollen die Wahrscheinlichkeitsverteilungen selbst einen erklärenden Bericht erhalten? Das heißt, was ist die Natur der physischen Welt, die für die richtigen Wahrscheinlichkeiten verantwortlich ist, die die erfolgreiche Rolle spielen, die sie in der Theorie spielen?
2. Philosophen über Wahrscheinlichkeit und statistische Erklärung
Philosophen, die sich mit der Interpretation von Wahrscheinlichkeit befassen, beschäftigen sich normalerweise mit folgendem Problem: Die Wahrscheinlichkeit ist durch eine Reihe formaler Regeln gekennzeichnet, wobei die Additivität von Wahrscheinlichkeiten für disjunkte Mengen von Möglichkeiten am zentralsten ist. Aber wovon sollten wir die formale Theorie als Theorie betrachten? Einige Interpretationen sind „objektivistisch“, wobei Wahrscheinlichkeiten möglicherweise als Häufigkeit von Ergebnissen oder idealisierte Grenzen solcher Häufigkeiten oder als Maß für „Dispositionen“oder „Neigungen“von Ergebnissen in bestimmten Testsituationen angesehen werden.
Andere Interpretationen sind „subjektivistisch“und nehmen Wahrscheinlichkeiten als Maß für „Grad des Glaubens“, was sich möglicherweise im Verhalten in Risikosituationen durch die Auswahl verfügbarer Lotterien gegenüber den Ergebnissen zeigt. Eine weitere Interpretation liest Wahrscheinlichkeiten als Maß für eine Art „partielle logische Konsequenz“zwischen Sätzen.
Obwohl subjektivistische (oder eher logische) Interpretationen der Wahrscheinlichkeit in der statistischen Mechanik angeboten wurden (zum Beispiel von E. Jaynes), entscheiden sich die meisten Interpreten der Theorie für eine objektivistische Interpretation der Wahrscheinlichkeit. Dies lässt jedoch noch wichtige Fragen offen, welche „objektiven“Merkmale die gesetzten Wahrscheinlichkeiten der Theorie aufweisen und wie die Natur es schafft, solche Wahrscheinlichkeiten in ihrem Verhalten zu beweisen.
Philosophen, die sich mit statistischer Erklärung befassen, haben sich im Allgemeinen auf alltägliche Verwendungen von Wahrscheinlichkeit in Erklärungen oder auf die Verwendung probabilistischer Erklärungen in Disziplinen wie den Sozialwissenschaften konzentriert. Manchmal wurde vorgeschlagen, ein Ergebnis probabilistisch zu erklären, um zu zeigen, dass es wahrscheinlich vor dem Hintergrund der Hintergrundinformationen der Welt aufgetreten ist. In anderen Fällen wird vorgeschlagen, ein Ergebnis probabilistisch zu erklären, um Tatsachen zu erzeugen, die die Wahrscheinlichkeit erhöhen, dass dieses Ergebnis über das hinausgeht, was diese Tatsachen ignoriert hätten. Wieder andere schlagen vor, dass die probabilistische Erklärung zeigt, dass ein Ereignis das kausale Ergebnis eines Merkmals der Welt war, das durch eine probabilistische kausale Disposition gekennzeichnet ist.
Die Erklärungsmuster der statistischen Nichtgleichgewichtsmechanik ordnen die Entwicklung der makroskopischen Merkmale der Materie einem Wahrscheinlichkeitsmuster über möglichen mikroskopischen Entwicklungen zu. Hier passen die angebotenen Erklärungsarten zu den traditionellen philosophischen Modellen. Die wichtigsten offenen Fragen betreffen die erklärenden Gründe für die postulierten Wahrscheinlichkeiten. In der Gleichgewichtstheorie hat das statistische Erklärungsmuster, wie wir sehen werden, einen ganz anderen Charakter.
3. Gleichgewichtstheorie
Die Standardmethode zur Berechnung der Eigenschaften eines energetisch isolierten Systems im Gleichgewicht wurde von Maxwell und Boltzmann initiiert und von J. Gibbs als mikrokanonisches Ensemble entwickelt. Hier wird eine Wahrscheinlichkeitsverteilung über den Satz mikroskopischer Zustände auferlegt, die mit den dem System auferlegten externen Beschränkungen kompatibel sind. Unter Verwendung dieser Wahrscheinlichkeitsverteilung werden Durchschnittswerte spezifizierter Funktionen der mikroskopischen Bedingungen des Gases (Phasenmittelwerte) berechnet. Diese werden mit den makroskopischen Bedingungen identifiziert. Es stellt sich jedoch eine Reihe von Fragen: Warum diese Wahrscheinlichkeitsverteilung? Warum Durchschnittswerte für makroskopische Bedingungen? Wie hängen Phasenmittelwerte mit gemessenen Merkmalen des makroskopischen Systems zusammen?
Boltzmann betrachtete die richtigen Durchschnittswerte zur Identifizierung mit makroskopischen Merkmalen als zeitliche Mittelwerte von Größen, die aus mikroskopischen Zuständen berechnet werden können. Er wollte die Phasenmittelwerte mit solchen Zeitmittelwerten identifizieren. Er erkannte, dass dies getan werden könnte, wenn ein System, das in einem mikroskopischen Zustand gestartet wurde, schließlich alle möglichen mikroskopischen Zustände durchlaufen würde. Dass dies so war, wurde als ergodische Hypothese bekannt. Aber es ist aus topologischen und messungstheoretischen Gründen nachweislich falsch. Eine schwächere Behauptung, dass ein System, das in einem beliebigen Zustand gestartet wurde, willkürlich nahe beieinander liegen würde, ist ebenfalls falsch, und selbst wenn wahr nicht die erforderliche Arbeit leisten würde.
Aus diesen frühen Ideen entwickelte sich die mathematische Disziplin der Ergodentheorie. Wann kann ein Phasendurchschnitt mit einem Zeitdurchschnitt über unendliche Zeit identifiziert werden? G. Birkhoff (mit früheren Ergebnissen von J. von Neumann) zeigte, dass dies für alle außer vielleicht einem Satz von Maß Null der Trajektorien (in dem Standardmaß, das zur Definition der Wahrscheinlichkeitsfunktion verwendet wird) so wäre, wenn der Satz von Phasenpunkten wäre metrisch nicht zusammensetzbar, dh wenn es nicht in mehr als ein Stück unterteilt werden konnte, so dass jedes Stück ein Maß größer als Null hatte und ein System, das in einem Stück begann, sich immer zu einem System in diesem Stück entwickelte.
Aber hat ein realistisches Modell eines Systems jemals die Bedingung der metrischen Unzusammensetzbarkeit erfüllt? Was benötigt wird, um eine metrische Unzusammensetzbarkeit abzuleiten, ist eine ausreichende Instabilität der Trajektorien, so dass die Trajektorien keine Gruppen von Nicht-Null-Maßen bilden, die nicht ausreichend über den gesamten Phasenbereich wandern. Die Existenz einer verborgenen Bewegungskonstante würde die metrische Unzusammensetzbarkeit verletzen. Nach viel mühsamer Arbeit gipfelte sie in der von Ya. Sinai wurde gezeigt, dass einige „realistische“Modelle von Systemen, wie das Modell eines Gases als „harte Kugeln in einer Box“, der metrischen Unzusammensetzbarkeit entsprachen. Andererseits zeigt das Kolmogorov-Arnold-Moser-Theorem (KAM) als weiteres Ergebnis der dynamischen Theorie, dass realistischere Modelle (beispielsweise von Molekülen, die über „weiche“Potentiale interagieren) der Ergodizität wahrscheinlich nicht im engeren Sinne gehorchen. In diesen Fällen ist auch eine subtilere Argumentation erforderlich (basierend auf den vielen Freiheitsgraden in einem System, das aus einer großen Anzahl von Bestandteilen besteht).
Wenn Ergodizität gilt, was kann gezeigt werden? Es kann gezeigt werden, dass für alle außer einem Satz von Maß Null von Anfangspunkten der zeitliche Durchschnitt einer Phasengröße über eine unendliche Zeit gleich ihrem Phasenmittelwert ist. Es kann gezeigt werden, dass für jede messbare Region die durchschnittliche Zeit, die das System in dieser Region verbringt, proportional zur Größe der Region ist (gemessen anhand des im mikrokanonischen Ensemble verwendeten Wahrscheinlichkeitsmaßes). Eine Lösung für ein weiteres Problem wird ebenfalls weiterentwickelt. Boltzmann wusste, dass die Standardwahrscheinlichkeitsverteilung angesichts der Dynamik der Systeme unter zeitlicher Entwicklung unveränderlich war. Aber wie konnten wir wissen, dass dies die einzige solche unveränderliche Maßnahme war? Mit Ergodizität können wir zeigen, dass die Standardwahrscheinlichkeitsverteilung die einzige ist, die so unveränderlich ist,Zumindest, wenn wir uns auf Wahrscheinlichkeitsmaße beschränken, die jeder Menge, die durch das Standardmaß Null zugewiesen wird, die Wahrscheinlichkeit Null zuweisen.
Wir haben also eine Art „transzendentale Deduktion“der Standardwahrscheinlichkeit, die im Falle eines Gleichgewichts über mikroskopische Zustände verteilt wird. Das Gleichgewicht ist ein zeitlich unveränderlicher Zustand. Wir fordern daher, dass das Wahrscheinlichkeitsmaß, mit dem Gleichgewichtsgrößen berechnet werden sollen, auch zeitlich stationär ist. Wenn wir davon ausgehen, dass Wahrscheinlichkeitsmaße, die Mengen von Zuständen, denen durch das übliche Maß Null zugewiesen wurde, eine Wahrscheinlichkeit ungleich Null zuweisen, ignoriert werden können, können wir zeigen, dass die Standardwahrscheinlichkeit die einzige solche zeitinvariante Wahrscheinlichkeit unter der Dynamik ist, die die einzelnen Systeme von eins antreibt mikroskopischer Zustand zu einem anderen.
Als vollständige „Begründung“für die statistische Standardmechanik des Gleichgewichts bleibt jedoch vieles fraglich. Es besteht das Problem, dass eine strikte Ergodizität bei realistischen Systemen nicht zutrifft. Es gibt viele Probleme, wenn man versucht, die Begründung zu verwenden, da Boltzmann gehofft hat, Phasenmittelwerte mit gemessenen Größen zu identifizieren, die auf der Tatsache beruhen, dass makroskopische Messungen im molekularen Maßstab „lange Zeit“dauern. Es gibt die Probleme, die durch die Tatsache entstehen, dass alle mathematisch legitimen ergodischen Ergebnisse durch Ausnahmen für „Maßsätze Null“qualifiziert sind. Was macht es physisch legitim, eine Reihe von Trajektorien zu ignorieren, nur weil das Standardmaß das Maß Null hat? Schließlich führt eine solche Vernachlässigung zu katastrophal falschen Vorhersagen, wenn es wirklich verborgene globale Bewegungskonstanten gibt. Warum sind wir berechtigt, Wahrscheinlichkeitsmaße zu ignorieren, die Wahrscheinlichkeiten ungleich Null für Sätze von Bedingungen zuweisen, denen im Standardmaß die Wahrscheinlichkeit Null zugewiesen wurde, um zu beweisen, dass das Standardmaß eindeutig invariant ist? Schließlich war es nur die Verwendung dieser Standardmaßnahme, die wir zu rechtfertigen versuchten.
In jedem Fall ist die Gleichgewichtstheorie als autonome Disziplin irreführend. Was wir schließlich wollen, ist eine Behandlung des Gleichgewichts im Nichtgleichgewichtskontext. Wir möchten verstehen, wie und warum sich Systeme aus einem anfänglich festgelegten makroskopischen Zustand entwickeln, wobei das Gleichgewicht nur der „Endpunkt“einer solchen dynamischen Evolution ist. Wir müssen uns also der allgemeinen Darstellung des Ungleichgewichts zuwenden, wenn wir ein umfassenderes Verständnis der Funktionsweise dieser Wahrscheinlichkeitstheorie in der Physik wünschen.
4. Nichtgleichgewichtstheorie
Boltzmann lieferte eine Gleichung für die Entwicklung der Verteilung der Geschwindigkeiten von Partikeln aus einem Nichtgleichgewichts-Ausgangszustand für verdünnte Gase, die Boltzmann-Gleichung. Eine Reihe nachfolgender Gleichungen wurde für andere Arten von Systemen gefunden, obwohl sich eine Verallgemeinerung auf beispielsweise dichte Gase als unlösbar erwiesen hat. Alle diese Gleichungen werden kinetische Gleichungen genannt.
Wie können sie gerechtfertigt und erklärt werden? In den Diskussionen über das Problem der Irreversibilität, die sich nach Boltzmanns Arbeit ergaben, konzentrierte sich die Aufmerksamkeit auf eine grundlegende Annahme, die er machte: die Hypothese bezüglich der Kollisionszahlen. Diese zeitasymmetrische Annahme setzte voraus, dass die Bewegungen der Moleküle in einem Gas vor der Kollision der Moleküle statistisch nicht korreliert waren. Bei der Ableitung einer der anderen kinetischen Gleichungen muss eine ähnliche solche Position gemacht werden. Einige allgemeine Methoden zum Ableiten solcher Gleichungen sind der Master-Gleichungsansatz und ein Ansatz, der auf der Grobkörnung des Phasenraums von Punkten, die die Mikrozustände des Systems darstellen, in endliche Zellen und der Annahme fester Übergangswahrscheinlichkeiten von Zelle zu Zelle beruht (Markov-Annahme). Eine solche Annahme wurde jedoch nicht aus der zugrunde liegenden Dynamik des Systems abgeleitet und könnte nach allem, was sie bisher wussten, mit dieser Dynamik unvereinbar gewesen sein.
Es wurde eine Reihe von Versuchen unternommen, auf eine solche Annahme zu verzichten und den Ansatz zum Gleichgewicht aus der zugrunde liegenden Dynamik des Systems abzuleiten. Da diese Dynamik unter Zeitumkehr unveränderlich ist und die kinetischen Gleichungen zeitasymmetrisch sind, muss die Zeitasymmetrie irgendwo in die Erklärungstheorie aufgenommen werden.
Ein Ansatz zur Ableitung der kinetischen Gleichungen beruht auf Arbeiten, die die Ergodentheorie verallgemeinern. Unter Berufung auf die Instabilität von Trajektorien versucht man zu zeigen, dass sich ein Bereich von Phasenpunkten, der die möglichen Mikrozustände für ein System darstellt, das unter Nichtgleichgewichtsbedingungen hergestellt wurde, bei Änderung der Bedingungen schließlich zu einer Reihe von Phasenpunkten entwickelt, die ist "grob" über den gesamten Bereich des Phasenraums verteilt, der durch die geänderten Einschränkungen ermöglicht wird. Die alte Region kann die neue Region nicht durch einen fundamentalen Satz der Dynamik (Liouvilles Satz) „fein“abdecken. Aber auf eine Weise, die zuerst von Gibbs beschrieben wurde, kann es die Region in einem grobkörnigen Sinne abdecken. Um zu zeigen, dass sich eine Punktesammlung so ausbreitet (zumindest im unendlichen Zeitlimit), versucht man, das System zu zeigen, das über eine geeignete Randomisierungseigenschaft verfügt. In der Reihenfolge der Erhöhung der Festigkeit umfassen solche Eigenschaften schwaches Mischen, Mischen, ein K-System oder ein Bernoulli-System zu sein. Es gibt auch andere topologische im Gegensatz zu messungstheoretischen Ansätzen für dieses Problem.
Wie üblich gelten viele Einschränkungen. Kann wirklich gezeigt werden, dass das System eine solche Randomisierungsfunktion aufweist (zum Beispiel im Lichte des KAM-Theorems)? Sind unendliche Zeitlimitergebnisse für unsere physikalischen Erklärungen relevant? Wenn die Ergebnisse zeitlich begrenzt sind, werden sie in dem Sinne relativiert, dass sie nur für einige grobe Partitionen des Systems gelten und nicht für solche von experimentellem Interesse?
Am wichtigsten ist, dass das Mischen und seine Art nicht die ganze Geschichte sein kann. Alle Ergebnisse dieser Theorie sind zeitsymmetrisch. Um zeitasymmetrische Ergebnisse zu erhalten und Ergebnisse zu erhalten, die in endlichen Zeiten gelten und die Entwicklung in der durch die kinetische Gleichung über diese endlichen Zeiten beschriebenen Weise zeigen, muss auch angenommen werden, wie die Wahrscheinlichkeit über den Bereich der Punkte verteilt werden soll erlaubt, das System im ersten Moment darzustellen.
Wie muss diese Wahrscheinlichkeitsannahme aussehen und wie kann sie gerechtfertigt sein? Diese Fragen wurden von N. Krylov gestellt und teilweise untersucht. Die Versuche, diese anfängliche Wahrscheinlichkeitsannahme zu rationalisieren, reichten von Krylovs eigenem Vorschlag, dass es das Ergebnis eines Nicht-Quanten-Ungewissheitsprinzips ist, das physikalisch auf den Modi basiert, mit denen wir Systeme herstellen, bis zu dem Vorschlag, dass es das Ergebnis einer zugrunde liegenden Stochastik ist Natur der Welt beschrieben wie im Ghirardi-Rimini-Weber-Ansatz zum Verständnis der Messung in der Quantenmechanik. Der Status und die Erklärung der anfänglichen Wahrscheinlichkeitsannahme bleiben das zentrale Rätsel der statistischen Nichtgleichgewichtsmechanik.
Es gibt andere Ansätze, um den Ansatz des Gleichgewichts im Widerspruch zu den Ansätzen zu verstehen, die auf Mischungsphänomenen beruhen. O. Lanford hat zum Beispiel gezeigt, dass man für ein idealisiertes, unendlich verdünntes Gas für sehr kleine Zeitintervalle ein überwältigend wahrscheinliches Verhalten des Gases gemäß der Boltzmann-Gleichung zeigen kann. Hier wird die Interpretation dieser Gleichung durch die Ehrenfeste, die für den Mischungsansatz geeignete Interpretation, zugunsten der älteren Idee der Gleichung fallen gelassen, die die überwiegend wahrscheinliche Entwicklung eines Systems beschreibt. Diese Herleitung hat den Vorteil, dass die Boltzmann-Gleichung rigoros generiert wird, jedoch auf Kosten der Anwendung nur auf ein stark idealisiertes System und dann nur für eine sehr kurze Zeit (obwohl das Ergebnis für längere Zeitskalen zutreffen kann, wenn es nicht bewiesen ist). Auch hier ist noch eine anfängliche Wahrscheinlichkeitsverteilung für die Zeitasymmetrie erforderlich.
5. Irreversibilität
Die thermodynamischen Prinzipien erfordern eine Welt, in der physikalische Prozesse zeitlich asymmetrisch sind. Die Entropie eines isolierten Systems kann spontan in die Zukunft, aber nicht in die Vergangenheit zunehmen. Aber die dynamischen Gesetze, die die Bewegung der Mikrobestandteile regeln, sind zumindest nach den Standardansichten dieser Gesetze als die üblichen Gesetze der klassischen oder Quantendynamik zeitumkehrinvariant. Die Einführung probabilistischer Elemente in die zugrunde liegende Theorie erklärt immer noch nicht, wo Zeitasymmetrie in die erklärende Darstellung einfließt. Auch wenn wir nach Maxwell den zweiten Hauptsatz der Thermodynamik in seinen Behauptungen als rein probabilistisch betrachten, bleibt er zeitasymmetrisch.
Im Laufe der Geschichte der Disziplin wurden oft Vorschläge gemacht, wonach ein tiefes, zugrunde liegendes dynamisches Gesetz selbst eine Zeitasymmetrie in die Bewegung der Mikrobestandteile einführt.
Ein Ansatz besteht darin, die zeitliche Asymmetrie der Dynamik der Mikrobestandteile zu leugnen und nach einem Ersatzgesetz zu suchen, das selbst zeitasymmetrisch ist. Eine moderne Version davon befasst sich mit einer Interpretation der Quantenmechanik, die den berüchtigten „Zusammenbruch des Wellenpakets“bei der Messung erklären soll. Ghirardi, Rimini und Weber (GRW) haben die Existenz eines rein stochastischen Prozesses postuliert, der tiefer liegt als der der üblichen Quantenentwicklung. Dieser reine Zufallsprozess wird makroskopische Systeme schnell in nahezu Eigenfunktionen der Position treiben, während isolierte Mikrosysteme in Überlagerungszuständen belassen werden. Der stochastische Prozess ist zeitlich asymmetrisch (ebenso wie der Zusammenbruch der Wellenfunktion bei der Messung). D. Albert hat vorgeschlagen, dass ein solcher GRW-Prozess, wenn er real ist,könnte auch aufgerufen werden, um die Zeitasymmetrie der Dynamik von Systemen zu berücksichtigen, die in der Thermodynamik berücksichtigt werden muss. Die Zeitasymmetrie des GRW-Zusammenbruchs kann sich direkt auf die Dynamik des Systems auswirken oder ihre Aufgabe erfüllen, indem die Anfangszustände isolierter Systeme entsprechend randomisiert werden. Es wurde bisher wenig unternommen, um die Details zu ergänzen, um festzustellen, ob die postulierten GRW-Prozesse, falls sie real sind, die bekannten thermodynamischen Asymmetrien erklären könnten. Und natürlich gibt es viel Skepsis, dass die GRW-Prozesse überhaupt real sind. Es wurde bisher wenig unternommen, um die Details zu ergänzen, um festzustellen, ob die postulierten GRW-Prozesse, falls sie real sind, die bekannten thermodynamischen Asymmetrien erklären könnten. Und natürlich gibt es viel Skepsis, dass die GRW-Prozesse überhaupt real sind. Es wurde bisher wenig unternommen, um die Details zu ergänzen, um festzustellen, ob die postulierten GRW-Prozesse, falls sie real sind, die bekannten thermodynamischen Asymmetrien erklären könnten. Und natürlich gibt es viel Skepsis, dass die GRW-Prozesse überhaupt real sind.
Andere Vorschläge gehen davon aus, dass die entropische Veränderung eines Systems durch eine tatsächlich nicht eliminierbare „Interferenz“in das System zufälliger kausaler Einflüsse von außerhalb des Systems vermittelt wird. Es ist zum Beispiel unmöglich, das System wirklich vor subtilen Gravitationseinflüssen von außen zu schützen. Die Frage der Rolle externer Interferenzen im scheinbar spontanen Verhalten eines als isoliertes System idealisierten Systems wurde viel diskutiert. Hier spielt die Existenz spezieller Systeme (wie Spin-Echo-Systeme, die in der Kernspinresonanz auftreten) eine Rolle in den Argumenten. Denn diese Systeme scheinen im isolierten Zustand eine spontane Annäherung an das Gleichgewicht zu zeigen, können jedoch ihr offensichtliches entropisches Verhalten dazu bringen, mit einem geeigneten Impuls von außerhalb des Systems „rückwärts“zu gehen. Dies scheint eine entropische Zunahme ohne die Art von Interferenz von außen zu zeigen, die die im System implizite ursprüngliche Ordnung wirklich zerstört. In jedem Fall ist es schwer zu erkennen, wie Störungen von außen die Einführung von Zeitasymmetrie bewirken würden, wenn diese Asymmetrie nicht „von Hand“in die Charakterisierung dieser Störung einbezogen wird.
Es war Boltzmann, der zuerst eine Art „kosmologische“Lösung des Problems vorschlug. Wie oben erwähnt, schlug er ein Universum vor, das insgesamt nahe am Gleichgewicht mit „kleinen“Unterregionen in Schwankungen außerhalb dieses Zustands liegt. In einer solchen Subregion würden wir eine Welt finden, die weit vom Gleichgewicht entfernt ist. Wenn man die bekannten zeitsymmetrischen probabilistischen Annahmen einführt, wird es wahrscheinlich, dass man in einer solchen Region Zustände niedrigerer Entropie in einer Zeitrichtung und Zustände höherer Entropie in der anderen Richtung findet. Beenden Sie die Lösung, indem Sie den anderen Boltzmann-Vorschlag einführen, dass das, was wir unter der zukünftigen Zeitrichtung verstehen, als die Zeitrichtung festgelegt ist, in der die Entropie zunimmt.
Die gegenwärtige Kosmologie sieht ein ganz anderes Universum als das von Boltzmann. Soweit wir das Universum als Ganzes beurteilen können, befindet es sich in einem sehr unausgeglichenen Zustand mit paralleler entropischer Zunahme in die Zukunft überall. Die Struktur des Kosmos, wie wir sie kennen, ermöglicht jedoch eine alternative Lösung des Problems des Ursprungs der Zeitasymmetrie in der Thermodynamik. Das Universum scheint sich räumlich auszudehnen, mit einem Ursprung vor einigen zehn Milliarden Jahren in einer anfänglichen Singularität, dem Urknall. Die Expansion allein liefert jedoch nicht die für die Thermodynamik erforderliche Zeitasymmetrie, da ein expandierendes Universum mit statischer oder abnehmender Entropie von der Physik zugelassen wird. In einigen kosmologischen Modellen, in denen sich das Universum nach der Expansion zusammenzieht, ist dies normalerweise, wenn auch nicht immer, der Fall.angenommen, dass auch bei Kontraktion die Entropie weiter zunimmt.
Die Quelle der entropischen Asymmetrie wird vielmehr im physischen Zustand der Welt beim Urknall gesucht. Materie „kurz nach“dem Urknall befindet sich normalerweise in einem Zustand maximaler Entropie - im thermischen Gleichgewicht. Dies berücksichtigt jedoch nicht die Struktur des „Raums selbst“oder, wenn Sie es wünschen, die Art und Weise, wie die Materie im Raum verteilt ist und der universellen Anziehungskraft aller Materie für alle anderen Materie unterliegt. Eine Welt, in der Materie gleichmäßig verteilt ist, ist eine Welt mit geringer Entropie. Ein Zustand mit hoher Entropie ist ein Zustand, in dem wir eine Ansammlung von Materie in dichten Regionen finden, wobei viel leerer Raum diese Regionen trennt. Diese Abweichung von der üblichen Erwartung - räumliche Gleichförmigkeit als Zustand höchster Entropie - ist auf die Tatsache zurückzuführen, dass die Schwerkraft,Im Gegensatz zu den Kräften, die beispielsweise die Wechselwirkung von Molekülen in einem Gas steuern, handelt es sich um eine rein anziehende Kraft.
Man kann dann einen anfänglichen Zustand mit „sehr niedriger Entropie“für den Urknall festlegen, wobei die räumliche Gleichmäßigkeit der Materie ein „entropisches Reservoir“darstellt. Während sich das Universum ausdehnt, geht die Materie von einem gleichmäßig verteilten Zustand mit ebenfalls gleichmäßiger Temperatur zu einem Zustand über, in dem Materie in einer Umgebung mit kaltem, leerem Raum stark zu heißen Sternen verklumpt ist. Man hat dann das Universum, wie wir es kennen, mit seinem thermisch sehr unausgeglichenen Zustand. "Anfängliche niedrige Entropie" wird dann ein Zustand in der Vergangenheit sein, der (soweit wir wissen) in Zukunft keiner Singularität jeglicher Art entspricht, geschweige denn einer niedrigen Entropie. Wenn man von diesem anfänglichen Zustand niedriger Entropie abhängig ist, erhält man unter Verwendung der zeitsymmetrischen Wahrscheinlichkeiten der statistischen Mechanik eine Vorhersage eines Universums, dessen Entropie mit der Zeit zunahm.
Aber es ist natürlich nicht die Entropie des gesamten Universums, mit der sich das Zweite Gesetz befasst, sondern die von „kleinen“Systemen, die vorübergehend energetisch von ihrer Umgebung isoliert sind. Man kann in einer Weise, die auf H. Reichenbach zurückgeht, argumentieren, dass die entropische Zunahme des Universums als Ganzes wiederum unter Verwendung der üblichen zeitsymmetrischen probabilistischen Positionen zu einer hohen Wahrscheinlichkeit führen wird, dass ein zufälliges „Verzweigungssystem“entropisch ist parallel zu dem des Universums und parallel zu dem anderer Verzweigungssysteme zunehmen. Die meisten Argumente in der Literatur, dass dies so sein wird, sind fehlerhaft, aber die Schlussfolgerung ist dennoch vernünftig. Es wurde auch vorgeschlagen, dass, wenn man sich auf ein zugrunde liegendes statistisches dynamisches Gesetz beruft (wie das oben erwähnte GRW-Gesetz),Man muss nicht zusätzlich zur anfänglichen niedrigen Entropie eine Verzweigungssystemhypothese aufstellen, um die thermodynamischen Ergebnisse abzuleiten.
Die Annahme einer anfänglichen niedrigen Entropie für den Urknall wirft seine eigenen „philosophischen“Fragen auf: Wie können wir angesichts der Standardwahrscheinlichkeiten, bei denen eine hohe Entropie überwiegend wahrscheinlich ist, die radikal „unerwartete“niedrige Entropie des Anfangszustands erklären? Können wir in der Tat probabilistisches Denken anwenden, das für Systeme im Universum, wie wir es kennen, geeignet ist, um einen Anfangszustand für das gesamte Universum zu erreichen? Die Themen hier erinnern an die alten Debatten über das teleologische Argument für die Existenz Gottes.
6. Die Reduktion (?) Der Thermodynamik auf die statistische Mechanik
Es ist nicht verwunderlich, dass die Beziehung der älteren thermodynamischen Theorie zu der neuen statistischen Mechanik, auf der sie basiert, von einiger Komplexität ist.
Die ältere Theorie hatte keine probabilistischen Qualifikationen für ihre Gesetze. Aber wie Maxwell klar wusste, konnte es dann nicht „genau“wahr sein, wenn die neue Wahrscheinlichkeitstheorie die Welt korrekt beschrieb. Man kann entweder die thermodynamische Theorie in ihrer traditionellen Form beibehalten und die Beziehung, die ihre Prinzipien zu den neueren probabilistischen Schlussfolgerungen haben, sorgfältig erläutern, oder man kann, wie dies auf zutiefst interessante Weise geschehen ist, eine neue „statistische Thermodynamik“erzeugen, die in die ältere importiert wird Theorie probabilistische Struktur.
Konzeptionell ist das Verhältnis von älterer zu neuerer Theorie recht komplex. Konzepte der älteren Theorie (Volumen, Druck, Temperatur, Entropie) müssen mit den Konzepten der neueren Theorie in Beziehung gesetzt werden (molekulare Konstitution, dynamische Konzepte, die die Bewegung der molekularen Bestandteile regeln, probabilistische Begriffe, die entweder die Zustände eines einzelnen Systems oder Verteilungen charakterisieren von Staaten über ein imaginäres Ensemble von Systemen, die einigen allgemeinen Einschränkungen unterliegen).
Ein einzelner Begriff der thermodynamischen Theorie wie "Entropie" wird mit einer Vielzahl von Konzepten assoziiert, die in der neueren Darstellung definiert sind. Es gibt zum Beispiel die Boltzmann-Entropie, die die Eigenschaft eines einzelnen Systems ist, das hinsichtlich der räumlichen und Impulsverteilung seiner Moleküle definiert ist. Auf der anderen Seite gibt es die Gibbs'entropies, die aus der Wahrscheinlichkeitsverteilung über ein Gibbs'sches Systemensemble definiert werden können. Hinzu kommen noch weitere Komplikationen: Gibbs 'feinkörnige Entropie, die allein durch die Ensemble-Wahrscheinlichkeit definiert wird und bei der Charakterisierung von Gleichgewichtszuständen und Gibbs sehr nützlich ist.grobkörnige Entropie, deren Definition eine gewisse Aufteilung des Phasenraums in endliche Zellen sowie die ursprüngliche Wahrscheinlichkeitsverteilung erfordert und die ein nützliches Konzept zur Charakterisierung des Gleichgewichtsansatzes aus der Ensembleperspektive darstellt. Zusätzlich zu diesen Begriffen, die messungstheoretischer Natur sind, gibt es topologische Begriffe, die auch die Rolle einer Art Entropie spielen können.
Nichts in dieser Komplexität steht der Behauptung im Wege, dass die statistische Mechanik die Welt auf eine Weise beschreibt, die erklärt, warum die Thermodynamik funktioniert und so gut funktioniert wie sie. Die Komplexität der Wechselbeziehung zwischen den Theorien sollte den Philosophen jedoch vorsichtig machen, wenn er diese Beziehung als ein gut verstandenes und einfaches Paradigma der intertheoretischen Reduktion verwendet.
Es ist von philosophischem Interesse, dass das Verhältnis der Thermodynamik zur statistischen Mechanik Ähnlichkeiten mit Aspekten aufweist, die in funktionalistischen Theorien der Geist-Körper-Beziehung aufgedeckt wurden. Betrachten Sie zum Beispiel die Tatsache, dass Systeme sehr unterschiedlicher physikalischer Konstitutionen (z. B. ein Gas aus Molekülen, die einerseits durch Kräfte und andererseits Strahlung, deren Komponenten energetisch gekoppelte Wellenlängen des Lichts sind, zusammenwirken) thermodynamisch teilen können Eigenschaften. Sie können beispielsweise die gleiche Temperatur haben. Physikalisch bedeutet dies, dass die beiden Systeme, wenn sie anfänglich im Gleichgewicht und dann energetisch gekoppelt sind, ihre ursprünglichen Gleichgewichtsbedingungen beibehalten. Die Parallele zu der Behauptung, dass ein funktional definierter Geisteszustand (etwa ein Glaube) in einer Vielzahl von physischen Geräten instanziiert werden kann, ist klar.
7. Die Richtung der Zeit
Wir haben festgestellt, dass es Boltzmann war, der zuerst vorschlug, dass unser Konzept der zukünftigen Richtung der Zeit durch die Richtung in der Zeit festgelegt wurde, in der die Entropie in unserem Teil des Universums zunahm. Zahlreiche Autoren sind diesem Vorschlag gefolgt, und die „entropische“Theorie der Zeitasymmetrie bleibt ein viel diskutiertes Thema in der Zeitphilosophie.
Wir müssen zuerst fragen, was die Theorie wirklich behauptet. In einer vernünftigen Version der Theorie wird kein Anspruch darauf erhoben, dass wir die zeitliche Reihenfolge von Ereignissen herausfinden, indem wir die Entropie von Systemen überprüfen und das spätere Ereignis als dasjenige nehmen, in dem ein System seine höhere Entropie hat. Die Behauptung ist vielmehr, dass es die Tatsachen über die entropische Asymmetrie von Systemen in der Zeit sind, die die Phänomene „begründen“, die wir normalerweise als Kennzeichnung der asymmetrischen Natur der Zeit selbst betrachten.
Was sind einige Merkmale, deren intuitive zeitliche Asymmetrie wir vielleicht als „konstituierend“für die asymmetrische Natur der Zeit betrachten? Es gibt Asymmetrien des Wissens: Wir haben Erinnerungen und Aufzeichnungen an die Vergangenheit, aber nicht an die Zukunft. Es gibt Asymmetrien der Entschlossenheit: Wir denken, dass Kausalität von Vergangenheit über Gegenwart in Zukunft geht und nicht umgekehrt. Es gibt besorgniserregende Asymmetrien: Wir mögen die Vergangenheit bereuen, aber wir erwarten gespannt die Zukunft. Es gibt angebliche Asymmetrien der „Bestimmtheit“der Realität: Es wird manchmal behauptet, dass Vergangenheit und Gegenwart die Realität bestimmt haben, aber dass die Zukunft als Bereich bloßer Möglichkeiten überhaupt kein solches Bestimmtheit hat.
Die entropische Theorie in ihrer plausibelsten Formulierung ist ein Anspruch darauf, dass wir den Ursprung all dieser intuitiven Asymmetrien erklären können, indem wir uns auf Tatsachen über die entropische Asymmetrie der Welt beziehen.
Dies lässt sich am besten anhand der von Boltzmann verwendeten Analogie verstehen: der Gravitationsdarstellung von Auf und Ab. Was meinen wir mit der Abwärtsrichtung an einem räumlichen Ort? Alle Phänomene, anhand derer wir intuitiv die Abwärtsrichtung identifizieren (beispielsweise die Richtung, in die Steine fallen), erhalten eine Erklärung hinsichtlich der räumlichen Richtung der lokalen Gravitationskraft. Sogar unser unmittelbares Bewusstsein, welche Richtung nach unten zeigt, lässt sich anhand der Wirkung der Schwerkraft auf die Flüssigkeit in unseren halbkreisförmigen Kanälen erklären. Es ist für uns überhaupt kein Schock, dass "down" für Australien in die entgegengesetzte Richtung geht wie "down" für Chicago. Wir sind auch nicht bestürzt darüber, dass im Weltraum, weit entfernt von einem großen Gravitationsobjekt wie der Erde,Es gibt keine Auf-Ab-Unterscheidung und keine Raumrichtung, die die Abwärtsrichtung ist.
In ähnlicher Weise behauptet der entropische Theoretiker, dass es die entropischen Merkmale sind, die die oben erwähnten intuitiven Asymmetrien erklären, dass in Regionen des Universums, in denen die entropische Asymmetrie zeitlich entgegengesetzt war, die Zeitrichtungen der Vergangenheit und Zukunft entgegengesetzt wären, und dass in Eine Region des Universums ohne entropische Asymmetrie, keine Richtung der Zeit würde als Vergangenheit oder als Zukunft gelten.
Das große Problem bleibt der Versuch zu zeigen, dass die entropische Asymmetrie erklärend ausreichend ist, um alle anderen Asymmetrien in der Weise zu berücksichtigen, wie die Gravitationsasymmetrie die Unterscheidung von Auf und Ab erklären kann. Trotz vieler interessanter Beiträge zur Literatur bleibt das Problem ungelöst.
8. Quantendynamik
Die meisten grundlegenden Untersuchungen zur statistischen Mechanik setzen eine klassische dynamische Grundlage zur Beschreibung der Dynamik der Bestandteile makroskopischer Systeme voraus. Dies kann natürlich nicht korrekt sein, da diese zugrunde liegende Dynamik quantenmechanisch sein muss. Gibbs war vorsichtig, als er beispielsweise eine einfache Erklärungsrolle für seine Ensemble-Version der statistischen Mechanik beanspruchte, da dies zu notorisch falschen Vorhersagen für solche makroskopischen Merkmale von Systemen wie ihre spezifische Wärme führte. Später wurde erkannt, dass der Fehler hier nicht in Gibbs 'statistischer Mechanik lag, sondern in der Annahme einer klassischen Dynamik auf der Ebene der Bestandteile. Sobald die Systeme auf der richtigen quantenmechanischen Basis neu beschrieben wurden, verschwanden die Vorhersagefehler.
Der natürliche Wechsel zu einer quantenmechanischen Basis führt zu umfassenden Änderungen innerhalb der statistischen Mechanik. Beispielsweise wird ein neuer Begriff des Phasenraums mit Wahrscheinlichkeiten darüber benötigt. Bedeutet dies jedoch, dass die grundlegenden Erkundungen, die die klassische Mechanik voraussetzen, jetzt irrelevant sind?
Wir haben bereits festgestellt, dass einige Vorschläge gemacht wurden, die darauf abzielen, die sehr wahrscheinlichkeitstheoretische Natur der statistischen Mechanik auf die grundsätzlich probabilistische Natur der Quantenmechanik auf dynamischer Ebene oder vielmehr auf eine Interpretation der Funktionsweise der Wahrscheinlichkeit in den Wurzeln zu gründen der Quantenmechanik.
Auch ohne so weit zu gehen, erfordert die Umstellung auf eine quantendynamische Basis nur ein Umdenken subtiler Themen in den grundlegenden Debatten. Von Anfang an war der Wiederholungssatz von Poincare ein Problem für die statistische Mechanik. Mit einer klassischen dynamischen Basis könnte die Antwort gegeben werden, dass der Satz zwar für einzelne Systeme gilt, die das Anliegen der Theorie betreffen, aber nicht notwendigerweise für ein Ensemble solcher Systeme gelten würde. Sobald man sich auf eine quantenmechanische Basis bewegt, ist dieser „Ausweg“nicht mehr verfügbar. In beiden dynamischen Rahmenbedingungen kann jedoch eine Verschiebung an die thermodynamische Grenze einer unendlichen Anzahl von Bestandteilen für ein System die Anwendbarkeit des Satzes als Einwand gegen die Monotonie der thermodynamischen Änderung, die in der statistischen Mechanik nicht erreichbar ist, beseitigen.
9. Phasenwechsel
Eines der auffälligsten makroskopischen Merkmale von Systemen ist das Vorhandensein mehrerer Phasen (z. B. Gas, Flüssigkeit und Feststoff oder diamagnetisch und ferromagnetisch für ein anderes) und die Übergänge zwischen diesen Phasen als thermodynamische Merkmale wie Temperatur und Druck oder auferlegte Magnetisierung abwechslungsreich. Frühe Arbeiten zu Phasenübergängen konzentrierten sich auf die Art und Weise, in der sich Größen nicht analytisch von Phase zu Phase änderten, obwohl die statistische Mechanik zu zeigen schien, dass ein solches nicht analytisches Verhalten zumindest für Systeme mit einer begrenzten Anzahl von Bestandteilen unmöglich war. Hier wurde oft auf die „thermodynamische Grenze“eines idealisierten unendlichen Systems zurückgegriffen.
In jüngerer Zeit wurden Methoden entwickelt, um mit einigen Phasenübergängen umzugehen, die nicht nur die Standarderklärungsschemata der traditionellen statistischen Mechanik ergänzen, sondern auch Einblicke in die Vielfalt der Formen liefern, die wissenschaftliche Erklärungen annehmen können. Das Erklärungsprogramm, die Verwendung der sogenannten „Renormierungsgruppe“, gibt Aufschluss darüber, warum Systeme ganz unterschiedlicher physikalischer Natur thermodynamische Ähnlichkeiten in ihren Übergängen von Phase zu Phase aufweisen können. In einigen Fällen hängt die Art des Übergangs von einigen abstrakten Parametern ab und nicht von den physikalischen Details des Systems. Was zählt, sind Dinge wie die Dimension des Systems,die Freiheitsgrade der Dynamik der Bestandteile und allgemeine Grenzen der Wechselwirkungen der Bestandteile untereinander, wie das kurz- und sehr weitreichende Verhalten der relevanten Wechselwirkungskräfte.
Der Trick besteht darin, zunächst die Wechselwirkungen der nächsten Bestandteile zu untersuchen. Dann bewegt man sich zu einem Block von Bestandteilen, der sich auf die nächsten ähnlichen Blöcke bezieht. Die neue Block-zu-Block-Wechselwirkung kann manchmal durch eine "Skalierung" der ursprünglichen Wechselwirkung zwischen einzelnen Bestandteilen erhalten werden. Man setzt diesen Prozess bis an die Grenze eines unendlichen Systems fort und sucht nach einem Grenzpunkt für die kontinuierlich neu skalierte Interaktion. Aus diesem begrenzenden Verhalten lassen sich manchmal die überraschenden „universellen“Merkmale des Phasenwechsels ableiten, die die Allgemeingültigkeit ähnlicher Phasenübergänge über verschiedene physikalische Systeme erklären.
Die Erklärungsstrategie ist hier ganz anders als die in der statistischen Mechanik übliche und zeigt prägnant, wie die Besonderheiten der physikalischen Systeme, die in der Wissenschaft nach Erklärungen verlangen, die Einführung neuer methodischer Tricks erfordern können, wenn ein umfassendes Verständnis erreicht werden soll. In dieser Hinsicht ähnelt die Einführung dieser Renormierungsgruppenmethoden der Art und Weise, in der die Notwendigkeit einer atomistischen Darstellung des makroskopischen thermodynamischen Verhaltens selbst die Hinzufügung der neuen Methoden der statistischen Mechanik zum älteren Repertoire typischer dynamischer Erklärungen erforderte.
Literaturverzeichnis
Eine umfassende Behandlung der Fragen aus philosophischer Sicht ist Sklar 1993. Von wichtigem historischem Interesse ist Reichenbach 1956. Eine zugängliche und aktuelle Diskussion der Grundfragen ist Albert 2000. Die mögliche Berufung auf ein zeitasymmetrisches Gesetz durch die GRW Ansatz wird in diesem Buch diskutiert. Eine temperamentvolle Verteidigung des anfänglichen Ansatzes mit niedriger Entropie zur Zeitasymmetrie ist Price 1996. Frigg 2008 gibt einen Überblick über die Arbeit weiterer Philosophen zu den grundlegenden Fragen. Englische Übersetzungen vieler grundlegender Originalarbeiten befinden sich in Brush 1965. Brush 1976 bietet eine historische Behandlung der Entwicklung der Theorie. Zwei wesentliche Grundwerke sind Gibbs 1960 und Ehrenfest und Ehrenfest 1959. Zwei Arbeiten, die viele der technischen Aspekte der grundlegenden statistischen Mechanik klar und detailliert erklären, sind Emch und Liu 2002 sowie Toda, Kubo und Saito 1983. Diese beiden Arbeiten bieten eine gründliche Grundlage für die quantenstatistische Mechanik und wie sie sich von der statistischen Mechanik unterscheidet, die auf der klassischen Theorie basiert. Eine hervorragende Einführung in die Theorie der Phasenwechsel- und Renormierungsgruppe ist Batterman 2002.
- Albert, D., 2000, Zeit und Zufall, Cambridge, MA: Harvard University Press.
- Batterman, R., 2002, Der Teufel im Detail, Oxford: Oxford University Press.
- Brush, S. (Hrsg.), 1965, Kinetic Theory, Oxford: Pergamon Press.
- Brush, S., 1976, Die Art von Bewegung, die wir Hitze nennen, Amsterdam: Nordholland.
- Ehrenfest, P. und T., 1959, Die konzeptionellen Grundlagen des statistischen Ansatzes in der Mechanik, Ithaca, NY: Cornell University Press.
- Emch, G. und Chuang, L., 2002, Die Logik der thermostatistischen Physik, Berlin: Springer.
- Frigg, R., 2008, "Ein Leitfaden für neuere Arbeiten zu den Grundlagen der statistischen Mechanik", in D. Rickles (Hrsg.), The Ashgate Companion to Contemporary Philosophy of Physics, London: Ashgate, S. 99-196.
- Gibbs, J., 1960, Elementary Principles in Statistical Mechanics, New York: Dover.
- Price, H., 1996, Time's Arrow und der archimedische Punkt, Oxford: Oxford University Press.
- Reichenbach, H., 1956, Die Richtung der Zeit, Berkeley: University of California Press.
- Sklar, L., 1993, Physik und Zufall: Philosophische Fragen in den Grundlagen der statistischen Mechanik, Cambridge: Cambridge University Press.
- Toda, M., Kubo, R. und Saito, N., 1983, Statistische Physik (Bände I und II), Berlin: Springer.
Akademische Werkzeuge
![]() |
Wie man diesen Eintrag zitiert. |
![]() |
Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft. |
![]() |
Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach. |
![]() |
Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank. |
Andere Internetquellen
[Bitte kontaktieren Sie den Autor mit Vorschlägen.]
Empfohlen:
Fiktionalismus In Der Philosophie Der Mathematik

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Fiktionalismus in der Philosophie der Mathematik Erstveröffentlichung Di 22. April 2008;
Formalismus In Der Philosophie Der Mathematik

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Formalismus in der Philosophie der Mathematik Erstveröffentlichung Mi 12. Januar 2011;
Das Konzept Der Emotion In Der Klassischen Indischen Philosophie

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Das Konzept der Emotion in der klassischen indischen Philosophie Erstveröffentlichung Di 1.
Intuitionismus In Der Philosophie Der Mathematik

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Intuitionismus in der Philosophie der Mathematik Erstveröffentlichung Do 4. September 2008;
Unentbehrliche Argumente In Der Philosophie Der Mathematik

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Unentbehrliche Argumente in der Philosophie der Mathematik Erstveröffentlichung Montag, 21.