Mir kommt da ein Satz in diesem Abschnitt etwas falsch vor. Da steht: "Das Verhältnis der theoretisch möglichen Motorleistung zur tatsächlich erbrachten wird als Carnot-Wirkungsgrad bezeichnet." So weit ich weiß ist der Carnot-Wirkungsgrad der theoretisch mögliche Wirkungsgrad bei gegebener Temperaturdifferenz, und nicht das Verhältnis zwischen erzieltem und theoretischem Wirkungsgrad. (kuehlmus)
Sorry, das war geschlampt von mir. Danke für den Hinweis. --Homosapiens 22:11, 29. Nov. 2006 (CET)
Sehe keine Begründung für eine Löschung. Der Abschnitt stellt eine durchaus relevante Sichtweise dar, die so in jeder technischen Universität gelehrt wird. Und er erleichtert gerade denen den Zugang, die von der klassischen Physik herkommen. --Homosapiens 21:23, 27. Mär. 2007 (CEST)
Auch wenn er das Verständnis erhöhen kann, der Abschnitt enthält acht Fehler. Eine Umformulierung habe ich für zu aufwendig gehalten. Wer nicht einen einzigen Fehler findet sollte nicht an diesem Artikel mitarbeiten. --David314 12:57, 28. Mär. 2007 (CEST)
Das englische Wort Entropy steht sowohl für das deutsche Entropie als auch für den Maß für den Informationsgehalt bzw. mittlerer Informationsgehalt und ist in der digitalen Signalkodierung gebräuchlich. Darauf sollte schon am Anfang des Artikels hingewiesen werden.
Hallo Anton, ich muß mal darauf hinweisen, daß das nicht richtig ist. Auch nach Shannon bedeutet viel Entropie nur viel Durcheinander. Shannon weist ausdrücklich darauf hin, daß er nichts über den Informationsgehalt, sondern nur über die Codierung. Ihm ist nur wichtig, daß eine lange Reihe gleicher Zeichen eben nicht viel Daten enthalten kann. Das heißt aber nicht, daß eine ungeordnete Folge Informationen enthalten muß, sie kann es lediglich! Aber wenn man einen Zufallsgenerator bemüht, dann hat das Ergebnis eben auch eine Hohe Entropie und es ist mühsamer, diese zu übertragen. --Homosapiens 01:13, 12. Sep 2006 (CEST)
Bin grad auf der Suche nach mehr Information über Entropie, aber im Zusammenhang mit Statistik - Informationsgehalt. Hier die Beschreibung aus dem englischen Duden von "Entropy": 1. Symbol S For a closed thermodynamic system, a quantitative measure of the amount of thermal energy not available to do work. 2. A measure of the disorder or randomness in a closed system. 3. A measure of the loss of information in a transmitted message. 4. The tendency for all matter and energy in the universe to evolve toward a state of inert uniformity. 5. Inevitable and steady deterioration of a system or society.
Dem Artikel ist meiner Meinung nach zu widersprechen. Zumindestens wenn die Zeitrichtung mit Hilfe der Entropie erklaert wird. Die uebliche Erklaerung des 2. Hauptsatzes stammte von Boltzmann und der erklaerte seine Entropieformel mit Hilfe der Wahrscheinlichkeitstheorie. Wenn es einen geordneten Zustand gibt, gibt es der Wahrscheinlichkeit nach viele ungeordnete Zustaende. So das die Wahrscheinlichkeit sehr hoch ist einen ungeordneteren Zustand des Systems in der Zukunft zu erleben. Aber diese Ueberlegung Bolzmanns ist symmetrisch. Ein gutes Beispiel: Ich habe eine Kiste mit 2 Kammern und ein Gas was sich in der Kiste befindet. Wenn ich einen geordneten Zustand erlebe ist die Wahrscheinlichkeit sehr hoch, das wenn ich das naechste mal in die Kiste schaue der Zustand ungeordneter ist. Aber genauso wahrscheinlich ist es das der Zustand des Gases in der Vergangenheit ebenso ungeordnetet war. Die Wahrscheinlichkeitsrechnung (auf die ja Boltzmanns Ueberlegungen beruhten) ist in dem Sinne zeitlich symmetrisch. Das Beispiel mit dem Film und der Vase (das gerne fuer die Erklaerung des Zeitpfeils hergenommen wird) ist meiner Meinung nach ein Trugschluss. Wenn dann muesste ich Bilder betrachten - denn der 2. Hauptsatz bestimmt nur einzelne Zustaende und keine Abfolge (Wahrscheinlichkeitstheorie). Demnach muesste ich mir 3 Bilder anschauen. Vergangenheit: Vase als Rohstoffe (ungeordnet) Gegenwart: Die Vase ist ganz. (geordnet) Zukunft: Die Vase ist zerbrochen. (ungeordnet) Auch das Beispiel der heissen Tasse ist eine Fehlbetrachtung: Wenn ich ein Bild mit einer heisen Tasse sehe (einen Zustand), dann ist es wahrscheinlich das im naechste Bild die Tasse abgekuehlt ist. Aber nichts in der Wahrscheinlichkeitsrechnung des 2. HS sagt uns, das das in der Vergangenheit nicht ebenso war.
Boltzmann selbst erkannte das Problem und das eine zukuenftige Zunahme der Entropie nur geben kann, wenn sie in der Vergangenheit niedrig war. Interessant waere es zu erfahren wie das mit dem Urknall zusammenhaengt.
Das Verinnen der Zeit duerfte eher ein psychologisches, neurophysiologisches Phaenomen sein und kein physikalisches (Eine Hypothese von Paul Davis sinniert ueber die Meoglichkeit, das Erinnerungen dem Gehirn negative Entropie zufuehrt, die Entropie des gesamten Gehirns aber dadurch ansteigt).
Vielmehr existiert die Zeit genauso wie der Raum exitiert. -- stefan 21:42, 23. Mai 2006 (CEST)
Die Anmerkung und die gemachten Analogien sind problematisch. Hier wird die Entropie mit der Ordnung eines Systems verwechselt. Um auf das Beispiel mit der Kiste zurück zu kommen. Mit einer gegebenen Transformation (zum Beispiel der Impulsstoß der Moleküle in diesem Fall, damit kenne ich mich nicht gut aus, ich bin Statistiker, leider kein Physiker) können sich sämtliche möglichen Zustände ineinander umwandeln - und zwar in diesem Fall reversibel und keiner der einzelnen Zustände ist wahrscheinilcher als der andere. Was die Entropie ausmacht ist folgendes: gibt es n Zustände, die sich in ihrer physikalischen Wirkung nicht unterscheiden lassen, dann sind diese als Gruppe genommen n mal so wahrscheinlich als ein einzelner Zustand. Darum müssen Systeme nach der Wahrscheinlichkeitstheorie auf ausgeglichene Verhältnisse zubewegen, bei denen in der Aussensicht keine Veränderungen wahrnehmbar sind- sich wie in diesem Beispiel Druckunterschiede ausgleichen. Jede einzelne Konfiguration der Moleküle in der Kiste, also als gedachte Momentaufnahme, ist erst einmal gleich wahrscheinlich.
Ich habe jetzt einmal - nach ein paar Tagen des Wartens - den Artikel bezueglich "von der Thermodynamik vorgegebenen Zeitpfeil" korrigiert. Weil die Grundaussage dieses Abschnittes einfach falsch ist. --stefan 22:05, 28. Mai 2006 (CEST)
Ich bin für Löschen! Da könnte man die Zeitrichtung anhand der Uhr erklären wollen. Die Zeitrichtung steckt im Wort "zunehmen", Boltzmann hat nur vergessen zu sagen, daß er das unter der Voraussetzung meint daß die Zeit vorwärts läuft... (weil es für einen Motor normalerweise auch nicht so einfach zu ändern ist). Man kann sich natürlich eine Menge schöne Gedanken zu dem Thema machen, aber muß das in der WP sein? Ein Hinweis auf die entsprechenden Autoren reicht vollkommen aus, wenn sie denn relevant sind. --Homosapiens 15:24, 29. Sep 2006 (CEST)
Kann mir mal jemand erklären, warum die Entropie im Moment des Big Bang klein oder null sein soll? Im Moment des Big Bang, also in der Singularität, ist die Entropie nicht definiert, sie kann irgendwas sein. Eine kurze Zeit später befinden wir uns in einem extrem heißen Medium, ich nehme mal an, dass das das Gegenteil des absoluten Nullpunktes mit Entropie = 0 ist. Die Teilchen (welche auch immer) und die Strahlung sind wohl im Zustand maximaler Entropie. Ich sehe keinen Grund, warum der Zustand irgendwie geordnet sein sollte. Im heißen Big Bang Modell gibt es keine Entropiezunahme, sie ist von vornherein maximal. Wer kann mir dieses Paradoxon erklären? --Tf 14:51, 7. Apr 2006 (CEST)
Die Entropie eines Systems kann sich auch ohne Zufuhr von Wärme ändern (Bsp.: Platzen einer Membran in einem wärmeisolierten Behälter, dessen eine Hälfte mit einem beliebigen Fluid gefüllt ist und dessen andere Hälfte evakuiert ist). dS=dQ/T ist die Entropiebilanzgleichung für ein geschlossenes System, in dem eine reversible Zustandsänderung (ohne Entropieerzeugung) abläuft!
Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin!
Beispiele:
1. Die Umwandlung von potenzieller in (geordnete) kinetische Energie ist reversibel. Auch ist die Umwandlung dieser beiden Energieformen in Wärmeenergie (ungeordnete kinetische Energie) möglich. Die umgekehrte Umwandlung ist für ein Gesamtsystem jedoch nicht möglich.
Anmerkung: Eine solche Umwandlung kann mit beliebig kleinen "Reibungsverlusten" geschehen, das ist beispielsweise doch gerade der Witz am Carnot-Prozess: Arbeit aus Wärme! Ganz genau so kann die Umwandlung von kinetischer in potentielle Energie mit beliebig kleinen "Reibungsverlusten" geschehen (die man real auch nie vollständig eliminieren kann). Es gibt hierbei KEINEN prinzipiellen Unterschied zwischen beiden Energie-Umwandlungs-Vorgängen. Der Carnot-Prozess wird weiter unten im Artikel dann auch noch einigermaßen richtig diskutiert, mit anderen Worten: der Artikel widerspricht sich selbst!
2. Die Entropie bringt also zum Ausdruck, zu welchem Grad die Energie in einem System in ungeordneter Form vorliegt.
Entropie läßt sich nicht irgendwelchen Zuständen, sondern nur irgendwelchen Zustandsbeschreibungen zuordnen. Sie ist ein linear additives Maß für die Größe des Raums der Realisierungsmöglichkeiten einer gegebenen Systembeschreibung. Insofern macht es keinen Sinn, von der "Unordnung eines Systems" zu sprechen. Systeme sind blind. Die haben keinen Ordnungssinn!
3. Hierdurch unterscheidet sich die Thermodynamik von den anderen physikalischen Theorien, die meist keine Zeitrichtung auszeichnen. (...) Es gibt bisher keine Theorie, welche die Irreversibilität makroskopischer Erscheinungen, ausgedrückt durch den Entropiebegriff, aus den bekannten Gleichungen der Mechanik oder der Quantenmechanik ableiten kann. (...) Da die Entropiezunahme die Zeitrichtung angibt, spricht man auch vom thermodynamischen Zeitpfeil.
Der Grund, warum es hier keine "Theorie" gibt, ist, daß von denen, die das verstanden haben, das jeder als so banal angesehen hat, daß sich niemand die Mühe gemacht hat, das aufzuschreiben. Die Sache ist ganz einfach: wir haben einen Satz "Daten", die ein System unvollständig beschreiben, und wollen wissen, wie das System in der Zukunft ausschaut. Unter gewissen "harmlosen" mechanischen Annahmen über die Mikrophysik (Phasenraum-Inkompressibilität) erhalten wir sofort, daß wir zu keiner Zeit mehr über das System wissen können, als zu der Zeit, als wir die Daten erhoben haben. Wir können das System freilich immer durch "zur Zeit t0 hat's so ausgesehen, dass es sich partiell durch S0 beschreiben läßt" beschreiben - und haben durch so eine Beschreibung NULL Entropieverlust, egal, zu welcher Zeit wir diese Beschreibung abgeben. Genau das sagt gerade die Zeitentwicklung der Entropie über Liouvile-van-Neumann. Interessant wird's, wenn wir das System zu einer Zeit t/=t0 in "menschlichen" Begriffen beschreiben wollen, die unter Zeitentwicklung des Systems nicht erhalten bleiben. Dann kann die Konsequenz nur lauten: das, was ich für die Zeit t/=t0 hinschreiben kann, was diese anthropischen Begriffe benutzt, sagt mir weniger über das System aus, als die Beschreibung zur Zeit t0. Wenn ich über das System etwas weiß, kann ich daraus immer auch eine weniger genaue Beschreibung des Systems basteln. Wenn ich eine genauere Beschreibung als die basteln will, die ich habe, muss ich irgendwie phantasieren. 3+5=8. Ich seh's der 8 nicht an, daß sie aus einer 3 und einer 5 gemacht wurde. Das ist es. Und nicht mehr.
Fazit: Gegeben eine Beschreibung B eines Systems S zur Zeit t0 in menschlichen Begriffen. Wenn ich das System niemals wieder anschaue, aber die Mikrophysik kenne, und zur Zeit t1/=t0 wieder eine Beschreibung in menschlichen Begriffen B' finden will, umfaßt die notwendigerweise eine größere Zahl von Realisierungsmöglichkeiten. Die Verwendung elementarer logischer Schlußfolgerungen kann die Menge an verhandenen Daten verkleinern, aber nicht vergrößern. Das bedeutet, daß die Entropie von B' immer größer ist als die von B. Unabhängig davon, ob t1 in der Zukunft oder in der Vergangenheit liegt. Ich kann von einem Glas Tee der Temperatur 40 Grad nicht sagen, wie das System vor einer Minute ausgesehen hat. 152.78.153.226 20:14, 17. Mai 2005 (CEST) doctom
Hör mal Kamerad, jetzt komm doch nicht mit Argumenten! Wenn du nicht eine Literaturstelle bringst, die mindestens 300 Jahre alt ist, hast du hier keine Chance! Und was wäre, wenn jemand was verstehen würde? Hast deinen Hans Christian Andersen wohl nicht gelesen? Und falls das nicht reicht: Das eigene Nachdenken ist eine unzuverlässige und mit Recht ungern gesehene Quelle für die Wikipedia! (Verfasser bekannt, erhebe kein Urheberrecht). Übrigens: ich empfehle das Anlegen zumindest eines Tarnnamens, damit man über die Beitragsliste besser weitere solche destruktiven Ausführungen finden kann! RaiNa 20:25, 17. Mai 2005 (CEST)
Hör mal Kamerad, das oben war einfach Ironie. Wirst es schon verstanden haben. Da ich unterzeichne, kann man mir auch einen Email schicken. Du siehst ja, dass ich auch schon mal gemeckert habe und zumindest versuche, etwas plausibler zu argumentieren. Nur, Änderungen in Texte einfließen zu lassen, kann ich mir abschminken, da waltet Cerberus.RaiNa 23:38, 17. Mai 2005 (CEST)
Kann den obigen Ausführungen nur zustimmen, der Artikel weist einige Schwachstellen auf und ist teilweise schlichtweg falsch oder mißverständlich. Vor allem fehlt der wesentliche Bezug zu den Erhaltungsgrößen des Systems, ohne den ein korrektes Verständnis der Entropie erschwert wird. Ich werde mir da etwas überlegen, so kompliziert ist es ja in Wirklichkeit nicht, wenn man die Begriffe sauber aufschreibt. Ach ja übrigens, man kann einem einzelnen (reinen) Zustand eine Entropie zuordnen, indem man den Dichteoperator betrachtet, der den Projektor auf eben diesen Zustand darstellt. Der hat die Entropie Null. Was nichts anderes bedeutet, als das ich genau weiß in welchem Zustand das System sich befindet. Entropie ist eben kein Maß für die Unordnung, sondern für die fehlende Information über das System, wenn man nur über eine begrenzte Anzahl von Observablen verfügt. David314 20:31, 20. Mai 2005 (CEST)
Rudolf Clausius
bitte beachten und evtl in den artikel einfuegen
Marke1: Es soll nochmals angemerkt werden: Die Entropie eines Systems ist das Integral über die zugeführte Wärmemenge, geteilt durch die Temperatur des Systems im Moment der Wärmezufuhr. Somit kann ein System ohne Energie, also bei Temperatur 0 keine Entropie haben. Führt man eine minimale Energiemenge zu, so ist der Entropieinhalt eigentlich unendlich, da man durch Null teilt. Jede weitere Energiezufuhr (nun bei Temperatur > 0)erhöht die Entropie. Insofern sollte die Entropie keinen absoluten Wert haben, vielmehr geht es immer um Differenzen.
Ein Blick in *irgend* ein Festkörper-Lehrbuch würde zeigen, daß (1) ich recht habe, was das Verhalten der Wärmekapazitäten bei tiefen Temperaturen angeht, und damit (2) das Integral C dT/T der abgegebenen Wärmemenge pro Temperatur (also die Entropieerniedrigung) bis zum absoluten Nullpunkt fortgesetzt werden kann. Das uneigentliche Integral existiert, und man kann den thermodynamischen Entropienullpunkt ganz klar und eindeutig für eine reine, regelmäßig kristallisierende Substanz am absoluten Nullpunkt setzen.
Sodann kann man sich folgendes klarmachen: Man füge einem System eine minimale Energiemenge dE zu bei Temperatur T0, die Entropiedifferenz ist dE/T0, die Temperatur erhöht sich um dT. Dann entziehe man dem System die Energiemenge dE wiederum. Die Entropiedifferenz ist nun dE/(T0+dT). Da man real den mathematischen Übergang lim dE->0 nicht machen kann, würde dies bedeuten, dass man bei wiederholtem Durchlaufen der Schleife die Entropie eines bestimmten Zustandes beliebig groß machen kann. Folglich sind reversible Prozesse in abgeschlossenen Systemen nicht möglich.
Insofern ist die Frage, ob eine Entropie für Daten existieren kann, wenn man keine Angabe zu der beinhalteten Information macht, zumindest zu stellen. RaiNa 17:26, 29. Sep 2004 (CEST)
Anmerkung:
Die Charakterisierung "Die Entropie ist ein Maß für die Unordnung oder Zufälligkeit eines Systems" ist falsch. Die Entropie ist eine Zustandsgröße eines Systems, sie hat in unterschiedlichen Zuständen des Systems unterschiedliche Werte. Daher kann sie kein Maß für die Unordnung eines Systems sein. Wenn schon, dann ist die ein Maß für die Unordnung des Systems in einem bestimmten Zustand. (Tostro)
(Entropie ist ein Mass fuer die Zahl der Realisierungsmoeglichkeiten eines Makrozustands. Aber bitte nicht "Quantenzustands". Die zentrale Eigenschaft ist die Additivitaet fuer unabhaengige Systeme, deswegen ist sie proportional zum Logarithmus der Zahl der Mikrozustaende.)
Ich bin kein thermondynamik Experte. Tatsächlich wollte ich mein Wissen darüber bei Wikipdia aktualisieren; Aber einen Diskurs ueber "Negentropie" gibt es in der Physik meines Wissens nicht. Aus Sicht der Physik ist die Tatsache, dass andere Wissenschaften lieber 1/Entropie als Einheit verarbeiten ist zwar interessant, führt aber zu keinem Diskurs.
Der Abschnitt klingt so, als gaebe es da noch ein geheimnis: das ist meines wissens nicht der Fall.
ein x-bel. physik student
Es gibt gibt physikalisch keine Temperatur 0 ohne Masseinheit. Wenn eine Temperatur beschrieben werden soll, dann sollte sie immer eine Masseinheit haben, In diesem Fall evtl. 0 (Null) Kelvin.
Ein Heizungs-Lüftungs- und Klima-Techniker
(Aus dem artikel hierher verschoben)
2. Entropie als Unordnung???
Die weitverbreitete Vorstellung, Entropie habe etwas mit einer geometrisch verstandenen Unordnung zu tun, ist fehlerhaft und hat bisher zumeist verhindert, die Entropie als Quantenphänomen richtig zu verstehen. Im Vorwort zum Lehrbuch: Physik der Wärme, von CH. KITTEL und H. KRÖMER, heißt es: Ohne Quanten-Begriffe gibt es keine diskreten und damit abzählbaren Zustände und ohne abzählbare Zustände bleibt die Entropie unverständlich.
Quelle: [1]
(Das ist auch nicht richtig. Es ist sehr wohl moeglich, in einer klassischen Welt auf hoeherdimensionalen Mannigfaltigkeiten ein Mass einzufuehren, und das zu benutzen, um ueber Entropiedifferenzen zu sprechen.)
(Aus dem artikel hierher verschoben)
WICHTIG: Dieser Artikel ist konzeptionell fehlerhaft. Entropie beschreibt nicht die "Unordnung eines Systems" (die sich objektiv gar nicht definieren liesse), sondern ist ein für unabhängige Systeme linear additives Maß für die Größe des Raums der Mikrozustände, die eine gegebene 'Beschreibung' eines Systems realisieren: Entropie wird damit 'Beschreibungen' von Systemen, und nicht den Systemen selbst zugeordnet!
Toll! Da sind wir ja wieder da angekommen, wo wir immer schon gerne sein wollen. Anstatt dass man sich die Mühe macht, den Artikel zu überarbeiten und die Kritik einzubauen, wird sie rausgenommen, damit der unbedarfte Leser weiter ungestört den alten Fehlern nachhängen darf. Um die Frage zu beantworten, warum ich selbst das nicht tue? Ich habe genügend oft Prügel eingesteckt und keine Lust mehr. RaiNa 15:43, 6. Feb 2005 (CET)
Dieser Artikel ist redundant und erhöht damit die Entropie der wikipedia in einem hohen Ausmaß. Kann nichtmal jemand die vielen Artikel über Entropie restrukturieren? Wenn dieser Artikel hier Sinn macht, doch dann nur, um einen kurzen Überblick zu geben. In Entropie (Physik) und Entropie (Informationstheorie) gibt es viel präzisere und korrektere Erläuterungen, und die sind z.T. auch noch redundant. Was allenfalls noch fehlt, ist ein Artikel über Die Mystik der Entropie oder so. --Nopherox 21:52, 14. Feb 2005 (CET)
81.242.232.94 00:58, 26. Apr 2005 (CEST)
Das Problem ist leider gerade, dass einiges, was in den Entropie-Artikeln so steht, falsch und zudem irrefuehrend ist. Es gab hier schon mal eine aeltere Fassung eines knappen Entropie-Artikels, der alle Facetten gebuehrend beleuchtet hat, alle Missverstaendnisse ausgeraeumt hat, insbesondere auch im Detail gezeigt hat, warum die informationstheoretische Entropie und die physikalische Entropie haargenau dasselbe sind. Der wurde aber leider komplett weg-erodiert.
Ja, es ist moeglich, Entropie umfassend und korrekt so zu erklaeren, dass alle der vielen verbreiteten Missverstaendnisse angesprochen und ausgeraeumt werden, und jeder mit hinreichend Nachdenken verstehen kann, worum es bei der Entropie eigentlich geht. Allerdings frage ich mich inzwischen ernsthaft, ob es nicht einen so starken latenten Drang gibt, sich lieber vom Entropie-Begriff verwirren zu lassen, dass so eine Erklaerung in der Wikipedia keinen Bestand haben kann. Irgendwie finde ich das jedenfalls arg traurig, zumal der erste Treffer auf google.de zum Thema "Entropie" dieser Wikipedia-Artikel ist.
Ich moechte euch bitten, noch mal einen genauen Blick auf diese Version zu werfen:
http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4551968
Ja, das ist knapp. Ja, das ist nicht ganz einfach zu verstehen. Ja, in dem Artikel ist alles drin, was man braucht, um diese unselige Zersplitterung des Entropie-Begriffs aufzuheben. Und ja: er raeumt alle Missverstaendnisse aus, die die Physiker, die auf Wikipedia "Entropie" nachschlagen, gerne geklaert haetten.
Nach diesem "Befreiungsschlag" ist es wohl adäquat, auch die Diskussionsseite zu entrümpeln.
Erst mal danke für die Verbesserung von Tippfehlern.
Was die Zergliederung des Inhalts anbelangt, so weiß ich nicht, ob das eine gute Idee ist, weil sie dem Leser viel zu stark suggeriert, hier würden unabhängige Aspekte nebeneinander kurz in wenigen Sätzen erklärt, wohingegen die wirklich interessanten Dinge (also auch das, was normalerweise Mißverständnisse verursacht) zwischen diesen verschiedenen Aspekten geschehen. Das war in meinem ursprünglichen Artikel durchaus überlegt und mit Absicht so strukturiert.
Nachgetragen: 16:36, 17. Feb 2005 Benutzer:Doctom
Was würden bloß unsere Großmütter von diesem Artikel verstehen? Würden sie auch nur ansatzweise begreifen, was in etwa der Begriff umschreiben soll?
Entschuldigung, aber ich als Medizinstudent und "Ex-Physik-Gutseier" in der Schule kann im Prinzip der jetzigen Form des Artikels in den ersten zwei Sätzen kaum entnehmen, worum es bei diesem (zugegebenermaßen abstrakten) Begriff (ich kannte ihn von der Thermodynamik) eigentlich auch nur grob gehen soll... Ich weiß, dass es schwierig sein kann, so abstrakte Begriffe relativ schnell und auch noch möglichst "präzise" zu beschreiben, aber wir (Ihr?) müssen uns dennoch mit solchen "Trivialitäten" abgeben, sonst werden NaturwissenschaftlerInnen (und auch Angrenzendes, wie MedizinerInnen) funktionell zu einer Art unverständlicher, moderner, quasi-magischer "Priester-Kaste" für die Laien... ;-) Immerhin soll ja bei der Wikipedia auch ein zwanzigjähriger, sagen wir, Hobby-Lyriker, der über das (mystisch) klingende Wort stolpert, "kurz mal" nachschlagen können, was - ganz im Groben - das eigentlich ist! Oder?
Vielleicht kann ich mit einem Zitat illustrieren:
Gut, es ist ein englischsprachiger Lexikoneintrag, aber er hilft Laien doch ganz gut, eine erste Verortung des Begriffs vorzunehmen, auch wenn ja offensichtlich mindestens Punkt 2 verfälschend dargestellt ist...
Vielleicht würde es Laien (die bestimmt öfter, als man so denkt, mal über so einen Begriff stolpern, via Science-Fiction z.B.) schon helfen, wenn man einfach eine vielleicht simplifizierende, aber doch definierende Einleitung schreibt, oder zumindest den etwas "anschaulicheren" Statistik-Abschnitt weiter nach oben verlegt (v.a. wegen des treffenden Beispiels, welches so ähnlich bestimmt schon mal den einen oder anderen beschäftigt hat und durchaus allerlei [alltags-] philosophische Probleme anschneidet)?
Ich bin mir dessen bewusst, dass das mal einfacher so eben gasagt als realisiert ist, aber ich bitte darum, dieses Anliegen dennoch ernst zu nehmen, denn die Wikipedia soll schließlich auch Nicht-Fachleuten die Welt (zumindest das Stichwort) erklären, und der Welt schadet's sicher auch nicht, wenn mehr Omas physikalisch-philosophische Konzepte / Begriffe kennen lernen - hilft halt beim (begrifflich) sauberen Denken ;-) -- marilyn.hanson 21:04, 19. Feb 2005 (CET)
Leute... Das *ganz* große Problem, das die Wikipedia hat, ist, daß gerade ganz speziell zu irgendwelchen physikalischen Themen durch Hawking und Co ein Haufen Populär-Pseudowissen durch die Köpfe der Menschen geistert, und gerade die Wikipedia jetzt auch noch eine Plattform bietet, die es Laien ermöglicht, dieses Pseudowissen als enzyklopädische Definition zu zementieren. Kann ja gut sein, daß das genau das ist, was die Wikipedia eigentlich sein will: eine Plattform die es erlaubt, jeden Begriff in einer möglichst platten Form darzustellen, ohne Rücksicht darauf zu nehmen, was denn Experten zu diesem Thema zu sagen haben. Von mir stammt die Neufassung, die dem derzeitigen Artikel zugrunde liegt, http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4532533, und im folgenden zuerst ein wenig mit zusätzlichen Links und der Umstellung auf die offizielle Rechtschreibung verschönert, dann nach und nach aber wieder verhuzelt wurde mit Teilen, die da einfach nicht rein gehören, wie z.B. dem "Humor"-Abschnitt - oder wenn man so will auch schon der Neugliederung, die die vereinheitlichende Diskussion, die alle Aspekte des Begriffs unter einen Hut zu bringen versucht hat. Was ist denn bitte an dem folgenden ursprünglichen ersten Satz für einen der deutschen Sprache mächtigen Leser nicht zu verstehen?
"Der Begriff der Entropie wurde ursprünglich von Rudolf Clausius in der (phänomenologischen) Thermodynamik eingeführt, um eine quantitative Analyse der Frage zu ermöglichen, welche Prozesse in der Natur von selbst ablaufen können, und welche nicht."
Entropie = quantitative Größe; hilft, zu trennen, was von selbst geschehen kann, und was nicht von selbst passiert. Das sollte man doch wohl noch jedem zumuten können, oder?
Es tut mir ja furchtbar leid, wenn anscheinend die Mehrheit der Wikipedianer mit genau der Erwartungshaltung den Entropie-Artikel abruft, da drin ihre naive Populär-Vorstellung, "Entropie sei ein Maß für die Unordnung eines Systems" in freundlichen Lettern bestätigt zu sehen. Nein. Das stimmt so einfach nicht. Das ist einfach nur großer Käse, der aber leider so verbreitet ist, daß man ihn heute auch schon in vielen Physik-Lehrbüchern findet, die Thermodynamik zwar nicht zentral behandeln, aber streifen.
Schaut euch bitte meinen ursprünglichen Artikel noch mal an. Der hat mehr zu bieten als so ziemlich jede Entropie-Definition, die man sonstwo finden kann. Alle Fragen, die sonst normalerweise immer im Zusammenhang mit Entropie irgendwie Verwirrung stiften, werden da kurz und vor allem direkt nachvollziehbar(!) (sofern man das nötige Hintergrundwissen hat - aber nur jemand, der diese Details geklärt haben will, schlägt das ja nach) beantwortet. Die mysteriöse Zeitsymmetriebrechung, die es nicht gibt, Das keine-Entropieerzeugung-in-der-Quantenmechanik-Paradoxon, wie man denn nun "Unordnung" quantifiziert (gar nicht!), und so fort.
Wenn ihr's wirklich so wollt, können wir den Begriff vielleicht spalten:
(1) Entropie
(2) Populärwissenschaftliche Entropie - hier wird Entropie so erklärt, wie nicht physikalisch vorgebildete Leser das gerne lesen würden. (Ist zwar horrend falsch, aber genau das, was jeder hier als Erklärung erwartet.)
Entropie und Entropie (Physik) -- Diese Artikel führen eine unerbauliche Parallelexistenz. Mein Vorschlag wäre "Entropy (Humor)" zu entsorgem, einen getrennten Artikel Entropie (Informatik) zu erstellen, den Rest von Entropie kritisch sichten und ggfs in Entropie (Physik) einzuarbeiten, und schlussendlich aus Entropie eine BKL zu machen. --Pjacobi 22:01, 23. Mär 2005 (CET)
Aaahh, das macht hier gar keinen Fortschritt mehr. Ich würde mich gerne einbringen, aber ich bin zuwenig Experte um das neu zu schreiben. Für mich sind Entropie und Entropie (Physik) erstmal entschieden zu lang, um sie irgendwie zusammenzuführen. Auch sind beide Art., neben ihrer Länge, nicht so richtig "zweifelsfrei". Um hier irgendeinen Fortschritt zu erleben, denke ich, sollte man einen der beiden Art. STREICHEN. Ich stimme für Entropie(Physik). Der erscheint vielleicht ein wenig fundierter, ist er aber, m.E., nicht wirklich. Ausserdem muss nat. der Quatsch (Humor) raus. Das bringt doch überhaupt nichts. Ich zumindest würde wahrscheinlich eine Enzyklopaedie mit "Witzen" nicht kaufen. --Pediadeep 21:58, 2. Mai 2005 (CEST)
Ich habe das ganze Zeug erst einmal zusammengeschoben und dabei neben einer neuen Ordnung auch Chaos geschaffen. Der Humorabschnitt liegt mir dabei besonders am Herzen, denn noch nie habe ich eine so griffige Beschreibung gesehen wie diese. Der Abschnitt kann sicher in dieser Form überarbeitet werden, aber bitte nicht vollständig streichen. Er würde dem Artikel helfen, den Oma-Test zu bestehen. --Markus Schweiß, @ 20:54, 15. Mai 2005 (CEST)
Der Begriff Entropie (Informationstheorie) hat mit dem Begriff aus der Physik nur sehr am Rande etwas zu tun. Ihn hier irgendwie unterzubringen wäre für beide bisherigen Artikel nicht gut. Also bitte nicht vereinigen! Stern !? 08:30, 24. Mai 2005 (CEST)
die Einleitung des Artikels, da sind alle Physikbücher die ich kenne zu dem Thema weitaus verständlicher. --Dirk33 01:39, 6. Jun 2005 (CEST)
Wer auch immer an der Einleitung seine Finger gelegt hat, hat keine Ahnung was er da geschrieben hat. Sorry, aber jetzt steht da schlicht und einfach nur Unsinn. Erstens kann man auch einem Einteilchensystem eine Entropie zuordnen (auch wenn das nicht häufig geschieht und meist unnötig ist) und zweitens ist der Ausdruck dS = delta Q/T eine differentielle(!) Größe, was zeigt, dass der Schreiber nicht weiss was er tut. Es fehlt der Hinweis, dass die Entropie extensiv ist, der Vergleich mit intensiven Größen wie Temperatur T und Druck p ist in diesem Zusammenhang etwas unglücklich. Und das ist nur der erste Abschnitt. Ich will garnicht über die nachfolgenden Absätze reden. Leute ihr sollt nicht mit eurem Halbwissen glänzen, recherchiert mal genauer, bevor ihr was schreibt, das erspart eine Menge Arbeit. Und kommt mir nicht mit Brockhaus und Konsorten, lest mal lieber richtige Bücher/Skripten zu dem Thema, im Internet gibt es genug für umsonst. Einfach nach Thermodynamik oder Statistische Physik + Skript googeln. David314 20:46, 15. Jun 2005 (CEST)
P.S. es ist ja alles nicht falsch was du hier sagst.--Heliozentrik 23:08, 15. Jun 2005 (CEST)
Ich hatte die alte Einleitung geschrieben ;) Ich sehe ja ein, dass die vielen Informationen auf den ersten Blick erschlagen. Wer sich aber damit einigermaßen auskennt bekommt bei diesen oberflächlichen Erklärungen Probleme. Vor allem, wenn offensichtliche Fehler auftauchen, der Begriff der Entropie geht sehr tief und man kann den nicht mal eben so im Vorübergehen erklären, vor allem ohne auf die Thermodynamik einzugehen. Ich selbst habe Jahrzehnte gebraucht um dahinterzusteigen und das ist auch auf die unseligen Vergleiche mit unordentlichen Zimmern u.ä. zurückzuführen. Ich schreib gleich noch was dazu. David314 23:30, 15. Jun 2005 (CEST)
Hallo David314,
Da Du keine Benutzerseite hast, muß ich leider hier auf die letzten Änderungen eingehen. Bevor jetzt eine wildes Hin- und Rückändern losgeht. Könnten wir uns vielleicht einigen, daß der Hinweis auf die Symmetrischen Strukturen in Geschlossenen Systemen an der exponierten Stelle in der Einleitung fehl am Platze ist? Falls Du an der gültigkeit des 2. Hauptsatzes zweifelst, dann wäre die Wikipdeia sicher der falsche Ort dafür. Aber So ist die Einleitung sicher eher verwirrend, zumal die Diskussion um symmetrische Strukturen nicht allgemein anerkannt ist oder physikalisch konsisten diskutiert wird.
--Homosapiens 10:25, 13. Sep 2006 (CEST)
Hallo, hat deine Verschiebeaktion einen tieferen Sinn? Bevor Claudius etwas einführt oder Bolzmann etwas zeigt sollte wohl mit ein paar Sätzen gesagt werden, worum es geht. Der Hinweis, dass es sich um eine Zustandsgröße handelt, ist doch ziemlich nichtssagend. Gruß --Heliozentrik 13:51, 12. Jun 2005 (CEST)
Was ist denn eigentlich gegen "Die Entropie nimmt zu. Was bedeutet dieser Satz, der in vier Worten die Grenzen umschreibt, innerhalb derer sich die Welt entwickelt? Er sagt: die Physik ist in der Lage, alle Vorgänge des Universums zusammen durch eine Zahl zu kennzeichnen, die von Zeitpunkt zu Zeitpunkt kontinuierlich anwächst. Für Teile des Universums kann diese Zahl jedoch abnehmen, auf Kosten des Restes. Diese Tatsache bildet die Grundlage jedes Lebens. Die Sprache der Physik bedingt jedoch eine abstraktere Formulierung." zu sagen, ausser dass es nicht enzyklopädisch genug ist? 6 einfache Sätze, bevor die Physik in ihrer ganzen Brutalität wieder nach beliebten zuschlagen kann?RaiNa 19:22, 12. Jun 2005 (CEST)
-obschon unter Zunahme der Entropie auch reversible Prozesse ablaufen. --80.134.220.85 22:16, 12. Jun 2005 (CEST)
Ich weiß zwar nicht, wie es anderen Lesern geht, aber wenn ich ich in einer Enzyklopädie ein nicht - triviales Thema wie Entropie nachschlage und in dem Artikel Bilder von Max und Moritz angeboten bekomme... (ich verkneife mir den Kommentar)
Obwohl die Diskusion oben schon mal geführt wurde, stelle ich zur Diskusion, den Abschnitt zu löschen oder zu verschieben, wohin auch immer.--Heliozentrik 19:30, 12. Jun 2005 (CEST)
Warum bilden eigentlich Humor und Physik immer komplementäre Größen? Kauft wirklich keiner eine Enzyklopädie, wo der Begriff erstmal anschaulich oder intuitiv erklärt wird? Wie auch immer, das zugehörige Bild ist ohne den Text höchst überflüssig. Nopherox 07:37, 15. Jun 2005 (CEST)
Weil Physiker einfach keinen Humor haben, wenn sie nicht entweder genial oder keine Physiker sind.RaiNa 07:39, 15. Jun 2005 (CEST)
Das stimmt doch nicht, oder? : Die maximale Entropie in einem Raumbereich wird durch Schwarzes Loch realisiert. Da keine Information durch den Ereignishorizont nach außen dringt, ist es der Zustand maximaler Unwissenheit. (Es kann Information aus einem schwarzen Loch gelangen! Hat doch Herr Hawking inzwischen auch eingesehen...)
Heliozentrik schrieb: Vereinfacht gesagt, ist Entropie so etwas wie die mathematische Bewertung der "statistischen Unordnung" der Teilchen in einem System.
Ich bin mit dem Begriff Unordnung gar nicht glücklich, weshalb ich das Bild mit den zwei Gläsern eingestellt hatte. Nach meinem Ordnungsempfinden ist das rechte Glas ordentlicher umgerührt; dennoch ist hier die Entropie größer. Anton 21:41, 13. Jun 2005 (CEST)
Das mit der Unordnung sollte weg. --Pediadeep 22:36, 13. Jun 2005 (CEST)
PS: @Pediadeep: was war jetzt eigentlich mit Max und Moritz?--Heliozentrik 23:37, 13. Jun 2005 (CEST)
Aah, das ist schwierig mit dem populären.... "Bewertung der Unordnung" ist einfach falsch, da kann man nichts machen. Es geht eben nicht ohne macro- versus micro-Zustand. Schwierig, schwierig, das popkompatibel zu schreiben. Vielleicht gehts einfach nicht so knapp wie man sichs wünschen würde. Wenn man das aber richtig erklären würde, und ein paar von den pop-Kunden verstehen es, dann wär das ein RIESIGER Gewinn. Ich denke es wäre besser, wenn man mal in sich gehen würde, und das richtig ausformuliert. Auch auf die Gefahr hin, dass die Einleitung dann etwas länger wird, denn das ist eben der Kern der Sache.
Max ... ja das ist auch ein Problem. Eig. denke ich der Humor ist erstens falsch, und der Form nach nicht angebracht. Wenn man dann aber an das Volk (=Pop) denkt wäre ein wenig lockeres Anschauungsmaterial angesichts der Sperrigkeit des Themas ev. angebracht. Ich mag übrigens das Beispiel mit der Entwicklung eines typischen Kinderzimmers lieber. Da kann man sehr schön die Zunahme der Entropie beobachten. Wir schaffen das (Zitat: "Bob der Baumeister"). --Pediadeep 00:27, 14. Jun 2005 (CEST)
Habe mal etwas in befreundeten Nachschlagewerken wie Brockhaus und Großer Meyer geblättert. Die habe kein Problem damit, E. als Maß für den Ordnungszustand' bzw. Maß für die Unordnung in einem thermodynamischen System zu erklären. Angesichts der Tatsache, dass es sich um überaus seriöse Nachschlagewerke handelt, kommt mir die ganze Diskusion hier etwas seltsam vor.--Heliozentrik 11:59, 15. Jun 2005 (CEST)
Siehe Beispiel mit dem Schreibtisch; Ω ist kein Unordnungsparameter, sondern die Zahl besetzbarer Zustände. Anton 22:01, 19. Jun 2005 (CEST)
Die Temperatur ist doch ein Mass für die (durchschnittliche) Energie in jedem Freiheitsgrad, oder ist sie nicht? Muss man noch richtig formulieren. --Pediadeep 23:54, 14. Jun 2005 (CEST)
Für die (absolute) Temperatur gibt es eine wasserfeste Definition, sie ist gegeben als die partielle Ableitung der inneren Energie E nach der Entropie bei festgehaltenem Volumen/Teilchenzahl/etc., steht im ersten Hauptsatz: , also . Ohne Entropie gibt es also keine absolute Temperatur. Das Äquipartitionsprinzip, das jeder Freiheitsgrad im Mittel die Energie besitzt, ist eine Folge und nicht die Definition. Zumal es ja auch nicht allgemeingültig ist, da Freiheitsgrade ausfrieren können! David314 23:54, 14. Jun 2005 (CEST)
Wenn das ein Hinweis auf thermodynamische Wahrscheinlichkeit sein soll, dann ist er aber perfekt verschlüsselt. Sieht so eher nach Theorienfindung aus.--Heliozentrik 11:27, 15. Jun 2005 (CEST)
Also mal ein paar hoffentlich erhellende Worte, warum der Vergleich von Entropie mit einem Maß für Unordnung verwirrend ist. Zunächst betrachten wir das ganze klassisch, weil viele das lieber haben. Da haben wir den Phasenraum, in dem sich unser System bewegt. Einigen sagt ja Phasentrajektorie etwas und wir definieren die Entropie als das Maß des Phasenraumvolumens, in dem sich unser System wohl befindet, zumindest wissen wir es nicht so genau. Woran liegt das? Es ist einfach die schiere Anzahl von Freiheitsgraden _und_ die Tatsache, dass sich das System in ständiger Veränderung befindet. Das ist ganz wesentlich! Nehmen wir kurz an, dass es eingefroren wäre, dann könnten wir (klassisch) mit der Zeit immer mehr Information aus dem System herausholen. Also streng genommen alle Atome abzählen und Positionen und Impulse aufschreiben. Abgesehen davon, dass wir wegen der Papiermenge ein echtes Umweltproblem am Hals hätten, könnte man rein theoretisch also das Phasenraumvolumen immer weiter eingrenzen, bis wir an einem Punkt gelangt wären. Der das Maß Null hat und damit haben wir den Mikrozustand vor uns. Wir sagen dann, das System hat die Entropie Null. Aber Moment einmal! Das System ist ja eingefroren und gerade eben war die Entropie noch sehr groß! Wie kann das sein? Die Entropie ist doch eine Zustandsgröße! Es ist auch kein bisschen ordentlicher geworden, aber wir wissen jetzt in welchem Zustand es sich befindet. Offenbar hängt die Entropie vom Aufwand ab, den der Beobachter betreibt, das System näher kennenzulernen! Aber in Wirklichkeit ist das nicht sehr praktikabel, da die meisten thermodynamischen Systeme uns nicht den Gefallen machen einfach stehenzubleiben. Selbst in flüssigem Helium nahe dem absoluten Nullpunkt bewegen sich die Atome ständig, mit anderen Worten man kann einfach nicht feststellen in welchem (Mikro)Zustand sich das System befindet. Eine solche Messung ist weder durchführbar noch wünschenswert (wen interessiert schon an welcher Stelle Atom Nr.18274512378 sitzt? In der nächsten Sekunde ist es eh wieder ganz woanders und jeder Meßfehler wächst exponentiell an). Man beschränkt sich daher auf makroskopisch zugängige Größen, die sogenannten (makroskopischen) Observablen, die meist Erhaltungsgrößen des Gesamtsystems sind (Volumen, Masse/Teilchenzahl,Impuls, Drehimpuls,Energie,...). Hat man diese Observablen bestimmt kann man nun überlegen, welche Mikrozustände zu diesen Beobachtungen passen. Die Gesamtheit aller erreichbaren Mikrozustände bildet einen bestimmten Bereich im Phasenraum, dessen Maß ist unsere Entropie! Da das System eh ständig von Mikrozustand zu Mikrozustand hüpft (auf der Phasentrajektorie) können wir mit gutem Gewissen annehmen, das es im Prinzip jeden erreichbaren Mikrozustand im Laufe der Zeit tatsächlich durchläuft. Das nennt man die Ergodenhypothese und Systeme, die das machen sind ergodisch. Diese Idee hat zwar Probleme, aber lasst uns erstmal darüber hinwegsehen. Das System soll also ständig durch das gesamte durch die Entropie gemessene Phasenraumvolumen laufen. Und das ist der Knackpunkt! Nur dann ist jeder Mikrozustand gleich wahrscheinlich (und alle weiteren Folgerungen sinnvoll), wenn das System tatsächlich eine Evolution durchmacht. Wenn es ständig im gleichen Mikrozustand verharrt ist jede Statistik sinnlos! Was hat das nun mit einem unordentlichen Zimmer zu tun? Ihr ahnt es schon: Nicht viel. Das Zimmer ist bezüglich seiner makroskopischen Elemente wie Unterhosen, leere Bierdosen, CDs, Bettwäsche und Pantoffeln nicht ergodisch. Naja zumindest wenn nicht gerade ein Erdbeben stattfindet. Man kann die Anordnung der Elemente ziemlich gut ausmessen (wenn wir mal von der mikroskopischen Struktur absehen, aber darum geht es in dem Beispiel ja nicht) und damit die Entropie immer weiter senken, aber leider wird das Zimmer davon auch nicht ordentlicher. So jetzt genug gelesen, räumt mal euer Zimmer auf, das sieht ja heute wieder aus! Nächstes mal was zur Quantenstatistik :)
David314 00:09, 16. Jun 2005 (CEST)
Das hier ist eine Enzyklopädie. Wenn ich in einer Enzyklopädie nachschlage möchte ich keine populärwissenschaftliche Erklärung, sondern eine exakte Antwort.
Wenn ich damit nicht klarkomme (weil ich ja nicht alles weiß und sofort verstehe), dann will ich zumindest keine Halbwahrheiten lesen, die mich auf die falsche Fährte bringen. Stattdessen jede Menge Querverweise, damit ich mich an den Sachverhalt herantasten kann. Wie fändest Du denn einen Artikel über geschichtliche Ereignisse in denen falsche Jahreszahlen und Ereignisse stehen? Das hat nichts mit Überheblichkeit zu tun, wir Physiker sind da echt handzahm (mir fallen da andere Leute ein, die das enger sehen, ich nenne keine Namen ;). Du kannst soviele anschauliche Ausdrücke, Analoga und Metaphern verwenden wie Du möchtest, solange sie nicht falsch sind. Wenn ich tatsächlich alles korrekt und formal aufschreiben würde, könntest Du wahrscheinlich den Zeichen keine Bedeutung zuweisen. Mir ist klar, dass man damit übers Ziel hinausschiessen würde. Diese Diskussion ist allerdings nicht für die unbedarften Leser des Artikels gedacht, sondern für die Autoren. Solange man als Autor nicht versteht, warum Unordnung keine gute Metapher für Entropie ist, so bedarf das wohl ein wenig Aufklärung. David314 02:07, 16. Jun 2005 (CEST)
Hallo David, ich glaube, ich kann dir zustimmen. Zuerst noch eine bewährt sarkastische Bemerkung: Der Artikel Entropie erinnert mich an eine Leiche, der man das Leben wieder einzuhauchen sucht, indem man die Würmer wieder zurückverwandelt. Du hast recht. Das mit der Unordnung ist eine Katastrophe. Aber genau so eine Katastrophe ist das Einfrieren der Meinung hier in der Wikipedia auf der Basis von Spezialisten für möglichste monochrome Strahlung. Auch das ist ein Sarkasmus. Du verwendest Begriffe wie Energie und Phasenraum. Aber hier streiten ausgewiesene Physiker darum, ob die Energie erhalten ist und eine Philosophin sperrt den Artikel Wirkungsquantum! Wenn sich Physiker nicht darauf einigen können, dass die Energieerhaltung ein Postulat ist, das erfolgreich verteidigt wurde und sicher genau erfolgreich verteidigt werden wird, indem man jede Lücke mit einer neuen Energieerscheinung stopft, dann, armes Deutschland. Ok, Ich rege mich wieder auf und das wirft vielleicht kein gutes Licht.RaiNa 07:47, 16. Jun 2005 (CEST)
David314 schrieb: Wenn ich in einer Enzyklopädie nachschlage möchte ich keine populärwissenschaftliche Erklärung, sondern eine exakte Antwort. Das mag für dich gelten, muß deshalb nicht zwangsläufig für andere gelten. Als Physiker sollte man schon mal was von formaler Logik gehört haben. Was die reine Lehre aber mit Unterhosen, leere Bierdosen, CDs, Bettwäsche und Pantoffeln zu tun hat, über die du paar Zeilen höher parlierst, will mir so gar nicht einleuchten. Was soll übrigens schlecht daran sein, mal über den Gartenzaun zu schauen und mal nachzusehen wie befreundete Enzyklopädien wie Brockhaus die Sache angehen. Die habe schließlich mehr als 100 Jahre Erfahrung in so was.--Heliozentrik 08:32, 16. Jun 2005 (CEST)
Das mit der Unordnung ist eigentlich hinreichend ausdiskutiert. Ich kann dieses Wort im Zusammenhang mit Entropie echt nicht mehr hören. Gebt mir einen Keks, schnell, bitte. Ich kann Davids Ausführung grösstenteils nur Zustimmen. Insbesondere finde ich es überhaupt nicht gut, wenn man Popkompitibilität mit Falschem (oder in einem Mass Ungenauem, dass es fasche Interpretationen nicht ausdrücklich ausschliesst) erkauft. Das ist nicht gut. Das ist sogar ausgesprochen schlecht. Auch wenn ich jetzt manchen auf die Füsse trete: Mit solcher Popkompitibiltät werden nämlich Bachblüten, Überlichteschwindigkeit, Zeitmaschienen, Perpetuums, Verschwörungstheorien, Aberglaube im allgemeinen, Wunderheiler und lauter solche Geiseln der menschlichen Kultur gefüttert. Und wenn der Brockhaus das nach 100 Jahren nicht geschnallt hat so wirft das ein Licht auf ihn, nicht aber auf die Wahrheit. Mein Vorschlag als Konsequenz ist: Jeder Satz in Entropie wird genau auf Ordnung und Unordnung überprüft, und alle solchen werden gelöscht. Vieleicht schaut ja mal jemand vom grossen Meyer vorbei. --Pediadeep 10:39, 16. Jun 2005 (CEST)
Beim Speichern ist mir jemand noch zuvorgekommen, vielleicht, weil er wie Hermes daherkommt (?stimmt das?) Einfach ja oder nein antworten, dann versuch ichs nochmals über emailRaiNa 10:47, 16. Jun 2005 (CEST)
Hallo Leute, ich habe ja durchaus ein Faible für Physik, aber was hat eure Diskussion für eine Einstiegsschwelle - Physikstudent? Eine Enzyklopädie hat bitte bereits für Otto Normalverbraucher einen Einstieg zu finden, auf das der -ohne zwischenzeitliches Abi an der Abendschule- erhellt aus der Lektüre schaut. Von daher sicherlich jede inhaltliche Vertiefung, aber vom flachen Strand aus.... --NB > + 14:10, 16. Jun 2005 (CEST)
Wieso wird in dem Abschnitt eigentlich unwidersprochen vom Wärmetod des Weltalls parliert? M.W. ist das zumindest stark umstritten, eher wohl falsch.--Heliozentrik 15:06, 16. Jun 2005 (CEST)
Richtig, und wenn man sich auf obige Aussage meinerseits den richtigen Reim macht, habe ich nichts anderes gesagt. Das System Universum besteht wohl initial aus viel Energie und wenig Zuständen. Am Ende aus vielen Zuständen und wenig Energiedifferenz. Beide Zustände sind gleich "unproduktiv". Interessant ist der Bereich, in dem reichlich Zustände und Energiepotential (also Ungleichverteilung) vorhanden ist. Wenn man aber so einen Satz einstellt, kommt sofort jemand mit Theorienbildung. Als könnte man Theorien bilden und nicht Menschen! Oder habe ich hier auch wieder etwas falsch verstanden? Glück Auf!RaiNa 15:55, 16. Jun 2005 (CEST)
Vielleicht wäre es sinnvoll bezgl der Theorie vom Wärmetod die Aussage soweit umzuändern, dass man sich da zur Zeit noch nicht sicher ist, evtl mit Verweis auf die besondere Funktion der negativen spezifischen Wärme kollabierender Sterne, die sich irgendwann in der Vergangenheit in das System Universum eingeschlichen hat? (-: Bezüglich der Problematik des 'Zeitpfeils' wäre evtl ein Verweis sowohl auf die 'herkömmlichen' Näherungen (Markov-Annahme beim Übergang von QM zum statistischen System) bzw den Ansatz von Prigogine zur mathematischen Modifikation der QM (die Räume für Zustände und Observablen sind verschieden) sinnvoll. Denn es gibt nunmal das Problem, daß die QM zeitinvariant ist (zumindest die QM auf Hilberträumen, bei Prigogines Ansatz über Hardyräume wird das ja grade gelöst), wir aber im makroskopischen eine Entropiezunahme beobachten können... Es wäre wohl am geschicktesten, dieses Problem nur kurz anzureissen und dann vllt genauer in einem gesonderten Artikel auszuführen falls das nicht zu speziell wird.
Ich wollte so erstmal nichts an dem Artikel ändern, alleine schon weil ich in der WP bisher noch nichts geschrieben habe (-; aber zumindest sollte der sicher scheinende Entropietod relativiert werden... --Thukydides 01:49, 2. Okt 2005 (CEST)
Da es inzwischen aktenkundig ist, dass ich gegen das eigene Nachdenken bin, möchte ich konsequenterweise vorschlagen, dass wir doch zuerst einmal gute Darstellungen zur Entropie sammeln. D.h. solche, die sowohl korrekt sind, als auch einen allgemeinverständlich Teil bieten.
Um einen Anfang zu machen, schlage ich die Website vor:
Zwar wird dort häufig der von Einigen ungeliebte Begriff disorder verwendet, aber auch klargestellt, dass es nicht um die Unordentlichkeit der Zustände, sondern um ihre Multiplizität geht.
Pjacobi 15:22, 16. Jun 2005 (CEST)
Die Entropie eines thermisch isolierten Systems (dQ=0) ändert sicht nicht, nie. Deshalb ist das Beispiel mit der Farbe in der Flüssigkeit im Glas nicht vollständig erklärt, wenn man nicht bemerkt, dass durch die "vollständige" Mischung Wärme "verbraucht" wird, also die Flüssigkeit insgesamt abkühlt (Lösungswärme), und sich die Temperaturdifferenz erst durch einen Wärmefluss in das Glas hinein ausgleicht, wodurch sich erst die Entropie des rechten Glases erhöht. --Pediadeep 17:22, 17. Jun 2005 (CEST)
Das ist ganz einfach Pediapeep, die Formel von Clausius mit gilt zunächst nur für Gleichgewichtszustände. Wie Du gut bemerkt hast ist die unvermischte Flüssigkeit nicht im Gleichgewicht. D.h. nicht, dass man dem Zustand keine Entropie zuweisen kann. Schliesslich passt zu den makroskopischen Schlieren, die vor dem Vermischen auftreten eine Menge Mikrozustände, auch wenn es etwas schwer sein mag diese konkret zu bestimmen. Aber es gibt trotzdem unglaublich viel mehr Mikrozustände, bei dem die Farbe gleichmäßig verteilt ist, weshalb die zeitliche Entwicklung in Richtung dieses Makrozustands voranschreitet. Bedenke, dass eigentlich nichts gegen den umgekehrten Prozess spricht, wenn man genug Zeit hätte. Allerdings ergeben einfache statistische Argumente, dass die Wiederkehrzeit um viele Größenordnungen über dem Alter des Kosmos liegt. Insbesondere solange, dass bis dahin jede Materie des Systems Glas+Flüssigkeit aufgehört hat zu existieren, weil die Nukleonen spontan verdampft sind. Mit anderen Worten, es passiert niemals :o) David314 01:25, 18. Jun 2005 (CEST)
hey leute wie wärs mal damit: hier teilt den artikel in die erklärung für den normal sterblichen und die "freaks"...weil ich lerne im chemie leistungskurs zur entropie als erklärung auch net mehr als "maß für unordnung im system"..und soviel darüber zuwissen reicht ottonormal nunmal alle mal...
Wie ich im obigen Abschnitt gelernt habe gilt dQ=TdS nur im Gleichgewicht. Das steht so aber nicht in der Einleitung. --Pediadeep 21:19, 18. Jun 2005 (CEST)
Bei "Marke1" oben habe ich schon mal erläutert, wie man Entropie sehen kann. Dieser Ansatz wurde dann wieder zerredet. Versuche, das in den Text einzubauen, waren ebenfalls sinnlos. Der Begriff "Unordnung" ist einfach nicht zu vernichten. Weiterhin war es auch nicht möglich klarzustellen, dass ein System, das keine Energie hat, auch keine Entropie hat. Also kann die physikalische Entropie auch mit der Informationsentropie auch nichts zu tun haben. Während die Physik enorme Vorteile aus Zustandsgrößen zieht, habe ich den Eindruck, dass die Information den Begriff als wissenschaftliches Feigenblatt nutzt. Übrigens, das Umstellen von dQ=TdS nach dS= dQ/T alleine vereinfacht zumindest mir das Verstehen. Vielleicht sollte man es doch noch mal mit einem alternativen Artikel versuchen und wenn der trägt, den jetzigen wegwerfen.RaiNa 23:04, 18. Jun 2005 (CEST)
Benutzer:Rainer Nase hatte einen Alternativartikel erstelt; da dieses Verfahren nicht erwünscht ist, habe ich diesen nach Benutzer:Rainer Nase/Entropie/Alternativ verschoben; wer möchte und es für sinnvoll hält, möge dort bitte weiter diskutieren und mitarbeiten. -- RainerBi ✉
Wie oben bereits erläutert, habe ich einen Alternativ-Artikel angefangen, um die Starre dieses Artikels auflösen zu können. Da ich, dem Gedanken der Wikipedia folgend, keine Besitzansprüche anmelde, im Gegenteil solche als hemmend sehe, bin ich mit der Vorgehensweise von Rainer Bielefeld (Nach eigener Beschreibung: Kriegsname!) nicht einverstanden. Ich möchte den Artikel gerne wieder zurückverschieben oder ich werde ich löschen, da er in meinem Namensraum wohl auch mir gehört.
RB steht mit seiner Meinung sicher nicht allein. Wenn jemand für die von mir vorgeschlagene Vorgehensweise ist, dann bitte ich um Mitteilung.RaiNa 20:02, 19. Jun 2005 (CEST)
Ich war heute mutig und habe die beiden Artikel Entropie und Entropie (Physik) zusammengeführt, die im Grunde genommen das gleiche über dieses komplexe Thema der Physik aussagten. Neben der neu entstanden Ordnung ist natürlich auch ein mehr an Chaos entstanden - daher die Bitte an alle Interessierten, die Unordnung im neuen Artikel Entropie wenigstens zeitweise zu mindern ;-) --Markus Schweiß, @ 20:44, 15. Mai 2005 (CEST)
152.78.153.226 12:18, 20. Mai 2005 (CEST)
Der Entropie-Artikel widerspricht sich selbst und stellt Dinge objektiv gesehen sachlich falsch dar. Obendrein weckt der 1+ Review-Link beim unbedarften Leser möglicherweise den Eindruck, der Artikel wäre ein exzellenter Artikel.
Gibt es für die deutsche Wikipedia eigentlich ein Äquivalent zu http://en.wikipedia.org/wiki/Factual_accuracy? Falls ja sollte ganz oben in den Artikel besser so eine Box eingefügt werden, um den unbedarften Leser zu warnen.
152.78.153.226 12:18, 20. Mai 2005 (CEST) doctom
So eine unbrauchbare Kritik liest man selten und wenn du im Artikel Fehler und Schwächen findest, dann schreibe es doch besser und schmeiß das unbrauchbare raus. Das da oben kann jeder schreiben der Entropie gerade buchstabieren kann. --Saperaud [@] 16:58, 21. Mai 2005 (CEST)
Benutzer ND 23:44, 31. Mai 2005 (CEST) ich wollte nur eine kurze Übersicht über den Begriff und hätte zu sehr in die Tiefe gehen müssen um tatsächlich zu verstehen was Entropie ist. daher bin ich bei Lennert: bitte eine einfache Einleitung für Laien!
Macht sich jemand eigentlich mal die Mühe, in der Versionsgeschichte oder auch nur den Statements nachzuschauen? Jedes Kind kennt den Satz, dass die Entropie zunimmt. Meine Einleitung wurde wieder weggeworfen. Die Geschichte mit der Unordnung muss unbedingt aus der Welt! Unordnung ist ein Thema für Informatiker. Zudem: Wenn es keine Energie gibt, gibt es auch keine Entropie. Denn die Entropie ist ein Maß dafür, wie sich die Energie auf die möglichen Zustände verteilt. Solange die Informationswissenschaftler kein Maß für die Energie haben, sondern nur ihre Zustände abzählen, sollen sie den Begriff nicht entweihen und verwirren. Und Saperaud, eigentlich ist es ganz einfach, ein Beispiel zu finden, das jeder verstehen riskieren kann: Wenn ich hundert Meter weit gehen kann, und möglichst weit kommen will, muss ich eine gerade Linie gehen. Jeder andere Weg in die Breite mäandert, führt weniger weit. Für die Entropie bedeutet das: Die Entfernung ist die Temperatur. Der Weg ist die Energie. Entropie ist eine Zahl, die besagt, wie weit ich gekommen bin, im Verhältnis dazu, wie weit ich gegangen bin. Aber, ich zetere, das ist unseren Physikern einfach zu banal, es könnte ja jemand was verstehen!RaiNa 11:09, 15. Jun 2005 (CEST)
Du meine Güte! Was ist hier denn los? Ich les mir die Komentare zu dem Artikel durch, und finde Zeilen wie: Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin! oder: Der Grund, warum es hier keine "Theorie" gibt, ist, daß von denen, die das verstanden haben, das jeder als so banal angesehen hat, daß sich niemand die Mühe gemacht hat, das aufzuschreiben. Die Sache ist ganz einfach: Darauf folgen dann Kommentare wie: Das find ich irgendwie alles recht daneben! Sachliches Diskutieren und Kritisieren, und dann das darauf evtl. folgende Verbessern von falsch gemachten, oder nicht ganz korrekten, Aussagen ist ja wohl das was wirklich weiter bringt! Arroganz ist doch wohl wirklich unangebracht hier!Wenn man sich selbst darstellen möchte kann man das, denke ich, auf ner eigenen Seite machen, oder in einen Chatraum gehen! Auf diese Aussagen folgt dann ein grandios formuliertes gegenseitiges Beleidigen, was auch wieder keinen Schritt weiter bringt! Wer was besser weiß, und auch besser erklären kann sollte sich doch einfach einbringen! Denn wie der Autor des Artikels schreibt: Es ist aber eben nicht leicht, Entropie so zu erklären, dass Nicht-Mathematiker und Nicht-Physiker noch folgen können. usw.. Was ich einfach sagen will: Leute! Redet doch mal etwas vernünftiger miteinander! Jeder will hier sein riesen Ego vertreten , und andere runtermachen! (davon möchte ich den Autoren ausnehmen, denn der ist ja scheinbar der einzige hier, der hier mal vernünftig mit anderen redet!!!)Das ist doch wirklich nicht Sinn und Zweck der Sache!
Du meine Güte! Was ist hier denn los? Ich les mir die Komentare zu dem Artikel durch, und finde Zeilen wie: Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin! oder: Der Grund, warum es hier keine "Theorie" gibt, ist, daß von denen, die das verstanden haben, das jeder als so banal angesehen hat, daß sich niemand die Mühe gemacht hat, das aufzuschreiben. Die Sache ist ganz einfach: Darauf folgen dann Kommentare wie: Das find ich irgendwie alles recht daneben! Sachliches Diskutieren und Kritisieren, und dann das darauf evtl. folgende Verbessern von falsch gemachten, oder nicht ganz korrekten, Aussagen ist ja wohl das was wirklich weiter bringt! Arroganz ist doch wohl wirklich unangebracht hier!Wenn man sich selbst darstellen möchte kann man das, denke ich, auf ner eigenen Seite machen, oder in einen Chatraum gehen! Auf diese Aussagen folgt dann ein grandios formuliertes gegenseitiges Beleidigen, was auch wieder keinen Schritt weiter bringt! Wer was besser weiß, und auch besser erklären kann sollte sich doch einfach einbringen! Denn wie der Autor des Artikels schreibt: Es ist aber eben nicht leicht, Entropie so zu erklären, dass Nicht-Mathematiker und Nicht-Physiker noch folgen können. usw.. Was ich einfach sagen will: Leute! Redet doch mal etwas vernünftiger miteinander! Jeder will hier sein riesen Ego vertreten , und andere runtermachen! (davon möchte ich den Autoren ausnehmen, denn der ist ja scheinbar der einzige hier, der hier mal vernünftig mit anderen redet!!!)Das ist doch wirklich nicht Sinn und Zweck der Sache!
1) Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin!
2)Liebe Wikipedianer nach der Lektüre dieser Diskussionsseite muss ich ehrlich gesagt ein bisschen schmunzeln vor Vergnügen, denn ich frage mich, was Bierdosen, CDs und Unterhosen in dieser Diskussion zu suchen haben, aber es sagt sehr viel über den Artikel aus, und über den Wahrheitsgehalt desselben. Bitte seid mir nicht böse über die Anmerkung, aber ich für mein Teil habe kaum eine Ahnung von Physik und habe so zumindest ein bisschen was gelernt, aber leider weiss ich über das Thema auch nicht mehr um den Artikel zu verbessern. Was man allerdings machen kann ist vielleicht in ein Schulbuch schauen, um den Vorgang der Entropie genauer erklärt zu bekommen? Ich habe leider nur ein paar sehr alte und meine Lehrer hatten es damals nicht geschafft, mir sehr viel Interesse für ein solches Thema zu entlocken. Mal sehen was sich machen lässt :-))--Keigauna 09:37, 10. Okt 2005 (CEST)
Aus gegebenen Anlass habe ich gerade eine kleine Erläuterung in dem Stil Entropie für Dummies oder vielleicht sogar Entropie für „Kurze“ geschrieben. Ich stelle das hier mal als Diskussionsgrundlage hin:
Bei der Verwendung des Informationsbegriffes bin ich mir hier nicht ganz sicher. Im Zweifel geht es auch ohne. Die Kritikrunde ist hiermit eröffnet, Edits im obigen Abschnitt sind ausdrücklich gewünscht! -- Dr. Schorsch*Schwätzle? 14:25, 25. Jan 2006 (CET)
Die letzte grössere Hinzufügung hat zuletzt im November ein 84.155.127.217 gemacht. An dieser Stelle (Entropie und Ordnung) hat jetzt 212.201.55.6 was geändert. Allerdings enthält dieser Abschnitt ein Beispiel aus dem Teil der Entropie, der eigentlich im Artikel Entropie (Informationstheorie) behandelt ist. Die Zusammenlegung dieser beiden Entropie-Artikel, die ich richtig fände, hatte vor einiger Zeit keine allgemeine Zustimmung. Aber dann passt der auch Abschnitt Entropie und Ordnung IMHO nicht hierher.
Wer, außer Dr. Schorsch, der vor kurzem den dankenswerten aber wohl vergeblichen Versuch unternommen hat eine Oma-Test-Version zu erarbeiten, hat denn zur Zeit die Fortentwicklung dieses Artikels in der Pipeline? Eine Revision ist ja schon lange überfällig. Oder wollen alle das Wiederaufwärmen der letzten grossen Diskussion vermeiden? Nopherox 15:01, 27. Jan 2006 (CET)
Das Problem bei dem Begriff Unordnung ist, dass er einfach nicht angebracht ist. Es geht hier vielmehr um 'Nicht-Wissen', also um die Verwendung von Wahrscheinlichkeiten bei der Beschreibung eines Systems, da nicht mehr Informationen über den Mikrozustand des Systems erhältlich sind. Ein unordentliches Zimmer ist eine Metapher für fehlende Information über den genauen Mikrozustand (wo habe ich bloss XYZ hingelegt), aber der Vergleich humpelt nicht, er hat keine Beine! Denn die Symmetrie (was sehr viel mehr mit Ordnung zu tun hat) einer Anordnung hat NICHTS mit dem Wissen über ihre tatsächliche Verwirklichung zu tun. Übrigens kann man ein Zimmer aufräumen und die Entropie trotzdem erhöhen, der Begriff ist einfach irreführend! David314 6:28, 28. Feb 2006 (CET)
Unordnung wurde hier schon ausgiebigst diskutiert, und immer wieder wurde festgestellt, dass dieses wort in diesem artikel eigentlich nichts zu suchen hat. wenn denn jemand glaubt, dass seine oma dann, und nur dann, eine chance hat zu verstehen, was entropie ist (ich bezweifle das), wenn er mit unordentlichen sachen kommt, dann soll er das doch bitte korrekt ausformulieren, d.h. inklusive definition von ordnung, math. beschreibung, und methode der berechnung der entropie daraus (wenn denn wirklich entropie ein mass für ordnung sein soll, dann los, lass mal messen). dieses kinderzimmer hilft da ÜBERHAUPT NICHT weiter. --Pediadeep 10:49, 28. Feb 2006 (CET)
Ich verstehe den Artikel zwar leider nur unvollständig, doch habe ich den Eindruck gewonnen, dass die und Entrophie und also auch die Energie immer steigt. Stimmt das? Kann ich Entrophie als eine Art Energie betrachten? --Adeptus 14:31, 20. Mai 2006 (CEST)
Das Kapitel "Entropie und Zeitpfeil" ist ein Spagat zischen verwirrend und falsch.
Aber:
All das steckt im Text irgendwie drin, wird aber derart haarstäubend unstrukturiert rübergebracht, dass es die Spinner motiviert, die ein Perpetuum Mobile im Keller zu haben behaupten. -- 80.136.36.5 18:01, 30. Mai 2006 (CEST)
Wurde ja jetzt zurückgesetzt... ob es dadurch entscheidend besser geworden ist, bin ich mir nicht ganz sicher. -- 217.232.24.246 12:58, 27. Jul 2006 (CEST)
Euch ist schon klar, das jetzige Version einfach nur falsch ist?
1. ist das Beispiel mit dem Film falsch (es geht um Zustaende und nicht um Ablaeufe). 2. ist es ebnso falsch, das die Entropie irgendeine Zeitrichtung vorgibt.
Es geht hier um eine Wahrscheinlichkeitsaussage: Das Gesamtsystem weist einen Zustand maximaler Enropie auf. Das bedeutet: wenn ich das Gesamtsystem betrachte finde ich alle moeglichen Entropiezustaende vor. Ich muss das Gesamtsystem betrachten um einen maximalen Entropiewert zu besitzen.
Besitze ich einen Zustand (Z) mit einer bestimmten Entropie E(Z), sagt uns die Wahrscheinlichkeitsrechnung, das zu einen spaeteren Zustand die Entropie groesser sein sollte. Aber nicht weil die Entropie von frueheren Zustand zu spaeteren Zustand immer groesser werden muss, sondern weil ich zu den genau bestimmten Zustand Z einen genau bestimmten Entropiewert E(Z) besitze. Wenn ich von diesen Zustand Z ausgehe, gibt es unendlich viele von E(Z) verschiedene Werte der Entropie. Das heisst die Erhoehung der Entropie zeigt sich uns, in der grossen Anzahl der von von E(Z) verschiedenen Werte der Entropie, zu einen anderen Zeitpunkt. Das gilt aber nicht nur in eine Zeitrichtung - Zukunft, sondern(!) gilt auch fuer die andere Zeitrichtung - Verghangenheit!
Was ich befuerchte ist, das hier die Grundlagen der Mathematik nicht verstanden werden.
Auf jeden Fall ist der Text in der jetzigen Fassung falsch! Er fuehrt dazu, das sich die Professoren auf den Universitaeten mit vorgefassten falschen Meinungen der Studenten und Stuidentinnen auseinandersetzen muessen. --stefan 15:53, 5. Sep 2006 (CEST)
Hallo Stefan, bitte ändere den Abschnitt nicht wieder. Deine Ausführungen sind für die meisten Menschen völlig unverständlich. Der Abschnitt ist nicht toll, aber falsch ist er auch nicht. Zumindest nicht in dem Sinne, dass der Sachverhalt auch in Lehrbüchern oft so dargestellt wird. Nur das zählt für die Wikipedia. --Aegon 22:24, 5. Sep 2006 (CEST)
Hi, keine Sorge ich aendere den Abschnitt nicht mehr, dazu fehlt mir die Zeit und die Geduld. Aber der Abschnitt ist falsch, er geht von einer aeusserst seltsamen und falschen mathematischen Verstaendniss aus und aus diesen falschen Verstaendnis ergeben sich falsche Aussagen (Entropie - Zeitrichtung). Das sind genau die Probleme mit denen sich Professoren und Professorinnen, Dozenten, etc. auf Unis rumschlagen muessen. Also nochmals: Dieser Abschnitt ist falsch, so falsch dieser Abschnitt nur sein kann. Wenn es mehr solche wissenschaftliche Artikel auf Wikipedia geben sollte, dann seh ich schwarz fuer die Idee "Wikipedia".
Ich finde uebrigens diese 'Version vom 19:16, 14. Jun 2006' - http://de.wikipedia.org/w/index.php?title=Entropie&diff=17859974&oldid=17792282 nicht allzu schlecht. --stefan 15:35, 6. Sep 2006 (CEST)
Büdde beachten diesen Beitrag:
Einwand: Dem widerspricht die Darlegung zur Entropie von Prof.Dr.mult. A.E. Wilder-Smith in seinem Buch: " Herkunft und Zukunft des Menschen", ISBN 3-922349-89-7. Für den wissenschaftlichen Laien stellt sich der zweite Thermodynamische Hauptsatz somit wie folgt dar: " Ordnung zerfällt ohne Zuführung gelenkter Energie von außen immer in Unordnung!" In einer wissenschaftlich sauberen Abhandlung definiert der Autor Entropie als die Verhältnismäßigkeit zwischen Ordnung und Unordnung. Dass Entropie "nichts" mit Unordnung zu tun hat, ist demnach nicht haltbar! Der oben genannte Autor geniest internationalen Respekt in den wissenschaftlichen Kreisen und seine Darlegungen konnten bisher zumindest nicht widerlegt werden. Die Definition von Entropie, muss zumindest unter Einbeziehung seiner Darlegung betrachtet werden.)
--Löschkandidat 12:31, 11. Sep 2006 (CEST)
Respekt hilft einem bei der ganzen Sache nicht weiter, im übrigen geniest dieser Autor nicht in allen Kreisen großen Respekt, er ist schließlich Kreationist. Entropie ist das Maß für die erreichbaren Mikrozustände und hat nichts mit der Symmetrie des jeweiligen Mikrozustands zu tun. Es gibt Systeme, die sich unter Entropiezunahme ordnen, z.B. bei der Entstehung kristalliner Phasen. Mal ein ganz einfaches Beispiel. Man nehme eine Box mit 100 Münzen und lege die irgendwie hinein. Durch Schütteln verändert man die Konfiguration. Hin und wieder werden symmetrische Muster entstehen, die allerdings sofort wieder verschwinden und (fast) keine Korrelation zeigen. Wenn die Münzen allerdings durch magnetische Pucks ausgetauscht werden und auf ihre Nachbarn wirken können ändert sich das Bild und die symmetrischen Zustände häufen sich, wenn man nicht zu fest schüttelt. So etwas beobachtet man in der Natur sehr häufig bei ferromagnetischen Kristallen.
David314 04:35, 14. Sep 2006 (CEST)
@David: Das hier ist eine Enzyklopädie, die Wissen so darstellen soll, wie es halt in Lehrbüchern und Fachzeitschriften dargestellt wird. Viele Autoren benutzen den Begriff Unordnung in Zusammenhang mit Entropie. Da kann man nicht schreiben Entropie hat nichts mit Unordnung zu tun!. Dies ist nur die Meinung einiger. (Ich habe diese Aussage übrigens noch nirgendwo so drastisch gelesen. Bring mal ein Zitat.) Man sollte also schreiben: Viele Autoren vergleichen Entropie mit Unordnung, andere sehen das problematisch und vermeiden den Ausdruck Unordnung völlig... oder etwas ähnliches. In der ganzen Einführung lernt man übrigens fast nichts. Es wird nur erzählt, warum Entropie ein schwieriger Terminus ist. --Aegon 10:15, 14. Sep 2006 (CEST)
Die Einleitung ist genau für Leute wie dich geschrieben. Und komm mir nicht mit Autoren, Zitaten und Quellen, die Entropie ist kein Gegenstand für Debatten sondern ein präziser Ausdruck, nämlich
und daran gibt es nichts zu rütteln. In diesem Ausdruck wirst du keinerlei Größe finden können, die etwas über die Ordnung des Systems aussagt. Wenn es Lehrbücher und Zeitschriften gibt, die Entropie mit Unordnung gleichsetzen oder implizieren, dass Entropiezunahme immer mit Reduktion von Symmetrie einhergeht, so ist das einfach falsch und das muss man auch in aller Deutlichkeit sagen. Nur so kann der Leser davon angehalten werden die Begriffe gleichzusetzen. Ich habe öfters Physikstudenten, die mir nicht erklären können wie Entropie definiert ist und ich kann die Identifizierung mit Unordnung einfach nicht mehr hören. Natürlich sind Entropiezunahme und Abnahme der Ordnung häufig korelliert, aber es sind zwei verschiedene Dinge, dieser Vergleich hat schon mehr Verwirrung gestiftet als notwendig. David314 16:51, 14. Sep 2006 (CEST)
Nochmal: Dies ist eine Enzyklopädie. Hier muss man mit Autoren, Zitaten und Quellen kommen. Du beschwärst dich, dass andere Autoren Verwirrung stiften, aber schau dir den aktuellen Artikel doch mal an: Der allererste Satz (dein Edit) besagt, dass die Entropie die Temperatur definiert. In Zeile 11 wird dann die Entropie über die Temperature definiert. Na toll. Dann kommt dein Feldzug gegen die Unordnung. In späteren Abschnitten wird dann der Zusammenhang zwischen Ordnung - Unordnung - Entropie diskutiert. Solche scheinbaren (erster Fall) und tatsächlichen (zweiter Fall) Widersprüche finde ich verwirrend. Es ist übrigens rührend, dass du die Einführung für Leute wie mich geschrieben hast. Von mir aus brauchst du sowas aber nie wieder tun. --Aegon 17:51, 14. Sep 2006 (CEST)
Von einer Enzyklopädie erwarte ich vor allem Korrektheit und wenn möglich einen kompakten Überblick. Das gelingt leider nicht immer auf Anhieb, weswegen wir ja auch diese Diskussion führen. Die Definition der Entropie über die Temperatur (zweite Formel) stammt übrigens von Clausius und wenn du den 1.Hauptsatz anwendest, dann sieht man, dass beide Gleichungen äquivalent sind. Es ist natürlich auf den ersten Blick verwirrend, wenn man die Äquivalenz nicht sieht, deshalb habe ich das versucht zu erläutern. Natürlich kann man mit einer Gleichung nur eine der beiden Größen durch die Andere definieren, entweder Temperatur durch die Entropie oder umgekehrt. Früher war die Temperatur (in der phänomenologischen Thermodynamik) die Grundgröße (und ist sie noch heute für den Experimentalphysiker), heute verwendet man in der Theorie die Entropie als Ausgangsbasis bzw. den Dichteoperator/Zustandssumme und die absolute Temperatur erscheint als abgeleitete Größe. Es ist also von der jeweiligen Situation abhängig, welche Beschreibung günstiger ist. Der Artikel ist tatsächlich verwirrend, weil im hinteren Teil noch eine Menge Unsinn steht, aber man kann nicht alles auf einmal machen. Übrigens ist es in der Physik und Mathematik nicht üblich bei so gewachsenen Begriffen jedesmal Quellen und Autoren anzugeben, es sollte genügen zu erwähnen, dass Clausius und Boltzmann den Begriff ausgearbeitet haben. Tatsächlich ist Boltzmanns Definition für klassische Systeme ziemlich vollständig, aber der Versuch diese statistische Definition an den Anfang des Artikels zu stellen ist an ihrer Abstraktheit gescheitert. Offenbar war das für die meisten Leser unverständlich, daher diese weniger mathematische Einführung in die Entropie.
David314 04:28, 15. Sep 2006 (CEST)
das scheint mir zweifelhaft, spekulativ, ungenau - einfach nicht gut:
(In der Natur entstehen spontan unter Zunahme der Entropie symmetrische Strukturen, man denke hierbei z.B. an Galaxien, Kristalle, Schneeflocken und Lebewesen. Geordnete Strukturen entstehen dabei auch in abgeschlossenen Systemen, obwohl häufig behauptet wird, dass dies nur in offenen Systemen möglich ist. Auch abgeschlossene Systeme müssen sich nicht im thermischen Gleichgewicht befinden. Um dies zu verstehen bedenke man, dass sich das Universum kurz nach dem Urknall in einem Zustand niedriger Entropie befand und diese seitdem zunimmt. Erst durch die Expansion und der damit einhergehende Abkühlung konnte es zur Ausbildung symmetrischer Strukturen kommen.) Vorschlag an den Autor dieses Abschnittes, ihn aus der Einleitung an eine andere Stelle zu verschieben und dort mit Quellenangaben zu versehen. In der Einleitung ist dieser Abschnitt eher verwirrend als klärend --Homosapiens 10:35, 13. Sep 2006 (CEST)
--Pediadeep 11:51, 13. Sep 2006 (CEST)
Es ist also zweifelhaft, dass sich in einem abgeschlossenen Systemen symmetrische Strukturen unter Entropiezunahme bilden? Hast du schon mal einen Joghurt im Kühlschrank vergessen? Oder vielleicht ein abgeschlossenes Zimmer aufgeräumt? Oder ein Wärmekissen (NaAc) ausprobiert? Ich wollte mit diesem Absatz nur mit dem Vorurteil aufräumen, dass sich symmetrische Strukturen nur in offenen Systemen unter Energiezufuhr bilden können. Diese Behauptung wird gerne von Biologen aufgestellt, weil dies für Lebewesen zutrifft und lebende Organismen die Energie dazu verwenden ihre Struktur aufrechtzuerhalten. Aber es gibt auch unbelebte Systeme, die einen hohen Ordnungsgrad besitzen.
--David314 17:14, 14. Sep 2006 (CEST)
--Homosapiens 00:57, 16. Sep 2006 (CEST)
Lieber Homosapiens, falls dein Kühlschrank kein abgeschlossenes System darstellt, dann mach doch mal die Tür zu. Abgeschlossen heißt nur: kein Materietransport. Was du sicher meinst ist ein isoliertes System und (auch) für diese Systeme gilt der 2. Hauptsatz. Aber auch hier kann die Ordnung/Symmetrie für eine Weile zunehmen und noch viel länger anhalten, nur das solche Systeme in der Praxis sehr schwer bis garnicht zu realisieren sind. Abgeschlossene Systeme gibt es aber überall, trotzdem scheint es kein allgemein anerkannter Begriff zu sein. Und ich habe nie behauptet, dass sich in einem kleinen abgeschlossenen oder isolierten System gleich die ganze Evolution abspielt, aber das ist doch Rabulistik. Wenn das System gross genug ist, gibt es über einen entsprechenden Zeitraum Nichtgleichgewichtszustände, stell dir einfach mal das ganze Sonnensystem in eine adiabatische Box gesteckt. Oder nimm halt gleich die ganze Galaxis. Oder die lokale Gruppe (ja ich weiss das ist hanebüchen, aber irgendwie muss ich ja den Standpunkt klarmachen und solange ich die Box nicht installieren muss...). Niemand schreibt vor wie groß ein abgeschlossenes oder isoliertes System sein darf! Möglicherweise ist nicht einmal das ganze Universum ein isoliertes System... Da muß man keine allgemein anerkannten Theorien und Quellen/Literaturangaben zitieren, im übrigen ist so ein Vorgehen typisch für Geisteswissenschaftler. Nichts gegen Geisteswissenschaftler, aber vor lauter Zitieren und Verbeugen vor den Meistern der Zunft vergessen die oft das eigene Nachdenken. Wenn ich mir Diplomarbeiten ansehe, wo das Literaturverzeichnis über 10 Seiten geht und die Leute jammern, dass die Arbeit unterzitiert ist kann man nur mit dem Kopf schütteln. Man sollte sich nicht abhalten lassen, selbst über Dinge nachzudenken so kompliziert sind die Begriffe in der Thermodynamik nicht.
--David314 03:36, 16. Sep 2006 (CEST)
Hallo David314, Ich teile die Einschätzung von Pediadeep und möchte die Diskussion auch nicht vertiefen.
Bitte lies es einfach noch mal nach, z.B. in der Wikipedia Abgeschlossenes System Thermodynamik oder Energieerhaltungssatz oder (entschuldige daß ich das sagen muß) auch in jedem Physikbuch der Oberstufe. Die Begriffe mögen nicht kompliziert sein, aber man sollte auch nicht ignorieren, wenn Dinge seit 150 Jahren von allen Physikern anders benutzt werden, sonst müssen wir uns bald über Begriffe wie Masse oder Energie streiten. --Homosapiens 00:19, 17. Sep 2006 (CEST)
Es scheint in der deutschen Literatur keine einwandfreie Verwendung der Begriffe (ab)geschlossen und isoliert zu geben. Ich habe gerade nochmal durch mein Bücherregal geschaut und mehrere Varianten gefunden. Da ich meist nur englische Literatur lese ist mir das bisher nicht so aufgefallen. Im Englischen gibt es nur open, closed und isolated. Es wäre hilfreich, wenn man den Begriff abgeschlossen nicht synonym zu isoliert verwendet, da ganz leicht Mißverständnisse erzeugt werden können. Unter einem (ab)geschlossenen System sollte man ein bewegliches Kontrollvolumen verstehen, dessen Wände sich derart bewegen, dass keine Masse hindurchtreten kann. Ein offenes System ist einfach ein Kontrollvolumen, das zeitlich konstant ist. Und ein isoliertes System wäre dann ein (ab)geschlossenes System, dessen Wände adiabat sind und auch sonst nichts rein oder rauslassen. Was in der Praxis freilich nicht zu realisieren ist, zumindest nicht für längere Zeiträume. Aber soll man jetzt deswegen einen Kreuzzug starten? Es gibt in der Physik soviele Begriffe, die inkonsistent sind, z.B. das magnetische Feld...
--David314 02:39, 17. Sep 2006 (CEST)
In der einleitung steht "dass die Energie zwischen Ausgangs- und Endzustand nur unwesentlich geändert hat, die Entropie jedoch ansteigt.". ist's nicht so, dass sich insb. beim beschriebenen beispiel, "gas", die energie überhauptgarnicht ändert? --Pediadeep 18:03, 15. Sep 2006 (CEST)
Darüber hatten wir uns doch schon mal an anderer Stelle unterhalten. Die Definition von Clausius bezieht sich auf reversible Prozesse, der Expansionsversuch von Gay-Lussac ist definitiv irreversibel. In der phänomenologischen Thermodynamik hat man es manchmal schwer zu verstehen, wo die Entropiänderung eigentlich steckt, vor allem wenn offensichtlich keine Wärme zu- oder abgeführt wird. Entropie und innere Energie sind zunächst zwei verschiedene Dinge. Sie sind über die Veränderung der Möglichkeiten gekoppelt die innere Energie auf die Freiheitsgrade zu verteilen. Aber es ist eben nicht die einzige Möglichkeit die Entropie zu verändern. Das schreibt sich in der Sprache der Thermodynamik so:
Beim Gay-Lussac-Versuch können wir diese Gleichung nicht anwenden, da wir keine Gleichgewichtszustände durchlaufen, man kann sich aber einen isothermen Prozess überlegen, der zum gleichen Endzustand (vergrößertes Volumen) führt und dann die Entropieänderung durch Integration bestimmen. Man sieht dann, dass die Entropie wie erwartet zunimmt. An dieser Stelle zeigt sich der Vorteil der statistischen Beschreibung, hier kann man sofort einsehen warum die Entropie zugenommen hat, man muss nicht den Prozeß betrachten, der Endzustand genügt. Die Gasteilchen haben einfach mehr Platz sich zu verteilen, die mögliche Anzahl an Mikroszuständen hat sich durch eine Vergrößerung des erreichbaren Volumens erhöht. Sobald sich das System wieder im Gleichgewicht befindet kann man wieder mit den phänomenologischen Gleichungen arbeiten. Also aufgepaßt wenn das System sich nicht im Gleichgewicht befindet, dann machen einige Formeln einfach keinen Sinn.
--David314 22:41, 15. Sep 2006 (CEST)
irreversible ausdehnung ins vakuum ohne wärmestrom (1.hauptsatz) und konstante teilchenzahl:
folg und gasgesetz:
folgt:
oder mit zustandssumme: volumen proportional Zustandssumme : was dasselbe ist. danke und viel spass, --Pediadeep 23:57, 15. Sep 2006 (CEST)
Ich habe keine Zeit euch das hier auseinanderzupflücken, ist aber ziemlich simpel: Man expandiere adiabatisch das Gas auf das größere Volumen, dabei wird Arbeit geleistet die entsprechend aus der inneren Energie bestritten wird. Natürlich nimmt der Druck mit der Temperatur ab (ideales Gas: pV = NkT), also integrieren. Anschliessend dann soviel Wärme hinzugeben, bis die Anfangstemperatur erreicht ist, einfach \delta Q/T dabei aufintegrieren, fertig ist die Entropieänderung.
--David314 23:00, 18. Sep 2006 (CEST)
Für Nichtgleichgewichtszustände, und das trifft für den beschriebenen Vorgang zu, kannst du die normalen Formeln nicht verwenden. Nichtsdestotrotz ist der Endzustand ein Gleichgewichtszustand (man muss ja nur ein wenig warten) und da packt der Formalismus wieder. Du hast völlig recht, das Gas arbeitet nicht (p=0), es verändert nicht seine Temperatur und damit ist auch die innere Energie konstant (dQ=dW=0 => dE=0). Aber das nutzt dir nichts, denn du kannst deine Gleichgewichtsthermodynamik nicht auf diesen Prozess anwenden. Also mußt du dir einen reversiblen Prozeß ausdenken, der zum gleichen Endergebnis führt (s.o.). Habe ich das jetzt besser formuliert?
--David314 02:46, 19. Sep 2006 (CEST)
Das Beispiel zur Entropie von Lebewesen ist gut gemeint und der Vorschlag Energiedrinks in Entropiedrinks umzubenennen ist liebenswert. Das Beispiel ist jedoch nicht korrekt und trägt zur Mystifizierung der Entropie bei - dem Gegenteil des eigentlichen Anliegens von Wikipedia. Deshalb habe ich das Beispiel entfernt. Ein Lebewesen befindet sich nicht in einem thermodynamischen Gleichgewichtszustand. Es ist deshalb nach dem heutigen Stand der Erkenntnis nicht möglich, einem Lebewesen eine Entropie zuzuordnen. Unstrittig ist hingegen, dass ein Lebewesen Entropie produziert.
Das Kapitel ist mir immer noch zu spekulativ und trägt in seiner vorliegenden Form eher zur Verwirrung als zur Aufklärung des Lesers bei. Schon der erste Satz enthält eine unbewiesene Behauptung. Woher wissen wir, dass ein Lebewesen Entropie produzieren m u s s ?? Wenn man das Beispiel Lebewesen schon bringen möchte, dann sollte man sorgfältig darauf hinweisen, worauf sich die Entropiebilanz bezieht. Sie bezieht sich nämlich nicht auf das Lebewesen, sondern auf die Differenz zwischen der Entropie aller "Ausgangsprodukte" (Nahrung, Luft, Wasser) und der Entropie aller "Endprodukte" (Ausscheidungen, produzierte Wärme). Wenn dieser Umstand klar im Artikel zum Ausdruck kommt, könnte der Leser vielleicht etwas daraus lernen. A. Thess
Ich habe den Text über Entropie von Lebewesen überarbeitet, für den Fall dass Ihr dieses Thema unbedingt im Artikel haben wollt. Ich empfehle Euch jedoch, einen Blick auf die englische Version von Entropie zu werfen und zu überlegen, ob wir den Bezug zu strittigen Themen wie Lebewesen nicht doch herausnehmen. Auf keinen Fall gehören (zugegebenermaßen liebenwerte) kleine Späßchen und Gags wie die "Entropiedrinks" in eine Enzyklopädie. Besonders bei komplizierten Themen wie Entropie ist es wichtig, ernsthaft und glaubwürdig zu bleiben. --Thess 21:05, 3. Okt 2006 (CEST)
Das Zahlenbeispiel über die Entropie von Wasser ist etwas irreführend. Es handelt sich bei den Werten nicht um die Gesammtentropie, sondern nur um die Entropie, die das Wasser nach dem Schmelzen aufgenommen hat. Da Wasser jedoch bei 0C sicher wesentlich mehr Entropie als 0J/K besitzt, kann man nicht sagen, Wasser hätte bei 10C 150J/K. Nach dem Karlsruher Physikkurs, der auch dem Artikel in Wikibooks zugrundeliegt, beträgt die Entropie von Wasser bei 25C etwa 3880 J/K, wobei ich leider auch nicht weiß, woher der Wert kommt. Die Schmelzwärme eines kg Wasser beträgt aufjedenfall bereits 1220 J/K. --SumedokiN 22:11, 4. Okt 2006 (CEST)
Der folgende Teil wurde gelöscht:
Zustände auf einem Schreibtisch:
Entschuldige, aber Entropie mag ja relativ sein, und die absolute Größe hängt vom Bezugswert ab. Aber eine subjektive Größe, die an unserem Wissensstand hängt, ist sie definitiv nicht. Es ist ohnehin unglücklich, die Unordnung bei der Thermodynamik unterzubringen. Und die Informationstechnik hat hier bereits eindeutige Kennwerte. --Homosapiens 19:14, 7. Okt 2006 (CEST)
Dieser Abschnitt "Entropie und Zeitrichtung" trägt nicht zur Erläuterung des Entropiebegriffes bei. Das angesprochene Thema wird nicht in angemessener Weise behandelt, so daß der Abschnitt eher zur Verwirrung als zur Klärung von Sachverhalten beiträgt. Außerdem ist es eine Tautologie, die Zeitrichtung aus der Entropie zu erklären, da bereits die Definition des 2. Hauptsatzes auf der Zeitrichtung aufbaut (Siehe Diskussion zum Abschnitt) --Homosapiens 23:32, 6. Okt 2006 (CEST)
LA kopiert (war wohl ein Versehen?)! --YourEyesOnly schreibstdu 11:05, 8. Okt 2006 (CEST)
Sorry, war mein erster Löschantrag. Ich wollte nur ein langes hin und her vermeiden. Die Diskussion war bisher gegen den Abschnitt, aber einfach löschen ist auch nicht nett. --Homosapiens 11:25, 8. Okt 2006 (CEST)
In der obigen Diskussionen scheinen zwei unvereinbare Konfliktlinien zu existieren. Die "klassische Definition" der Entropie nach Clausius berücksichtigt ausschließlich messbare Größen, also Makrozustände, während Vertreter der statistischen Mechanik Erklärungsansätze aus statistischen Betrachtungen einzelner Atome oder Moleküle, also Mikrozustände, ableiten. Insbesondere wurde oben Ansätze des Physikers E.T.Jaynes benannt. Ich möchte daher einen Satz aus einem Text von Jaynes zum Gibbschen Paradox [2] (Seite 6)zitieren, der vielleicht ein anderes Licht wirft:
Nevertheless, we still see attempts to "explain irreversibility" by searching for some entropy function that is supposed to be a property of microstate, making the second law a theorem of dynamics, a consequence of the equations of motion. Such attempts, dating back to Boltzmann's paper of 1866, have never succeeded and never ceased. But they are quite unnecessary; for the second law that Clausius gave us was not a statement about any property of microstates. The difference in dS on mixing of like and unlike gases can seem paradoxical only to one, who supposes erroneously, that entropy is a property of the microstate.
Man sieht, auch Verfechter der statistischen Mechanik versuchen nicht unbedingt, den Entropiebegriff streng wissenschaftlich auf die Ordnung in Kinderzimmern anzuwenden. Jaynes sagt explizit, das dies ein Fehler ist! --Homosapiens 23:58, 25. Okt. 2006 (CEST)
Die Einleitung ist immer noch eine Katastrophe. --Hi-Lo 21:13, 17. Nov. 2006 (CET)
--Homosapiens 22:59, 23. Nov. 2006 (CET)
Die Diskussion um den Entropiesatz ist spannend - auch und gerade weil immer wieder ein zumindest scheinbares Gegeneinander von kompetenten Physikern und anderen Menschen deutlich wird. Liegt das an mangelndem Sachverstand der Nicht-PhysikerInnen? Oder an einer Verstiegenheit in Spekulationen seitens der Physiker?
Bevor ich dieser Frage weiter nachgehen will, möchte ich die aktuelle Fassung dieses 2. HS nennen, wie sie aufgrund der Quantenmechanik formuliert wurde, um die vielen Ungereimtheiten auch in Bezugf auf 'Ordnung' wie sie in der Diskussion deutlich wurden, zu klären: "Ein System geht spontan nie in einen erheblich unwahrscheinlicheren über." (Breuer, Hans (1992) dtv-atlas zur Physik Band 1 S.131) Dadurch erübrigt sich schon ein Großteil der Diskussion um die Entropie hier bei WP. Wenn wir Entropie als umgekerhtes (reziprokes) Maß für Zustandwahrscheinlichkeit nehmen (wie a. Methylene Blue beschreibt) wird mit der modernen Fassung des 2.HS der Thermodynamik dieser zu einer Tautologie: '(Die Entropie nimmt zu =) die Zustandswahrscheinlichkeit nimmt ab, (wenn Systeme sich selbst überlassen werden) dass ein erheblich unwahrscheinlicherer Zustand spontan entsteht'. Über die Richtigkeit dieses Satzes wollen wir uns sicher nicht streiten. Es wirft angesichts der Entstehung der Menschen im Laufe der Evolution nur die Frage auf: stimmt die statistische Wahrscheinlichkeitsdefinition? Angesichts dessen, dass das Unwahrscheinliche uns als aktuell erlebbare Wahrheit erscheint? (s. Petzold, Th. D. (2000) 'Das Maßgebliche ...'). Es taucht die Frage nach der Selbst-Organisation von Systemen auf (s. Petzold, Th. D. (2000) 'Resonanz-Ebenen - die Evolution der Selbstorganisation').
Zur Frage des gegenseitigen Un- bzw. Missverständnisses zwischen Physikern und anderen: Dazu dürfen wir den Entropiesatz mal von einer Metaebene aus betrachten: Der 2. HS der Thermodynamik gilt nur für geschlossene Systeme. Physiker definieren 'geschlossen=isoliert', dass keine messbare Energie oder Materie zu- oder abgeführt wird. Wenn ein System dermaßen 100% isoliert ist, dürfte es nicht beobachtbar sein, da es um beobachtbar zu sein, irgendwelchen Austausch mit der Umgebung haben muss. Demzufolge sind alle für uns beobachtbaren Systeme streng genommen keine 100% geschlossenen/isolierten Systeme. Demzufolge gilt genau genommen dieser 2. HS der Thermodynamik bestenfalls nur für imaginierte aber nicht beobachtbare Systeme. Und die Physiker haben diese ihre Spekulation 'geschlossener' Systeme dermaßen ausgebaut und auf das ganze UNiversum übertragen, dass wir als Menschen, die mit der Wahrheit und Wirklichkeit offener Systeme leben, Schwierigkeiten bekommen, ihnen in ihre spekulative imaginierte Welt zu folgen. Hier könnte der Hauptgrund dafür liegen, dass die Meinung der Physiker in Bezug auf die Entropie von Systemen oft so divergiert von der Meinung anderer Menschen, die mehr in Kontakt sind mit ihren beobachtbaren lebendigen Phänomenen. --Theodor-Dierk 14:03, 20. Jan. 2007 (CET)
Das ist nicht das Problem, die Entropie ist für beliebige Systeme definiert und der 2.HS gilt auch für nicht isolierte Systeme. Bei isolierten Systemen ist er extrem langweilig, da dS=0! Das Vorurteil Entropie könne immer nur zunehmen und damit in irgendeiner Form auch die Unordung, wie auch immer diese zu definieren sei, ist ein grobes Mißverständnis und hat damit zu tun, dass immer diese isolierten Systeme betrachtet werden. Erstens hat Unordnung nichts mit Entropie zu tun (ich wiederhole mich jetzt hier zum x-ten Mal) und zweitens ist uns Physikern ziemlich klar, dass man ein isoliertes System nicht wirklich realisieren kann. Was man aber immer tun kann ist den Austausch von Energie und Materie extrem zu reduzieren und selbst dann kann lokal im Inneren die Entropie abnehmen. Tatsache ist aber, dass z.B. die Carnot-Maschine kein isoliertes System ist!
--David314 23:43, 6. Feb. 2007 (CET)
Ich überblicke die Diskussion zu diesem Artikel nicht. Deshalb ist nicht ausgeschlossen, daß mein im Folgenden vorgetragenes Anliegen bereits früher einmal formuliert worden ist.
Ich stolpere als erstes über den Satz: "Die Entropie ist so definiert, dass ein spontaner Prozess in einem isolierten System diese niemals vermindern kann." Da die Physik zwischen Gleichgewichtsthermodynamik (Thermostatik) und Nichtgleichgewichtsthermodynamik (Thermodynamik) unterscheidet, muss das auch bei der Definition der Entropie beachtet werden. Eine begriffliche oder inhaltliche Trennung findet in dem Artikel aber gar nicht statt.
Für die Thermostatik ist eine mögliche Definition: "Die Entropie ist so definiert, dass der Wirkungsgrad eines (selbstverständlich reversibel geführten) Carnot-Prozesses nur von den Temperaturen der verwendeten Wärmereservoire abhängt". Die Betrachtung "spontaner Prozesse" würde aus dem Gebiet der Thermostatik herausführen und gehört in die Thermodynamik.
Für einen Außenstehenden mag das erstmal beliebig befremdlich wirken, doch einzig die Annahme, daß der Wirkungsgrad von Carnot-Prozessen nur von der Prozeßgröße Temperatur (und nicht von irgendwelchen Materialeigenschaften) abhängt, hat die bekannte Entropieedfinition erzwungen. Deshalb gehört an diese Stelle auch die Diskussion, in welcher Weise die Entropiedefinition Materialeigenschaften festlegt bzw. einschränkt. Dieser Zusammenhang ist auch für einen Außenstehenden verständlich.
Was die Entropiedefinition in der Thermodynamik angeht, so geht es dabei immer um Spielarten des Satzes "Die Entropie als raum-zeitliche Zustandsfunktion ist so definiert, dass der Produktionsterm in ihrer Bilanzgleichung stets größer oder gleich null ist." Die obige Definition (… dass ein spontaner Prozess in einem isolierten System diese niemals vermindern kann) wäre dazu ein Spezialfall. Auch und gerade hier liegt das Hauptaugenmerk auf der Beschränkung möglicher Materialeigenschaften, die die physikalischen Prozesse grundlegend bestimmen.
Ich würde mich freuen, dazu ein paar Kommentare zu erhalten. CB
Hallo auch. Erfunden habe ich den Begriff "Thermostatik" nicht. Er wurde beispielsweise am Lehrstuhl für Theoretische Physik der TU Berlin gebraucht, um pointiert auf die besonderen Bedingungen hinzuweisen, die für ein thermisches Gleichgewicht und für die sog. reversible Prozeßführung notwendig sind - "Thermostatik" ist schlicht kürzer als "Gleichgewichtsthermodynamik". Siehst Du auch den Widerspruch, die Gleichgewichtsentropie einerseits als dQ/T (T = Gleichgewichtstemperatur fürs ganze System) und andererseits über einen Nichtgleichgewichtsprozess zu definieren? --Cbloess 08:12, 24. Jan. 2007 (CET)
Die Überlegung ist wichtig. Die "Thermostatik" betrachtet Folgen infinitesimal benachbarter "Toter Hose"-Zustände, welche sich durch entsprechende Prozessführungen ineinander überführen lassen - im Sinne der Reversibilität stets in beide Richtungen. Im Experiment muss man sehen, a) ob man dem nahe kommen und b) ob man dem dann durch entsprechende Anpassungen jeweils noch näher kommen kann. Es stellt sich dann heraus, daß ein messbares dQ mit einer entsprechenden Änderung der (homogenen) Temperatur zusammenhängt, was im Grenzfall (diffentielle Änderungen) Thermostatik ist. Sofern das also möglich ist (Physik ist, wenn sich ein punktförmig gedachter Affe an einer masselosen Liane durch einen nicht vorhandenen Urwald schwingt), darf man eine Folge infinitesimal eng benachbarter "Toter Hose"-Zustände schon als "Gleichgewichtsprozess" betrachten und beschreiben.
Sofern es also eine Wärmelehre für das Gleichgewicht gibt, muss man die Zustandsgrößen (Meßgrößen) auch für das Gleichgewicht definieren. Und die Entropie als weitere Zustandsgröße ist letztlich über denjenigen "integrierenden Nenner" für das Wärmedifferential (welches eben kein totales Differential ist) definiert, der sicherstellt, daß es bei beliebigen Carnotprozessen stets materialunabhängige Wirkungsgrade gibt, und damit T.
Ich finde, daß man nicht umhinkommt, diese Zielstellung für die Entropie auch an erster Stelle zu nennen. --Cbloess 13:54, 1. Feb. 2007 (CET)
Den Begriff Thermostatik finde ich irreführend, da hier suggeriert wird es fände keine zeitliche Änderung statt. Das ist aber definitiv nicht der Fall, auch wenn die Ableitungen beliebig klein sein sollen (wegen der Reversibilität), so können sie jedoch nicht verschwinden, wie das in der Statik zwingend erforderlich ist. Die Sache mit der Reversibilität ist sowieso rein akademisch, da in der Praxis bei thermodynamischen Systemen stets Verluste auftreten. Trotzdem ist es kein großer Fehler anzunehmen, dass in den meisten Fällen das System Gleichgewichtszustände durchläuft, ansonsten wäre die Thermodynamik für Ingenieure ziemlich uninteressant und das ist Sie ja nun wirklich nicht. Die Einstellung des thermischen Gleichgewichts geht nämlich lokal(!) sehr schnell vor sich. Ich verstehe nicht ganz was mit dem letzten Absatz gemeint ist, soll die Definition der absoluten Temperatur durch Verkettung von Carnot-Maschinen in den Vordergrund gestellt werden oder was? Ein wenig konkreter formulieren hilft beim Verständnis...
--David314 23:30, 6. Feb. 2007 (CET)
liebe Autoren, die Entropie ist keine Grundgröße und sie "beschreibt" auch keinen Zusammenhang zwischen bestimmten Zustandsgrößen. Man kann damit aber viele Zusammenhänge gut beschreiben (vergl. T-s-Diagramm). Die Bedingung für die Eigenschaft "Zustandsgröße", dass der Zyklus reversibel sein muss, ist nicht erforderlich und die Beschreibung der Entropieänderung ist schwammig. Die Formel von Clausius gilt nur für die transportierte Entropie (bei reversibel übertragener Wärme). Soll die Gleichung allgemein für quasistatische Zustandsänderungen gelten, muss auf der rechten Seite das Verhältnis von dissipierter Arbeit und absoluter Temperatur hinzuaddiert werden. Das erklärt dann auch die folgende richtige Aussage, dass die Entropie auch ohne Wärmeübertragung sich ändern (nicht "verändern"), besser aber "zunehmen" kann. Ich meine, der Abschnitt kann auch kürzer gefasst werden. Ich habe mal einen Baustein gesetzt.
Viele Grüße, Mooreule 11:08, 24. Feb. 2007 (CET)
Hallo, ich hätte da einen Vorschlag, wie man Entropie etwas allgemeinverständlicher in der Einleitung definieren könnte. Ich bitte um Meinungen. In unserer Thermodynamik-Vorlesung haben wir folgende Erklärung diskutiert:
"Entropie ist eine thermodynamische Zustandsgröße, die den Wärmeaustausch zwischen einem System und seiner Umgebung beschreibt. Da sich ein Körper nie von selbst erwärmen kann (2. Hauptsatz der Thermodynamik), muss die Entropie bei natürlichen Prozessen stets größer 0 (Null) sein. Hierzu zählen dissipative Effekte (z.B. Reibungswärme), die der Umgebung nur zugeführt werden können (delta S>0). So wird ein Körper, der Reibkräfte erfährt (z.B. Bremse) wärmer, d.h. er gibt Wärme an die Umgebung ab, so dass die Entropieänderung größer als 0 (Null) ist. Bei reversiblen Prozessen gibt es keine solchen Effekte, d.h. die Entropieänderung ist hier 0 (Null)."
Was haltet ihr davon? -- JohnClark85 10:42, 11. Jul. 2007 (CEST)
Hallo JohnClark85, zum durchlesen: [3]--Kölscher Pitter 20:51, 4. Sep. 2007 (CEST)
Guten Tag liebe Spezialisten! hier schreibt ein WP-Leser, der gerne wissen möchte, was man denn eigentlich unter Entropie versteht. Was ich hier aber zu lesen bekomme ist völlig unverständlich. Nun bin ich nicht "blöd" - aber wenn schon ich Euren Text nicht verstehe, wie wird es dann meinen Kindern (Hauptschule) oder meiner Oma damit gehen?!
Deshalb habe ich Beispiele untergliedert in
für Laien
Im Kinderzimmer gibts eine Kiste mit Legosteinen und eine Kiste mit Playmobil-Figuren. Nach kurzer Zeit ist alles vermischt und über den ganzen Boden verteilt. Nach einer "Aufräum-Aktion" liegt dann einiges wieder in den Kisten, aber ziemlich durcheinander und anderes immer noch unterm Bett und hinterm Schrank. <! aber was ist jetzt dabei die Entropie? >
und --Homosapiens 18:44, 22. Okt. 2006 (CEST)
für Experten
Aber statt dass mir nun jemand an diesem Beispiel erklären würde, was denn nun daran genau "Entropie" ist und warum (oder wenigstens stattdessen ein ebenso verständliches aber leichter zu erklärendes Beispiel beschreibt), wurde es einfach wieder weggelöscht. Und der Artikel ist so unverständlich als wie zu vor...
Natürlich verstehe ich, dass Spezialisten wie Ihr gern ihr Fachwissen auf hohem Niveau zum Besten geben. Aber könnte man hier nicht wenigstens in einem ersten Überblick mal für alle verständlich erklären (Hauptschulniveau), bevor man sich den hochgeistigen Ergüssen hingibt...? Herzlichen Dank, --Markus Bärlocher 13:33, 15. Okt. 2006 (CEST)
Hallo, für Laien habe ich noch eine vereinfachte Darstellung zugefügt unter der Definition. Ich hoffe, das erklärt es erschöpfend auch für die Oma (ohne selbiger zu nahe treten zu wollen). --Homosapiens 11:51, 16. Okt. 2006 (CEST)
Am Besten unter Informationstheorie nachsehen. Aber - um den Clou vorwegzunehmen - die Informationstheorie beschreibt nur den Datenaustausch. Was Information genau ist, wie sie entsteht und wie sie mit Unordnung oder Ordnung zusammenhängt, darüber gibt es heute keine schlüssige Theorie. Sie können sich also noch einen Nobelpreis verdienen. --Homosapiens 23:20, 16. Okt. 2006 (CEST)
Die Entropie ist weniger ein Maß für die Unordnung eines Systems als für unser Unwissen über das System. Drüben in der englischen Wikipedia wurde ein Münzwurfbeispiel gebracht: Wenn von 100 Münzen 100 auf "Kopf" zeigen, wissen wir von jeder einzelnne Münze, dass sie "Kopf" zeigt. Wenn wir aber nur wissen, dass die Hälfte auf, also 50, Kopf zeigt (=makroskopische Beschreibung), ist unser Wissen über jede einzelne Münze sehr beschränkz, es gibt ganz unglaublich viele Möglichkeiten, wie es zu diesem Resultat gekommen ist (d.h. welche Münzw auf welcher Seite liegt, = mikroskopische Beschreibung). --Pjacobi 23:41, 16. Okt. 2006 (CEST)
Hallo Pjacobi, gibt es für deine Behauptung eine Quelle? Die Shannon-Theorie ist zwar eine statistische Theorie, aber die Beschreibung ist doch unabhängig von einem Beobachter. Oder kannst Du es irgendwie von Boltzmann ableiten. --Homosapiens 09:43, 17. Okt. 2006 (CEST)
Naja, ich halte solche Erkenntnisse für - sagen wir mal - nicht Oma-tauglich. Es geht doch bei der genannten Quelle um die Beschreibung von Makro-Zuständen durch die statistische Beschreibung von Mikrozuständen, im Falle von Gasen also um die Zustände von einzelnen Atomen. Gerade das Gibbssche Experiment ist in dieser Hinsicht ja ein ganz heißes Eisen, da es immerhin Leute gibt, die Atomen sowas wie individuelle Existenz absprechen. Es wird wohl auch keiner die Atome mit einem Nümmerchen versehen, um das Gibbssche Experiment zu machen. Da wir Atome natürlich auch üblicherweise nicht sehen, geht es also um Gedankenexperimente. Ich frage mich, ob eine Übertragung solcher Experimente in die Welt der Münzen, Playmobilfiguren oder Legosteine nicht mehr Verwirrung stiftet als Klarheit. Denn über die Makro-Zustände, also das, was wir tatsächlich beobachten, herrscht doch wohl kein Unwissen, oder? --Homosapiens 00:07, 18. Okt. 2006 (CEST)
Also, ich muß noch mal intervenieren. In der klassischen Thermodynamik ist der Nullpunkt der Entropie reine Festlegungssache. Ich wäre mir auch nicht so sicher, daß Jaynes mit seinen Theorien allgemein anerkannt ist. Aber auch bei ihm geht es, so weit ich das nachvollziehen kann, nicht um unser Wissen über Makro-Zustände, sondern um Mikrozustände. Daß Boltzmann und Co. versucht haben, die Entropie über statistische Aussagen über Mikrozustände zu erfassen, also auch über Wahrscheinlichkeiten, ist bekannt. Makrozustände sind aber die Dinge, die ich messen kann, also die Temperatur oder den Druck. Nur weil ich die genau kenne, ist die Entropie noch lange nicht 0. In der deutschen WP stammt das Münzenbeispiel aus der Entropie (Informationstheorie), wo es meiner Meinung nach auch hingehört. Die direkte Gleichsetzung von Informationsentropie und thermodynamischer Entropie ist heute nicht allgemein anerkannt, auch wenn Jaynes und Landauer sowas versucht haben. --Homosapiens 02:15, 22. Okt. 2006 (CEST)
Nachtrag: Soweit ich das sehen kann, muss man beim Ansatz von Jaynes auch darüber nachdenken, die Entropie nicht nach Boltzmann sondern nach Gibbs zu definieren. Im Artikel geht es aber nicht um die Gibbsche Entropie, sondern um die klassische Definition von Boltzmann. Ich möchte daher vorschlagen, daß der gesamte Bereich der "neueren" Sichtweisen in einen separaten Artikel ausgelagert wird, z.B. unter dem Titel Entropie (Gibbsche Definition). Denn klassisch geht es um Wärmekraftprozesse und deren Berechnung, das ist schon kompliziert genug. Die Ansätze von Landauer und Jaynes leiden nach meinem Kenntnisstand darunter, das sie bisher nicht experimentell bewiesen werden können (man möge mich korrigieren), jedenfalls ist mir kein Experiment bekannt, das das Landauer-Prinzip anhand energetischer Effekte zeigt. Wie es bei Jaynes aussieht, darüber werden die Spezialisten ja sicher auskunft geben können. Jedenfalls nutzt die Betrachtung von Mirkozuständen niemandem, der einen Motor bauen will, er muß nun mal von meßbaren Größen ausgehen.
Das Beispiel zum Zeitpfeil sollte übrigens auch in den Artikel über 'Gibbsche Entropie', weil es für praktische Anwendung ohne Relevanz ist. Die Zeit läuft nun mal so wie sie läuft, mit oder ohne Definition.--Homosapiens 18:44, 22. Okt. 2006 (CEST)
Ohne den Umfang mitzuteilen, ist die Aussage im Artikel "Es ist rein theoretisch möglich, dass beispielsweise Wärme vom kälteren Körper zum wärmeren fließt, aber es ist so unwahrscheinlich, dass es selbst in einer Zeit, die dem Millionenfachen des Alters des Universums entspricht, mit an Sicherheit grenzender Wahrscheinlichkeit nicht passieren wird." sinnlos, da die Wahrscheinlichkeit vom Umfang der statistischen Abweichung abhängt. Dieses Fließen der Wärme vom kälteren Körper zum wärmeren geschieht ständig - aber in so kleinem Umfang, daß es makroskopisch praktisch nicht merkbar ist. Wenn die Aussage lauten würde, das sich eine Cent-Münze spontan um 1K erwärmt, dann ist die Zeit ... --Physikr 06:28, 2. Nov. 2007 (CET)
Hallo, ich halte den Abschnitt so für OK, habe aber folgendes rausgenommen: , dieser Unterschied sollte aber nicht überbewertet werden, da letztendlich alle physikalischen Systeme thermodynamisch beschrieben werden können, sobald die Anzahl an Freiheitsgraden ansteigt und Defizite an mikroskopischer Information vorliegen. Zum einen ist "nicht überbewertet" sehr unpräzise, zweitens ist im klassischen Sinne Information kein physikalischer Begriff. Drittens ist die Aussage durchaus umstritten (Siehe auch "Landauer-Prinzip"). --Homosapiens 12:54, 15. Okt. 2006 (CEST)
Die Literaturliste, die das Aufgreifen des Entropie-Begriffs in anderen Disziplinen abdeckt, hat überhaupt keinen Bezug zum Artikeltext. Ich parke sie erst einmal hier.
Ich würde auch den fehlenden Artikel zum Thema anfangen (en: bietet ja reichlich Stoff für einen ersten ersten Versuch), aber mir fehlt zur Zeit die zündende Idee für den Titel.